0% encontró este documento útil (0 votos)
606 vistas7 páginas

Entropia y Probabilidad

La entropía se refiere al grado de desorden de un sistema y está relacionada con la probabilidad de los estados microscópicos. Cuanto mayor sea el número de estados microscópicos posibles de un sistema, mayor será su entropía. La segunda ley de la termodinámica establece que la entropía de un sistema aislado siempre aumenta con el tiempo hasta alcanzar un máximo valor de equilibrio.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
606 vistas7 páginas

Entropia y Probabilidad

La entropía se refiere al grado de desorden de un sistema y está relacionada con la probabilidad de los estados microscópicos. Cuanto mayor sea el número de estados microscópicos posibles de un sistema, mayor será su entropía. La segunda ley de la termodinámica establece que la entropía de un sistema aislado siempre aumenta con el tiempo hasta alcanzar un máximo valor de equilibrio.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ENTROPÍA Y LA PROBABILIDAD

Objetivo de la investigación
El objetivo de la investigación radico en un proyecto de clases para dar a conocer el
concepto de la entropía y su relación con la probabilidad termodinamica
PROBABILIDAD
Es la posibilidad de que un evento aleatorio ocurra, frecuencia con qué un fenómeno puede
ocurrir considerando un número determinado de oportunidades.
ENTROPIA
“La estabilidad de un sistema depende básicamente de la entropía. La entropía se refiere al
grado de distribución de la energía que existe en un sistema, entre más uniformemente
distribuida se encuentre la energía, mayor será la entropía del sistema”.
Cesarman: 1982
Se dice que la entropía es la cantidad de información contenida en un sistema, mientras más
información tenga un sistema su entropía será mayor.
1. La entropía se refiere al número de estados o cantidad de información que puede
tener un sistema.
2. Entre más estados o información tenga un sistema mayor será su entropía.
3. La entropía se refiere a todos los estados posibles del sistema (cualquier colección
de materia que se quiera estudiar) y no a uno en particular, es decir, se refiere a
todos los estados (calor, espacio, presión, etc…) y no a uno en específico.
La entropía es una magnitud física básica que dio lugar a diversas interpretaciones, al
parecer a veces en conflicto. Han sido, sucesivamente, asimilados a diferentes conceptos,
como el desorden y la información. No obstante, asociar la entropía y el desorden implica
definir el orden como la ausencia de libertad. El desorden o la agitación guardan relación
con la temperatura.
ENTROPÍA Y DESORDEN
“Cuando la energía es degradada, se debe a que los átomos asumen un estado más
desordenado. Y la entropía es un parámetro del desorden”
Ludwig Boltzmann
Coloquialmente, suele considerarse que la entropía es el desorden de un sistema, es decir,
su grado de homogeneidad.
Un ejemplo doméstico seria: imaginarse dos envases de un litro de capacidad que
contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, se toma
pintura blanca, se vierte en el recipiente de pintura negra y se mezcla; luego se toma pintura
negra con la misma cucharita, se vierte en el recipiente de pintura blanca y se mezclan; el
proceso se repite hasta que se obtienen dos litros de pintura gris, que no podrán
reconvertirse en un litro de pintura blanca y otro de pintura negra; la entropía del conjunto
ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son
sensiblemente iguales (sistema homogéneo).
La entropía es el grado de desorden, el equilibrio máximo en el cual ya no puede haber más
cambios físicos ni químicos, ni se pueden desarrollar ningún trabajo, y donde la presión, la
temperatura y la concentración son uniformes en todo el sistema.
Otro ejemplo seria: Al "tirar 2 dados", es más probable de obtener un siete que un dos, ya
que el siete se puede conseguir de seis maneras distintas, mientras que el dos solo se puede
obtener de una sola forma. Así pues, decimos que el siete tiene una mayor entropía que el
dos, y podríamos decir que el siete representa mayor "desorden" o mayor entropía.
ENTROPIA TERMODINAMICA
La entropía (S) es una magnitud termodinámica definida originalmente como criterio para
predecir la evolución de los sistemas termodinámicos, mediante cálculo, permite determinar
la parte de la energía que no puede utilizarse para producir trabajo si el proceso es
reversible.
La entropía es una función de estado de carácter extensivo. El valor de esta magnitud física,
en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. La
entropía describe cómo es de irreversible un sistema termodinámico. La palabra entropía
proviene del griego “entropein” y significa evolución o transformación.
Según la segunda ley de la termodinámica: en cualquier proceso cíclico, la entropía
aumentará, o permanecerá igual, y nos da los siguientes conceptos:
 Es una variable de estado cuyo cambio se define por un proceso reversible en T
(temperatura absoluta a la que se produce la transferencia), y donde Q es el calor
absorbido.
 Es una medida de la cantidad de energía que no está disponible para realizar trabajo.
 Es una medida del desorden de un sistema.
 Es una medida de la multiplicidad de un sistema.

Puesto que la entropía da información sobre la evolución en el tiempo de un sistema


aislado, se dice que nos da la dirección de la "flecha del tiempo"(idea involucrada en el
concepto de entropía, nos dice que en los sistemas aislados la naturaleza tiende del orden al
desorden.). Si las instantáneas de un sistema en dos momentos diferentes, muestran uno que
está más desordenado, entonces se puede deducir que este estado se produjo más tarde en el
tiempo que el otro. En un sistema aislado, el curso natural de los acontecimientos, lleva al
sistema a un mayor desorden (entropía más alta) de su estado.
En los años 1890 – 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las
ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente
influenciada por el concepto de entropía. Una de las teorías termodinámicas estadísticas (la
teoría de Maxwell-Boltzmann) establece la relación entre la entropía y la probabilidad
termodinámica.
ENTROPÍA Y PROBABILIDAD
SEGUNDO PRINCIPIO DE LA TERMODINAMICA
ENTROPÍA
El segundo principio de la termodinámica no se limita exclusivamente a máquinas térmicas
sino que se ocupa, en general, de todos los procesos naturales que suceden de manera
espontánea. Podemos decir que se ocupa de la evolución natural de los sistemas
termodinámicos, es decir, de la dirección en que avanzan. Esta dirección se asocia a la
distribución molecular interna de las moléculas.
Para estudiar la espontaneidad de los procesos, el austriaco Ludwig Edward Boltzmann
introdujo una nueva magnitud denominada entropía.
“La entropía S es una variable de estado. Está asociada a la probabilidad de que un
determinado estado ocurra en un sistema. Aquellos más probables tienen una mayor
entropía”.
DEGRADACIÓN ENERGÉTICA
A partir de las leyes primera y segunda de la termodinámica podemos decir que en toda
transformación natural la energía del universo se conserva y su entropía aumenta. Por tanto:
∆ U universo=0
∆ Suniverso =0
Este aumento de entropía se asocia a un aumento de la energía térmica de los sistemas. La
energía térmica es la forma más degradada de energía, ya que, como hemos señalado, no se
puede aprovechar íntegramente en producir trabajo. A este fenómeno se le ha venido a
denominar crisis entrópica ya que conduce al universo, con el paso de millones de años, a
una muerte térmica: todas las formas de energía se acabarán convirtiendo en calor.
MECÁNICA ESTADÍSTICA
RELACIÓN TERMODINAMICA - ENTROPIA
En termodinámica se denomina entropía de un sistema a la función de estado
−∂ E 0
S=
∂T
Con ello la ecuación de Gibbs-Helmholtz se escribe
U =E0 +T∗S
Si el sistema sufre una transformación infinitesimal en su estado (una variación simultánea
de V y T), será.
∂ E0 ∂ E0
dU = dV + dT + S dT + T dS
∂V ∂T
dU =−P dV +T dS
dU =−dW + T dS
La termodinámica introduce como calor, Q, cualquier tipo de energía que se le comunica al
sistema que no sea en forma de trabajo. Se establece así el primer principio de la
termodinámica:
dU =dQ – dW
(El signo menos obedece al convenio de que es positivo el trabajo que realiza el sistema y
negativo el que se hace sobre el) que es solo la ley de conservación de la energía: todo calor
o trabajo que se dé o se quite del sistema, incrementa o disminuye su energía interna. De
acuerdo con ello resulta
T dS=dQ
dQ
dS=
T
Que es la definición de entropía tal y como la introdujo Clausius en 1854: cociente entre la
cantidad infinitesimal de calor que se le comunica al sistema y la temperatura a la que se
hace
Para un gas ideal la entropía vale:
La expresión U =E 0+T S de la ecuación de Gibbs-Helmholtz permite deducir
U −E 0
S=
T

E−E0 [ E 0−E ]/ kT
¿∫ e dT
EN
T

¿−k ∫ log F (Γ )F ( Γ ) dΓ
N
E

Donde F es la densidad de la distribución de Gibbs (e [E 0−E ]/ kT ).


Por consiguiente, el concepto físico de entropía coincide con la entropía de Shannon de la
densidad de Gibbs, multiplicada por la constante de Boltzman. En vez de decir que mide la
incertidumbre, suele afirmarse que es una medida del desorden del estado en el que se
encuentra el sistema.
ECUACION DE BOLTZMANN
En mecánica estadística, la ecuación de Boltzmann es una ecuación de probabilidad que
relaciona la entropía S de un gas ideal con la cantidad W, el número de microestados reales
correspondientes al macroestado de gas:
S= K B ln W
Donde K B es la constante de Boltzmann e igual a 1.38065×10−23 J/K.
La fórmula de Boltzmann muestra la relación entre la entropía y el número de formas en
que se pueden organizar los átomos o moléculas de un sistema termodinámico.
La fórmula de Boltzmann se aplica a los microestados del universo en su conjunto, y se
presume que cada posible microestado es igualmente probable.
Pero en termodinámica es importante poder hacer la aproximación de dividir el universo en
un sistema de interés, más su entorno; y luego poder identificar la entropía del sistema con
la entropía del sistema en la termodinámica clásica. Los microestados de dicho sistema
termodinámico no son igualmente probables; por ejemplo, los microestados de alta energía
son menos probables que los microestados de baja energía para un sistema termodinámico
mantenido a una temperatura fija al permitir el contacto con un baño de calor. Para los
sistemas termodinámicos donde los microestados del sistema pueden no tener
probabilidades iguales, la generalización apropiada, llamada entropía de Gibbs, es:
S=−K B ∑ pi ln p i
Esta fórmula (entropía de gibbs) se reduce a la ecuación de boltzmann si las probabilidades
de pi son todas iguales.
Lewis boltzmann utilizo la expresion de la entropía de Gibbs en sus trabajos posterior y la
reconoció como más general que la ecuación suya. Es decir, la ecuación de boltzmann es un
corolario de la ecuación de gibbs, y no al revés. En cada situación en la que la ecuación de
boltzmann es válida, la ecuación de gibbs también es válida, y no al revés.
LA ENTROPÍA DE BOLTZMANN EXCLUYE LAS DEPENDENCIAS
ESTADÍSTICAS.
El término entropía de Boltzmann también se usa a veces para indicar entropías calculadas
en función de la aproximación de que la probabilidad global puede ser factorizada en un
término separado idéntico para cada partícula, es decir, suponiendo que cada partícula tiene
una distribución de probabilidad independiente idéntica e ignorando las interacciones y
correlaciones entre las partículas. Esto es exacto para un gas ideal de partículas idénticas, y
puede o no ser una buena aproximación para otros sistemas.
La entropía de Boltzmann se obtiene si se supone que uno puede tratar todas las partículas
componentes de un sistema termodinámico como estadísticamente independientes. La
distribución de probabilidad del sistema en su conjunto luego se factoriza en el producto de
N términos idénticos separados, un término para cada partícula; y la entropía de Gibbs
simplifica a la entropía de Boltzmann
S B=−N K B ∑ pi ln pi
i
Donde la suma se toma sobre cada estado posible en el espacio de fase de 6 dimensiones de
una sola partícula (en lugar del espacio de fase de 6N dimensiones del sistema en su
conjunto).
Esto refleja la función de entropía estadística original introducida por Ludwig Boltzmann
en 1872. Para el caso especial de un gas ideal corresponde exactamente a la entropía
termodinámica adecuada.
Sin embargo, para cualquier cosa que no sea el más diluido de los gases reales, conduce a
predicciones cada vez más erróneas de entropías y comportamientos físicos, al ignorar las
interacciones y correlaciones entre diferentes moléculas. En cambio, uno debe seguir a
Gibbs y considerar el conjunto de estados del sistema como un todo, en lugar de los estados
de una sola partícula.
BIBLIOGRAFIA
https://es.wikipedia.org/wiki/Entropia
https://es.khanacademy.org/science/biology/energy-and-enzymes/the-laws-of-
thermodynamics/v/introduction-to-entropy
https://www.youtube.com/watch?v=GSwMjGJ6KWI
https://es.wikipedia.org/wiki/Entropia#Interpretacion_estadistica_de_la_entropia
Jacob Bronowski. El ascenso del hombre (The Ascent of Man). Bogotá, Fondo Educativo
Interamericano, 1979, p. 347, capítulo 10 "Un mundo dentro del mundo".
http://hyperphysics.phy-astr.gsu.edu/hbasees/Therm/entrop.html
http://catarina.udlap.mx/u_dl_a/tales/documentos/lap/carmona_c_dc/capitulo1.pdf
http://hyperphysics.phy-astr.gsu.edu/hbasees/thermo/seclaw.html
https://ahombrosdegigantescienciaytecnologia.wordpress.com/2016/01/02/la-segunda-ley-
de-la-termodinamica-y-la-entropia-clausius/
http://portal.uned.es/pls/portal/docs/PAGE/UNED_MAIN/LAUNIVERSIDAD/UBICACI
ONES/01/DOCENTE/RICARDO_VELEZ_IBARROLA/CURSOS
%20COMPLEMENTARIOS/F%C3%8DSICA%20ESTAD%C3%8DSTICA.PDF
https://es.wikipedia.org/wiki/F%C3%B3rmula_de_entrop%C3%ADa_de_Boltzmann
https://www.fisicalab.com/apartado/segundo-principio-termo

ENTROPÍA Y LA PROBABILIDAD
Objetivo de la investigación
El objetivo de la investigación radico en un proyecto de clases para
Un  ejemplo  doméstico  seria:  imaginarse  dos  envases  de  un  litro  de  capacidad  que
contienen, respectivamente, pintu

Es una medida de la multiplicidad de un sistema. 
Puesto que la entropía da información sobre la evolución en el tiempo de
“La entropía S es una variable de estado. Está asociada a la probabilidad de que un
determinado  estado  ocurra en un sistema
(El signo menos obedece al convenio de que es positivo el trabajo que realiza el sistema y
negativo el que se hace sobre el)
La fórmula de Boltzmann se aplica a los microestados del universo en su conjunto, y se
presume que cada posible microestado e
Donde la suma se toma sobre cada estado posible en el espacio de fase de 6 dimensiones de
una sola partícula (en lugar del es

También podría gustarte