Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad 7: Entropía
Guía de estudio
aparena@gmail.com
A partir del establecimiento del régimen de cursado con Aprobación Directa, la participación
activa del alumno se convierte en un aspecto central en el proceso de enseñanza aprendizaje,
dejando de lado las clases magistrales. Esto ha sido recientemente reforzado con el nuevo
Diseño curricular de Ingeniería Electromecánica - Plan 2023, donde se impulsa un cambio en la
modalidad de enseñanza, hacia un “modelo por competencias”.
Para ello es importante que el alumno “asista” a clases habiendo leído el material
correspondiente a la unidad abordada, de modo de hacer un eficiente uso del tiempo
disponible, y propiciando una discusión fluida entre los participantes de la clase sobre los temas
que se analizan, buscando construir el conocimiento sobre el tema a partir de los conocimientos
y las experiencias previas.
Por otra parte, dado que el tiempo disponible para el dictado de la materia es breve, no todos
los contenidos del programa se alcanzan a discutir durante las clases. Por ello, se pretende en
las clases profundizar en los aspectos conceptuales de esta asignatura, los que muchas veces
son esquivos si se concentra la atención sobre los procedimentales. Este documento ha sido
preparado con el fin de complementar los temas discutidos en clase, y de orientar el estudio de
la unidad, más teniendo en cuenta la incertidumbre sobre la evolución de la pandemia, y la
posibilidad de acceder a las bibliotecas. Esta guía servirá entonces para ayudar al estudio sobre
los temas más importantes de la unidad, detallando los aspectos procedimentales que pueden
abordarse en forma autónoma. Recordar que el Programa Analítico debe ser siempre la guía de
los temas a estudiar. La guía incorpora algunos otros temas de la unidad, que pueden ser de
interés para los que quieran avanzar más allá de los contenidos del programa.
Este documento de ningún modo reemplaza los libros de texto de Termodinámica, sean los
sugeridos por la cátedra o cualquier otro, que reciben todas las instancias de revisión que un
documento universitario requiere, incluyendo revisión ortográfica, gramatical, de estilo y
compaginación, además de técnica especializada.
Estructura de la unidad
El interrogante sobre qué cantidad de calor cedida a una máquina térmica era aprovechable, era
el foco de atención en este período, y la búsqueda de respuesta condujo al concepto de Entropía.
En aquella época se tenía la noción de que el calor era más útil si se encontraba a alta
temperatura, pero esto no era algo bien establecido, como tampoco lo era el concepto de calor.
Igualdad de Clausius
Se supone un ciclo térmico general, cuyo rendimiento se calcula como hemos visto en la unidad
anterior t=1-(QL/QH). La eficiencia de este ciclo es menor que 1.
Wn QC − QF Q T
t = = = 1− F = 1− F
QC QC QC TC
La máquina funciona recibiendo un flujo de calor Qc a Tc, siendo Tc su temperatura absoluta, y
cediendo un flujo menor de calor Qf a una temperatura también menor Tf. Carnot había
demostrado que los cocientes Q/T eran iguales, para su máquina reversible, y también que lo
eran para cualquier máquina reversible.
TF QF Q Q
= C = F
TC QC TC TF
Considerando signos termodinámicos, resulta para un ciclo reversible:
QC QF
+ =0
TC TF
Si consideramos los n ciclos en los que se dividió el ciclo reversible original:
Q
n
i =1
= 0,
T
Si los ciclos se hacen infinitamente pequeños, hacen falta infinitos ciclos para representar el ciclo
original, y la suma de los ciclos se transforma en una integral:
Q
Si n →:
int rev T
= 0,
Esto es conocido como la igualdad de Clausius, válida para ciclos reversibles. T es la temperatura
a la que se transfiere la cantidad de calor Q, medida en escala absoluta (Kelvin).
Desigualdad de Clausius
Un ciclo real (irreversible), tiene un rendimiento inferior al de una máquina reversible, por lo
tanto, si uno de estos ciclos funcionara recibiendo la misma cantidad Qc a la Tc, produciría
menos W, y cedería más Qf a la Tf.
QC = W + QF QC = W + Q
F
Ideal Real
Esto en símbolos se expresa como:
QF T Q T Q T Q Q
1− C F
1 − F − F − F F F
QC TC QC TC QC TC TC TF
Considerando signos termodinámicos:
QC QF
+ 0
TC TF
En modo análogo a como se procedió en el caso de ciclos reversibles, para n ciclos::
Q
n
i =1
0,
T
Si n →: Q
T
0,
Considerando los signos, como la cantidad que sale (Qf/Tf) es más grande que la que entró
(Qc/Tc), la suma será menor que cero, y cuanto más irreversible, más negativo será. Esto se
conocerá, al analizar un ciclo cualquiera, como la Desigualdad de Clausius
Comparando el resultado del ciclo reversible con el del ciclo irreversible, dado que QF es más
grande en el ciclo irreversible que en el reversible, la cantidad de calor que sale por unidad de
temperatura (Qf/Tf) es mayor que la que entró (Qc/Tc). Y cuando más irreversible, mayor será
la cantidad Qf/Tf, y menor el trabajo producido a paridad de Qc y Tc. El cociente entre Q y T
entonces está cuantificando la irreversibilidad del ciclo.
Definición de entropía
A partir de lo encontrado para ciclo reversible, la integral a lo largo de un proceso reversible que
une dos puntos del ciclo, comparado con otro proceso reversible que une los mismos puntos,
debe dar el mismo resultado:
A Q Q Q
T
= 0=
A T
+
B T
,
Al igual de lo que se hizo con la energía, puede demostrarse que, si la integral de la cantidad en
todo el ciclo es nula, la cantidad responde a la formulación de una diferencial exacta y por lo
tanto es una función de estado. Vamos a analizarlo considerando un camino alternativo C.
La integración debe llevarse a cabo sobre cualquiera de los procesos internamente reversibles
que conectan los dos estados. Para los procesos A-B o A-C de la figura, que son internamente
reversibles. Si se considera otro ciclo con un camino de retorno distinto del B:
Q Q Q
T
= 0=
A T
+
C T
,
Q Q
B T
=
C T
,
Si el resultado de la integral entre dos mismos estados no depende del camino es una propiedad
de estado, y tendrá una diferencial exacta.
Esta propiedad la encontró Clausius en sus trabajos entre 1854 y 1868, y le dio en 1865 el
nombre de entropía, compuesta por el prefijo “en” y la palabra griega “τροπή [tropē]”, que se
traduce como cambio o transformación.
Q Q
T int,rev
= dS
T int,rev
= dS
Como T es siempre >0, el signo del integrando (entropía) es el mismo que el que posee Q (+
hacia el sistema, - desde el sistema).
Volviendo al análisis de la máquina de Carnot, los flujos de Q/T son los que Clausius denominó
Entropía
QC QF
SC = SF =
QC TC TF
TC
En la máquina está entrando un flujo de entropía de alta
temperatura, produce un W, y sale un flujo de entropía de
baja temperatura.
QL T T Q Q Q
1− 1 − L F F C F SC S F
QH TH TC QC TC TF
Es decir que, en la máquina real, aunque ingrese la misma cantidad de entropía que en una
reversible, la entropía que sale es mayor, lo que es un resultado inesperado.
Es decir que, en la máquina real, se conserva la energía, y se CREA entropía. Esto se debe a que
el calor no se transfiere isotérmicamente, los movimientos del embolo no son adiabáticos, hay
siempre rozamiento, etc.
Si interpretamos el funcionamiento energético del planeta Tierra desde este punto de vista, se
observa que el planeta recibe un flujo de calor proveniente del sol. A su vez, también sale energía
del planeta hacia el espacio exterior.
Importante
Estando el planeta Tierra en equilibrio térmico, el flujo de calor entrante debe ser igual al flujo
de calor saliente.
Actividad 1
x δQ
Sx = S1 +
T
1 int,rev
x δQ
Sx = S1 +
T
1
Por lo tanto, el cambio de entropía NO puede obtenerse a través de esa integración si el proceso
es irreversible: ya que la integral de dQ/T no es una propiedad si la trayectoria no es
internamente reversible, y el valor obtenido sería diferente para cada proceso.
Sin embargo, el valor de cambio de entropía entre dos estados obtenido por integración de dQ/T
para un proceso reversible, es válido para cualquier proceso entre esos 2 estados (proceso
reversible o no).
Por lo tanto, cuando se debe calcular la variación de entropía que ocurre en un proceso
irreversible entre dos estados, se puede hacer imaginando un proceso distinto, internamente
reversible entre los mismos estados
Importante
Ejemplo: Cambio de
entropía en un proceso irreversible – Expansión libre de Joule
Actividad 2
v
Importante
Para responder, vamos a considerar el ciclo constituido por A y B. Dado que parte del ciclo es
irreversible, el ciclo también lo es, y se cumple la desigualdad de Clausius:
δQ 2 δ Q 1 δ Q δQ δQ
0, T 2 T int,rev
+ 0 2
2
T 1 + S1 − S2 0 S2 − S1
1 T 1 T
S1 −S2
La integral
2 δQ
1 T
Como T es temperatura absoluta (siempre T>0), su signo es el mismo que el que posee Q (+ hacia
el sistema, - desde el sistema). La transferencia de entropía en sistemas adiabáticos es cero.
Q
dS
T
Esa expresión está indicando que el cambio de entropía en un sistema cerrado durante un
proceso irreversible siempre es mayor que la transferencia de entropía asociada al calor Q/T,
lo que implica que hay una cantidad adicional que se está generando, y que se debe a la
irreversibilidad de los procesos. Cuando esta cantidad no existe, significa que no hay
irreversibilidades, es decir que el proceso es reversible, y la desigualdad se transforma en una
igualdad.
La generación de entropía Sgen es una cantidad siempre positiva, o al límite cero si no hubiera
irreversibilidades.
Su valor depende del proceso, y por lo tanto la generación de entropía NO es una propiedad
del sistema.
Casos particulares
Cambio de entropía en un Proceso isotérmico internamente reversible
Se había encontrado que:
2 δQ
S2 − S1 = + Sgen
1 T
2 Q 1
( Q)
Q
kJ / K
2
S = = int rev S =
1
T0 int rev T0 1 T0
Donde T0 es la temperatura absoluta del sistema. Esta expresión es útil para aplicación a focos
de calor en los que se desea conocer S.
S 0
La entropía siempre aumenta o para caso límite (proceso reversible) se mantiene constante. Por
lo tanto, nunca disminuye.
La variación de entropía entre dos estados se define como la integral del cociente de la
cantidad de calor transferida y la temperatura absoluta de la frontera en un proceso
reversible.
El integrando representa una magnitud que ha sido transferida al o por el sistema, asociado
a la transferencia de calor, y que llamamos la transferencia de entropía.
2 δQ
Transferencia de entropía = 1 T
Es decir que, en un proceso irreversible, la entropía del sistema que recibe un flujo de calor
aumenta más que la entropía que se le transfirió, y por lo tanto resulta que en el sistema se
está generando una cantidad de entropía, que justifica la diferencia entre ambas.
Pero como la variación de entropía es función de estado, S2-S1 es igual tanto para el proceso
reversible como irreversible, y como la entropía generada es positiva, resulta que en el
proceso irreversible se transfirió menos entropía para producir la misma variación de
entropía que en un proceso reversible.
S2 − S1 = ΔS 0
Es necesario contar con una expresión válida para sistemas abiertos, o cerrados no adiabáticos.
entorno
sistema
Interacciones: (Q, W)
Podemos aplicar la expresión a este conjunto. Siendo la entropía una propiedad extensiva, la
entropía total será igual a la suma de las entropías de sus partes (entorno y sistema)
Stotal = Sgen
Resulta que el delta es positivo: cuanto más irreversible el proceso, más crece la entropía.
Este principio no establece que la entropía de un sistema no pueda disminuir: la entropía del
sistema puede disminuir, o la del entorno, pero no ambas, de modo que el cambio total del
sistema más entorno es siempre >0, o igual a 0 si es reversible.
Síntesis
Actividad 3
a) 500 K y b) 750 K.
Siendo una propiedad de estado, la entropía puede ser obtenida a partir de tablas o gráficos,
como se hace con el volumen específico, la energía interna, o la entalpía.
2 Q
S 2 − S1 =
T
1 int,rev
Sirve como base para construir tablas y diagramas, eligiendo un estado de referencia.
xQ
S x = S1 +
T
1 int,rev
s = s f + x(sg − s f ) = s f + x sgf
s(T,p) sf(T).
Para los cálculos se deben establecer estados de referencia. Estados usuales son:
En estos diagramas, en la región de vapor sobrecalentado, las curvas de v=cte tienen más
pendiente que las de p=cte. Las líneas de h se hacen horizontales cuando se reduce la presión,
donde la entalpía está determinada principalmente por la T (modelo gas ideal)
Recordando que:
Q
dS =
T int,rev
Resulta:
2
Qint,rev = TdS
1
Esa expresión corresponde al área bajo la curva que representa el proceso en el diagrama T-S,
por consiguiente, el área bajo la curva del proceso sobre un diagrama T-S representa la
transferencia de calor durante un proceso internamente reversible. El área no tiene significado
en procesos irreversibles.
En un diagrama T-S un ciclo de Carnot se representa por un rectángulo, ya que dos de sus
procesos son isotérmicos y los otros dos son adiabáticos reversibles, es decir isoentrópicos.
Actividad 4
Areas
T
iguales T
3 4
T1
3 4 T2
T1
2 1
T2 2 1
S S
S2 S1 S2 S1
S
iguales
Q
dS = TdS = ( Q )int, rev
T int, rev
Q
dS =
Sustituyendo
resulta: TdS = ( Q )int, rev
T int, rev
Segunda ecuación TdS
Por definición de entalpía:
H = U + pV
Diferenciando
dH = dU + d ( p V ) dH − Vdp = dU + pd V
Luego, sustituyendo:
TdS = dH − Vdp
Importante
Ejemplo de aplicación
Determinar el cambio de entropía de un cambio de fase desde líquido saturado hasta
vapor saturado:
¿Qué propiedades permanecen constantes durante un proceso de cambio de fase?
Solución
A partir de la ecuación encontrada:
TdS = dH − Vdp
Para un proceso de cambio de fase a presión cosntante se reduce a:
dH
dS =
T
Como además T= cte, resulta:
(hg − h f )
sg − s f =
T
Esta expresión es de muy fácil aplicación, ya que no hace falta evaluar la cantidad de
calor intercambiado, sino conocer las propiedades en los dos estados
Entropía de un gas ideal
Actividad 4
Se considera un gas ideal que desarrolla un proceso internamente reversible (no se consideran
cambios en la Ep, ni en la Ek). De la primera ecuación TdS (1), expresada por unidad de masa:
du p
ds = + dv
T T
du = cv dT
RT
pv = RT p =
v
Luego, sustituyendo:
dT dv
ds = cv (T ) +R ;
T v
Segunda ecuación TdS para un gas ideal
Si se considera un gas ideal que desarrolla un proceso internamente reversible (no se consideran
cambios en la Ep, ni en la Ek), de la segunda ecuación TdS, expresada por unidad de masa resulta:
dh v
ds = − dp
T T
Recordando que para un gas ideal vale:
dh = c p dT
v R
pv = RT =
T p
Luego, sustituyendo:
dT dp
ds = c p (T ) −R
T p
Integrando:
T2 dT v
s(T2 , v2 ) − s(T1 , v1 ) = cv (T ) + R ln 2
T1 T v1
T2 dT p
s(T2 , p2 ) − s(T1 , p1 ) = c p (T ) − R ln 2
T1 T p1
Para el primer término deben conocerse como varían cp(T) y cv(T) para poder integrar.
Se ve que la entropía en los gases depende de dos variables: T y p, o T y v. Esto hace más difícil
su tabulación y cálculo.
Veamos algunos casos particulares de fácil resolución, antes de abordar los casos generales:
Actividad 6
Isotérmico?
Adiabático?
Isocórico?
Isobárico?
T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1
T T2 v
2 s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
P T1 v1
2 T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1
Q = 0 n =
12
P
1 s = s – s = 0
1 12 2 1
s =s s s =s
1 2 2 1
Variación de entropía en gas ideal, proceso isocórico
T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1
T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1
Observar la menor pendiente de las isobaras en este gráfico, comparado con la de las isocoras
en el gráfico anterior.
Variación de entropía de gases ideales en casos generales
Como la entropía depende de dos variables la tabulación es complicada: se debería hacer una
tabla por cada valor de presión. Esto es poco práctico, aunque en los libros se encuentra una
tabulación de este tipo en el caso de tablas para el agua en la región del líquido comprimido.
En el caso de los gases, se tabulan suponiendo que la presión es igual a 1 atm, y se simboliza
con
s 0 (T1 ) , como se muestra en las tablas a continuación.
Hay una enorme cantidad de procesos que ocurren a presión atmosférica, por lo que tiene
sentido tabular para esa presión. No hay otra que se repita tanto como esta, ni remotamente.
Sin embargo, habrá gran cantidad de casos que ocurrirán a presiones distintas de la
atmosférica, y en estos casos, habrá que corregir los valores encontrados en las tablas.
Para comprender cómo se debe corregir el valor obtenido de tablas, se aplica la segunda
ecuación TdS:
T2 p
s(T2 , p2 ) − s(T1 , p1 ) = c p ln − R ln 2
T1 p1
Ahora para p2 = p1 = 1 atm el último término desaparece:
T2
s(T2 ,1 atm) − s(T1 ,1 atm) = c p ln
T1
Eso es lo que se tabula:
s(T2 ,1 atm) − s(T1 ,1 atm) = s 0 (T2 ) − s 0 (T1 )
El término entre corchetes considera la dependencia del calor específico con T, y es lo que se
tabula.
s(T2 , p2 ) − s(T1 , p1 ) = s 0 (T2 ) − s 0 (T1 ) − R ln
p2
p1
Significa que los valores de tabla luego deben corregirse para considerar la presión que es
diferente de 1 atm
En el caso de no disponer de los valores tabulados de s0, se evalúan las integrales analítica o
numéricamente, usando valores de cp y cv de tablas.
Por lo tanto, el calor específico ya no hace falta especificar que es a v constante, luego: du=c(T)
dT y se obtiene:
dT p dT
ds = c(T ) + dv = c(T )
T T 0 T
Por integración, la variación de s es:
T2 c(T )
s2 − s1 = dT
T1 T
Si se asume que c(T)=cte:
T2
s2 − s1 = c ln
T1
Al ser dependiente únicamente de la temperatura, el calor específico para sólidos y líquidos se
obtiene de tablas, y se utiliza un valor promedio para el rango de temperaturas. En estas
circunstancias, asumiendo calor específico constante la entropía de estas sustancias resulta
dependiente logarítmicamente de la temperatura, pero independiente de la presión.
El Ciclo de Carnot brinda una referencia con la cual comparar los ciclos reales, estableciendo
límites teóricos que permiten conocer cuánto se aleja del ideal.
Pero no hay una referencia para procesos no cíclicos que funcionan en condiciones estables,
tales como turbinas, compresores y toberas.
Para ello es necesario definir un proceso ideal que sirva como comparación. Como la mayor
parte de los dispositivos de flujo permanente se diseñan para operar adiabáticamente, se
adopta este proceso como referencia, aunque en la práctica se alejen de esta condición.
Como el proceso ideal no tiene irreversibilidades, el proceso adiabático será además reversible,
es decir isentrópico.
Se define un parámetro que permita cuantificar cuanto se parece un proceso real a uno ideal
(isentrópico): la eficiencia isentrópica.
En una turbina en régimen permanente el estado de entrada y la presión de escape del fluido
son fijos, por lo que el proceso de referencia es uno isoentrópico que funciona entre ese estado
de entrada y la presión de escape.
Trabajo real w
T = = a
Trabajo isoentropico ws
La manera clásica, macroscópica de definir la entropía por parte de Clausius, a partir de una
elegante formulación matemática, es bastante abstracto y acarrea el problema de no aportar a
la comprensión de la entropía desde el punto de vista físico, y llevó mucho tiempo
comprenderlo. La expresión clásica, en términos de δQ/T permite realizar cálculos relevantes, y
se lo interpreta como una cantidad relacionada con la cantidad de energía que un sistema
termodinámico no puede aprovechar para realizar trabajo útil.
A partir de esta definición, la segunda ley “La entropía siempre aumenta” resulta casi obvia: el
desorden siempre aumenta.
Desde el punto de vista de la mecánica estadística, la entropía está asociada a las posibles
configuraciones moleculares para un cierto estado macroscópico de equilibrio (es decir, que
tengan la misma energía), llamada probabilidad termodinámica.
La fórmula propuesta por Boltzmann es tan famosa que fue incluida en su tumba, en la
Universidad de Viena
Esta expresión de la entropía está relacionada con la desorganización de la energía.
En un gas las moléculas poseen mucha energía
cinética, pero no logran mover una hélice para
producir trabajo, pues su choque con la paleta es
aleatorio, probablemente una cantidad produciría
una rotación en un sentido, y otra cantidad en el
sentido contrario.
Q W
Por ejemplo, si se tienen dos recipientes, uno lleno de un gas coloreado, y otro vacío, podríamos
pensar que se encuentra “ordenado”.
Si este experimento se repitiera, esta vez usando sólo unas pocas moléculas, supongamos 5,
estas en su movimiento aleatorio chocarían entre sí y estarían siempre pasando de un recipiente
al otro, y eventualmente podría ocurrir que en un momento quedaran todas de un lado, y
ninguna del otro. Es una posibilidad. Mientras menos moléculas, más probable. Si fuera una sola,
habría un 100 % de probabilidades de que un recipiente tenga gas, y el otro vacío. Si en cambio
existe un número elevado elevado de moléculas, como las de aire que hay en una habitación
separada de otra por una puerta, es tan improbable que todas las moléculas se encuentren en
una habitación que nunca se observará.
La situación normal, con muchas moléculas, muestra claramente una situación inicial y una final:
sin que nos lo cuenten, sabremos cuál fue la que ocurrió primero. Aparece así una “flecha del
tiempo”.
La ley de la entropía introduce lo que Arthur Eddington llamó “la flecha del tiempo” (1928):
“Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más
elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro;
si, por el contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado”.
La aparición del Segundo Principio de la Termodinámica puso en crisis en modo radical la imagen
reductiva que la ciencia tenía hasta ese momento. Todos los procesos newtonianos describían
la realidad a través de procesos simétricos en relación al tiempo: pasado y futuro juegan el
mismo papel. No existía algún fenómeno que no admitiera su inverso, y cualquier estado de un
sistema podía muy bien ser su estado inicial o su estado al final de una larga evolución. Sin
embargo, la experiencia cotidiana nos mostraba diferencias claras entre pasado y futuro: el agua
que se había caído nunca volvía a levantarse, sin la acción de una fuerza externa.
Esta noción de evolución, que en la mecánica no aparece, entra con fuerza con el concepto de
entropía, asociando el concepto de tiempo y de irreversibilidad.
La idea base del concepto de entropía es la siguiente: ciertos procesos se producen en una sola
dirección, o bien no pueden repetirse, si no se “paga un cierto costo”.
Una cantidad de carbón, por ejemplo, no puede ser quemado más que una sola vez. Cuando se
terminó de quemar, vamos a ver que la ley de conservación de la masa y de la energía se han
cumplido estrictamente: el calor, el humo y las cenizas poseen la misma cantidad de energía que
había inicialmente. Sin embargo, la energía que encontramos en esos productos de la
combustión no puede ser aprovechada, ya que se habrá diluido, al final habrá calentado más
moléculas a un nivel de temperatura bajo. La energía total estará desordenada, desparramada,
no produce efecto útil.
Con respecto a la trasferencia de entropía por calor, desde el punto de vista de Boltzmann
resulta que cuando un sistema recibe un flujo de calor, las velocidades de las partículas
aumentan, lo que dispersa la distribución y hace aumentar así la entropía. Así, el flujo de calor
produce un flujo de entropía en la misma dirección.
Como consecuencia, resulta que el universo (como sistema aislado) es cada vez más caótico.
Entropía e información
A partir de Boltzmann, la entropía se concibe como una «medida del desorden», o una medida
de la incertidumbre. Y el segundo principio expresa que la entropía aumenta, es decir, a
incertidumbre aumenta. Resulta que el concepto de información y el de entropía están
intuitivamente relacionados entre sí, pero fue mucho tiempo de desarrollo de la mecánica
estadística y de la teoría de la información antes de que esto fuera establecido con mayor
precisión.
Si tenemos un objeto, digamos un abrigo, y tenemos 10 posibles lugares donde puede estar, es
decir varios estados posibles (por ejemplo en el 1er cajón, en el 2do cajón, en el 3er cajón y así
hasta el decimo), podemos decir que hay mucha entropía, mucho desorden. Nos hace falta
información para encontrarlo. Esta información requerirá, por ejemplo, abrir un cajón, y si
tuvimos suerte lo encontramos, pero si no habrá que abrir un segundo cajón hasta finalmente
obtenerlo. En cambio, si hay solo un lugar posible (por ejemplo, los abrigos se guardan en el
tercer cajón), hay un solo estado posible, entropía mínima, incertidumbre mínima, me hace falta
una mínima cantidad de información, o más precisamente, no me hace falta ninguna prueba, ya
sabemos dónde se encuentra aún sin abrir el cajón).
Claude Shannon es conocido por ser el padre de la teoría de la información. En una publicación
(Shannon 1948) él definió una forma de medir la cantidad de información que contiene una
variable aleatoria, que es lo que se conoce como Entropía de Shannon:
Vamos a usar el ejemplo de tirar un dato para explicarlo. En un dado los estados posibles son
{1,2,3,4,5,6} y la probabilidad de todos es la misma. La distribución de probabilidad se simboliza
como como p(xi), significando la probabilidad del estado i-ésimo. Como es lógico, se debe
cumplir que la suma de todas debe dar uno.
Si repetimos este proceso para muchas tiradas de dados, de media necesitaremos log2(6)= 2.58
preguntas. Esto coincide con la entropía de Shannon que para este caso es:
1
𝐻(𝑥) = ∑ . 𝑙𝑜𝑔2 (6) = 2.58
6
𝑖=6
Las probabilidades de estos eventos serán iguales, pero no siempre es así, pero resulta siempre
que la probabilidad de A más la probabilidad de B es 1
Una vez hecho esto, volvemos a preguntar algo como, por ejemplo, ¿“es mayor que 2?” En
función de la respuesta actualizamos otra vez la distribución. Hacemos esto hasta que una de
las respuestas nos diga exactamente el número del dado que salió. Ahora, con la última
actualización se ha llegado a la distribución donde las probabilidades de todos los datos son
cero, menos el del dado que efectivamente salió, que es 1.
La entropía de Shannon no tiene nada que ver con un sistema físico, pero muchos físicos han
pensado que alguna relación existe.
En 1961, Rolf Landauer postuló que el simple acto de borrar información de un sistema físico
debía disipar una mínima cantidad de energía al entorno.
Supongamos un bit que puede hallarse en el estado 0 o 1 con igual probabilidad. La teoría de la
información nos dice que la entropía de ese sistema será el logaritmo del número de estados
posibles, que es 2:
Si por algún medio borramos información, de modo que el bit ahora sólo puede estar en el
estado 1 independientemente de su estado inicial, la entropía del sistema será:
H = ln 1 = 0
Si aceptamos que H representa la Entropía, resultaría que la entropía del sistema ha disminuido,
por haber borrado información. Para no violar el segundo principio, esto sería debido a que se
ha transferido una cantidad de calor al medio, que sería:
Q = kT ln 2
Este postulado de Landauer, fue comprobado hace muy poco en forma experimental. Científicos
franceses y alemanes realizaron un experimento publicado en la revista Nature que logró medir
por primera vez el calor disipado en el proceso de borrado de la información contenida en un
único bit. Los resultados confirman la profunda relación que existe entre termodinámica e
información.
Si tomamos unas acuarelas y mezclamos todos los colores, obtendremos una cantidad de
acuarela igual a la inicial, la suma de todas las acuarelas de colores. Encontraremos todos los
pigmentos que ellas tenían. Pero no se podrá pintar un cuadro con ellas: solamente uno de un
solo color, un color grisáceo uniforme. Para poder componer un cuadro es necesario tener
colores distintos, es decir moléculas agrupadas y ordenadas.
Un ejemplo que muchos pueden ver en casa.
Esto determina el alto valor de empresas tecnológicas que desarrollan y gestionan la búsqueda
de información. Google, uno de los buscadores más utilizados, se ubica entre las 10 empresas
más valiosas a nivel mundial desde hace varios años
Actividad 2
Solución
2 Q
S 2 − S1 =
T
1 int,rev
∆𝑈 = 𝑄 − 𝑊
En este experimento, siendo el recipiente adiabático, y
1 no habiendo modo de producir trabajo, resulta:
p
1 ∆𝑈 = 0
Por tratarse de un gas ideal, si no hay variación de
energía interna, no hay variación de temperatura.
p 2 Entonces vamos a suponer un proceso isotérmico
2 reversible que pase por los mismos estados inicial y final
para calcular la variación de entropía.
V V En realidad, en un proceso irreversible no es posible
1 2
determinar en cada instante cuál es el estado por el que
ocurre el proceso, pero dado que la entropía es una función de estado, para conocer el cambio
de entropía entre el estado inicial y final nos basta saber que estos se encuentran sobre la
isoterma. Luego aplicamos la expresión de la variación de entropía en gas ideal, para un proceso
isotérmico:
T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
a) 500 K y b) 750 K.
Respuesta:
Q
S fuente =
T
Sumidero a 500 K
S fuente = −2,5 kJ / K
S sumidero = 4 kJ / K
Stotal = 1,5 kJ / K
B) Sumidero a 750 K
S fuente = −2,5 kJ / K
S sumidero = 2,7 kJ / K
.
S total = 0,2 kJ / K
Las irreversibilidades podrían ser eliminadas con una máquina térmica de Carnot que opere
entre la fuente y el sumidero.
Stotal = 0
Actividad 4
Areas
T
iguales T
3 4
T1
3 4 T2
T1
2 1
T2 2 1
S S
S2 S1 S2 S1
S
iguales
El área bajo la curva de un proceso representa la cantidad de calor transferido. Es decir que el
área bajo la curva 1-2 representa la cantidad de calor transferida a la fuente fría en forma
isotérmica, y el área bajo el proceso 3-4 la cantidad de calor recibida desde la fuente caliente.
El área encerrada representa la cantidad de calor neta recibida, que al ser un ciclo coincide con
lal cantidad de trabajo neta producida. Por lo tanto, la relación entre el área encerrada y el
área bajo la curva de adición de calor en un diagrama T-s representa la eficiencia térmica del
ciclo. Toda modificación que aumente la relación entre estas áreas mejorará la eficiencia. En
este caso, la figura de la izquierda representa el ciclo más eficiente, ya que produce la misma
cantidad de trabajo, pero habiendo recibido menos cantidad de calor.
Bibliografía consultada
Wylen, Gordon J. Van; Sonntag, RE. (2002) Fundamentals of Thermodynamics. ISBN 10:
0471428833
Goldstein, M., Goldstein, I.F., 1993. The Refrigerator and the Universe: Understanding the
Laws of Energy. Harvard University Press, Cambridge, MA, 433 pp.
Jorge Luis Hau (2005) Toward Environmentally Conscious Process Systems Engineering Via
Joint Thermodynamic Accounting of Industrial and Ecological Systems. Dissertation Presented
in Partial Fulfillment of the Requirements for the Degree of Doctor of Philosophy in the
Graduate School of the Ohio State University.
JONES, J. B.; DUGAN, R.E.: Ingeniería Termodinámica. Ed. Prentice Hall.: México, 1997.
A.S. Eddington (1928). The Nature of the Physical World, Kessinger’s Legacy Reprints 2010
Ord-Hume, A.W.J.G., Perpetual Motion, The History of an Obsession. London: George Allen &
Unwin, LTD, 1977, Chapter 7, 8.
Landauer, R. Irreversibility and heat generation in the computing process. IBM J. Res. Develop.
5, 183–191 (1961)
Bérut, A., Arakelyan, A., Petrosyan, A. et al. (2012) Experimental verification of Landauer’s
principle linking information and thermodynamics. Nature 483, 187–189 (2012).
https://doi.org/10.1038/nature10872
Links
• Termodinámica http://soko.com.ar/Fisica/Termodinamica.htm
• Termodinâmica http://www1.uprh.edu/inieves/macrotema/termodinamica.htm