Está en la página 1de 39

Termodinámica Técnica

Unidad 7: Entropía
Guía de estudio

Alejandro Pablo Arena

aparena@gmail.com

Mendoza, Abril 2023


Nota importante............................................................................................................................ 3
Estructura de la unidad ................................................................................................................. 3
Introducción .................................................................................................................................. 5
Igualdad de Clausius ...................................................................................................................... 5
Desigualdad de Clausius ................................................................................................................ 6
Definición de entropía................................................................................................................... 7
Cambio de entropía en un proceso ......................................................................................... 10
Ejemplo: Cambio de entropía en un proceso irreversible – Expansión libre de Joule ........ 11
Principio de incremento de Entropía – Entropía generada......................................................... 11
Casos particulares ............................................................................................................... 13
Análisis para sistemas no aislados....................................................................................... 14
Definición del Segundo Principio utilizando el concepto de Entropía ................................ 15
Segundo Principio y Entropía - Síntesis ............................................................................... 15
Analogías y diferencias con el primer Principio para sistemas cerrados ............................ 16
Cálculo de entropía ................................................................................................................. 17
Entropía de la sustancias puras ........................................................................................... 17
Entropía de líquidos comprimidos ...................................................................................... 17
Diagrama entrópico T-S ....................................................................................................... 17
Diagramas h-s o de Mollier ................................................................................................. 19
Ecuaciones TdS sustancia simple compresible........................................................................ 19
Primera ecuación TdS .......................................................................................................... 19
Segunda ecuación TdS ......................................................................................................... 20
Entropía de un gas ideal ...................................................................................................... 21
Segunda ecuación TdS para un gas ideal ............................................................................ 21
Variación de entropía de gases ideales en casos generales................................................ 24
Ecuaciones TdS para sustancia incompresible .................................................................... 25
Rendimiento isoentrópico de equipos en régimen permanente ............................................ 25
Entropía según Boltzman ........................................................................................................ 26
Entropía e información............................................................................................................ 29
Uso cotidiano del concepto de entropía ............................................................................. 31
Respuestas a algunas actividades ........................................................................................... 35
Bibliografía consultada ................................................................................................................ 38
Nota importante

A partir del establecimiento del régimen de cursado con Aprobación Directa, la participación
activa del alumno se convierte en un aspecto central en el proceso de enseñanza aprendizaje,
dejando de lado las clases magistrales. Esto ha sido recientemente reforzado con el nuevo
Diseño curricular de Ingeniería Electromecánica - Plan 2023, donde se impulsa un cambio en la
modalidad de enseñanza, hacia un “modelo por competencias”.

Para ello es importante que el alumno “asista” a clases habiendo leído el material
correspondiente a la unidad abordada, de modo de hacer un eficiente uso del tiempo
disponible, y propiciando una discusión fluida entre los participantes de la clase sobre los temas
que se analizan, buscando construir el conocimiento sobre el tema a partir de los conocimientos
y las experiencias previas.

Por otra parte, dado que el tiempo disponible para el dictado de la materia es breve, no todos
los contenidos del programa se alcanzan a discutir durante las clases. Por ello, se pretende en
las clases profundizar en los aspectos conceptuales de esta asignatura, los que muchas veces
son esquivos si se concentra la atención sobre los procedimentales. Este documento ha sido
preparado con el fin de complementar los temas discutidos en clase, y de orientar el estudio de
la unidad, más teniendo en cuenta la incertidumbre sobre la evolución de la pandemia, y la
posibilidad de acceder a las bibliotecas. Esta guía servirá entonces para ayudar al estudio sobre
los temas más importantes de la unidad, detallando los aspectos procedimentales que pueden
abordarse en forma autónoma. Recordar que el Programa Analítico debe ser siempre la guía de
los temas a estudiar. La guía incorpora algunos otros temas de la unidad, que pueden ser de
interés para los que quieran avanzar más allá de los contenidos del programa.

La guía ha sido preparada en base a numerosos libros de texto, y a documentos disponibles en


la web, seleccionados para permitir una mejor comprensión de los temas abordados. Se
presentan algunas actividades para desarrollar, cuya solución se encuentra al final del texto.

Este documento de ningún modo reemplaza los libros de texto de Termodinámica, sean los
sugeridos por la cátedra o cualquier otro, que reciben todas las instancias de revisión que un
documento universitario requiere, incluyendo revisión ortográfica, gramatical, de estilo y
compaginación, además de técnica especializada.

Estructura de la unidad

Teorema de CLAUSIUS. Formulación matemática del Segundo Principio.

Entropía. Propiedades. Entropía para procesos ideales y reales. Entropía e irreversibilidad. El


segundo principio como Principio de Aumento de la Entropía. Balance de entropía en sistemas
cerrados y abiertos. La entropía como probabilidad de estados termodinámicos. Cálculo de la
Entropía para gases ideales. Móvil perpetuo de segunda especie
Diagramas entrópicos para gases ideales y vapores. Aplicaciones.
Introducción
En la época de Clausius (1822-1888), aún estaba vigente la teoría del calórico, pero fue
dejándose paulatinamente de lado. Ya Carnot había escrito su famoso libro, aunque sus
conceptos fueron poco comprendidos, inclusive despreciados por la comunidad científica
(algunos físicos prominentes) de la época. Pero fueron más tarde conocidos en Alemania por
Rudolf Clausius, que fue quien los difundió y William Thomson (lord Kelvin) quien hizo lo propio
en el Reino Unido. Ambos trabajaron sobre sus resultados para formular de una manera
matemática, las bases de la termodinámica.

El interrogante sobre qué cantidad de calor cedida a una máquina térmica era aprovechable, era
el foco de atención en este período, y la búsqueda de respuesta condujo al concepto de Entropía.
En aquella época se tenía la noción de que el calor era más útil si se encontraba a alta
temperatura, pero esto no era algo bien establecido, como tampoco lo era el concepto de calor.

Igualdad de Clausius
Se supone un ciclo térmico general, cuyo rendimiento se calcula como hemos visto en la unidad
anterior t=1-(QL/QH). La eficiencia de este ciclo es menor que 1.

Se descompone el ciclo en ciclos elementales y


reversibles de Carnot, trazando adiabáticas e
isotermas de modo que el área sea
aproximadamente la misma.

Se hace el análisis para uno de los ciclos elementales de Carnot.

En la máquina de Carnot, la eficiencia se puede calcular como:

Wn QC − QF Q T
t = = = 1− F = 1− F
QC QC QC TC
La máquina funciona recibiendo un flujo de calor Qc a Tc, siendo Tc su temperatura absoluta, y
cediendo un flujo menor de calor Qf a una temperatura también menor Tf. Carnot había
demostrado que los cocientes Q/T eran iguales, para su máquina reversible, y también que lo
eran para cualquier máquina reversible.

TF QF Q Q
=  C = F
TC QC TC TF
Considerando signos termodinámicos, resulta para un ciclo reversible:

QC QF
+ =0
TC TF
Si consideramos los n ciclos en los que se dividió el ciclo reversible original:

Q

n
i =1
= 0,
T

Si los ciclos se hacen infinitamente pequeños, hacen falta infinitos ciclos para representar el ciclo
original, y la suma de los ciclos se transforma en una integral:

Q
Si n →:
int rev T
= 0,

Esto es conocido como la igualdad de Clausius, válida para ciclos reversibles. T es la temperatura
a la que se transfiere la cantidad de calor Q, medida en escala absoluta (Kelvin).

Desigualdad de Clausius
Un ciclo real (irreversible), tiene un rendimiento inferior al de una máquina reversible, por lo
tanto, si uno de estos ciclos funcionara recibiendo la misma cantidad Qc a la Tc, produciría
menos W, y cedería más Qf a la Tf.

QC = W + QF QC = W + Q
F

Ideal Real
Esto en símbolos se expresa como:

QF T Q T Q T Q Q
1−  C F
1 − F  − F  − F  F  F 
QC TC QC TC QC TC TC TF
Considerando signos termodinámicos:
QC QF
+ 0
TC TF
En modo análogo a como se procedió en el caso de ciclos reversibles, para n ciclos::

Q

n
i =1
 0,
T

Y si los ciclos se hacen infinitamente pequeños:

Si n →: Q
 T
 0,

Considerando los signos, como la cantidad que sale (Qf/Tf) es más grande que la que entró
(Qc/Tc), la suma será menor que cero, y cuanto más irreversible, más negativo será. Esto se
conocerá, al analizar un ciclo cualquiera, como la Desigualdad de Clausius

Comparando el resultado del ciclo reversible con el del ciclo irreversible, dado que QF es más
grande en el ciclo irreversible que en el reversible, la cantidad de calor que sale por unidad de
temperatura (Qf/Tf) es mayor que la que entró (Qc/Tc). Y cuando más irreversible, mayor será
la cantidad Qf/Tf, y menor el trabajo producido a paridad de Qc y Tc. El cociente entre Q y T
entonces está cuantificando la irreversibilidad del ciclo.

La igualdad de Clausius es aplicable para ciclos reversibles y la desigualdad para ciclos


irreversibles.

Definición de entropía
A partir de lo encontrado para ciclo reversible, la integral a lo largo de un proceso reversible que
une dos puntos del ciclo, comparado con otro proceso reversible que une los mismos puntos,
debe dar el mismo resultado:

A Q Q Q
 T
= 0= 
A T
+
B T
,

Al igual de lo que se hizo con la energía, puede demostrarse que, si la integral de la cantidad en
todo el ciclo es nula, la cantidad responde a la formulación de una diferencial exacta y por lo
tanto es una función de estado. Vamos a analizarlo considerando un camino alternativo C.

La integración debe llevarse a cabo sobre cualquiera de los procesos internamente reversibles
que conectan los dos estados. Para los procesos A-B o A-C de la figura, que son internamente
reversibles. Si se considera otro ciclo con un camino de retorno distinto del B:
Q Q Q
 T
= 0= 
A T
+
C T
,

Restando miembro a miembro las 2 anteriores resulta:

Q Q
B T
=
C T
,

Si el resultado de la integral entre dos mismos estados no depende del camino es una propiedad
de estado, y tendrá una diferencial exacta.

Esta propiedad la encontró Clausius en sus trabajos entre 1854 y 1868, y le dio en 1865 el
nombre de entropía, compuesta por el prefijo “en” y la palabra griega “τροπή [tropē]”, que se
traduce como cambio o transformación.

 Q   Q 
  
T int,rev
=  dS   
 T int,rev
= dS

Como T es siempre >0, el signo del integrando (entropía) es el mismo que el que posee Q (+
hacia el sistema, - desde el sistema).

Volviendo al análisis de la máquina de Carnot, los flujos de Q/T son los que Clausius denominó
Entropía
QC QF
SC = SF =
QC TC TF
TC
En la máquina está entrando un flujo de entropía de alta
temperatura, produce un W, y sale un flujo de entropía de
baja temperatura.

QF En la máquina reversible de Carnot esos flujos de entropía son


TF iguales entre sí. En ella se conserva tanto la energía como la
entropía

De este modo, ya definida la Entropía, lo que Clausius


encontró es que si sumaba los pequeños flujos de entropía
que el sistema ganaba al recibir calor eran iguales a los que
perdía cuando se enfriaba, y por lo tanto la suma en el ciclo
de Carnot completo era cero.

Volviendo al análisis de la máquina irreversible:

QL T T Q Q Q
1− 1 − L  F  F  C  F  SC  S F
QH TH TC QC TC TF
Es decir que, en la máquina real, aunque ingrese la misma cantidad de entropía que en una
reversible, la entropía que sale es mayor, lo que es un resultado inesperado.

Es como si la máquina funcionara recibiendo un flujo de entropía de alta temperatura, produjera


un W, y cediendo un flujo de entropia MAYOR, pero de baja temperatura.

Es decir que, en la máquina real, se conserva la energía, y se CREA entropía. Esto se debe a que
el calor no se transfiere isotérmicamente, los movimientos del embolo no son adiabáticos, hay
siempre rozamiento, etc.

Si interpretamos el funcionamiento energético del planeta Tierra desde este punto de vista, se
observa que el planeta recibe un flujo de calor proveniente del sol. A su vez, también sale energía
del planeta hacia el espacio exterior.
Importante

¿Cómo es el flujo de calor


entrante a la Tierra comparado
con al flujo de calor saliente en
cada momento?

Estando el planeta Tierra en equilibrio térmico, el flujo de calor entrante debe ser igual al flujo
de calor saliente.

Pero el flujo de entropía entrante es menor que el flujo de entropía saliente.

El sol alimenta el planeta con energía de baja entropía

Actividad 1

Una máquina térmica que opera en ciclo de Carnot funciona


recibiendo una cantidad de calor de 1050 kJ desde una
fuente a 1827°C, y rechaza 150 kJ de calor a un reservorio
térmico a 27 °C. Determine la producción de trabajo y la
eficiencia de la máquina térmica.

Calcule los flujos de entropía entrante y saliente de la


máquina.

Cambio de entropía en un proceso


El cambio de entropía en un proceso podría determinarse a partir de la definición de entropía,
que hace referencia a procesos int. reversibles

 x δQ 
 Sx = S1 +   
 T 
1 int,rev

La siguiente integral NO corresponde a la definición de entropía

 x δQ 
 Sx = S1 +   
 T 
1 
Por lo tanto, el cambio de entropía NO puede obtenerse a través de esa integración si el proceso
es irreversible: ya que la integral de dQ/T no es una propiedad si la trayectoria no es
internamente reversible, y el valor obtenido sería diferente para cada proceso.

Sin embargo, el valor de cambio de entropía entre dos estados obtenido por integración de dQ/T
para un proceso reversible, es válido para cualquier proceso entre esos 2 estados (proceso
reversible o no).

Por lo tanto, cuando se debe calcular la variación de entropía que ocurre en un proceso
irreversible entre dos estados, se puede hacer imaginando un proceso distinto, internamente
reversible entre los mismos estados

Importante

A pesar de haberse obtenido para un proceso reversible,


un cambio de entropía obtenido por integración de
estas ecuaciones puede aplicarse a cualquier proceso
entre 2 estados (proceso reversible o no).

Siendo la entropía una propiedad, el cambio entre dos


estados no depende de los estados intermedios sino
únicamente de los estados inicial y final.

Ejemplo: Cambio de
entropía en un proceso irreversible – Expansión libre de Joule

Actividad 2

Durante la expansión libre de Joule, un gas ideal se


encuentra encerrado en un recipiente adiabático
dividido en dos compartimentos. El gas ocupa uno
de los compartimientos, y en el otro hay vacío.
Cuando se elimina la separación entre ambos
compartimientos, el gas ideal se expande
irreversiblemente hasta ocupar todo el volumen
disponible. ¿Cuál es el cambio de entropía del gas?

Principio de incremento de Entropía – Entropía generada


Se considere un ciclo formado por 2 procesos, uno internamente reversible (A) y el otro no (B)
P
A
Si se calcula el valor de la integral correspondiente
al cociente entre el calor transferido y la
temperatura a la que se realiza la transformación
irreversible:
2 δQ
B 1 T

v
Importante

El valor obtenido por el proceso


reversible A será en valor absoluto
inferior, igual o superior al cambio
de entropía del sistema por el
proceso irreversible B?

Para responder, vamos a considerar el ciclo constituido por A y B. Dado que parte del ciclo es
irreversible, el ciclo también lo es, y se cumple la desigualdad de Clausius:

δQ 2 δ Q 1 δ Q  δQ δQ
  0,  T 2  T int,rev
+  0 2
 
2
T 1 + S1 − S2  0 S2 − S1  
 1 T 1 T
S1 −S2

Esto significa que si se calcula el valor de la integral Q/T correspondiente al calor y la


temperatura de la transformación irreversible, el valor obtenido será inferior al cambio de
entropía del sistema (representado por S2-S1). Sólo en procesos internamente reversibles se
transforma en una igualdad.

La integral
2 δQ

1 T

representa la transferencia de entropía asociada a la transferencia de calor. En procesos


reversibles, esta integral es igual al cambio de entropía del sistema cerrado, S2 – S1.

Como T es temperatura absoluta (siempre T>0), su signo es el mismo que el que posee Q (+ hacia
el sistema, - desde el sistema). La transferencia de entropía en sistemas adiabáticos es cero.

En forma diferencial resulta:

Q
dS 
T

Esa expresión está indicando que el cambio de entropía en un sistema cerrado durante un
proceso irreversible siempre es mayor que la transferencia de entropía asociada al calor Q/T,
lo que implica que hay una cantidad adicional que se está generando, y que se debe a la
irreversibilidad de los procesos. Cuando esta cantidad no existe, significa que no hay
irreversibilidades, es decir que el proceso es reversible, y la desigualdad se transforma en una
igualdad.

Por lo tanto, para un proceso irreversible vale:


2 δQ
S2 − S1 =  + Sgen
1 T

La generación de entropía Sgen es una cantidad siempre positiva, o al límite cero si no hubiera
irreversibilidades.

Su valor depende del proceso, y por lo tanto la generación de entropía NO es una propiedad
del sistema.

En ausencia de transferencia de entropía (asociada al calor transferido) el cambio de entropía


(S2-S1) se debe sólo a la generación de entropía, por las irreversibilidades en los procesos.
2 δQ
S2 − S1 =  + Sgen = Sgen
1 T

Casos particulares
Cambio de entropía en un Proceso isotérmico internamente reversible
Se había encontrado que:
2 δQ
S2 − S1 =  + Sgen
1 T

Para un proceso isotérmico internamente reversible a T0:

2 Q  1
 ( Q)
Q
kJ / K 
2
S =    = int rev  S =
1
 T0 int rev T0 1 T0

Donde T0 es la temperatura absoluta del sistema. Esta expresión es útil para aplicación a focos
de calor en los que se desea conocer S.

Cambio de entropía en un sistema aislado


En un sistema aislado, y por ende adiabático, se cumple:

S  0
La entropía siempre aumenta o para caso límite (proceso reversible) se mantiene constante. Por
lo tanto, nunca disminuye.

La entropía, como definida por Clausius, representa la medida de la energía térmica de un


sistema, por unidad de temperatura absoluta, que no está disponible para producir trabajo útil.
Es decir, se la puede interpretar como una cantidad termodinámica que representa la
indisponibilidad de la energía térmica de un sistema para su conversión en trabajo mecánico.
Para repasar y pensar

La variación de entropía entre dos estados se define como la integral del cociente de la
cantidad de calor transferida y la temperatura absoluta de la frontera en un proceso
reversible.

El integrando representa una magnitud que ha sido transferida al o por el sistema, asociado
a la transferencia de calor, y que llamamos la transferencia de entropía.
2 δQ
Transferencia de entropía = 1 T

En un proceso reversible, la variación de entropía es igual a la transferencia de entropía


2 δQ
S 2 − S1 =  1 T
Reversible

En un proceso irreversible, la variación de entropía será:


2 δQ
S2 − S1 =  + Sgen
1 T Irreversible

Es decir, en un proceso irreversible esa integral que representa la transferencia de entropía


es menor que la variación de entropía, ya que la entropía generada es positiva.

Es decir que, en un proceso irreversible, la entropía del sistema que recibe un flujo de calor
aumenta más que la entropía que se le transfirió, y por lo tanto resulta que en el sistema se
está generando una cantidad de entropía, que justifica la diferencia entre ambas.

Pero como la variación de entropía es función de estado, S2-S1 es igual tanto para el proceso
reversible como irreversible, y como la entropía generada es positiva, resulta que en el
proceso irreversible se transfirió menos entropía para producir la misma variación de
entropía que en un proceso reversible.

Dicho de otro modo, en un proceso irreversible la misma transferencia de entropía produce


más variación de entropía que en un proceso reversible, debido a que en el primero se
genera entropía, y en el segundo no.

Análisis para sistemas no aislados


La expresión deducida hasta ahora:

S2 − S1 = ΔS  0

es válida para sistemas aislados.

Es necesario contar con una expresión válida para sistemas abiertos, o cerrados no adiabáticos.

Partimos, como usualmente, de lo que conocemos, es decir, de la expresión para un sistema


aislado.
Podemos pensar que, si tomamos cualquier sistema NO aislado y su entorno, el conjunto se
comportará como un sistema aislado, siempre que elijamos una frontera suficientemente
grande que los contenga de modo que a su través no haya transferencia de calor, trabajo o masa.

entorno
sistema

Interacciones: (Q, W)

Podemos aplicar la expresión a este conjunto. Siendo la entropía una propiedad extensiva, la
entropía total será igual a la suma de las entropías de sus partes (entorno y sistema)

Stotal = Ssist+ Sentorno

Al ser el conjunto un sistema aislado no hay transferencia de entropía: la variación de entropía


coincide con la entropía generada.

Stotal = Sgen

Sgen = Stotal = Ssist + Sentorno  0

Resulta que el delta es positivo: cuanto más irreversible el proceso, más crece la entropía.

Este principio no establece que la entropía de un sistema no pueda disminuir: la entropía del
sistema puede disminuir, o la del entorno, pero no ambas, de modo que el cambio total del
sistema más entorno es siempre >0, o igual a 0 si es reversible.

En síntesis, para un sistema aislado resulta:

Sgen=Stotal >0 proceso irreversible

Sgen=Stotal =0 proceso reversible

Sgen=Stotal <0 proceso imposible

Definición del Segundo Principio utilizando el concepto de Entropía


Una definición equivalente del segundo principio utilizando este concepto es

“la entropía de un sistema aislado aumenta inevitablemente hacia un máximo”

Segundo Principio y Entropía - Síntesis


Si consideramos una máquina térmica que funciona entre dos fuentes a temperaturas T1 y T2.

1- Durante el funcionamiento de la Máquina Térmica la entropía total de sistema y medio


aumenta, nunca disminuye.
2- Si la Máquina Térmica tiene mayor eficiencia, la entropía total aumenta, pero menos.
3- En un caso ideal donde de la Máquina Térmica se obtuviera la máxima cantidad posible
de trabajo a partir de esas dos fuentes, se obtendría ΔStotal = 0. Se obtendría con
procesos reversibles, como en una Máquina Térmica de Carnot
La segunda ley “distingue” entre transferencia de calor y trabajo en un sistema cerrado:

- si hay transferencia de entropía existe una transferencia por calor,


- si no hay transferencia de entropía, no puede haber transferencia de calor, y la
transferencia de energía debería por lo tanto ser por trabajo (la transferencia de
trabajo no implica transferencia de entropía).
- Los procesos ocurren en una única dirección, de modo que se cumpla el principio de
incremento de la entropía, es decir, Sgen>0.
- La entropía no se conserva: aumenta en los procesos reales.
- La entropía es una medida de las irreversibilidades de los procesos.

Síntesis

La entropía, como definida por Clausius, representa la medida


de la energía térmica de un sistema, por unidad de temperatura
absoluta, que no está disponible para producir trabajo útil. Es
decir, se la puede interpretar como una cantidad termodinámica
que representa la indisponibilidad de la energía térmica de un
sistema para su conversión en trabajo mecánico.

De este modo, esta propiedad responde al interrogante que se


formulaba en esta época, sobre qué cantidad de calor cedida a
una máquina térmica era aprovechable para producir trabajo.

Actividad 3

Una fuente de calor a 800 K pierde 2 000 kJ de calor hacia un


sumidero a

a) 500 K y b) 750 K.

Calcular la variación de entropía en la fuente, en el sumidero, y la


total.

Determine qué proceso de transferencia de calor es más irreversible.

Analogías y diferencias con el primer Principio para sistemas cerrados


Se pueden hacer comparaciones con el primer principio para sistemas cerrados, las que servirán
también para establecer sus diferencias:

1. El cambio de energía de un sistema cerrado es igual a la transferencia de energía en


cualquier proceso, en tanto que el cambio de entropía en un sistema cerrado es igual a
la transferencia de entropía sólo en procesos reversibles.

2. La energía se transfiere en forma de calor o trabajo, mientras que la entropía se


transfiere únicamente como calor. La transferencia de trabajo no transfiere entropía.

La generación de entropía es debida por completo a la presencia de irreversibilidades. Se


denota a la generación de entropía por Sgen
Cálculo de entropía
La entropía es una propiedad extensiva, por lo que se la puede expresar por unidad de masa
en J/kg K o en J/mol K

Siendo una propiedad de estado, la entropía puede ser obtenida a partir de tablas o gráficos,
como se hace con el volumen específico, la energía interna, o la entalpía.

A partir de la posibilidad de evaluar cambios de entropía en sustancias simples, gases ideales,


líquidos y sólidos podemos evaluar la irreversibilidad de procesos.

Entropía de la sustancias puras


La ecuación

2 Q 
S 2 − S1 =   
 T 
1 int,rev
Sirve como base para construir tablas y diagramas, eligiendo un estado de referencia.

xQ 
 S x = S1 +   
 T 
1 int,rev

Donde S1 es el valor de la entropía especificado para el estado de referencia.

La determinación de entropía para sustancias puras, se hace de manera similar a como se


calcula v, u o h:

- Vapor sobrecalentado y líquido comprimido: de Tablas


- Vapor húmedo: Tablas, y además…

s = s f + x(sg − s f ) = s f + x  sgf

Entropía de líquidos comprimidos


En ausencia de datos de tablas para líquido comprimido el valor de la entropía específica puede
estimarse de la misma forma que se estimaban los valores de u y v, empleando el valor para
líquido saturado a la temperatura dada:

s(T,p)  sf(T).

Para los cálculos se deben establecer estados de referencia. Estados usuales son:

Agua: se adopta S=0 para el líquido saturado a 0,01 °C.

Refrigerantes: se toma S=0 para el líquido saturado a -40 °C.

Diagrama entrópico T-S


Un diagrama muy utilizado para el análisis de máquinas térmicas es el Diagrama Entrópico,
también conocido como diagrama T-S.

En estos diagramas, en la región de vapor sobrecalentado, las curvas de v=cte tienen más
pendiente que las de p=cte. Las líneas de h se hacen horizontales cuando se reduce la presión,
donde la entalpía está determinada principalmente por la T (modelo gas ideal)
Recordando que:

 Q 
dS =  
 T int,rev

Resulta:
2
Qint,rev =  TdS
1

Esa expresión corresponde al área bajo la curva que representa el proceso en el diagrama T-S,
por consiguiente, el área bajo la curva del proceso sobre un diagrama T-S representa la
transferencia de calor durante un proceso internamente reversible. El área no tiene significado
en procesos irreversibles.

En un diagrama T-S un ciclo de Carnot se representa por un rectángulo, ya que dos de sus
procesos son isotérmicos y los otros dos son adiabáticos reversibles, es decir isoentrópicos.

Actividad 4

Suponga dos ciclos de Carnot cuya representación en un


diagrama T-S encierran áreas de la misma superficie, y que tienen
las mismas variaciones de entropía entre sus estados extremos,
como los de la figura. ¿Cuál de ellos posee mayor eficiencia?

Areas
T
iguales T
3 4
T1

3 4 T2
T1
2 1

T2 2 1
S S
S2 S1 S2 S1

S
iguales

Ciclo de Carnot correspondiente


Un concepto interesante que surge de este diagrama es el de Ciclo de Carnot correspondiente,
que es el rectángulo que circunscribe al ciclo que estudiamos. La diferencia de área entre
ambos representa la diferencia de eficiencia entre ambos ciclos. Este concepto es útil al
estudiar los ciclos típicos de Centrales Térmicas.
Diagramas h-s o de Mollier
Los diagramas entalpía-entropía, conocidos como diagramas de Mollier, son muy utilizados en
Ingeniería. Un campo de aplicación muy amplio lo constituye el de los equipos utilizados para
refrigerar.

La zona de líquido rara vez se representa


en este diagrama.

Notar la posición del punto crítico y las


formas de las líneas de p=cte y T=cte.

En la zona de vapor sobrecalentado las


líneas de T=cte tienden a la horizontal
cuando p disminuye.

Ecuaciones TdS sustancia simple compresible


Calcular los cambios de S a partir de la definición es complicado: hay que conocer Q que no es
una función de estado, y hay que integrar.

Se pretende buscar un modo de cálculo de S en función de otras propiedades de más fácil


determinación, para sustancia simple, pura y compresible que desarrolla un proceso
internamente reversible (no se consideran cambios en la Ep, ni en la Ek).

Primera ecuación TdS


Se parte de la expresión diferencial del primer principio para sistemas cerrados, con la hipótesis
de procesos internamente reversibles:

La expresión diferencial del primer principio para sistemas cerrados resulta

( Q )int,rev = dU + ( W )int,rev ; ( W )int,rev = pdV


La expresión del trabajo transferido en procesos internamente reversibles es:

= dU + ( W )int,rev ; ( W )int,rev = pdV


La expresión del calor transferido en procesos internamente reversibles

 Q 
dS =    TdS = ( Q )int, rev
 T  int, rev
 Q 
dS =
Sustituyendo 
resulta:   TdS = ( Q )int, rev
T  int, rev
Segunda ecuación TdS
Por definición de entalpía:

H = U + pV
Diferenciando

dH = dU + d ( p V )  dH − Vdp = dU + pd V
Luego, sustituyendo:

TdS = dH − Vdp

Importante

las ecuaciones TdS han sido determinadas para


procesos internamente reversibles. Sin embargo,
dado que estan establecidas en función de
propiedades termodinámicas, es decir que dependen
del estado y no del proceso, son aplicables a
cualquier proceso, reversible e irreversible.

Ejemplo de aplicación
Determinar el cambio de entropía de un cambio de fase desde líquido saturado hasta
vapor saturado:
¿Qué propiedades permanecen constantes durante un proceso de cambio de fase?
Solución
A partir de la ecuación encontrada:
TdS = dH − Vdp
Para un proceso de cambio de fase a presión cosntante se reduce a:
dH
dS =
T
Como además T= cte, resulta:
(hg − h f )
sg − s f =
T
Esta expresión es de muy fácil aplicación, ya que no hace falta evaluar la cantidad de
calor intercambiado, sino conocer las propiedades en los dos estados
Entropía de un gas ideal

Actividad 4

¿Cómo resulta la primera de las ecuaciones


TdS para un gas ideal que sigue un proceso
internamente reversible, donde no hay
variaciones de energía cinética ni potencial?.

Se considera un gas ideal que desarrolla un proceso internamente reversible (no se consideran
cambios en la Ep, ni en la Ek). De la primera ecuación TdS (1), expresada por unidad de masa:

du p
ds = + dv
T T

Recordando que para un gas ideal vale:

du = cv dT
RT
pv = RT  p =
v
Luego, sustituyendo:

dT dv
ds = cv (T ) +R ;
T v
Segunda ecuación TdS para un gas ideal
Si se considera un gas ideal que desarrolla un proceso internamente reversible (no se consideran
cambios en la Ep, ni en la Ek), de la segunda ecuación TdS, expresada por unidad de masa resulta:

dh v
ds = − dp
T T
Recordando que para un gas ideal vale:

dh = c p dT

v R
pv = RT  =
T p

Luego, sustituyendo:

dT dp
ds = c p (T ) −R
T p
Integrando:
T2 dT v
s(T2 , v2 ) − s(T1 , v1 ) =  cv (T ) + R ln 2
T1 T v1

T2 dT p
s(T2 , p2 ) − s(T1 , p1 ) =  c p (T ) − R ln 2
T1 T p1

El último término de ambas puede integrarse directamente.

Para el primer término deben conocerse como varían cp(T) y cv(T) para poder integrar.

En muchos casos se puede suponer que cp y cv son constantes en el intervalo considerado, o


bien se calculan los valores de entropía una vez y se tabulan los valores.

Si se consideran los calores específicos constantes, las ecuaciones se transforman en:


T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
T2 p2
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln
T1 p1

Se ve que la entropía en los gases depende de dos variables: T y p, o T y v. Esto hace más difícil
su tabulación y cálculo.

Veamos algunos casos particulares de fácil resolución, antes de abordar los casos generales:

Actividad 6

Pruebe a razonar cómo sería para procesos


internamente reversibles, y además:

Isotérmico?

Adiabático?

Isocórico?

Isobárico?

Variación de entropía en gas ideal, proceso isotérmico

T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1
T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1

En ambas ecuaciones el primer término se anula. La variación de entropía depende solamente


del volumen, o de la presión.
Variación de entropía en gas ideal, proceso adiabático

T T2 v
2 s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
P T1 v1
2 T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1
Q = 0 n =
12

P
1 s = s – s = 0
1 12 2 1

s =s s s =s
1 2 2 1
Variación de entropía en gas ideal, proceso isocórico

T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1

T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1

La variación de entropía se puede calcular


conociendo las temperaturas extremas y el Cv

Variación de entropía en gas ideal, proceso isocórico

T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1

T2 p
s (T2 , p2 ) − s (T1 , p1 ) = c p ln − R ln 2
T1 p1

La variación de entropía se puede calcular


conociendo las temperaturas extremas y el
Cp

Observar la menor pendiente de las isobaras en este gráfico, comparado con la de las isocoras
en el gráfico anterior.
Variación de entropía de gases ideales en casos generales
Como la entropía depende de dos variables la tabulación es complicada: se debería hacer una
tabla por cada valor de presión. Esto es poco práctico, aunque en los libros se encuentra una
tabulación de este tipo en el caso de tablas para el agua en la región del líquido comprimido.

En el caso de los gases, se tabulan suponiendo que la presión es igual a 1 atm, y se simboliza

con
s 0 (T1 ) , como se muestra en las tablas a continuación.

Hay una enorme cantidad de procesos que ocurren a presión atmosférica, por lo que tiene
sentido tabular para esa presión. No hay otra que se repita tanto como esta, ni remotamente.
Sin embargo, habrá gran cantidad de casos que ocurrirán a presiones distintas de la
atmosférica, y en estos casos, habrá que corregir los valores encontrados en las tablas.

Se elige un estado de referencia T=0K, p=1atm, para el cual se asigna s0=0.

Para cualquier otra temperatura, se calcula y se tabula el resultado, como se observa en la


siguiente figura.

Para comprender cómo se debe corregir el valor obtenido de tablas, se aplica la segunda
ecuación TdS:

T2 p
s(T2 , p2 ) − s(T1 , p1 ) = c p ln − R ln 2
T1 p1
Ahora para p2 = p1 = 1 atm el último término desaparece:

T2
s(T2 ,1 atm) − s(T1 ,1 atm) = c p ln
T1
Eso es lo que se tabula:

s(T2 ,1 atm) − s(T1 ,1 atm) = s 0 (T2 ) − s 0 (T1 ) 
El término entre corchetes considera la dependencia del calor específico con T, y es lo que se
tabula.

Es decir, la expresión ahora resulta:

 
s(T2 , p2 ) − s(T1 , p1 ) = s 0 (T2 ) − s 0 (T1 ) − R ln
p2
p1
Significa que los valores de tabla luego deben corregirse para considerar la presión que es
diferente de 1 atm

En el caso de no disponer de los valores tabulados de s0, se evalúan las integrales analítica o
numéricamente, usando valores de cp y cv de tablas.

Ecuaciones TdS para sustancia incompresible


Para sustancia incompresible (densidad constante) resulta v=cte

Por lo tanto, el calor específico ya no hace falta especificar que es a v constante, luego: du=c(T)
dT y se obtiene:

dT p dT
ds = c(T ) + dv = c(T )
T T 0 T
Por integración, la variación de s es:

T2 c(T )
s2 − s1 =  dT
T1 T
Si se asume que c(T)=cte:

T2
s2 − s1 = c ln
T1
Al ser dependiente únicamente de la temperatura, el calor específico para sólidos y líquidos se
obtiene de tablas, y se utiliza un valor promedio para el rango de temperaturas. En estas
circunstancias, asumiendo calor específico constante la entropía de estas sustancias resulta
dependiente logarítmicamente de la temperatura, pero independiente de la presión.

Rendimiento isoentrópico de equipos en régimen permanente

El Ciclo de Carnot brinda una referencia con la cual comparar los ciclos reales, estableciendo
límites teóricos que permiten conocer cuánto se aleja del ideal.

Pero no hay una referencia para procesos no cíclicos que funcionan en condiciones estables,
tales como turbinas, compresores y toberas.

Para ello es necesario definir un proceso ideal que sirva como comparación. Como la mayor
parte de los dispositivos de flujo permanente se diseñan para operar adiabáticamente, se
adopta este proceso como referencia, aunque en la práctica se alejen de esta condición.
Como el proceso ideal no tiene irreversibilidades, el proceso adiabático será además reversible,
es decir isentrópico.

Se define un parámetro que permita cuantificar cuanto se parece un proceso real a uno ideal
(isentrópico): la eficiencia isentrópica.

Dependiendo de la función que desempeñe el dispositivo, será el modo de definir la eficiencia


isoentrópica.

En una turbina en régimen permanente el estado de entrada y la presión de escape del fluido
son fijos, por lo que el proceso de referencia es uno isoentrópico que funciona entre ese estado
de entrada y la presión de escape.

Trabajo real w
T = = a
Trabajo isoentropico ws

Entropía según Boltzman

La manera clásica, macroscópica de definir la entropía por parte de Clausius, a partir de una
elegante formulación matemática, es bastante abstracto y acarrea el problema de no aportar a
la comprensión de la entropía desde el punto de vista físico, y llevó mucho tiempo
comprenderlo. La expresión clásica, en términos de δQ/T permite realizar cálculos relevantes, y
se lo interpreta como una cantidad relacionada con la cantidad de energía que un sistema
termodinámico no puede aprovechar para realizar trabajo útil.

Boltzman, utilizando un análisis microscópico, completamente diferente, demostró que la


entropía de un sistema es proporcional a las probabilidades de su estado: a más probabilidad,
más entropía. Esta perspectiva microscópica puede ofrecer ventajas para la interpretación de la
entropía, por lo que es abordada en esta sección. Sin embargo, es necesario enfatizar que estas
ventajas se obtienen cuando se manejan conceptos de probabilidades, aleatoriedad y
estadística que en muchas carreras de Ingeniería tienen poco espacio. En estas condiciones la
extrapolación del comportamiento de unas pocas partículas microscópicas a un gran conjunto
de ellas que manifiestan sus efectos macroscópicamente produce algunas dificultades.

A partir de esta definición, la segunda ley “La entropía siempre aumenta” resulta casi obvia: el
desorden siempre aumenta.

Desde el punto de vista de la mecánica estadística, la entropía está asociada a las posibles
configuraciones moleculares para un cierto estado macroscópico de equilibrio (es decir, que
tengan la misma energía), llamada probabilidad termodinámica.

S=k ln W k=cte Boltzmann, W: probabilidad termodinámica

k = 1,38 x 10-23 J/K

La fórmula propuesta por Boltzmann es tan famosa que fue incluida en su tumba, en la
Universidad de Viena
Esta expresión de la entropía está relacionada con la desorganización de la energía.
En un gas las moléculas poseen mucha energía
cinética, pero no logran mover una hélice para
producir trabajo, pues su choque con la paleta es
aleatorio, probablemente una cantidad produciría
una rotación en un sentido, y otra cantidad en el
sentido contrario.

Un eje con un peso (energía altamente organizada)


produce un trabajo. Al ser una forma organizada de
energía, la transferencia de trabajo no transfiere
entropía. Cualquier proceso que no produzca una
entropía neta es reversible, por lo cual puede
invertirse. El trabajo que puede ser aprovechado
para generar electricidad

Q W

Los sistemas tienden a evolucionar desde configuraciones muy ordenadas, altamente


improbables en la naturaleza, hacia otras más desordenadas, que son más probables
estadísticamente.

Por ejemplo, si se tienen dos recipientes, uno lleno de un gas coloreado, y otro vacío, podríamos
pensar que se encuentra “ordenado”.

Si se conectan ambos recipientes, todo se


desordenará, se mezclará, no tendremos más el gas
coloreado en el recipiente de la izquierda, sino en los
dos. La entropía aumentó. Se pueden dejar ambos
recipientes conectados el tiempo que se desee, pero
sin alguna acción externa nunca volverán a la
configuración inicial.
Es decir que, si se filmara el proceso y lo reprodujéramos hacia delante, lo que se observaría
sería perfectamente natural, pero nunca si se proyectase hacia atrás: lo que veríamos parecería
no realista y aseguraríamos que se trata de un truco.

El sistema entonces estaría más ordenado en el pasado, y más desordenado o mezclado, en


el futuro.

Si este experimento se repitiera, esta vez usando sólo unas pocas moléculas, supongamos 5,
estas en su movimiento aleatorio chocarían entre sí y estarían siempre pasando de un recipiente
al otro, y eventualmente podría ocurrir que en un momento quedaran todas de un lado, y
ninguna del otro. Es una posibilidad. Mientras menos moléculas, más probable. Si fuera una sola,
habría un 100 % de probabilidades de que un recipiente tenga gas, y el otro vacío. Si en cambio
existe un número elevado elevado de moléculas, como las de aire que hay en una habitación
separada de otra por una puerta, es tan improbable que todas las moléculas se encuentren en
una habitación que nunca se observará.

La situación normal, con muchas moléculas, muestra claramente una situación inicial y una final:
sin que nos lo cuenten, sabremos cuál fue la que ocurrió primero. Aparece así una “flecha del
tiempo”.

La ley de la entropía introduce lo que Arthur Eddington llamó “la flecha del tiempo” (1928):
“Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más
elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro;
si, por el contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado”.

La aparición del Segundo Principio de la Termodinámica puso en crisis en modo radical la imagen
reductiva que la ciencia tenía hasta ese momento. Todos los procesos newtonianos describían
la realidad a través de procesos simétricos en relación al tiempo: pasado y futuro juegan el
mismo papel. No existía algún fenómeno que no admitiera su inverso, y cualquier estado de un
sistema podía muy bien ser su estado inicial o su estado al final de una larga evolución. Sin
embargo, la experiencia cotidiana nos mostraba diferencias claras entre pasado y futuro: el agua
que se había caído nunca volvía a levantarse, sin la acción de una fuerza externa.

Esta noción de evolución, que en la mecánica no aparece, entra con fuerza con el concepto de
entropía, asociando el concepto de tiempo y de irreversibilidad.

La idea base del concepto de entropía es la siguiente: ciertos procesos se producen en una sola
dirección, o bien no pueden repetirse, si no se “paga un cierto costo”.

Una cantidad de carbón, por ejemplo, no puede ser quemado más que una sola vez. Cuando se
terminó de quemar, vamos a ver que la ley de conservación de la masa y de la energía se han
cumplido estrictamente: el calor, el humo y las cenizas poseen la misma cantidad de energía que
había inicialmente. Sin embargo, la energía que encontramos en esos productos de la
combustión no puede ser aprovechada, ya que se habrá diluido, al final habrá calentado más
moléculas a un nivel de temperatura bajo. La energía total estará desordenada, desparramada,
no produce efecto útil.

La segunda ley de la termodinámica establece que la entropía de un sistema aislado no puede


nunca disminuir, y en todo proceso natural o espontáneo se produce un aumento de entropía.

Desde el punto de vista de Boltzmann, la segunda ley de la Termodinámica podría expresarse


como que, en un sistema aislado, la interacción entre las partículas tiende a aumentar su
dispersión, afectando sus posiciones y sus velocidades, lo que causa que la entropía de la
distribución aumente con el tiempo hasta llegar a un cierto máximo (cuando el mismo sistema
es lo más homogéneo y desorganizado posible).

Con respecto a la trasferencia de entropía por calor, desde el punto de vista de Boltzmann
resulta que cuando un sistema recibe un flujo de calor, las velocidades de las partículas
aumentan, lo que dispersa la distribución y hace aumentar así la entropía. Así, el flujo de calor
produce un flujo de entropía en la misma dirección.

Como consecuencia, resulta que el universo (como sistema aislado) es cada vez más caótico.

Entropía e información
A partir de Boltzmann, la entropía se concibe como una «medida del desorden», o una medida
de la incertidumbre. Y el segundo principio expresa que la entropía aumenta, es decir, a
incertidumbre aumenta. Resulta que el concepto de información y el de entropía están
intuitivamente relacionados entre sí, pero fue mucho tiempo de desarrollo de la mecánica
estadística y de la teoría de la información antes de que esto fuera establecido con mayor
precisión.

Si tenemos un objeto, digamos un abrigo, y tenemos 10 posibles lugares donde puede estar, es
decir varios estados posibles (por ejemplo en el 1er cajón, en el 2do cajón, en el 3er cajón y así
hasta el decimo), podemos decir que hay mucha entropía, mucho desorden. Nos hace falta
información para encontrarlo. Esta información requerirá, por ejemplo, abrir un cajón, y si
tuvimos suerte lo encontramos, pero si no habrá que abrir un segundo cajón hasta finalmente
obtenerlo. En cambio, si hay solo un lugar posible (por ejemplo, los abrigos se guardan en el
tercer cajón), hay un solo estado posible, entropía mínima, incertidumbre mínima, me hace falta
una mínima cantidad de información, o más precisamente, no me hace falta ninguna prueba, ya
sabemos dónde se encuentra aún sin abrir el cajón).

Claude Shannon es conocido por ser el padre de la teoría de la información. En una publicación
(Shannon 1948) él definió una forma de medir la cantidad de información que contiene una
variable aleatoria, que es lo que se conoce como Entropía de Shannon:

Vamos a usar el ejemplo de tirar un dato para explicarlo. En un dado los estados posibles son
{1,2,3,4,5,6} y la probabilidad de todos es la misma. La distribución de probabilidad se simboliza
como como p(xi), significando la probabilidad del estado i-ésimo. Como es lógico, se debe
cumplir que la suma de todas debe dar uno.

Si repetimos este proceso para muchas tiradas de dados, de media necesitaremos log2(6)= 2.58
preguntas. Esto coincide con la entropía de Shannon que para este caso es:
1
𝐻(𝑥) = ∑ . 𝑙𝑜𝑔2 (6) = 2.58
6
𝑖=6

Para poder medir esa cantidad de información, repetimos un procedimiento natural.


Supongamos que queremos saber cuál es el número que salió, entonces haríamos preguntas.
Con cada respuesta tendríamos más información. Lo que hacemos al hacer preguntas es dividir
el espacio muestral en dos eventos. Por ejemplo, si preguntamos “es par”? lo hemos dividido en
un evento A (que sea 2 ó 4 ó 6) y en un evento B, (que sea 1, 3 o 5).

Las probabilidades de estos eventos serán iguales, pero no siempre es así, pero resulta siempre
que la probabilidad de A más la probabilidad de B es 1

Si la respuesta es afirmativa, ya le asignamos a los números 1, 3 y 5 una probabilidad 0, y las


probabilidades para 2, 4 y 6 ahora será 1/3 para cada uno.

Una vez hecho esto, volvemos a preguntar algo como, por ejemplo, ¿“es mayor que 2?” En
función de la respuesta actualizamos otra vez la distribución. Hacemos esto hasta que una de
las respuestas nos diga exactamente el número del dado que salió. Ahora, con la última
actualización se ha llegado a la distribución donde las probabilidades de todos los datos son
cero, menos el del dado que efectivamente salió, que es 1.

Si cada pregunta representa un aumento en la cantidad de información, resulta que el número


de preguntas es como una medida de este aumento. Claro que este número de preguntas es
una variable aleatoria: quizás en la segunda pregunta ya lo resolvimos (si la pregunta fue “es
mayor que 2”, y la respuesta fue negativa, ya sabemos que el dado es un dos, pero si la respuesta
es positiva, tendremos que volver a preguntar para determinarlo. Lo que sí puede caracterizar
al sistema, evitando esa aletoriedad del número de preguntas, es tomar el promedio de
preguntas.

El promedio del número de preguntas binarias de este tipo es lo que definimos


como desinformación H:
1
𝐻(𝑥) = ∑ 𝑝(𝑥𝑖 ). 𝑙𝑜𝑔2 ( )
𝑝(𝑥1 )
𝑖

También se llama entropía de Shannon, la cual mide el grado de impredecibilidad de una


variable aleatoria, y que dice en promedio cuantos bits necesitamos para almacenar el estado
completo de un sistema. La entropía o información media de la variable aleatoria discreta, X, se
determina como la información media del conjunto de valores discretos que puede adoptar
(también medida en bits):

La entropía de Shannon no tiene nada que ver con un sistema físico, pero muchos físicos han
pensado que alguna relación existe.

En 1961, Rolf Landauer postuló que el simple acto de borrar información de un sistema físico
debía disipar una mínima cantidad de energía al entorno.

Supongamos un bit que puede hallarse en el estado 0 o 1 con igual probabilidad. La teoría de la
información nos dice que la entropía de ese sistema será el logaritmo del número de estados
posibles, que es 2:

Si por algún medio borramos información, de modo que el bit ahora sólo puede estar en el
estado 1 independientemente de su estado inicial, la entropía del sistema será:

H = ln 1 = 0
Si aceptamos que H representa la Entropía, resultaría que la entropía del sistema ha disminuido,
por haber borrado información. Para no violar el segundo principio, esto sería debido a que se
ha transferido una cantidad de calor al medio, que sería:

Q = kT ln 2

donde k es la constante de Boltzmann y T es la temperatura del sistema.

Este postulado de Landauer, fue comprobado hace muy poco en forma experimental. Científicos
franceses y alemanes realizaron un experimento publicado en la revista Nature que logró medir
por primera vez el calor disipado en el proceso de borrado de la información contenida en un
único bit. Los resultados confirman la profunda relación que existe entre termodinámica e
información.

Uso cotidiano del concepto de entropía


El desarrollo clásico del concepto de Clausius es abstracto, y de difícil comprensión. Por otra
parte, la base fundamental del desarrollo microscópico de la relación entre entropía y desorden
es el estudio de sistemas en equilibrio compuestos por muchas partículas. Para comprender
mejor su significado se usan con frecuencia ejemplos con pocas partículas, para luego extrapolar
a grandes números que llevan a los postulados básicos de la teoría. La accesibilidad conceptual
de estos ejemplos llevan con frecuencia a analizar fenómenos de la vida cotidiana, que se han
popularizado. Aquí se presentan algunos.

Si no se hacen esfuerzos en contrario, la situación más probable es el desorden:

Caja de colores recién comprada Unos días después

Si tomamos unas acuarelas y mezclamos todos los colores, obtendremos una cantidad de
acuarela igual a la inicial, la suma de todas las acuarelas de colores. Encontraremos todos los
pigmentos que ellas tenían. Pero no se podrá pintar un cuadro con ellas: solamente uno de un
solo color, un color grisáceo uniforme. Para poder componer un cuadro es necesario tener
colores distintos, es decir moléculas agrupadas y ordenadas.
Un ejemplo que muchos pueden ver en casa.

¿Cuánto valdría la información contenida en esta biblioteca?

No mucho probablemente: costaría mucho esfuerzo encontrar lo que se busca.

Por eso se gasta mucho en catalogar y mantener una biblioteca ordenada:


En la era digital, la capacidad de almacenar información ha crecido en forma impensada, pero
¿cuánto valdría esa información si no se tuviera cómo buscarla?

Esto determina el alto valor de empresas tecnológicas que desarrollan y gestionan la búsqueda
de información. Google, uno de los buscadores más utilizados, se ubica entre las 10 empresas
más valiosas a nivel mundial desde hace varios años

Su cotización actual es de u$s 159 722 millones (2020).


Respuestas a algunas actividades

Actividad 2

Durante la expansión libre de Joule, un gas ideal se


encuentra encerrado en un recipiente adiabático
dividido en dos compartimentos. El gas ocupa uno
de los compartimientos, y en el otro hay vacío.
Cuando se elimina la separación entre ambos
compartimientos, el gas ideal se expande
irreversiblemente hasta ocupar todo el volumen
disponible. ¿Cuál es el cambio de entropía del gas?

Solución

Dado que el proceso de expansión libre es irreversible,


no se puede aplicar la ecuación de la definición de
entropía para su cálculo:

2 Q 
S 2 − S1 =   
 T 
1 int,rev

Buscamos entonces un proceso alternativo que vincule


ambos estados, y que sea reversible.

Aplicando el primer principio resulta:

∆𝑈 = 𝑄 − 𝑊
En este experimento, siendo el recipiente adiabático, y
1 no habiendo modo de producir trabajo, resulta:
p
1 ∆𝑈 = 0
Por tratarse de un gas ideal, si no hay variación de
energía interna, no hay variación de temperatura.
p 2 Entonces vamos a suponer un proceso isotérmico
2 reversible que pase por los mismos estados inicial y final
para calcular la variación de entropía.
V V En realidad, en un proceso irreversible no es posible
1 2
determinar en cada instante cuál es el estado por el que
ocurre el proceso, pero dado que la entropía es una función de estado, para conocer el cambio
de entropía entre el estado inicial y final nos basta saber que estos se encuentran sobre la
isoterma. Luego aplicamos la expresión de la variación de entropía en gas ideal, para un proceso
isotérmico:
T2 v
s (T2 , v2 ) − s (T1 , v1 ) = cv ln + R ln 2
T1 v1

Eliminando el primer término obtenemos la expresión para calcular la variación de entropía


entre los dos estados para la expansión libre.
Actividad 3

Una fuente de calor a 800 K pierde 2 000 kJ de calor hacia un


sumidero a

a) 500 K y b) 750 K.

Calcular la variación de entropía en la fuente, en el sumidero, y la


total.

Determine qué proceso de transferencia de calor es más irreversible.

Respuesta:

Utilizamos la expresión de la variación de entropía para una fuente:

Q
S fuente =
T

Sumidero a 500 K

S fuente = −2,5 kJ / K

S sumidero = 4 kJ / K

Stotal = 1,5 kJ / K
B) Sumidero a 750 K

S fuente = −2,5 kJ / K

S sumidero = 2,7 kJ / K
.
S total = 0,2 kJ / K

La transferencia es más reversible, cuanto menor la diferencia de temperatura. Esto es lo que


ocurre en el caso B.

Las irreversibilidades podrían ser eliminadas con una máquina térmica de Carnot que opere
entre la fuente y el sumidero.

En este caso sería:

Stotal = 0
Actividad 4

Suponga dos ciclos de Carnot cuya representación en un


diagrama T-S encierran áreas de la misma superficie, y que
tienen las mismas variaciones de entropía entre sus estados
extremos, como los de la figura:

Areas
T
iguales T
3 4
T1

3 4 T2
T1
2 1

T2 2 1
S S
S2 S1 S2 S1

S
iguales

¿Cuál de ellos posee mayor eficiencia?


Solución

El área bajo la curva de un proceso representa la cantidad de calor transferido. Es decir que el
área bajo la curva 1-2 representa la cantidad de calor transferida a la fuente fría en forma
isotérmica, y el área bajo el proceso 3-4 la cantidad de calor recibida desde la fuente caliente.
El área encerrada representa la cantidad de calor neta recibida, que al ser un ciclo coincide con
lal cantidad de trabajo neta producida. Por lo tanto, la relación entre el área encerrada y el
área bajo la curva de adición de calor en un diagrama T-s representa la eficiencia térmica del
ciclo. Toda modificación que aumente la relación entre estas áreas mejorará la eficiencia. En
este caso, la figura de la izquierda representa el ciclo más eficiente, ya que produce la misma
cantidad de trabajo, pero habiendo recibido menos cantidad de calor.
Bibliografía consultada

Pedro Fernández Díez. Termodinámica Técnica. Departamento De Ingeniería Eléctrica y


Energética. Universidad De Cantabria

Wylen, Gordon J. Van; Sonntag, RE. (2002) Fundamentals of Thermodynamics. ISBN 10:
0471428833

Kenneth Wark Jr Donald E Richards Termodinámica 6TA EDICION

Michael J. Moran, Howard N. Shapiro: Fundamentos de termodinámica técnica. Ed. Reverte,


S.A.: Barcelona, 2004. ISBN 9788429143133.

Goldstein, M., Goldstein, I.F., 1993. The Refrigerator and the Universe: Understanding the
Laws of Energy. Harvard University Press, Cambridge, MA, 433 pp.

Jorge Luis Hau (2005) Toward Environmentally Conscious Process Systems Engineering Via
Joint Thermodynamic Accounting of Industrial and Ecological Systems. Dissertation Presented
in Partial Fulfillment of the Requirements for the Degree of Doctor of Philosophy in the
Graduate School of the Ohio State University.

JONES, J. B.; DUGAN, R.E.: Ingeniería Termodinámica. Ed. Prentice Hall.: México, 1997.

ÇENGEL, Y. A.; BOLES, M. A.: Thermodynamics: An Engineering Approach. Ed. McGraw-Hill:


Boston, 7ta. edición, 2011. ISBN: 007352932x.

A.S. Eddington (1928). The Nature of the Physical World, Kessinger’s Legacy Reprints 2010

Ord-Hume, A.W.J.G., Perpetual Motion, The History of an Obsession. London: George Allen &
Unwin, LTD, 1977, Chapter 7, 8.

Eduardo Pérez Arroyo (2018). La termodinámica y la entropía. Boltzmann. El universo morirá


de frío. RBA Coleccionables, S.A.U. ISBN 978 84 473 9283 4

Mataix, C. Turbomáquinas térmicas, Editorial Dossat.


C. E. Shannon, (1948) "A mathematical theory of communication," in The Bell System Technical
Journal, vol. 27, no. 3, pp. 379-423, July 1948.

Landauer, R. Irreversibility and heat generation in the computing process. IBM J. Res. Develop.
5, 183–191 (1961)

Bérut, A., Arakelyan, A., Petrosyan, A. et al. (2012) Experimental verification of Landauer’s
principle linking information and thermodynamics. Nature 483, 187–189 (2012).
https://doi.org/10.1038/nature10872

Farina, J.A. (2014). La Segunda Ley de la Termodinámica y el concepto de Entropía en


estudiantes universitarios. Simulaciones como puentes cognitivos entre los modelos
espontáneos y los científicos. Edutecne. ISBN 978-987-1896-58-5

Links

• The Engines of Our Ingenuity, Copyright © 1988-1997 by John H. Lienhard.


http://www.uh.edu/engines/epi527.htm. Ultimo acceso 23 de abril de 2010
• De la Máquina de Vapor al Cero Absoluto (Calor y Entropía); Leopoldo García-Colín S.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/05/htm/maqvapor.htm

• Applied Thermodynamics http://www.taftan.com/thermodynamics/

• Termodinámica http://soko.com.ar/Fisica/Termodinamica.htm

• Termodinâmica http://www1.uprh.edu/inieves/macrotema/termodinamica.htm

• Apuntes de termodinámica elemental; E. Barrull:


http://www.biopsychology.org/apuntes/termodin/termodin.htm

• Información y entropía, un acercamiento probabilístico. por Cristian Em. Boghiu| Publicada


20 octubre, 2017 https://nusgrem.es/informacion-entropia-probabilidad/

• Entropía termodinámica e información


https://www.investigacionyciencia.es/noticias/entropa-termodinmica-e-informacin-
10009

También podría gustarte