Está en la página 1de 27

Segundo principio de la termodinámica

De Wikipedia, la enciclopedia libre


Saltar a: navegación, búsqueda

El segundo principio de la termodinámica o segunda ley de la termodinámica,Nota 1


expresa que:

La cantidad de entropía del universo tiende a incrementarse en el tiempo.Nota 2

Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas
maneras todas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este
último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica
estadística y la teoría de la información, queda ligado al grado de desorden de la materia y
la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física
de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin
embargo, esta interpretación meramente fenomenológica de la entropía es totalmente
consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado
gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estado
líquido con sus moléculas más juntas y más ordenadas.

El primer principio de la termodinámica dictamina que la materia y la energía no se pueden


crear ni destruir, sino que se transforman, y establece el sentido en el que se produce dicha
transformación. Sin embargo, el punto capital del segundo principio es que, como ocurre
con toda la teoría termodinámica, se refiere única y exclusivamente a estados de equilibrio.
Toda definición, corolario o concepto que de él se extraiga sólo podrá aplicarse a estados de
equilibrio, por lo que, formalmente, parámetros tales como la temperatura o la propia
entropía quedarán definidos únicamente para estados de equilibrio. Así, según el segundo
principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la
cantidad de entropía en el estado de equilibrio B será la máxima posible, e inevitablemente
mayor a la del estado de equilibrio A. Evidentemente, el sistema sólo hará trabajo cuando
esté en el tránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos
estados. Sin embargo, si el sistema era cerrado, su energía y cantidad de materia no han
podido variar; si la entropía debe de maximizarse en cada transición de un estado de
equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un
límite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la
mecánica estadística el desorden equivalente debe aumentar exponencialmente.

Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las
estrellas, las mismas, al convertir el hidrógeno, su combustible principal, en helio generan
luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía
suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los
núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando
fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un
elemento obtiene otro que le es más inútil para obtener energía y por ende la estrella muere,
y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es
así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del
universo.

Definición axiomática[editar]

La definición formal del segundo principio de la termodinámica establece que:

En un estado de equilibrio, los valores que toman los parámetros característicos de un sistema
termodinámico cerrado son tales que maximizan el valor de una cierta magnitud que está en función
de dichos parámetros, llamada entropía.

La entropía de un sistema es una magnitud física abstracta que la mecánica estadística


identifica con el grado de desorden molecular interno de un sistema físico. La
termodinámica clásica, en cambio, la define como la relación entre el calor transmitido y la
temperatura a la que se transmite. La termodinámica axiomática define a la entropía como
una cierta función –a priori, de forma desconocida–, que depende de los llamados
"parámetros característicos" del sistema, y que sólo puede definirse para los estados de
equilibrio del sistema.

Dichos parámetros característicos se establecen a partir de un postulado derivado del primer


principio de la termodinámica, llamado a veces el principio de estado. Según éste, el estado
de equilibrio de un sistema queda totalmente definido por medio de la energía interna del
sistema, su volumen y su composición molar. Cualquier otro parámetro termodinámico,
como podrían serlo la temperatura o la presión, se define como una función de dichos
parámetros. Así, la entropía será también una función de dichos parámetros.

El segundo principio de la termodinámica establece que dicha entropía sólo puede definirse
para estados de equilibrio termodinámico, y que de entre todos los estados de equilibrio
posibles –que vendrán definido por los parámetros característicos–, sólo se puede dar el
que, de entre todos ellos, maximiza la entropía.

Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente
al equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean
compatibles con los límites o contornos del sistema. Entre ellos se encuentra,
evidentemente, el estado de equilibrio de partida. Si el sistema varía su estado de equilibrio
desde el de partida a otro, ello es debido a que la entropía del nuevo estado es mayor que la
del estado inicial; si el sistema cambia de estado de equilibrio, su entropía sólo puede
aumentar. Por tanto, la entropía de un sistema aislado termodinámicamente sólo puede
incrementarse. Suponiendo que el universo partió de un estado de equilibrio, que en todo
instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el
universo es un sistema aislado, el segundo principio de la termodinámica puede formularse
de la siguiente manera;

La cantidad de entropía del universo tiende a incrementarse con el tiempo.


Sin embargo, la termodinámica axiomática no reconoce al tiempo como una variable
termodinámica. Formalmente, la entropía sólo puede definirse para estados en equilibrio.
En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio, por lo
que la entropía en dichos estados de no-equilibrio no puede definirse sin incurrir en
inconsistencias formales dentro de la propia termodinámica. Así, la entropía no puede ser
una función del tiempo, por lo que hablar de variaciones de la misma en el tiempo es
formalmente incorrecto.

Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de


equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio, procedimiento
que permite introducir al tiempo como parámetro. En tanto en cuanto el estado de equilibrio
final sea aquél de máxima entropía posible, no se habrá incurrido en una inconsistencia
frontal por cuanto dichos estados de equilibrio intermedios no han afectado al único real (el
final).

La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual —


exclusivo para procesos reversibles — que la transferencia de calor Q producida, dividido
por la temperatura de equilibrio T del sistema:2

Descripción general[editar]

Suponiendo estados iniciales y finales de equilibrio, el principio establece que los sistemas físicos
saltan de un estado con cierto orden a un estado menos ordenado, aumentando su entropía. El
proceso inverso es imposible de forma espontánea.

El enunciado axiomático del segundo principio pone inmediatamente de manifiesto su


principal característica: se trata de una de las pocas leyes ontológicas de la Física, en tanto
que distingue, de manera general, aquellos procesos y estados físicos que son posibles de
aquellos que no lo son; esto es, el segundo principio permite determinar la posibilidad de
un proceso o estado. De hecho, en un sentido histórico el segundo principio surgió, en plena
Revolución Industrial en el contexto de las máquinas térmicas como una explicación
empírica de por qué éstas se comportaban de una manera determinada y no de otra. En
efecto, aunque parezca trivial, siempre se observaba, por ejemplo, que para calentar una
caldera era necesario emplear combustible ardiendo a mayor temperatura que la de la
caldera; sin embargo, jamás se observaba que la caldera se calentara tomando energía de su
entorno, el cual a su vez se enfriaría. De hecho, podría razonarse que, en virtud del primer
principio de la termodinámica, nada impide que, espontáneamente, sea posible extraer calor
de un cuerpo frío, por ejemplo a 200K, para transmitírselo a otro caliente, por ejemplo a
1000K: basta con que se cumpla el balance energético correspondiente, a consecuencia del
cual el cuerpo frío se enfriaría aún más, y el caliente se calentaría más aún. Sin embargo,
todo esto es contrario a toda experiencia; y aunque parezca común y hasta trivial, tenía un
extraordinario impacto en las máquinas empleadas en la Revolución Industrial: por
ejemplo, de no haber sido así, las máquinas podrían funcionar sin necesitar combustible,
pues la energía necesaria podría transferirse de manera espontánea del resto del ambiente.
Sin embargo, las máquinas térmicas parecían obedecer una determinada ley, que se
materializó en el segundo principio: para producir trabajo mecánico, era necesario aportar
energía adicional (el combustible), que a su vez era siempre mayor que la cantidad de
trabajo extraído. El concepto de máquina térmica aparece así íntimamente ligado al
enunciado inicial del segundo principio.

Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de
temperaturas entre dos cuerpos. Dado que cualquier máquina termodinámica requiere una
diferencia de temperatura, se deriva pues que ningún trabajo útil puede extraerse de un
sistema aislado en equilibrio térmico, esto es, se requerirá de la alimentación de energía del
exterior. Ese principio empírico, extraído de la observación continua de cómo funciona el
universo, constituye uno de los primeros enunciados del Segundo Principio de la
Termodinámica: es imposible todo proceso cíclico cuyo único resultado sea la absorción
de energía en forma de calor procedente de un foco térmico (o reservorio o depósito
térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de
trabajo.

Enunciados clásicos[editar]

La segunda ley de la termodinámica ha sido expresada de muchas maneras diferentes.


Clausius fue el primero, basándose en los resultados de Carnot:

Es imposible que una máquina, sin It is imposible for a self-acting machine,


ayuda mecánica externa, unaided by any external agency,
transfiera calor de un cuerpo a otro to convey heat from one body to another at a
más caliente. higher temperature.
Clausius, originalmente en alemán (1850) y traducido por Kelvin.

Desechada la teoría del calórico, en 1851, Kelvin ofrece un nuevo enunciado:

Es imposible construir un dispositivo que, It is imposible. by means of inanimate


utilizando un fluido inerte, material agency, to derive mechanical
pueda producir trabajo efectivo causado por effect
el enfriamiento del cuerpo más frío de que any portion of matter by cooling it below
se disponga. the temperature of the coldest of the
surrounding objects.
Enunciado de Kelvin.
Más tarde Planck, basándose en los estudios de Kelvin establece un enunciado muy
sencillo:

Es imposible construir una máquina que It is imposible to construct a machine which


no haga otra cosa que elevar un peso functions with a regular period
y causar el correspondiente and which does nothing but raise a weight and
enfriamiento en una fuente térmica. causes a corresponding cooling of a heat
reservoir.
Enunciado de Planck-Kelvin en 1897.

Finalmente, en 1909, el enunciado más formal sería el del matemático Constantin


Carathéodory

En cada vecindad arbitrariamente próxima a un In every arbitrarily close


estado inicial dado, existen estados a los que, neighborhood of a given initial state
mediante procesos adiabáticos, no se pueden exist states
acercar tanto como se quiera. which cannot be aproached arbitrarily
closely by adiabatic processes
C. Carathéodory en 1909.

Algunos corolarios del principio, a veces empleados como enunciados alternativos, serían:

«Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al
mismo estado del que partieron».

«En un sistema aislado, ningún proceso puede ocurrir si a él se asocia una disminución de la
entropía total del sistema.»

Corolario del principio, debido a Clausius.

Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco


de vapor. Ésta no podría producir trabajo si no fuese porque el vapor se encuentra a
temperaturas y presión elevadas comparados con el medio que la rodea.

Matemáticamente, se expresa así:

donde S es la entropía y el símbolo de igualdad sólo existe cuando la entropía se encuentra


en su valor máximo (en equilibrio).

Entropía en mecánica estadística[editar]

La Termodinámica no ofrece ninguna interpretación física de lo que es la entropía:


simplemente la define como una función matemática que toma su máximo valor para cada
estado de equilibrio. La habitual identificación de entropía con desorden molecular
proviene de una muy simplificada interpretación de los resultados de la mecánica
estadística; en concreto, del llamado formalismo microcanónico de la mecánica
estadística. Es importante recalcar que la termodinámica y la mecánica estadística, aunque
relacionadas, son ramas separadas de la física.

Interpretación microcanónica de la entropía con base en el segundo principio de la


termodinámica[editar]

La ecuación fundamental de un sistema cerrado termodinámico en equilibrio puede


expresarse como

Donde S representa la entropía del sistema –desde un punto de vista termodinámico–, U la


energía interna del sistema, y N1, N2, etc el número de moles de cada componente del
sistema. Todas estas magnitudes son macroscópicas, en el sentido de que son expresadas y
pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscópica (esto es,
de los átomos, moléculas, etc), que componen el sistema termodinámico.

Intuitivamente, puede parecer razonable suponer que si el sistema está en equilibrio,


entonces sus componentes más fundamentales, sus átomos y moléculas, también lo estén.
Sin embargo, un resultado fundamental de la mecánica cuántica afirma que si el sistema es
macroscópico, entonces pueden existir multitud de estados cuánticos discretos para sus
átomos y moléculas que, globalmente, sean compatibles con los valores de U, V y N1,N2,...
del sistema macroscópico. En principio, no obstante, aunque exista esa potencial capacidad
de los componentes microscópicos del sistema para pasar de un estado cuántico a otro,
como el sistema es cerrado y está en equilibrio podría razonarse que tales transiciones no se
van a dar.

Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos
capaces de aislar térmicamente al sistema de manera absoluta, no podremos evitar los
efectos gravitatorios que el resto del universo seguirá ejerciendo sobre la materia que
hayamos encerrado dentro; tampoco podrá aislarse perfectamente de todos los campos
electromagnéticos que lo rodeen, por muy débiles que puedan resultar. En definitiva, el
sistema podrá estar cerrado a efectos macroscópicos, pero la acción de todo tipo de campos
de fuerza (sean de gravedad, eléctricas,...) y la propia interacción del sistema con las
paredes que lo encierren harán que, al menos desde un punto de vista microscópico, el
sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuas
transiciones de un estado cuántico a otro cuyas causas son, a todos los efectos, meramente
azarosas, de tantas y tan indefinidas que pueden ser.

La mecánica estadística considera que un sistema macroscópico realiza transiciones


enormemente rápidas y totalmente aleatorias entre los distintos estados cuánticos que sean
posibles, de manera que las medidas macroscópicas de parámetros tales como la
temperatura, la energía, incluso el volumen,... son en realidad la media de las miríadas de
estados cuánticos o microscópicos. Y como dichas transiciones están producidas por
procesos esencialmente aleatorios, se acepta como principio que un sistema macroscópico
visita todos los estados microscópicos permisibles con igual probabilidad. A dichos estados
microscópicos permisibles se les llama microestados.

Para cada estado macroscópico de equilibrio, el número de microestados permitidos es uno


determinado por las leyes de la Física. Por ejemplo, si un sistema macroscópico tiene por
energía 1000 julios, es absurdo suponer que un microestado de dicho sistema pueda tener
más de 1000 julios de energía.

Si se considera un estado de equilibrio macroscópico, según el segundo principio de la


termodinámica éste vendrá totalmente definido por los valores de las variables
termodinámicas U, V, N1, N2, etc. para los que la entropía S toma su máximo valor entre
todos los posibles. Supongamos que tenemos un sistema termodinámico en equilibrio que
viene definido por una limitación fundamental: no se permite que el sistema tenga un
volumen mayor que uno concreto, y la cantidad de materia del sistema es la que se haya
dado al comienzo. Por ejemplo, gas en una bombona de gas: no puede tener un volumen
mayor que el de la bombona, ni puede haber más cantidad de gas que la que se ha colocado
dentro. Atendiendo a esa limitación de volumen y masa, el sistema adquirirá los valores de
U tales que maximicen la entropía, y entonces habrá alcanzado el equilibrio macroscópico.
Asociado a ese estado macroscópico de equilibrio, tenemos el de los microestados: las
moléculas del sistema podrán presentar transiciones aleatorias entre distintos microestados
dentro de los límites impuestos por el propio sistema. No podrán, por ejemplo, desplazarse
más allá de las barreras del sistema, ni podrán vibrar con una energía mayor que la energía
total del sistema macroscópico, etc. Esto es, asociado al equilibrio macroscópcio se tiene un
número limitado, aunque posiblemente inmenso, de microestados que los constituyentes
microscópicos del sistema pueden visitar con igual probabilidad.

Si retiramos ahora una restricción al sistema macroscópico, como por ejemplo permitir que
el volumen sea ahora mayor que antes, pasarán dos cosas:

 Desde el punto de vista de la termodinámica, esto es, desde el punto de vista


macroscópico, las variables del sistema evolucionarán hacia un estado de entropía mayor:
el volumen V es ahora mayor que antes, y aunque la cantidad de materia es la misma, ésta
ahora puede ocupar más volumen. Así, la energía interna del sistema U variará de manera
que, en el nuevo estado de equilibrio, la entropía S tome el máximo valor posible. Dicho
valor es necesariamente mayor que el del estado de equilibrio previo. En efecto, podemos
concebir la situación en la que, aunque puede, el sistema se mantiene en su volumen
anterior, con la misma energía interna y misma materia. En ese caso, la entropía no habrá
cambiado. Y ese caso es compatible con los límites del sistema. Sin embargo, sabemos que
la naturaleza no opera así: el sistema tenderá a ocupar todo el volumen (aunque sea un
sólido, en cuyo caso la presión de vapor del sólido cambiará, o se evaporará más sólido,
etc), y el equilibrio se desplazará. La función entropía es aquella función matemática que
toma su valor máximo en ese nuevo equilibrio, y deberá ser por tanto mayor que en el
estado de equilibrio anterior.
 Desde el punto de vista microscópico, ocurre que ahora el número de microestados que
son compatibles con los límites del sistema ha aumentado. En efecto, seguiremos
teniendo los mismos de antes, pero a estos se les suman otros nuevos. Por ejemplo, ahora
un átomo podrá moverse no ya dentro del volumen anterior, sino también dentro de todo
el nuevo volumen.

Así, a la vez que la entropía aumenta se produce un incremento del número de microestados
posibles. Esto sugiere que la entropía puede identificarse con el número de microestados
consistentes con las limitaciones macroscópicas impuestas sobre el sistema. Siendo los
microestados producto del azar, y siendo la probabilidad de que cada uno de ellos se dé la
misma, es natural identificar por tanto entropía con desorden microscópico.

Existe un único problema: según la termodinámica, la entropía es aditiva. Esto es, la


entropía de dos sistemas iguales es el doble que la entropía individual de cada uno de ellos.
Sin embargo, el número de microestados posibles es multiplicativo. Esto es, el número de
microestados de dos sistemas es el producto del número de microestados de cada uno de
ellos. Por ejemplo, el número de "microestados" de dos dados, si el de cada uno de ellos es
6 (cada cara del dado es un microestado posible), es 6x6=36 microestados (tener un "1" en
el primero, un "3" en el segundo; un "2" en el primero, un "5" en el segundo, etc). Para
interpretar la entropía necesitaremos conseguir que el número de microestados cumpla una
regla aditiva.

La única solución a esto es identificar la entropía con el logaritmo del número de


microestados posibles. Llamando Ω al número de microestados y S a la entropía, podremos
escribir que:

Donde kB es la constante de Boltzmann, y aparece sencillamente para determinar la escala


de la entropía, que suele darse como energía por grado de temperatura (J/K), aunque según
esta interpretación podría carecer de unidades.

Interpretación canónica[editar]

La interpretación microcanónica de la entropía concibe un sistema termodinámico aislado,


esto es, un sistema termodinámico que no intercambia ni materia ni energía ni volumen con
el exterior: la composición del sistema, dada por N1,N2,..., su energía interna U y su
volumen V no cambian en ella. El sistema por antonomasia que cumple dichas condiciones
es el propio universo. Sin embargo, en muchas ocasiones se contemplan sistemas que sí
intercambian energía, masa o volumen con su entorno.

Para esos casos, es necesario extender las interpretaciones estadísticas de la entropía, si


bien globalmente es la interpretación microcanónica la que perdura. En efecto, si
consideramos un sistema que por ejemplo intercambia materia con su entorno, podemos
concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el
sistema global se amolde a la interpretación microcanónica; en el límite, dicho sistema será
el propio universo. Y es precisamente la entropía del sistema microcanónico la que queda
sujeta al segundo principio de la termodinámica, esto es, aquella que debe aumentar al
variarse el equilibrio global del sistema.

Evidentemente, podría entonces pensarse que cualquier sistema, sean cuales sean las
condiciones de intercambio con su entorno, puede ser tratado concibiendo el sistema global
que quede sujeto a la interpretación microcanónica. En efecto, en principio su estado de
equilibrio debería poder obtenerse sin más que considerar el número total de microestados
del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prácticamente
imposible de estimar en la mayor parte de las circunstancias: los cálculos combinatorios
sobre el número de formas en que la energía disponible en un sistema puede distribuirse
suele quedar más allá de todo conocimiento matemático. Y es para solventar esas
deficiencias que surgen el resto de interpretaciones de la entropía.

La interpretación canónica, a veces llamada formalismo canónico o de Helmholtz,


considera un sistema termodinámico capaz de intercambiar energía con un reservorio
térmico o termostato. Según esto, al disponer de una fuente infinita de energía, todo estado
energético, desde el de menor energía hasta el de mayor, será concebible para el sistema.
Sin embargo, en oposición al sistema microcanónico, la probabilidad de cada uno de esos
estados no será la misma: el sistema no estará la misma fracción de tiempo en cada uno de
esos estados. El punto central del formalismo canónico es determinar la distribución de
probabilidad de los microestados. Y dicho problema se resuelve teniendo en cuenta que el
sistema global formado por el termostato y el sistema en cuestión es un sistema cerrado,
esto es, cumple el formalismo microcanónico de que la probabilidad de cada microestado
global es la misma.

Si la energía total del sistema global es Etot, y la de un microestado del sistema local es Ej,
al estar el sistema local en un estado de energía Ej el termostato quedará reducido
inevitablemente a uno de energía Etot - Ej. La probabilidad de que el sistema global esté en
un microestado tal que el termostato tenga energía Etot - Ej y el sistema local Ej será
entonces:

Siguiendo la definición de la entropía según Boltzmann, dicha ecuación puede escribirse


como:

La energía interna U será el valor medio de la energía del sistema local, por lo que, como la
entropía es aditiva, puede escribirse que:
Si se desarrolla en serie tendremos que:

De este modo, la probabilidad puede expresarse como:

Y como es la energía libre de Helmholtz, podemos expresar dicha probabilidad como:

donde .

La probabilidad total de estar en alguno de dichos estados es la unidad, por lo que:

, de donde se define .

Z es las la llamada función de partición canónica, generalmente definida como:

Si para un sistema de partículas en equilibrio térmico se conoce la función de partición Z,


se puede calcular la entropía mediante:

Donde kB es la constante de Boltzmann, T la temperatura y las probabilidades Pj. Esta es la


interpretación de la entropía, llamada interpretación canónica o entropía de Helmholtz.

Entropía de Von Neumann en mecánica cuántica[editar]

En el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas
partículas que se comportan clásicamente, a principios del siglo XX Von Neumann
generalizó el concepto de entropía para sistemas de partículas cuánticas, definiendo para un
estados mezcla caracterizado por una matriz densidad ρ la entropía cuántica de Von
Neumann como la magnitud escalar:
Entropía generalizada en Relatividad general[editar]

El intento de extender el análisis termodinámico convencional al universo entero, llevó a


examinar a principios de los 70 el comportamiento termodinámico de estructuras como los
agujeros negros. El resultado preliminar de dicho análisis reveló algo muy interesante, que
la segunda ley tal como había sido formulada convencionalmente para sistemas clásicos y
cuánticos podría ser violada en presencia de agujeros negros. Sin embargo, los trabajos de
Jacob D. Bekenstein sobre teoría de la información y agujeros negros sugirieron que la
segunda ley seguiría siendo válida si se introducía una entropía generalizada (Sgen) que
sumara a la entropía convencional (Sconv), la entropía atribuible a los agujeros negros que
depende del área total (A) de agujeros negros en el universo. Concretamente esta entropía
generalizada debe definirse como:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de

gravitación universal y es la constante de Planck racionalizada.

Violaciones del Segundo Principio de la Termodinámica[editar]

Existen circunstancias en las que el segundo principio no es aplicable o, dicho de otra


manera, se pueden dar condiciones en sistemas concretos en los que el segundo principio de
la termodinámica no es cierto. Por regla general, este es el caso de sistemas de tamaño
atomísticos, sometidos a fluctuaciones cuánticas o fenómenos sobre escalas temporales
muy breves (del orden de femptosegundos o picosegundos).

El teorema de fluctuación[editar]

El teorema de fluctuación, enunciado en el contexto de la mecánica estadística, trata la


probabilidad relativa de que la entropía de un sistema que no se encuentra en equilibrio
termodinámico (esto es, un sistema tal que su entropía no es máxima) aumente o disminuya
en un período de tiempo determinado. El segundo principio de la termodinámica predice
que la entropía de todo sistema aislado tiende a incrementarse hasta que el sistema alcanza
el equilibrio termodinámico. Sin embargo, en mecánica estadística, la entropía es una
variable aleatoria, lo que sugiere que debería existir una probabilidad no nula de que la
entropía de un sistema aislado decrezca espontánemante. El teorema de fluctuación
cuantifica de manera exacta dicha probabilidad.3

El teorema de fluctuación fue propuesto en 1993 por Denis Evans, E.G.D. Cohen y Gary
Morriss, quienes emplearon simulaciones por ordenador para su prueba.4 La primera prueba
rigurosa del teorema fue dada por Denis Evans y Debra Searles en 1994.5 Desde entonces,
el teorema ha sido puesto a prueba en numerosos sistemas y colectividades estadísticos, y
siempre se ha demostrado cierto.

A grosso modo, el teorema de fluctuación trata sobre la distribución de probabilidad de la


tasa media de produción de entropía irreversible sobre un período de tiempo, denotada

como . El teorema establece que, en sistemas alejados del equilibrio termodinámico

durante un período de tiempo t, la razón entre la probabilidad de que tome un valor A,


y la probabilidad de que tome el valor opuesto, −A, sigue una proporción exponencial en
At. Dicho de otro modo, para un sistema finito que no está en equilibrio, durante un período
de tiempo finito, el teorema de fluctuación establece de manera precisa la probabilidad de
que la entropía del sistema fluya en sentido opuesto al dictado por el segundo principio de
la termodinámica.

Matemáticamente, queda expresado como:

De acuerdo con esta ecuación, se sigue que existe una cierta probabilidad de que el segundo
principio de la termodinámica pueda ser violado. Sin embargo, esta probabilidad depende

tanto del tiempo como del tamaño del sistema. En efecto, como la entropía es una
variable extensiva (lo que significa que ha de duplicar su valor si el tamaño del sistema se
duplica), la probabilidad de observar que la producción de entropía es opuesta a la dictada
por el segundo principio decae exponencialmente conforme el tamaño del sistema aumenta,
o el tiempo de observación es incrementado.

Es por ello importante indicar que el teorema de fluctuación no afirma que el segundo
principio de la termodinámica es falso o inválido. El segundo principio de la termodinámica
se refiere a sistemas macroscópicos. El teorema de fluctuación es más general, por cuanto
puede ser aplicado a sistemas microscópicos y macroscópicos. Como se ha dicho arriba,
cuando se aplica a sistemas lo suficientemente grandes, de acuerdo con el teorema la
probabilidad de que el flujo de entropía sea negativo es nula, con lo que el teorema se
vuelve equivalente al segundo principio de la termodinámica.

Sin embargo, el teorema sí que indica que, en sistemas microscópicos y sobre períodos de
tiempo muy breves, el segundo principio puede ser violado (en su interpretación no
macroscópica).
Proceso Irreversibilidad
De Wikipedia, la enciclopedia libre

Saltar a: navegación, búsqueda

En termodinámica, el concepto de irreversibilidad se aplica a aquellos procesos que, como


la entropía, no son reversibles en el tiempo. Desde esta perspectiva termodinámica, todos
los procesos naturales son irreversibles. El fenómeno de la irreversibilidad resulta del hecho
de que si un sistema termodinámico de moléculas interactivas es trasladado de un estado
termodinámico a otro, ello dará como resultado que la configuración o distribución de
átomos y moléculas en el seno de dicho sistema variará.

Cierta cantidad de "energía de transformación" se activará cuando las moléculas del


"cuerpo de trabajo" interaccionen entre sí al cambiar de un estado a otro. Durante esta
transformación, habrá cierta pérdida o disipación de energía calorífica, atribuible al
rozamiento intermolecular y a las colisiones.

Lo importante es que dicha energía no será recuperable si el proceso se invierte.


Absoluto contra reversibilidad estadística[editar]

La termodinámica define el comportamiento estadístico de muchas entidades, cuyo exacto


comportamiento es dado por leyes más específicas. Debido a que las leyes fundamentales
de la física son en todo momento reversibles,1 puede argumentarse que la irreversibilidad
de la termodinámica debe presentarse estadísticamente en la naturaleza, es decir, que debe
simplemente ser muy improbable, pero no imposible, que la entropía disminuya con el
tiempo en un sistema dado.

Historia[editar]

El físico alemán Rudolf Clausius, en los años 50 del siglo XIX, fue el primero en
cuantificar matemáticamente el fenómeno de la irreversibilidad en la naturaleza, y lo hizo a
través de la introducción del concepto de entropía. En su escrito de 1854 "Sobre la
modificación del segundo teorema fundamental en la teoría mecánica del calor", Clausius
afirma:

Podría ocurrir, además, que en lugar de un descenso en la transmisión de calor que acompañaría, en
el único y mismo proceso, la transmisión en aumento, puede ocurrir otro cambio permanente, que
tiene la peculiaridad de no ser reversible, sin que pueda tampoco ser reemplazado por un nuevo
cambio permanente de una clase similar, o producir un descenso en la transmisión de calor.

Sistemas complejos[editar]

Sin embargo, aun en el caso de que los físicos afirmen que todo proceso es irreversible en
cierto sentido, la diferencia entre los eventos reversibles e irreversibles tiene valor
explicativo, si son considerados los sistemas más complejos, como organismos vivos,
especies o ecosistemas.

De acuerdo con los biólogos Humberto Maturana y Francisco Varela, los seres vivos se
caracterizan por la autopoiesis, que permite su existencia en el tiempo.

Formas más primitivas de sistemas autoorganizados han sido descritas por el físico y
químico belga Ilya Prigogine. En el contexto de sistemas complejos, los eventos que
resultan al final de ciertos procesos autoorganizativos, como la muerte, la extinción de una
especie o el colapso de un sistema meteorológico, pueden ser considerados irreversibles.

Incluso si desarrollamos un clon con el mismo principio organizativo (por ejemplo, idéntica
estructura de ADN), esto no quiere decir que el viejo sistema volviese a reproducirse. Los
eventos a los que pueden adaptarse las capacidades de autoorganización de los organismos,
especies u otros sistemas complejos, de la misma manera que lesiones menores o cambios
en el ambiente físico, son reversibles. Principios ecológicos como la sostenibilidad y el
principio de precaución pueden ser definidos con referencia al concepto de reversibilidad.
Con todo, la postura de Ilya Prigogine sobre la irreversibilidad y la entropía varía con
respecto a la de la física tradicional. En su conferencia El nacimiento del tiempo (Roma,
1987), el científico sostuvo:

La entropía contiene siempre dos elementos dialécticos: un elemento creador de desorden, pero
también un elemento creador de orden. (...) Vemos, pues, que la inestabilidad, las fluctuaciones y la
irreversibilidad desempeñan un papel en todos los niveles de la naturaleza: químico, ecológico,
climatológico, biológico -con la formación de biomoléculas-, y finalmente cosmológico.
Proceso reversible
De Wikipedia, la enciclopedia libre

Saltar a: navegación, búsqueda

Se ha sugerido que este artículo o sección sea fusionado con Reversibilidad (discusión).
Una vez que hayas realizado la fusión de contenidos, pide la fusión de historiales aquí.

Se denominan procesos reversibles a aquellos que hacen evolucionar a un sistema


termodinámico desde un estado de equilibrio1 inicial a otro nuevo estado de equilibrio final
a través de infinitos estados de equilibrio.

De una manera simplificada, se puede decir que un proceso reversible es aquel proceso que,
después de ser llevado de un estado inicial a uno final, puede retomar sus propiedades
originales.

Estos procesos son procesos ideales,2 ya que el tiempo necesario para que se establezcan
esos infinitos estados de equilibrio intermedio sería infinito.
La variación de las variables de estado del sistema,3 entre uno de estos estados de equilibrio
intermedio y el sucesivo es una variación infinitesimal, es decir, la diferencia que hay entre
el valor de una de las variables en un estado y el siguiente es un infinitésimo.

Un proceso reversible es aquel en que se puede hacer que el sistema vuelva a su estado
original, sin variación neta del sistema ni del medio exterior.

Véanse también: Reversibilidad y Reacción reversible.

Procesos reversibles e irreversibles

Los procesos se pueden clasificar en reversibles e irreversibles. El concepto de proceso


reversible nos permite reconocer, evaluar y reducir las irreversibilidades en procesos reales
en la ingeniería.

Consideremos un sistema aislado. La Segunda Ley nos dice que cualquier proceso que
redujera la entropía del sistema aislado es imposible. Supongamos que un proceso ocurre
dentro del sistema aislado y que llamaremos en dirección hacia adelante. Si el cambio en el
estado del sistema es tal que la entropía aumenta para el proceso que llamamos hacia
adelante, entonces para el proceso hacia atrás (es decir, para el cambio en reversa hacia el
estado inicial) la entropía disminuiría. Este proceso en reversa es imposible para el sistema
aislado, y por lo tanto decimos que el proceso hacia adelante es irreversible.

Si ocurre un proceso, sin embargo, en el cual la entropía no cambia (proceso isentrópico)


por el proceso hacia adelante, entonces también el proceso hacia atrás permanece sin
cambios. Tal proceso puede ir en cualquier dirección sin violar La Segunda Ley. Los
procesos de este tipo se llaman reversibles. La idea fundamental de un proceso reversible es
que no produce entropía.

La entropía se produce en procesos irreversibles. Todos los procesos verdaderos (con la


posible excepción de flujo de corriente en superconductores) presentan cierta medida
irreversible, aunque muchos procesos se pueden analizar adecuadamente si se asume que
son reversibles. Algunos procesos que son claramente irreversibles son: la mezcla de dos
gases, la combustión espontánea, la fricción, y de la transferencia de la energía como calor
de un cuerpo con mayor temperatura hacia un cuerpo con menor temperatura.

El reconocimiento de las irreversibilidades en un proceso verdadero es especialmente


importante en la ingeniería. La irreversibilidad, o alejarse de la condición ideal de la
reversibilidad, refleja un aumento en la cantidad de energía no organizada a expensas de
energía mejor organizada. La energía organizada (tal como el de un peso levantado) se
pone fácilmente en uso práctico; la energía desorganizada (tal como los movimientos al
azar de las moléculas en un gas) requiere ``forzar o restringir'' antes de que pueda ser
utilizada con eficacia. El ingeniero se esfuerza constantemente en reducir la
irreversibilidades de los sistemas para obtener un funcionamiento mejor de estos
Enunciado Teorema de charnot
El teorema de Carnot es un enunciado alternativo del Segundo Principio de
la termodinámica, que se formula a partir de la comparación entre
máquinas reversibles y máquinas irreversibles como:

El rendimiento de una máquina térmica M que opere entre dos focos no


puede ser superior que el de una máquina reversible que opere entre los
mismos focos

cumpliéndose la igualdad si la máquina M es también reversible y la


desigualdad si es irreversible.

Puede demostrarse que el teorema de Carnot es equivalente al enunciado


de Kelvin-Planck, aunque está formulado de una forma mucho más
concreta que éste. El de Kelvin-Planck simplemente nos dice que no existe
la máquina perfecta con rendimiento del 100%. El teorema de Carnot nos
dice además que existe un máximo para ese rendimiento e incluso
establece cómo hallar ese máximo. Basta con calcular el rendimiento de
una máquina reversible que actúe entre las dos temperaturas indicadas.

Máquinas reversibles puede haber muchas con diferentes soportes (solo


gas, agua y vapor, materiales magnéticos,…) por lo que puede resultar
sorprendente que el rendimiento de todas ellas sea el mismo si trabajan
entre las mismas temperaturas.

Calculando el rendimiento de una en particular, como la de Carnot resulta

siendo Tf la temperatura del foco frío y Tc la del foco caliente, por tanto,
el teorema de Carnot equivale a

2 Demostración
Para demostrar la equivalencia del teorema de Carnot con el resto de
enunciados nos basta hacerlo con uno de ellos.
Es evidente que si no se cumple el enunciado de Kelvin-Planck no se
cumple el teorema de Carnot, ya que una máquina que transformara todo
el calor en trabajo tendría un rendimiento de 1, lo que supera el
rendimiento de una máquina reversible.

Veamos que el recíproco también es cierto. Supongamos que tenemos dos


máquinas térmicas: una máquina térmica M (reversible o irreversible), que
tiene un rendimiento ηM y una reversible R, con rendimiento ηR.

Suponemos que el rendimiento de la máquina M es superior al de la


máquina R

(hipótesis)

Esto quiere decir que, para la misma cantidad de calor absorbido | Qc | , la


máquina M realiza un trabajo | WM | superior al que hace la máquina R, | WR
| y produce menos calor de desecho.

Si ahora invertimos la máquina R, convirtiéndola en un refrigerador,


resulta que el conjunto es un dispositivo que no toma calor del foco
caliente (ya que el calor | Qc | que toma M lo devuelve R), realiza un
trabajo neto | WM | − | WR | y toma una cantidad de calor equivalente del
foco frío

esto es, este dispositivo toma calor de un solo foco y lo convierte en


trabajo, lo que viola el enunciado de Kelvin-Planck. Concluimos por tanto
que debe ser

3 Corolario
En la demostración anterior no se ha supuesto que la máquina M sea
irreversible. En el caso particular de que sea reversible (la etiquetamos
como R') obtenemos que podemos repetir el razonamiento invirtiendo R' y
dejando R como máquina y obtenemos entonces
lo que nos da el corolario al Teorema de Carnot:

Todas las máquinas térmicas reversibles que operen entre las mismas
temperaturas poseen el mismo rendimiento

Este rendimiento se puede calcular empleando cualquier máquina de este


tipo. La más sencilla es la máquina de Carnot para la cual el rendimiento
es

El ciclo de Carnot no es el único que posee esta propiedad. El ciclo de


Stirling y el ciclo de Ericsson con recirculación de calor son también ciclos
reversibles con el mismo rendimiento.

4 Relación con el aumento de entropía


El teorema de Carnot se relaciona directamente con la producción de
entropía en una máquina térmica.

En una máquina que opera cíclicamente:

 La entropía del sistema (la máquina) no cambia en un ciclo, por ser la


entropía una función de estado.

 La entropía del ambiente disminuye al ceder calor Qc a una temperatura


Tc.

 La entropía del ambiente aumenta al absorber un calor Qf a una


temperatura Tf.

La variación total de entropía sería

Esta variación debe ser positiva en una máquina irreversible y nula en una
reversible

Por otro lado tenemos que en la misma máquina se cumple el primer


principio de la termodinámica
Combinando ambas ecuaciones:

lo que nos dice que el trabajo que puede obtenerse de una máquina es
como máximo

y que el rendimiento de una máquina cualquiera es

que para una máquina irreversible será inferior al de una reversible, siendo
imposible que sea superior (ya que llo implicaría una disminución de la
entropía del universo).

que es de nuevo el enunciado de Kelvin-Planck.

5 Refrigeradores y bombas de calor


La aplicación del teorema de Carnot a un refrigerador establece que el
COP máximo lo da un refrigerador que opere según un ciclo reversible,
como el de Carnot. Este valor máximo es

Para un frigorífico que mantiene los productos a 5°C en una habitación a


22°C este valor máximo es 16.4. Un frigorífico real posee un COP en torno
a 4.

Para una bomba de calor, el COP máximo lo da también una bomba


reversible, siendo su valor máximo
Una bomba de calor que mantiene una habitación a 22°C mientras el
exterior está a 5°C tiene un coeficiente de desempeño máximo de 17.4
(uno más que para el frigorífico).
El Teorema y la Desigualdad de Clausius
La igualdad anterior representa el Teorema de Clausius y sólo se aplica al ciclo ideal o ciclo
Carnot. Puesto que la integral representa el cambio neto en la entropía en un ciclo
completo, al ciclo de motor más eficiente se le atribuye un cambio de entropía cero.

La desigualdad de Clausius se aplica a cualquier motor de ciclo real y supone para el ciclo un
cambio negativo de la entropía. Es decir, la entropía dada al medio ambiente durante el ciclo, es
más grande que la entropía transferida por el calor del foco caliente al motor. En el motor térmico
simplificado, donde se añade todo el calor QH a la temperatura TH, entonces para completar el
ciclo se añade al sistema una cantidad de entropía ΔS = QH/TH, que se obtiene del medio ambiente.
En general, la temperatura del motor será menor que TH al menos durante la parte del tiempo en
que se está añadiendo calor, y cualquier diferencia de temperatura supone un proceso
irreversible. En cualquier proceso irreversible se crea un exceso de entropía, y por tanto se debe
arrojar mas calor al foco frío, para deshacerse de esta entropía. Esto deja menos energía para
realizar trabajo

También podría gustarte