Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas
maneras todas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este
último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica
estadística y la teoría de la información, queda ligado al grado de desorden de la materia y
la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física
de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin
embargo, esta interpretación meramente fenomenológica de la entropía es totalmente
consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado
gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estado
líquido con sus moléculas más juntas y más ordenadas.
Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las
estrellas, las mismas, al convertir el hidrógeno, su combustible principal, en helio generan
luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía
suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los
núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando
fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un
elemento obtiene otro que le es más inútil para obtener energía y por ende la estrella muere,
y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es
así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del
universo.
Definición axiomática[editar]
En un estado de equilibrio, los valores que toman los parámetros característicos de un sistema
termodinámico cerrado son tales que maximizan el valor de una cierta magnitud que está en función
de dichos parámetros, llamada entropía.
El segundo principio de la termodinámica establece que dicha entropía sólo puede definirse
para estados de equilibrio termodinámico, y que de entre todos los estados de equilibrio
posibles –que vendrán definido por los parámetros característicos–, sólo se puede dar el
que, de entre todos ellos, maximiza la entropía.
Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente
al equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean
compatibles con los límites o contornos del sistema. Entre ellos se encuentra,
evidentemente, el estado de equilibrio de partida. Si el sistema varía su estado de equilibrio
desde el de partida a otro, ello es debido a que la entropía del nuevo estado es mayor que la
del estado inicial; si el sistema cambia de estado de equilibrio, su entropía sólo puede
aumentar. Por tanto, la entropía de un sistema aislado termodinámicamente sólo puede
incrementarse. Suponiendo que el universo partió de un estado de equilibrio, que en todo
instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el
universo es un sistema aislado, el segundo principio de la termodinámica puede formularse
de la siguiente manera;
Descripción general[editar]
Suponiendo estados iniciales y finales de equilibrio, el principio establece que los sistemas físicos
saltan de un estado con cierto orden a un estado menos ordenado, aumentando su entropía. El
proceso inverso es imposible de forma espontánea.
Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de
temperaturas entre dos cuerpos. Dado que cualquier máquina termodinámica requiere una
diferencia de temperatura, se deriva pues que ningún trabajo útil puede extraerse de un
sistema aislado en equilibrio térmico, esto es, se requerirá de la alimentación de energía del
exterior. Ese principio empírico, extraído de la observación continua de cómo funciona el
universo, constituye uno de los primeros enunciados del Segundo Principio de la
Termodinámica: es imposible todo proceso cíclico cuyo único resultado sea la absorción
de energía en forma de calor procedente de un foco térmico (o reservorio o depósito
térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de
trabajo.
Enunciados clásicos[editar]
Algunos corolarios del principio, a veces empleados como enunciados alternativos, serían:
«Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al
mismo estado del que partieron».
«En un sistema aislado, ningún proceso puede ocurrir si a él se asocia una disminución de la
entropía total del sistema.»
Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos
capaces de aislar térmicamente al sistema de manera absoluta, no podremos evitar los
efectos gravitatorios que el resto del universo seguirá ejerciendo sobre la materia que
hayamos encerrado dentro; tampoco podrá aislarse perfectamente de todos los campos
electromagnéticos que lo rodeen, por muy débiles que puedan resultar. En definitiva, el
sistema podrá estar cerrado a efectos macroscópicos, pero la acción de todo tipo de campos
de fuerza (sean de gravedad, eléctricas,...) y la propia interacción del sistema con las
paredes que lo encierren harán que, al menos desde un punto de vista microscópico, el
sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuas
transiciones de un estado cuántico a otro cuyas causas son, a todos los efectos, meramente
azarosas, de tantas y tan indefinidas que pueden ser.
Si retiramos ahora una restricción al sistema macroscópico, como por ejemplo permitir que
el volumen sea ahora mayor que antes, pasarán dos cosas:
Así, a la vez que la entropía aumenta se produce un incremento del número de microestados
posibles. Esto sugiere que la entropía puede identificarse con el número de microestados
consistentes con las limitaciones macroscópicas impuestas sobre el sistema. Siendo los
microestados producto del azar, y siendo la probabilidad de que cada uno de ellos se dé la
misma, es natural identificar por tanto entropía con desorden microscópico.
Interpretación canónica[editar]
Evidentemente, podría entonces pensarse que cualquier sistema, sean cuales sean las
condiciones de intercambio con su entorno, puede ser tratado concibiendo el sistema global
que quede sujeto a la interpretación microcanónica. En efecto, en principio su estado de
equilibrio debería poder obtenerse sin más que considerar el número total de microestados
del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prácticamente
imposible de estimar en la mayor parte de las circunstancias: los cálculos combinatorios
sobre el número de formas en que la energía disponible en un sistema puede distribuirse
suele quedar más allá de todo conocimiento matemático. Y es para solventar esas
deficiencias que surgen el resto de interpretaciones de la entropía.
Si la energía total del sistema global es Etot, y la de un microestado del sistema local es Ej,
al estar el sistema local en un estado de energía Ej el termostato quedará reducido
inevitablemente a uno de energía Etot - Ej. La probabilidad de que el sistema global esté en
un microestado tal que el termostato tenga energía Etot - Ej y el sistema local Ej será
entonces:
La energía interna U será el valor medio de la energía del sistema local, por lo que, como la
entropía es aditiva, puede escribirse que:
Si se desarrolla en serie tendremos que:
donde .
, de donde se define .
En el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas
partículas que se comportan clásicamente, a principios del siglo XX Von Neumann
generalizó el concepto de entropía para sistemas de partículas cuánticas, definiendo para un
estados mezcla caracterizado por una matriz densidad ρ la entropía cuántica de Von
Neumann como la magnitud escalar:
Entropía generalizada en Relatividad general[editar]
El teorema de fluctuación[editar]
El teorema de fluctuación fue propuesto en 1993 por Denis Evans, E.G.D. Cohen y Gary
Morriss, quienes emplearon simulaciones por ordenador para su prueba.4 La primera prueba
rigurosa del teorema fue dada por Denis Evans y Debra Searles en 1994.5 Desde entonces,
el teorema ha sido puesto a prueba en numerosos sistemas y colectividades estadísticos, y
siempre se ha demostrado cierto.
De acuerdo con esta ecuación, se sigue que existe una cierta probabilidad de que el segundo
principio de la termodinámica pueda ser violado. Sin embargo, esta probabilidad depende
tanto del tiempo como del tamaño del sistema. En efecto, como la entropía es una
variable extensiva (lo que significa que ha de duplicar su valor si el tamaño del sistema se
duplica), la probabilidad de observar que la producción de entropía es opuesta a la dictada
por el segundo principio decae exponencialmente conforme el tamaño del sistema aumenta,
o el tiempo de observación es incrementado.
Es por ello importante indicar que el teorema de fluctuación no afirma que el segundo
principio de la termodinámica es falso o inválido. El segundo principio de la termodinámica
se refiere a sistemas macroscópicos. El teorema de fluctuación es más general, por cuanto
puede ser aplicado a sistemas microscópicos y macroscópicos. Como se ha dicho arriba,
cuando se aplica a sistemas lo suficientemente grandes, de acuerdo con el teorema la
probabilidad de que el flujo de entropía sea negativo es nula, con lo que el teorema se
vuelve equivalente al segundo principio de la termodinámica.
Sin embargo, el teorema sí que indica que, en sistemas microscópicos y sobre períodos de
tiempo muy breves, el segundo principio puede ser violado (en su interpretación no
macroscópica).
Proceso Irreversibilidad
De Wikipedia, la enciclopedia libre
Historia[editar]
El físico alemán Rudolf Clausius, en los años 50 del siglo XIX, fue el primero en
cuantificar matemáticamente el fenómeno de la irreversibilidad en la naturaleza, y lo hizo a
través de la introducción del concepto de entropía. En su escrito de 1854 "Sobre la
modificación del segundo teorema fundamental en la teoría mecánica del calor", Clausius
afirma:
Podría ocurrir, además, que en lugar de un descenso en la transmisión de calor que acompañaría, en
el único y mismo proceso, la transmisión en aumento, puede ocurrir otro cambio permanente, que
tiene la peculiaridad de no ser reversible, sin que pueda tampoco ser reemplazado por un nuevo
cambio permanente de una clase similar, o producir un descenso en la transmisión de calor.
Sistemas complejos[editar]
Sin embargo, aun en el caso de que los físicos afirmen que todo proceso es irreversible en
cierto sentido, la diferencia entre los eventos reversibles e irreversibles tiene valor
explicativo, si son considerados los sistemas más complejos, como organismos vivos,
especies o ecosistemas.
De acuerdo con los biólogos Humberto Maturana y Francisco Varela, los seres vivos se
caracterizan por la autopoiesis, que permite su existencia en el tiempo.
Formas más primitivas de sistemas autoorganizados han sido descritas por el físico y
químico belga Ilya Prigogine. En el contexto de sistemas complejos, los eventos que
resultan al final de ciertos procesos autoorganizativos, como la muerte, la extinción de una
especie o el colapso de un sistema meteorológico, pueden ser considerados irreversibles.
Incluso si desarrollamos un clon con el mismo principio organizativo (por ejemplo, idéntica
estructura de ADN), esto no quiere decir que el viejo sistema volviese a reproducirse. Los
eventos a los que pueden adaptarse las capacidades de autoorganización de los organismos,
especies u otros sistemas complejos, de la misma manera que lesiones menores o cambios
en el ambiente físico, son reversibles. Principios ecológicos como la sostenibilidad y el
principio de precaución pueden ser definidos con referencia al concepto de reversibilidad.
Con todo, la postura de Ilya Prigogine sobre la irreversibilidad y la entropía varía con
respecto a la de la física tradicional. En su conferencia El nacimiento del tiempo (Roma,
1987), el científico sostuvo:
La entropía contiene siempre dos elementos dialécticos: un elemento creador de desorden, pero
también un elemento creador de orden. (...) Vemos, pues, que la inestabilidad, las fluctuaciones y la
irreversibilidad desempeñan un papel en todos los niveles de la naturaleza: químico, ecológico,
climatológico, biológico -con la formación de biomoléculas-, y finalmente cosmológico.
Proceso reversible
De Wikipedia, la enciclopedia libre
Se ha sugerido que este artículo o sección sea fusionado con Reversibilidad (discusión).
Una vez que hayas realizado la fusión de contenidos, pide la fusión de historiales aquí.
De una manera simplificada, se puede decir que un proceso reversible es aquel proceso que,
después de ser llevado de un estado inicial a uno final, puede retomar sus propiedades
originales.
Estos procesos son procesos ideales,2 ya que el tiempo necesario para que se establezcan
esos infinitos estados de equilibrio intermedio sería infinito.
La variación de las variables de estado del sistema,3 entre uno de estos estados de equilibrio
intermedio y el sucesivo es una variación infinitesimal, es decir, la diferencia que hay entre
el valor de una de las variables en un estado y el siguiente es un infinitésimo.
Un proceso reversible es aquel en que se puede hacer que el sistema vuelva a su estado
original, sin variación neta del sistema ni del medio exterior.
Consideremos un sistema aislado. La Segunda Ley nos dice que cualquier proceso que
redujera la entropía del sistema aislado es imposible. Supongamos que un proceso ocurre
dentro del sistema aislado y que llamaremos en dirección hacia adelante. Si el cambio en el
estado del sistema es tal que la entropía aumenta para el proceso que llamamos hacia
adelante, entonces para el proceso hacia atrás (es decir, para el cambio en reversa hacia el
estado inicial) la entropía disminuiría. Este proceso en reversa es imposible para el sistema
aislado, y por lo tanto decimos que el proceso hacia adelante es irreversible.
siendo Tf la temperatura del foco frío y Tc la del foco caliente, por tanto,
el teorema de Carnot equivale a
2 Demostración
Para demostrar la equivalencia del teorema de Carnot con el resto de
enunciados nos basta hacerlo con uno de ellos.
Es evidente que si no se cumple el enunciado de Kelvin-Planck no se
cumple el teorema de Carnot, ya que una máquina que transformara todo
el calor en trabajo tendría un rendimiento de 1, lo que supera el
rendimiento de una máquina reversible.
(hipótesis)
3 Corolario
En la demostración anterior no se ha supuesto que la máquina M sea
irreversible. En el caso particular de que sea reversible (la etiquetamos
como R') obtenemos que podemos repetir el razonamiento invirtiendo R' y
dejando R como máquina y obtenemos entonces
lo que nos da el corolario al Teorema de Carnot:
Todas las máquinas térmicas reversibles que operen entre las mismas
temperaturas poseen el mismo rendimiento
Esta variación debe ser positiva en una máquina irreversible y nula en una
reversible
lo que nos dice que el trabajo que puede obtenerse de una máquina es
como máximo
que para una máquina irreversible será inferior al de una reversible, siendo
imposible que sea superior (ya que llo implicaría una disminución de la
entropía del universo).
La desigualdad de Clausius se aplica a cualquier motor de ciclo real y supone para el ciclo un
cambio negativo de la entropía. Es decir, la entropía dada al medio ambiente durante el ciclo, es
más grande que la entropía transferida por el calor del foco caliente al motor. En el motor térmico
simplificado, donde se añade todo el calor QH a la temperatura TH, entonces para completar el
ciclo se añade al sistema una cantidad de entropía ΔS = QH/TH, que se obtiene del medio ambiente.
En general, la temperatura del motor será menor que TH al menos durante la parte del tiempo en
que se está añadiendo calor, y cualquier diferencia de temperatura supone un proceso
irreversible. En cualquier proceso irreversible se crea un exceso de entropía, y por tanto se debe
arrojar mas calor al foco frío, para deshacerse de esta entropía. Esto deja menos energía para
realizar trabajo