P. 1
Segundo principio de la termodinámica

Segundo principio de la termodinámica

|Views: 8|Likes:
Publicado porbleizher

More info:

Published by: bleizher on May 15, 2013
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

01/30/2015

pdf

text

original

Segundo principio de la termodinámica

Saltar a: navegación, búsqueda El segundo principio de la termodinámica o segunda ley de la termodinámica,1 expresa que: La cantidad de entropía del universo tiende a incrementarse en el tiempo.2 Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas maneras todas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información, queda ligado al grado de desorden de la materia y la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin embargo, esta interpretación meramente fenomenológica de la entropía es totalmente consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estado líquido con sus moléculas más juntas y más ordenadas. El segundo principio de la termodinámica dictamina que si bien la materia y la energía no se pueden crear ni destruir, sí que se transforman, y establece el sentido en el que se produce dicha transformación. Sin embargo, el punto capital del segundo principio es que, como ocurre con toda la teoría termodinámica, se refiere única y exclusivamente a estados de equilibrio. Toda definición, corolario o concepto que de él se extraiga sólo podrá aplicarse a estados de equilibrio, por lo que, formalmente, parámetros tales como la temperatura o la propia entropía quedarán definidos únicamente para estados de equilibrio. Así, según el segundo principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de entropía en el estado de equilibrio B será la máxima posible, e inevitablemente mayor a la del estado de equilibrio A. Evidentemente, el sistema sólo hará trabajo cuando esté en el tránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistema era cerrado, su energía y cantidad de materia no han podido variar; si la entropía debe de maximizarse en cada transición de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un límite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la mecánica estadística el desorden equivalente debe aumentar exponencialmente. Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las estrellas, las mismas, al convertir el hidrógeno, su combustible principal, en helio generan luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un elemento obtiene otro que le es más inútil para obtener energía y por ende la estrella muere, y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del universo.

su volumen y su composición molar. los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con los límites o contornos del sistema. Entre ellos se encuentra.Índice     1 Definición axiomática 2 Descripción general o 2. como podrían serlo la temperatura o la presión. 3 La entropía de un sistema es una magnitud física abstracta que la mecánica estadística identifica con el grado de desorden molecular interno de un sistema físico. la entropía será también una función de dichos parámetros.2 Entropía en mecánica estadística  2. y que sólo puede definirse para los estados de equilibrio del sistema.2. sólo se puede dar el que. llamado a veces el principio de estado. el estado de equilibrio de un sistema queda totalmente definido por medio de la energía interna del sistema. la define como la relación entre el calor transmitido y la temperatura a la que se transmite. Así. La termodinámica clásica. en cambio. define a la entropía como una cierta función –a priori. se define como una función de dichos parámetros. Dichos parámetros característicos se establecen a partir de un postulado derivado del primer principio de la termodinámica. maximiza la entropía.4 Entropía generalizada en Relatividad general 3 Véase también 4 Notas Definición axiomática La definición formal del segundo principio de la termodinámica establece que: En un estado de equilibrio.2. los valores que toman los parámetros característicos de un sistema termodinámico cerrado son tales que maximizan el valor de una cierta magnitud que está en función de dichos parámetros.1 Enunciados clásicos o 2. llamada entropía. Según éste.3 Entropía de Von Neumann en mecánica cuántica o 2. Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al equilibrio. El segundo principio de la termodinámica establece que dicha entropía sólo puede definirse para estados de equilibrio termodinámico. de forma desconocida–. . Cualquier otro parámetro termodinámico.1 Interpretación microcanónica de la entropía con base en el segundo principio de la termodinámica  2. de entre todos ellos. La termodinámica axiomática. y que de entre todos los estados de equilibrio posibles –que vendrán definido por los parámetros característicos–. que depende de los llamados "parámetros característicos" del sistema. en cambio.2 Interpretación canónica o 2.

Por tanto. el principio establece que los sistemas físicos saltan de un estado con cierto orden a un estado menos ordenado. En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio. es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio. la entropía no puede ser una función del tiempo. la entropía de un sistema aislado termodinámicamente sólo puede incrementarse. que en todo instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el universo es un sistema aislado. por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto. La cantidad de entropía del universo tiende a incrementarse con el tiempo. Así. no se habrá incurrido en una inconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al único real (el final).evidentemente. dividido por la temperatura de equilibrio T del sistema:4 Descripción general Suponiendo estados iniciales y finales de equilibrio. Formalmente. el segundo principio de la termodinámica puede formularse de la siguiente manera. si el sistema cambia de estado de equilibrio. Si el sistema varía su estado de equilibrio desde el de partida a otro. El proceso inverso es imposible de forma espontánea. En tanto en cuanto el estado de equilibrio final sea aquél de máxima entropía posible. Sin embargo. Suponiendo que el universo partió de un estado de equilibrio. por lo que la entropía en dichos estados de no-equilibrio no puede definirse sin incurrir en inconsistencias formales dentro de la propia termodinámica. ello es debido a que la entropía del nuevo estado es mayor que la del estado inicial. procedimiento que permite introducir al tiempo como parámetro. Cuando se hace. La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual — exclusivo para procesos reversibles — que la transferencia de calor Q producida. la entropía sólo puede definirse para estados en equilibrio. . el estado de equilibrio de partida. aumentando su entropía. la termodinámica axiomática no reconoce al tiempo como una variable termodinámica. su entropía sólo puede aumentar.

de manera general. De hecho. para transmitírselo a otro caliente. Ese principio empírico. higher temperature. era necesario aportar energía adicional (el combustible). el cual a su vez se enfriaría. De hecho. podría razonarse que. se requerirá de la alimentación de energía del exterior. En efecto. El concepto de máquina térmica aparece así íntimamente ligado al enunciado inicial del segundo principio. Clausius. Desechada la teoría del calórico. jamás se observaba que la caldera se calentara tomando energía de su entorno.El enunciado axiomático del segundo principio pone inmediatamente de manifiesto su principal característica: se trata de una de las pocas leyes ontológicas de la Física. las máquinas térmicas parecían obedecer una determinada ley. las máquinas podrían funcionar sin necesitar combustible. el segundo principio permite determinar la posibilidad de un proceso o estado. de no haber sido así. ayuda mecánica externa. se deriva pues que ningún trabajo útil puede extraerse de un sistema aislado en equilibrio térmico. basándose en los resultados de Carnot: Es imposible que una máquina. transfiera calor de un cuerpo a otro to convey heat from one body to another at a más caliente. tenía un extraordinario impacto en las máquinas empleadas en la Revolución Industrial: por ejemplo. Kelvin ofrece un nuevo enunciado: . nada impide que. Clausius fue el primero. constituye uno de los primeros enunciados del Segundo Principio de la Termodinámica: es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico). por ejemplo a 200K. que se materializó en el segundo principio: para producir trabajo mecánico. Enunciados clásicos La segunda ley de la termodinámica ha sido expresada de muchas maneras diferentes. Sin embargo. en tanto que distingue. por ejemplo. todo esto es contrario a toda experiencia. esto es. Dado que cualquier máquina termodinámica requiere una diferencia de temperatura. pues la energía necesaria podría transferirse de manera espontánea del resto del ambiente. por ejemplo a 1000K: basta con que se cumpla el balance energético correspondiente. sin embargo. siempre se observaba. espontáneamente. en plena Revolución Industrial en el contexto de las máquinas térmicas como una explicación empírica de por qué éstas se comportaban de una manera determinada y no de otra. extraído de la observación continua de cómo funciona el universo. y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo. que a su vez era siempre mayor que la cantidad de trabajo extraído. aquellos procesos y estados físicos que son posible de aquellos que no lo son. y el caliente se calentaría más aún. a consecuencia del cual el cuerpo frío se enfriaría aún más. sin It is imposible for a self-acting machine. en un sentido histórico el segundo principio surgió. aunque parezca trivial. que para calentar una caldera era necesario emplear combustible ardiendo a mayor temperatura que la de la caldera. sea posible extraer calor de un cuerpo frío. Sin embargo. unaided by any external agency. esto es. Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre dos cuerpos. originalmente en alemán (1850) y traducido por Kelvin. y aunque parezca común y hasta trivial. en 1851. en virtud del primer principio de la termodinámica.

a veces empleados como enunciados alternativos. utilizando un fluido inerte. Matemáticamente. Carathéodory En cada vecindad arbitrariamente próxima a un estado inicial dado. «En un sistema aislado. Finalmente. Ésta no podría producir trabajo si no fuese porque el vapor se encuentra a temperaturas y presión elevadas comparados con el medio que la rodea. serían: «Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al mismo estado del que partieron». Visualmente. Algunos corolarios del principio. basándose en los estudios de Kelvin establece un enunciado muy sencillo: Es imposible construir una máquina que no haga otra cosa que elevar un peso y causar el correspondiente enfriamiento en una fuente térmica. Carathéodory en 1909. It is imposible. mediante procesos adiabáticos. el enunciado más formal sería el del matemático C. pueda producir trabajo efectivo causado por el enfriamiento del cuerpo más frío de que se disponga. debido a Clausius. se expresa así: . It is imposible to construct a machine which functions with a regular period and which does nothing but raise a weight and causes a corresponding cooling of a heat reservoir. existen estados a los que. by means of inanimate material agency.» Corolario del principio. ningún proceso puede ocurrir si a él se asocia una disminución de la entropía total del sistema. en 1909. Enunciado de Kelvin. to derive mechanical effect any portion of matter by cooling it below the temperature of the coldest of the surrounding objects. el segundo principio se puede expresar imaginando una caldera de un barco de vapor. no se pueden acercar tanto como se quiera. Enunciado de Planck-Kelvin en 1897.Es imposible construir un dispositivo que. In every arbitrarily close neighborhood of a given initial state exist states which cannot be aproached arbitrarily closely by adiabatic processes C. Más tarde Planck.

de los átomos. que componen el sistema termodinámico. al menos desde un punto de vista microscópico. no podremos evitar los efectos gravitatorios que el resto del universo seguirá ejerciendo sobre la materia que hayamos encerrado dentro. eléctricas. como el sistema es cerrado y está en equilibrio podría razonarse que tales transiciones no se van a dar. etc).. Entropía en mecánica estadística La Termodinámica no ofrece ninguna interpretación física de lo que es la entropía: simplemente la define como una función matemática que toma su máximo valor para cada estado de equilibrio. por muy débiles que puedan resultar.. globalmente. Intuitivamente. U la energía interna del sistema. Sin embargo.) y la propia interacción del sistema con las paredes que lo encierren harán que. etc el número de moles de cada componente del sistema.. aunque exista esa potencial capacidad de los componentes microscópicos del sistema para pasar de un estado cuántico a otro. de tantas y tan indefinidas que pueden ser.. . Es importante recalcar que la termodinámica y la mecánica estadística. En principio. el sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuas transiciones de un estado cuántico a otro cuyas causas son. Interpretación microcanónica de la entropía con base en el segundo principio de la termodinámica La ecuación fundamental de un sistema cerrado termodinámico en equilibrio puede expresarse como Donde S representa la entropía del sistema –desde un punto de vista termodinámico–. en realidad no existe un sistema aislado perfecto. también lo estén. del llamado formalismo microcanónico de la mecánica estadística. y N1. no obstante. N2. pero la acción de todo tipo de campos de fuerza (sean de gravedad.. a todos los efectos. sean compatibles con los valores de U. Por ejemplo. aunque seamos capaces de aislar térmicamente al sistema de manera absoluta. moléculas. meramente azarosas. Ahora bien. en concreto. En definitiva.N2.. sus átomos y moléculas. entonces sus componentes más fundamentales. Todas estas magnitudes son macroscópicas. del sistema macroscópico. tampoco podrá aislarse perfectamente de todos los campos electromagnéticos que lo rodeen. puede parecer razonable suponer que si el sistema está en equilibrio. La habitual identificación de entropía con desorden molecular proviene de una muy simplificada interpretación de los resultados de la mecánica estadística. son ramas separadas de la física. un resultado fundamental de la mecánica cuántica afirma que si el sistema es macroscópico. V y N1. entonces pueden existir multitud de estados cuánticos discretos para sus átomos y moléculas que. aunque relacionadas. el sistema podrá estar cerrado a efectos macroscópicos. en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscópica (esto es.donde S es la entropía y el símbolo de igualdad sólo existe cuando la entropía se encuentra en su valor máximo (en equilibrio).

esto es. el número de microestados permitidos es uno determinado por las leyes de la física. gas en una bombona de gas: no puede tener un volumen mayor que el de la bombona. aunque posiblemente inmenso. y aunque la cantidad de materia es la misma. y la cantidad de materia del sistema es la que se haya dado al comienzo. Para cada estado macroscópico de equilibrio. ni podrán vibrar con una energía mayor que la energía total del sistema macroscópico. A dichos estados microscópicos permisibles se les llama microestados. si un sistema macroscópico tiene por energía 1000 julios.. incluso el volumen. Esto es. No podrán. como por ejemplo permitir que el volumen sea ahora mayor que antes. la entropía no habrá cambiado. desplazarse más allá de las barreras del sistema. la energía interna del sistema U variará de manera que. etc. aunque puede. en cuyo caso la presión de vapor del sólido cambiará. Dicho valor es necesariamente mayor que el del estado de equilibrio previo. de manera que las medidas macroscópicas de parámetros tales como la temperatura. es absurdo suponer que un microestado de dicho sistema pueda tener más de 1000 julios de energía. el sistema se mantiene en su volumen anterior. podemos concebir la situación en la que. el sistema adquirirá los valores de U tales que maximicen la entropía. ésta ahora puede ocupar más volumen. En efecto. de microestados que los constituyentes microscópicos del sistema pueden visitar con igual probabilidad. para los que la entropía S toma su máximo valor entre todos los posibles. ni puede haber más cantidad de gas que la que se ha colocado dentro. las variables del sistema evolucionarán hacia un estado de entropía mayor: el volumen V es ahora mayor que antes. etc). la energía. desde el punto de vista macroscópico. en el nuevo estado de equilibrio. V . Si retiramos ahora una restricción al sistema macroscópico. asociado al equilibrio macroscópcio se tiene un número limitado. Supongamos que tenemos un sistema termodinámico en equilibrio que viene definido por una limitación fundamental: no se permite que el sistema tenga un volumen mayor que uno concreto.. según el segundo principio de la termodinámica éste vendrá totalmente definido por los valores de las variables termodinámicas U. con la misma energía interna y misma materia. sabemos que la naturaleza no opera así: el sistema tenderá a ocupar todo el volumen (aunque sea un sólido.. se acepta como principio que un sistema macroscópico visita todos los estados microscópicos permisibles con igual probabilidad. Atendiendo a esa limitación de volumen y masa. pasarán dos cosas:  Desde el punto de vista de la termodinámica. y entonces habrá alcanzado el equilibrio macroscópico. En ese caso. etc. la entropía S tome el máximo valor posible. Por ejemplo. o se evaporará más sólido. La función entropía es aquella función matemática que toma su valor máximo en . Y ese caso es compatible con los límites del sistema. y el equilibrio se desplazará. tenemos el de los microestados: las moléculas del sistema podrán presentar transiciones aleatorias entre distintos microestados dentro de los límites impuestos por el propio sistema. por ejemplo. Y como dichas transiciones están producidas por procesos esencialmente aleatorios. Sin embargo. N2.La mecánica estadística considera que un sistema macroscópico realiza transiciones enormemente rápidas y totalmente aleatorias entre los distintos estados cuánticos que sean posibles. Por ejemplo. Así. son en realidad la media de las miríadas de estados cuánticos o microscópicos. Si se considera un estado de equilibrio macroscópico. N1. Asociado a ese estado macroscópico de equilibrio.

. en muchas ocasiones se contemplan sistemas que sí intercambian energía. pero a estos se les suman otros nuevos. Esto es. podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el sistema global se amolde a la interpretación microcanónica. Así. El sistema por antonomasia que cumple dichas condiciones es el propio universo. Esto es. Llamando Ω al número de microestados y S a la entropía. un "5" en el segundo. la entropía es aditiva. ocurre que ahora el número de microestados que son compatibles con los límites del sistema ha aumentado. ahora un átomo podrá moverse no ya dentro del volumen anterior. Para interpretar la entropía necesitaremos conseguir que el número de microestados cumpla una regla aditiva. que suele darse como energía por grado de temperatura (J/K) . dicho . seguiremos teniendo los mismos de antes. un sistema termodinámico que no intercambia ni materia ni energía ni volumen con el exterior: la composición del sistema. etc). y aparece sencillamente para determinar la escala de la entropía.  Desde el punto de vista microscópico. Existe un único problema: según la termodinámica. el número de "microestados" de dos dados. y siendo la probabilidad de que cada uno de ellos se dé la misma. Siendo los microestados producto del azar. Por ejemplo.ese nuevo equilibrio. sino también dentro de todo el nuevo volumen. esto es. si el de cada uno de ellos es 6 (cada cara del dado es un microestado posible). la entropía de dos sistemas iguales es el doble que la entropía individual de cada uno de ellos. en el límite. En efecto. Interpretación canónica La interpretación microcanónica de la entropía concibe un sistema termodinámico aislado.. Sin embargo. un "3" en el segundo. Sin embargo. si consideramos un sistema que por ejemplo intercambia materia con su entorno. . el número de microestados de dos sistemas es el producto del número de microestados de cada uno de ellos. es necesario extender las interpretaciones estadísticas de la entropía. . En efecto.N2. podremos escribir que: Donde kB es la constante de Boltzmann. a la vez que la entropía aumenta se produce un incremento del número de microestados posibles. es 6x6=36 microestados (tener un "1" en el primero. Para esos casos. si bien globalmente es la interpretación microcanónica la que perdura. un "2" en el primero. su energía interna U y su volumen V no cambian en ella. masa o volumen con su entorno. La única solución a esto es identificar la entropía con el logaritmo del número de microestados posibles. aunque según esta interpretación podría carecer de unidades. Esto sugiere que la entropía puede identificarse con el número de microestados consistentes con las limitaciones macroscópicas impuestas sobre el sistema. el número de microestados posibles es multiplicativo. dada por N1. es natural identificar por tanto entropía con desorden microscópico. Por ejemplo. y deberá ser por tanto mayor que en el estado de equilibrio anterior.

a veces llamada formalismo canónico o de Helmholtz. dicha ecuación puede escribirse como: La energía interna U será el valor medio de la energía del sistema local. Y dicho problema se resuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestión es un sistema cerrado. La interpretación canónica. Y es para solventar esas deficiencias que surgen el resto de interpretaciones de la entropía. al disponer de una fuente infinita de energía. todo estado energético. desde el de menor energía hasta el de mayor. Según esto. al estar el sistema local en un estado de energía Ej el termostato quedará reducido inevitablemente a uno de energía Etot . sin embargo. puede ser muy costoso por no decir prácticamente imposible de estimar en la mayor parte de las circunstancias: los cálculos combinatorios sobre el número de formas en que la energía disponible en un sistema puede distribuirse suele quedar más allá de todo conocimiento matemático. como la entropía es aditiva. por lo que. la probabilidad de cada uno de esos estados no será la misma: el sistema no estará la misma fracción de tiempo en cada uno de esos estados. Si la energía total del sistema global es Etot. considera un sistema termodinámico capaz de intercambiar energía con un reservorio térmico o termostato. aquella que debe aumentar al variarse el equilibrio global del sistema. Evidentemente.Ej y el sistema local Ej será entonces: Siguiendo la definición de la entropía según Boltzmann. y la de un microestado del sistema local es Ej. Y es precisamente la entropía del sistema microcanónico la que queda sujeta al segundo principio de la termodinámica. en principio su estado de equilibrio debería poder obtenerse sin más que considerar el número total de microestados del sistema global. Esto. puede ser tratado concibiendo el sistema global que quede sujeto a la interpretación microcanónica. En efecto. La probabilidad de que el sistema global esté en un microestado tal que el termostato tenga energía Etot . esto es. El punto central del formalismo canónico es determinar la distribución de probabilidad de los microestados. Sin embargo. puede escribirse que: Si se desarrolla en serie tendremos que: .sistema será el propio universo. cumple el formalismo microcanónico de que la probabilidad de cada microestado global es la misma. sean cuales sean las condiciones de intercambio con su entorno. en oposición al sistema microcanónico. será concebible para el sistema. podría entonces pensarse que cualquier sistema.Ej. esto es.

definiendo para . De este modo. es la energía libre de Helmholtz. Esta es la interpretación de la entropía. generalmente definida como: Si para un sistema de partículas en equilibrio térmico se conoce la función de partición Z. La probabilidad total de estar en alguno de dichos estados es la unidad. la probabilidad puede expresarse como: Y como probabilidad como: . llamada interpretación canónica o entropía de Helmholtz. de donde se define .. podemos expresar dicha donde . Z es las la llamada función de partición canónica. Entropía de Von Neumann en mecánica cuántica En el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas partículas que se comportan clásicamente. T la temperatura y las probabilidades Pj. a principios del siglo XX Von Neumann generalizó el concepto de entropía para sistemas de partículas cuánticas. se puede calcular la entropía mediante: Donde kB es la constante de Boltzmann. por lo que: .

Bekenstein sobre teoría de la información y agujeros negros sugirieron que la segunda ley seguiría siendo válida si se introducía una entropía generalizada (Sgen) que sumara a la entropía convencional (Sconv). G es la constante de gravitación universal y es la constante de Planck racionalizada. Sin embargo. llevó a examinar a principios de los 70 el comportamiento termodinámico de estructuras como los agujeros negros. . c es la velocidad de la luz. los trabajos de Jacob D.un estados mezcla caracterizado por una matriz densidad ρ la entropía cuántica de Von Neumann como la magnitud escalar: Entropía generalizada en Relatividad general El intento de extender el análisis termodinámico convencional al universo entero. Entropía Saltar a: navegación. la entropía atribuible a los agujeros negros que depende del área total (A) de agujeros negros en el universo. k es la constante de Boltzmann. Concretamente esta entropía generalizada debe definirse como: Donde. véase Entropía (desambiguación). que la segunda ley tal como había sido formulada convencionalmente para sistemas clásicos y cuánticos podría ser violada en presencia de agujeros negros. El resultado preliminar de dicho análisis reveló algo muy interesante. búsqueda Para otros usos de este término.

mediante cálculo. quien encontró la manera de expresar matemáticamente este concepto. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850.2 Entropía como creadora de orden o 6. la entropía (simbolizada como S) es una magnitud física que. en un sistema aislado.1 2 y Ludwig Boltzmann. crece en el transcurso de un proceso que se dé de forma natural. México En termodinámica.3 Relación de la entropía con la teoría de la información o 6.1 Significado 3 Cero absoluto 4 Entropía y reversibilidad 5 Historia de la entropía 6 Interpretación estadística de la entropía o 6. permite determinar la parte de la energía que no puede utilizarse para producir trabajo.1 Entropía y desorden o 6.Escultura dedicada a la Entropía en los jardines centrales de la Universidad de Monterrey. La entropía describe lo irreversible de los sistemas termodinámicos.4 La entropía como flecha del tiempo 7 Véase también .3 Índice        1 Evidencias 2 Ecuaciones o 2. Es una función de estado de carácter extensivo y su valor. desde el punto de vista de la probabilidad.

Por tanto. que viene dada por la energía de Gibbs. El proceso inverso. En cambio. En todo proceso reversible la integral curvilínea de sólo depende de los estados inicial y final. y sólo sí. Se dice que un sistema altamente distribuido al azar tiene alta entropía. los productos son más ordenados. El universo tiende a distribuir la energía uniformemente. La función termodinámica entropía es central para la segunda Ley de la Termodinámica. a pesar de conservar la energía. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. se anticipa que finalmente el trozo caliente se enfriará. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio. se busca una respuesta que indique cuál es el sentido de los sucesos. ha de existir una función del estado del sistema. con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar). denominada entropía. Si el incremento de entropía es positivo.V. el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente. Por ejemplo. La variación de entropía. nos muestra la variación del orden molecular ocurrido en una reacción química. reorganización que dará como resultado un aumento de la entropía. Una magnitud es una propiedad si. Hay una relación entre la entropía y la espontaneidad de una reacción química. es decir. los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. finalizando en equilibrio térmico.T). cuando el incremento es negativo. Ecuaciones Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. y entonces se alcanzará la configuración de mayor probabilidad. y el trozo frío se calentará. cuya variación en un proceso reversible entre los estados 1 y 2 es: . a maximizar la entropía. su cambio de valor entre dos estados es independiente del proceso. Esta proposicion puede ser fundamental a la hora de definir la variacion de entropía. si se ponen en contacto dos trozos de metal con distinta temperatura.  8 Referencias 9 Enlaces externos Evidencias Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?". S=f(P.

cuando no se produce variación de temperatura (proceso isotérmico): donde S es la entropía. La entropía física. De acuerdo con la ecuación. Unidades: S=[KCal/K] Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico. sumando un término positivo al segundo miembro. definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. más simplemente. son el J/K (o Clausius). también lo hará la entropía. en el Sistema Internacional. Cuando el sistema evoluciona irreversiblemente. en un proceso reversible e isotérmico. en lugar de dQ.Téngase en cuenta que. Cuando la temperatura es más alta. Significado El significado de esta ecuación es el siguiente: Cuando un sistema termodinámico pasa. la ecuación de Clausius se convierte en una inecuación: Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. en la misma dirección. se usa δQ. como el calor no es una función de estado. Y viceversa. Las unidades de la entropía. si el calor se transfiere al sistema. podemos transformar de nuevo la expresión en una ecuación: . el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. el flujo de calor que entra produce un aumento de entropía menor. la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin. está definida por la ecuación siguiente: o. en su forma clásica. No obstante. del estado 1 al estado 2.

según la ecuación. los procesos son irreversibles. la entropía puede crearse pero no destruirse. con un aumento de la entropía global. En el caso de darse un proceso reversible y adiabático. La tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros. es igual a su variación en el sistema más la de los alrededores: Si se trata de un proceso reversible. lo que da como resultado una transferencia de calor hacia el entorno. Por ejemplo. Esta magnitud permite definir la segunda ley de la termodinámica. Como los procesos reales son siempre irreversibles. ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. para un proceso dado. Así como "la energía no puede crearse ni destruirse". es necesario fijar la entropía del mismo en un estado determinado. considerando el proceso como reversible. Pero esto es una situación ideal. en la expansión isotérmica (proceso isotérmico) de un gas. por lo tanto. el valor de la entropía es constante y además constituye un proceso isoentrópico. ya que para que esto ocurra los procesos han de ser extraordinariamente lentos. todo el calor absorbido del medio se transforma en trabajo y Q= -W.Al término . y esta circunstancia no se da en la naturaleza. de densidad finita. ya que hay pérdidas por rozamientos. siempre aumentará la entropía. y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. siempre positivo. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea. Podemos decir entonces que "como el Universo es un sistema aislado. Pero en la práctica real el trabajo es menor. sin defectos estructurales en la red cristalina. Entropía y reversibilidad La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. aún cuando siga cumpliéndose la condición de conservación de la energía del sistema (la primera ley de la termodinámica). Para calcular la entropía de un sistema. Cero absoluto Sólo se pueden calcular variaciones de entropía. También se puede decir que la variación de entropía del universo. Para llevar al sistema. su . dS=0. es decir. a su estado original hay que aplicarle un trabajo mayor que el producido por el gas. de nuevo. de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. la entropía es nula en el cero absoluto (0 K). se le denomina producción de entropía.

y acuñó el término "entropía". Clausius siguió desarrollando sus ideas de la energía perdida. la diferencia entre calor y trabajo desaparece. Esto marca un sentido a la evolución del mundo físico. el resultado fue el concepto de entropía. Se cree que existe también un límite superior de aplicación del segundo principio. de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo. el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes. que llamamos principio de evolución. y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información. Cuando la entropía sea máxima en el Universo. Los primeros motores de calor como Thomas Savery (1698). lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo. Durante los próximos dos siglos los físicos investigaron este enigma de la energía perdida. La ecuación anterior es . Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a tales microsistemas. la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil.entropía crece constantemente con el tiempo". no tienen significado. una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano). llegará la muerte térmica del Universo (enunciado por Clausius). Rudolf Clausius estableció el concepto de sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. esto es.1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como mecánica estadística. En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas. temperatura. Durante el próximo medio siglo se llevó a cabo un mayor desarrollo. porque realmente no son sistemas termodinámicos. En la década de 1850. y por tanto. teoría profundamente influenciada por el concepto de entropía. Interpretación estadística de la entropía En los años 1890 . Historia de la entropía El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales reacciones de combustión siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil. exista un equilibrio entre todas las temperaturas y presiones. etc. Una de las teorías termodinámicas estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la entropía y la probabilidad termodinámica: Donde S es la entropía. los parámetros termodinámicos como la entropía.

profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época. La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena.válida porque se asume que todos los microestados tienen la misma probabilidad de aparecer. Ha sido. En cambio. sucesivamente. Por extraño que parezca. luego tomamos con la misma cucharita pintura negra. respectivamente. se puede crear una medida para el desorden. 347. En la descripción clásica de la termodinámica. Coloquialmente. Boltzmann se suicidó en 1906. tomamos pintura blanca. y esto nos permite una interpretación coherente de las fórmulas de entropía y de los hechos experimentales.4 El significado de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles. La entropía es una magnitud física básica que dio lugar a diversas interpretaciones. y al parecer. suele considerarse que la entropía es el desorden de un sistema. dijo Boltzmann. se construya un vaso por sí solo. la vertemos en el recipiente de pintura negra y mezclamos. la vertemos en el recipiente de pintura blanca y . mientras que jamás conseguiremos que. pintura blanca y pintura negra. Otro ejemplo doméstico: tenemos dos envases de un litro de capacidad que contienen. lanzando trozos de cristal.5 El desorden o la agitación guardan relación con la temperatura. Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. con una cucharita. a veces en conflicto. es decir. asimilados a los diferentes conceptos tales como el desorden y la información. carece de sentido hablar del valor de la entropía de un sistema. capítulo 10 "Un mundo dentro del mundo". Bogotá. pues sólo los cambios en la misma son relevantes. La entropía mide tanto la falta de información como la información. La entropía también mide la libertad. El ascenso del hombre. asociar la entropía y el desorden implica definir el orden como la ausencia de libertad. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. 1979. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse. la teoría estadística permite definir la entropía absoluta de un sistema. es la probabilidad de un estado particular. No obstante. Entropía y desorden Cuando la energía es degradada. su grado de homogeneidad. p. Estas dos concepciones son complementarias. definido aquí como el número de formas en que se puede armar a partir de sus átomos Jacob Bronowski. Fondo Educativo Interamericano. se debe a que los átomos asumen un estado más desordenado.

hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo. Simplemente. en presencia de agujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada o suma de la entropía convencional (Sconv) más un factor dependiente del área total (A) de agujeros negros existente en el universo.mezclamos. se ocupa muy poca energía. De estos casos se deduce el concepto de fuerza entrópica o interacción. repetimos el proceso hasta que tenemos dos litros de pintura gris. del siguiente modo: Donde. G es la constante de la gravitación y es la constante de Planck racionalizada. Según la nueva teoría de Jacob D. que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevo para la conservación de la entropía en los agujeros negros. También en la cristalización de esferas duras: cuando agitamos naranjas en un cesto. muy útil en la ciencia de polímeros o ciencia coloidal. Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos. por ejemplo cuando el agua y aceite tienden a separarse. la entropía aumenta. k es la constante de Boltzmann. éstas se ordenan de forma espontánea. al realizar un trabajo. la entropía se encarga de medir la energía que no es usada y queda reservada en un cuerpo. En este artículo se muestra que esta paradoja se resuelve haciendo una interpretación literal de la famosa ecuación de Boltzmann S = k log W. Y es que hay sistemas en los que la entropía no es directamente proporcional al desorden. c es la velocidad de la luz. . Bekenstein el bit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho. considerar que la entropía es el desorden de un sistema sin tener en cuenta la naturaleza del mismo es una falacia. Podemos verlo en la segregación de una mezcla tipo coloide. sino al orden.6 Relación de la entropía con la teoría de la información Véase también: Entropía (información). Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física de los agujeros negros. la entropia del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo). Entropía como creadora de orden A pesar de la identificación entre la entropía y el desorden. No obstante.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->