Está en la página 1de 10

LA ENTROPÍA

RESUMEN:

La entropía es una de las pocas propiedades físicas de un sistema que no puede medirse
directamente, sino que debe ser deducida o calcula a partir de otras propiedades.
También es una propiedad que ha sido definida en un sentido más bien abstracto y no ha
sido conectado a otra propiedad observable o variable física. Desde su formulación como
una propiedad termodinámica, la entropía se ha relacionado con los conceptos de orden,
el desorden y el caos de formas que son a menudo confusas y engañosas científicamente.

Desde el punto de vista de la ingeniería de sistemas y el tema de la termodinámica clásica,


no hay obvio o incluso conexión provisional entre la entropía y el "orden" o "desorden" de
los sistemas termodinámicos. Este breve documento da varios ejemplos que demuestran
la falta de conexión entre la entropía y el desorden en los sistemas termodinámicos.

INTRODUCCIÓN:

En los últimos treinta años, la entropía se ha popularizado en un número de best sellers y


se ha convertido en un concepto vago familiar a todo lo que se consideran educado.
Huelga dicen que el concepto de entropía significa algo diferente para todos, pero les
gusta que se relacionan con sus propias experiencias de "orden" o "trastorno". Esta
vaguedad que rodea el concepto es peligroso para todos los que tratan de formar a los
estudiantes de manera rigurosa termodinámica sobre cómo utilizar la entropía propiedad
en ingeniería aplicaciones.

Se ha vuelto cada vez más popular para los científicos y laicos para hablar de la aparente
anarquía en el mundo asuntos y hacer referencia a la segunda ley de la termodinámica
como el "principio científico" que pone de relieve los cambios en las sociedades o la
política mundial. La entropía se está convirtiendo en un concepto que tiene sido
vagamente aplicado a todo: desde los ciclos de potencia, a la economía, desde
empobrecidas naciones del tercer mundo, a un segundo "

Cristiano reforma "[1]. Creo que esta ambigüedad asociados con esta propiedad
termodinámica se deriva del hecho de que la entropía se ha asociado desde hace más de
100 años con orden (o desorden) en los sistemas termodinámicos. La termodinámica es
una parte muy importante de la Física y programas de estudio de ingeniería y el concepto
de entropía es una parte integral de la termodinámica. Mientras que la mayoría de los
otros conceptos de la materia (tales como la temperatura, la densidad o la energía) se
intuye, definido fácilmente o bien conocido a los estudiantes y profesores de su
experiencia en el laboratorio, la entropía es un concepto bastante estrechamente
definida.

El hecho de que no se puede medir directamente (no hay "Metros entropía") se suma a la
perplejidad para muchos. A menudo educadores intentar hacer de este concepto, que es
generalmente define matemáticamente como un factor de integración o una amplia
propiedad de los sistemas a través de la desigualdad de Clausius, más comprensible
mediante la correlación con conceptos empíricos tales como probabilidad, el orden o el
desorden. Durante una consulta sobre los sujetos varios idiomas inglés-Termodinámica
libros de texto, ampliamente utilizado en los Estados Unidos me encontré con las
siguientes afirmaciones relacionadas con la entropía:

1. "La entropía es una medida cuantitativa del desorden".

2. "La propiedad que describe la aleatoriedad o incertidumbre se llama entropía. "Esto


también implicaría que aleatoriedad es sinónimo de incertidumbre.

3. "La entropía es una medida de" mixto upness 'o de la probabilidad de un estado dado.
"Esto también implicaría que "mixto upness" es sinónimo de la probabilidad de un estado
determinado.

4. "La entropía es una propiedad de la materia que mide el grado de aleatoriedad o


desorden. "

5. "Siempre caos molecular se produce, la capacidad para realizar trabajo útil se reduce. "
Se debe destacar, sin embargo, que, en su inmensa mayoría, de posgrado libros de texto
mantenerse alejados de la entropydisorder asociación [2,3].

Es evidente que cuando los expertos (es decir, los autores de libros especializados) en la
materia hacen tan ambiguo declaraciones acerca de la entropía, los no expertos (es decir,
los estudiantes, los científicos, los ingenieros, o incluso otros profesores) puede caer en
falacias que conducen al mal uso bruto de el concepto. Debido a esto, parece que la
entropía se ha intentó utilizar en varias de las ciencias sociales y estudios religiosos para
explicar los fenómenos actuales o predecir tendencias futuras [3-6]. Por supuesto, la
segunda ley de la termodinámica, que es una ley inviolable de la naturaleza, se usa (y
menudo se abusa) para probar la tesis del autor (cualquiera que éste puede ser) o refutar
la tesis de alguien más. Invariablemente, estos abusos provienen de una definición muy
flojo y ambiguo de entropía (y muy a menudo no hay una definición en todos) que no está
relacionado para el concepto de la entropía propiedad termodinámica, que ha
evolucionado a partir de un riguroso principio físico que es conocida como la Segunda Ley
de la Termodinámica.
Una breve reseña histórica El origen de la segunda ley de la termodinámica se atribuye a
Sadi Carnot [7], que reconoce por primera vez la workproducing limitaciones de los
motores térmicos y estipula que estas limitaciones son independientes del fluido de
trabajo.

Hay que señalar que el trabajo de Carnot, la fundación de la Segunda Ley de la


Termodinámica, se publicó dieciocho años antes de la formulación científica de la primera
ley, como ahora El Open Journal Termodinámica de 2008, Volume 2 Efstathios E.
Michaelides Sé que, por Joule. Teoría Clapeyron [8] Carnot aplicado a las propiedades de
las sustancias y produjo la primera termodinámico diagramas. Thomson (más tarde Lord
Kelvin) [9] expandido la teoría de las limitaciones de los motores térmicos y reconocido
que los métodos geométricos de Clapeyron puede extenderse para definir una escala de
temperatura, que es independiente de las propiedades de las sustancias, la temperatura
termodinámica Escala. Sin embargo, fue Clausius [10,11], que concluyó que la teoría de las
limitaciones que producen el trabajo de calor motores resultó en el hecho de que la
integral:

(1)

cuando se toma alrededor de un ciclo es siempre mayor que cero en todos procesos
prácticos. Esta integral cíclica puede ser igual a cero sólo en el tipo idealizado de procesos
que se llaman "reversible procesos ". Clausius [11] reconoció que la primera declaración
implica la existencia de una función de potencial o propiedad, a la que llamó entropía y
define a través de la siguiente relación:

(2)

donde Q0 representa el intercambio reversible de calor, es decir el intercambio de calor


durante un proceso integrado en su totalidad de los estados de equilibrio. Es bastante
lamentable que sin embargo no lo hizo Clausius resistir la tentación de aplicar el concepto
de entropía a la cosmología al concluir su trabajo con la declaración ahora famosa "Die
Welt der Entropie einem strebt máxima zu", (la entropía del mundo, que probablemente
significa que el universo- tiende a un máximo). Esta declaración de Clausius sería corregir
si:

a) El universo era un sistema aislado (esto Clausius cree, porque en el mismo periódico
señaló que la energía del universo es constante) .
b) fuera posible extrapolar la física basada en terrestres fenómenos a los macroscales
longitud y tiempo del universo. La conexión probabilística de entropía se inició con el
trabajo de Boltzman [12] que en su exposición de la teoría de los gases de efecto señaló
que la cantidad:

H = kln (w), (3)

Tiene todas las características observables de la entropía. En la última ecuación, w es el


número de formas microscópicas en el que un determinado estado macroscópico se
puede realizar, sujeto a la restricción de una energía específica total o, a la luz de quantum

teoría, los niveles cuánticos en el intervalo de energía del sistema. Se debe enfatizar que,
en su trabajo original, Boltzman nunca mencionó "aleatorio", "desorden", "caos" o incluso
la "incertidumbre" en relación a la entropía. Sin embargo, está acredita a menudo (culpa
podría ser una palabra mejor) para "probar que la entropía es una medida del desorden. "
En su trabajo seminal sobre el equilibrio de la heterogénea sustancia Gibbs [13] utiliza la
definición de la entropía de Clausius de acuerdo con la ecuación (2). También desarrolló
Boltzman nuevas ideas mediante la introducción del concepto de estadística conjuntos
[14] y nombró la cantidad w en Boltzman ecuación ", la probabilidad termodinámica".
Aunque Gibbs era consciente de que w es diferente de probabilidades comunes tal como
se utiliza en las estadísticas, el poder de la palabra "probabilidad" en esta legislatura ha
contribuido al malentendido de que la entropía se asocia con probabilidades y, por
extender con azar eventos. También en sus esfuerzos por describir verbalmente el
concepto de entropía, Gibbs dijo en varias ocasiones que se correlaciona a la "mixto
upness" de un sistema. Esto podría haber sido una desafortunada elección de palabras, lo
que fue interpretado por algunos para significar el "trastorno". Por esta razón, las
referencias a la entropía como sinónimo de trastorno o como una medida cuantitativa de
trastorno han proliferado en el siglo 20.

Entropía, probabilidades y desorden -

ALGUNOS EJEMPLOS

Es evidente que la entropía se ha definido cuantitativamente independientemente de la


teoría de la probabilidad. Incluso si el concepto de las probabilidades y las ideas asociadas
de azar y distribuciones de probabilidad nunca se formularon, la entropía aún habría
tenido un significado bien definido como termodinámica propiedad. En la expresión de
Boltzman, w representa el número de micro estados compatibles con una energía total
dada nivel, una cantidad que puede ser calculada independientemente de la teoría
probabilística. Es bastante sorprendente, por lo tanto, que entropía ha estado tan
estrechamente asociada con las probabilidades y aleatoriedad. Lo que es aún más
sorprendente es que la entropía se ha asociado tan estrechamente con la orden o el
desorden de sistemas y, a veces, de los grupos sociales y los sistemas sociales. Esto,
porque el orden es un concepto subjetivo para la mayoría, mientras que la entropía es un
solo objetivo: como un concepto subjetivo, trastorno tiene diferentes significados para
diferentes personas o grupos de personas, mientras que la entropía, un concepto definido
objetivamente y una cantidad que se calcula a partir medibles propiedades que tiene el
mismo significado y medida a todos. Lo es sólo en cristalografía, donde el grado de orden
o desorden está objetivamente definidos y utilizados en un científico adecuado manera,
pero esta no es la forma en que los dos conceptos están utilizado por la mayoría de los
individuos y, por esta razón, existe un gran trato de ambigüedad en su uso. Por ejemplo, el
concepto de orden o el desorden a un anarquista es totalmente diferente del mismo
concepto a un pastor o un policía. Por otra parte, el concepto de entropía es un concepto
matemático que es rigurosamente definido y puede calcularse para cualquier sustancia. Lo
tiene el mismo significado en todas partes y, por diferencias de entropía

en los procesos tienen el mismo valor numérico a cada uno que tiene la capacidad de
realizar las operaciones matemáticas dictado por la ecuación (2). Debido a esto, todos los
científicos tienen de acuerdo a los valores numéricos de las variaciones de entropía y la
entropía para materiales, que son universalmente aceptable. Por lo tanto, desde un punto
de vista puramente lógico no se debe asociar el concepto subjetivo de desorden y el
concepto objetivo de la entropía en declaraciones tales como "entropía es la cuantitativa
medida del desorden. "Desorden, al ser un concepto subjetivo, no es posible que una
medida o un valor numérico.

Hay otra razón para no asociar la entropía con "Mixto upness", "orden" o "desorden", al
menos con lo macroscópico sistemas que son tratados por la termodinámica clásica. Hay
procesos físicos en los que es dudoso si un aumento de entropía en los resultados más
trastorno, mientras que en otros casos claramente un aumento de entropía en los
resultados de una termodinámico más ordenado del sistema. Éstos son algunos
examEntropy, Orden y Desorden El Open Journal Termodinámica de 2008, Volumen 2 9
pios, que pueden servir como elementos de reflexión para cualquier propuesta relación
entre el desorden y entropía:

1. La entropía es una propiedad extensiva. Una manera simple de aumentar la entropía es


mediante la inclusión de más material por cambiar los límites del sistema termodinámico.
Por lo tanto, la entropía del aire en toda la clase es el doble de la entropía del aire en
medio del mismo salón de clases. Nadie diría, sin embargo, que el trastorno del sistema
duplicado es mayor que el trastorno de la original, ya que todas las variables internas en
los dos sistemas son idénticos. Esto señala al hecho de que no es per se entropía que uno
debe asociarse con el trastorno, pero la entropía específica, la entropía por unidad de
masa, por mol o por volumen unitario.

2. Todas las asociaciones de la entropía con la aleatoriedad o desorden se derivan de la


descripción molecular de la materia, que está esencialmente relacionada con el tema de la
estadística mecánica o la termodinámica. Un nivel más alto de trastorno se suele atribuir
al aumento de las velocidades moleculares (Por ejemplo, en el caso de un aumento de
temperatura) o mayor volumen ocupado por las moléculas (por ejemplo, en una
expansión isotérmica de un gas). Cuando uno mira el sistema desde el punto de vista
macroscópico de Clásica La termodinámica es muy difícil de asociar cambios de entropía
con trastorno aumentado. No hay razón aparente para asociar trastorno aumentado hasta
la expansión isotérmica de un sistema macroscópico o a el calentamiento isobárico de
ella. En muchos otros casos, una entropía aumentar de un sistema macroscópico puede
ser incluso asociada a una disminución de entropía. Por ejemplo, considerar un sistema
que está compuesto por varios subsistemas, separados por paredes adiabáticas. Algunos
de estos subsistemas están frías, (C) y algunos caliente, (H) tal como se en la primera parte
de la figura. (1). Cuando la pared adiabática restricción se elimina, se intercambia calor
entre el subsistema, que eventualmente llegan a un intermedio temperatura y se
clasifican en caliente (W). Conforme a teoría termodinámica, un proceso irreversible Se ha
producido y es la entropía del estado segunda mayor que el de la primera. Sin embargo,
una mirada a la figura. (1), que proporciona una representación esquemática del sistema
en sus dos estados de prueba que el estado es segundo ciertamente más uniforme y su
esquemática parece ser más "ordenada". similares representaciones esquemáticas de los
sistemas macroscópicos sometidos a procesos, considerada desde el punto de
termodinámica clásica de vista, no revelan un aumento en el trastorno de el sistema
cuando la entropía aumenta. Por esta razón, es difícil en el contexto de la termodinámica
clásica incluso para hacer una correlación entre los conceptos de entropía y el desorden.

3. Se puede considerar un experimento bastante clásico, que es similar al experimento de


Joule: Una masa de gas está encerrado en la parte A, una de las dos mitades idénticas de
un recipiente adiabático. La segunda mitad B está vacía. Cuando un agujero en la partición
se abre, el gas de A entra B hasta que las presiones en las dos partes son iguales. Para un
gas ideal se somete a este proceso irreversible el específico entropía aumenta en una
cantidad.
S2 - S1 = NLR (2), (4)

Estado 1: particiones adiabáticas entre subsistemas calientes y frías de un

termodinámica del sistema.

Estado 2: se eliminan las particiones adiabáticas y llegar subsistemas equilibrio térmico. La


entropía del sistema ha aumentado, que, es decir, S2> S1.

La figura. (1). ¿Qué sistema tiene una mayor "desorden?".

Donde R es la constante de gas. También se puede argumentar sobre cualitativa debido a


que el "orden" de las moléculas de gas ha disminuido en el sistema, o que el "desorden"
ha aumentado debido a que las moléculas de gas tienen más espacio para moverse. En
este caso, el concepto de trastorno se asocia estrechamente a la cantidad de espacio de
las moléculas de gas tienen en su disposición. La asociación de la entropía y el desorden se
desarrolló a partir analogías cualitativas como en el ejemplo anterior. Uno puede ver, sin
embargo, que la analogía es muy superficial y se basa en una definición imprecisa del
trastorno como algo análogo al espacio ocupado por las moléculas. Si se mantiene
entonces el volumen total constante y, por un proceso de transferencia de calor,
disminuye la temperatura del gas, sería el aumento trastorno, o disminuir siendo el
mismo. Claramente, la entropía disminuiría.

4. De una manera similar con el ejemplo 3 se sostuvo a menudo que, cuando las moléculas
de un gas determinado se mueven más rápido en un sistema cerrado, por ejemplo,
porque de adición de calor, luego el trastorno en gas aumenta. En este caso, trastorno es
análogo a las velocidades de las moléculas de gas, mientras que en el trastorno ejemplo
anterior es análogo a espacio ocupado. En el mismo caso, la termodinámica predice
también un aumento en la entropía del gas.

Sin embargo, ¿cómo se puede explicar en términos de trastorno el hecho de que la


entropía de 1 mol de argón a 25 oC es 154 J / K, mientras que la entropía de 1 mol de helio
a la misma temperatura es 127 J / K? Las moléculas masivas de argón se mueven más
lentamente que la menor y moléculas mucho más rápido de helio. Es obvio aquí que una
relación lógica entre la entropía y la trastorno es difícil de establecer en lo cuantitativo
razón de la velocidad media de las moléculas.

5. Hay otro ejemplo clásico de un sistema que consiste de dos masas idénticas sólidos, uno
en termodinámica temperatura T1 y T2 en el otro. Los dos sólidos se les permite
interactuar hasta térmico equilibrio se alcanza y que ambos están a la temperatura media
(T1 + T2) / 2. Hay un aumento de entropía específica asociado con el proceso:

S2 - S1 = {cln (T1 + T2) 2/4T1T2}, (5)

donde c es el calor específico del material sólido. Sin embargo, en este caso no se puede
asociar un aumento del trastorno para el sistema con el proceso de igualación de
temperaturas. Si nada, el sistema macroscópico en el segundo estado parece más
ordenado que en el primer estado, ya que la temperatura de las dos partes es más
uniforme. Uno puede argumentar, por supuesto, que las moléculas del sólido
originalmente más frío se están moviendo más rápido en el segundo estado que en el
primer estado y las moléculas del sólido originalmente más caliente se mueven más
lentamente. El resultado neto de la redistribución de las velocidades puede ser un
aumento de trastorno. Este argumento, sin embargo, está sujeta a debatir porque no
existe una relación generalmente aceptada entre la distribución de las velocidades
moleculares (o amplitudes de vibración) y el desorden. Ambas afirmaciones de que el
trastorno del sistema ha aumentado durante el proceso y que el trastorno ha disminuido
parecen ser igualmente plausible, según en lo que una persona llama "desorden". Los que
utilizan similares argumentos para justificar la relación entre el desorden y entropía
parecen definir el trastorno en términos de entropía.

6. Examen de los sistemas originalmente en meta estable estado (vapor sub enfriado, las
soluciones sobresaturadas, reacciones químicas, etc) ofrece una multitud de ejemplos
donde el estado final parece más ordenado, aunque no es un proceso irreversible y, por lo
tanto, un aumento de la entropía. Consideremos una sobresaturada solución de un sólido
con calor de disolución negativo (∆H < 0 y ∆S < 0) tal como trisulfato de sodio en agua.
Inicialmente, toda la masa del sólido se disuelve en agua. La solución se coloca en un
recipiente adiabático, la precipitación
del sólido es causada (e. g. dejando caer un pequeño cristal de la sustancia sólida) y la
separación de las dos fases. El proceso es irreversible y por lo tanto δS > 0. Asimismo,
puesto que el proceso se llevó a cabo en un adiabático contenedor, no hay ningún cambio
de la energía total.

Por lo tanto, tenemos que por cada pequeño paso este proceso:

(6)

, (7)

donde Cp es el calor específico de la solución y el n 􀀂 cantidad de sólidos que precipitaron.


La ecuación (6) que los rendimientos 􀀂 T <0, porque 􀀂 􀀁 H <0. Por lo tanto, tenemos el
interesante resultado que la temperatura de la solución disminuyó, mientras que algunos
del el soluto precipita para formar una más "ordenada" de fase, mientras que la entropía
del sistema aumenta.

En el experimento anterior vemos que en la final estado, las moléculas de la solución se


mueven más lentamente como resultado de la disminución de la temperatura y, además,
los cristales de el sólido (que es la más "ordenada" de las fases) apareció, haber
precipitado de la solución. Aunque hay se produce un aumento de entropía, el sistema
logró una más "ordenada" estado, una observación que desafía la noción de que los
cambios en entropía son acompañados por cambios trastorno de la misma firmarlo. Por
supuesto, se podría argumentar aquí que, en el estado inicial del sistema, las partículas de
soluto están muy ordenadas, de modo como a ser más ordenada que en el propio sólido.
Un argumento de esta manera, sin embargo, en contra de todos los conceptos intuitivos
de "orden" tiene como objetivo explicar más "orden" en términos de entropía en lugar de
la entropía en términos de "orden".

7. La segunda ley de la termodinámica puede considerarse sobre como la tendencia de los


procesos naturales que se producen en sistemas aislados para "aplanar gradientes" o,
eventualmente "destruir gradientes", o, por extender a "quitar toda la estructura
existente reconocible "en el camino hacia alcanzar el equilibrio con un aumento resultante
en la entropía. Por lo tanto, cuando está frío, blanco como la leche se añade a un caliente,
taza de café negro, es natural que la temperatura y gradientes de concentración en la taza
a estabilizarse y desaparece en el tiempo. Este "gradiente destruir" o "Estructura de la
eliminación de" tendencia de los sistemas naturales conduce a la pérdida de
oportunidades de producir un trabajo y esto es qué procesos reales e irreversibles hacer.
Por lo tanto, la "pérdida de los gradientes "o" eliminación de la estructura "puede estar
asociado con el aumento de la entropía y la pérdida de oportunidades para producir
trabajo. Si bien, la "destrucción de los gradientes" o la "eliminación de la estructura" de un
hecho aislado sistema puede ser de alguna manera relacionado con el concepto intuitivo
de "desorden" en el sistema, no hay una estricta correlación matemática o la
correspondencia entre los dos primeros conceptos y el último (trastorno).

8. Hay que mencionar el estudio de Prigogine y Stengers [13], que calcula la cantidad de H,
que Boltzman [10] identificó con la entropía. Hicieron sus cálculos con un conjunto
Gibbsian usando el el espacio de fases en lugar de los niveles de energía. El resultado era
que la cantidad H permanece constante con el tiempo. Después de una discusión sobre la
ambigüedad de las ideas de orden y el desorden llegaron a la conclusión de que sus
resultados demostrar que "no hay cambio alguno en el orden el marco de la teoría
dinámica ". Prigogine y Stengers [13] siguen que desde la teoría de la mecánica y dinámica
(en el que la termodinámica estadística es base) uno nunca puede sacar conclusiones
sobre cambios en el orden, independientemente de cómo el concepto de orden se
concibe o definido.

9. Por último, se puede abordar la noción de ciertos "científicos historiadores o


antropólogos "que afirman que la sociedad humana (y lo mismo se aplica a la política y las
religiones) es continuamente cada vez más desordenado ya que obedece a un principio
científico inviolable, a saber, la Segunda Ley de la Termodinámica. A pesar de todas las
calamidades de los humanos modernos, nuestra la sociedad es más ordenada y civilizada
que la de los dos siglos atrás y, desde luego, con mucho más ordenada que la sociedad de
la Edad Media. El mundo no puede ser ideal, pero la termodinámica y la entropía no debe
ser culpado por ello.