Está en la página 1de 12

UNIVERSIDAD ABIERTA Y A DISTANCIA DE

MXICO
INGENIERA EN BIOTECNOLOGA
TERMODINMICA
UNIDAD 3
ACTIVIDAD 3. LA ENTROPA Y EL ORDEN
MAESTRO JAVIER TEPEPA MARTINEZ
ALUMNO SERGIO LPEZ MARTNEZ

La entropa y el orden
Muchos textos y artculos se refieren a la entropa como una medida del desorden o la
aleatoriedad. Esta interpretacin se justifica por la definicin de entropa. El argumento
es que un aumento en el desorden en un sistema corresponde a un aumento en la
entropa. Sin embargo, existen dos problemas con esta interpretacin: no agrega nada a
la comprensin de la entropa y es inconsistente con la concepcin comn de desorden.
1. Para aclarar las ideas anteriores investiga y explica lo siguiente:
Las razones para hacer la relacin entre entropa y orden.
En la mayora de los procesos naturales intervienen billones y billones de tomos que se
pueden mover en infinidad de direcciones. Si, por casualidad, la disposicin de tomos
estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier
movimiento aleatorio, cualquier cambio espontneo, disminuira ese orden, o por decirlo
de otra manera, aumentara el desorden.
De acuerdo con el segundo principio de la termodinmica, la entropa del universo est
en constante aumento; es decir, la distribucin de energa en el universo est
constantemente igualndose. Puede demostrarse que cualquier proceso que iguala las
concentraciones de energa aumenta tambin el desorden. Por consiguiente, esta
tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres
de las partculas que lo componen no es sino otro aspecto del segundo principio, y la
entropa cabe considerarla como una medida del desorden que existe en el universo.
Las ventajas y desventajas de tal relacin.
Miradas las cosas de esta manera, es fcil ver la mano del segundo principio por doquier,
porque los cambios naturales actan claramente en la direccin del desorden; para
restaurar el orden hace falta un esfuerzo especial.
Los objetos se descolocan, las cosas se desordenan... Y para tener las cosas a punto es
preciso estar constantemente arreglando y limpiando el polvo y ordenando.
La relacin entre entropa y la carencia de informacin.
La conexin de la entropa con la informacin fue establecida por Shannon y Weaver en
su teora de informacin. Si el sistema es uno de comunicacin, en este caso, la
informacin transmitida tender a degradarse (a desordenarse); a medida que un mensaje
circula, el ruido lo altera y el contenido original se va desordenando (un chisme, un
"telfono roto", una fotocopia de una fotocopia de una fotocopia, etc.). Ellos proponan
entonces mecanismos de retroalimentacin que permitieran mejorar la relacin entre un
mensaje enviado y un mensaje recibido. Y para hacerlo, la frmula de entropa de la
termodinmica result apropiada. Mientras que la entropa mide el nivel de desorden en el
sistema, es decir la incertidumbre; la informacin representa el orden, la certidumbre. Por
tanto, la informacin correspondera a entropa negativa dando la posibilidad de medir la

cantidad de informacin en un sistema (o en un mensaje para compararlo con la cantidad


enviada y corregir o reenviar en caso de prdida de informacin).
Las razones para relacionar la entropa con la carencia de informacin.
En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la
informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la
incertidumbre de una fuente de informacin.
La entropa tambin se puede considerar como la cantidad de informacin promedio que
contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan
mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras
en un texto, palabras frecuentes como "que", "el", "a" aportan poca informacin, mientras
que palabras menos frecuentes como "corren", "nio", "perro" aportan ms informacin. Si
de un texto dado borramos un "que", seguramente no afectar a la comprensin y se
sobreentender, no siendo as si borramos la palabra "nio" del mismo texto original.
Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana),
todos aportan informacin relevante y la entropa es mxima.
El concepto de entropa es usado en termodinmica, mecnica estadstica y teora de la
informacin. En todos los casos la entropa se concibe como una "medida del desorden" o
la "peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una
medida de la incertidumbre y de la informacin necesaria para, en cualquier proceso,
poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y
el de entropa estn ampliamente relacionados entre s, aunque se necesitaron aos de
desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto
fuera percibido.
Las ventajas y desventajas de usar la comparacin entre entropa y carencia de
informacin.
La informacin es tratada como magnitud fsica, caracterizando la informacin de una
secuencia de smbolos utilizando la Entropa. Se parte de la idea de que los canales no
son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos
mtodos de envo de informacin o la cantidad de informacin til que se pueda enviar a
travs de un canal.

Resumen.
A pesar de la identificacin entre la entropa y el desorden, se abusa de las referencias y
su uso como metfora. En este trabajo se hace una introduccin a algunas definiciones
consultadas y a la aplicacin de modelos matemticos propuestos por Clausius y por
Boltzmann en la solucin de varios ejemplos.

Introduccin.
Tema:
La Entropa define la tendencia natural y universal a la prdida de orden. Originalmente, y
de forma estricta, es un concepto de la termodinmica; mejor dicho, una magnitud que
mide la parte de energa que no puede utilizarse para realizar un trabajo. Y que es el
grado de desorden de las molculas que integran un cuerpo en fsica.
Problema:
El problema de la Entropa es su uso metafrico, como sinnimo del desorden o
desorganizacin. Muchos textos sealan que la Entropa es el destino final de todo
sistema organizado, incluido el Universo. As, por ejemplo, un organismo muerto que entra
en descomposicin camina hacia su destino de incremento de la entropa propia, pero el
sistema que lo degrada y devuelve al entorno sus materiales lo hace en el sentido
contrario, aumentando su orden o, si se prefiere, su organizacin a costa de ese cadver.
Segn el Primer Principio de la Termodinmica, un barco podra moverse en el ocano
tomando el calor del mar que le rodea, pero el Segundo Principio, del que deriva el
concepto de Entropa, nos dice que eso es imposible: no se puede transferir calor de un
cuerpo de menor temperatura a otro de mayor (como la caldera del barco frente al agua
de mar). Es decir, no se pude absorber calor de un foco para realizar un trabajo. El
enunciado usual de este principio es en un sistema aislado, que por tanto no intercambia
materia y energa con el entorno, la Entropa, es decir, la fraccin de energa de este
sistema que no es posible convertir en trabajo, siempre aumenta con el tiempo.
Eso implica dos cosas, que el concepto de entropa, en sentido estricto, no es aplicable en
biologa, donde los sistemas biolgicos, sean organismos o ecosistemas, son siempre
necesariamente abiertos al entorno, y, sin salir de la fsica, que el flujo de calor es siempre
unidireccional desde los cuerpos de ms temperatura a los de menos.
Segn la Segunda Ley de la Termodinmica, como la Entropa es una especie de energa
degradada que no puede utilizarse para realizar trabajo, a cada instante el Universo se
hace ms desordenado. En definitiva, hay un deterioro general pero inexorable hacia el
caos. Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero
desconocemos que el paso de una situacin a la otra implica, el final de todo movimiento,
la muerte del Universo.
Propuesta de solucin:

Proponer y resolver diferentes ejemplos, tanto del uso metafrico como de las
aplicaciones prcticas en qumica y termodinmica, con modelos matemticos propuestos
para su clculo.

Desarrollo.
Modelos:
Enfoque Filosfico.
El caos (desorden) es todo aquello que exista en un estado completamente
indiferenciado, estuvo asociado con lo informe, lo impensado, lo vaco y lo desordenado.
El caos es la ausencia de forma y tambin el medio donde tiene lugar la creacin de
forma. Es el motor que impulsa a un sistema hacia un tipo de orden ms complejo. El
caos hace posible el orden siendo su precursor y socio, y no su opuesto. El caos posee
dentro de s profundas estructuras de orden donde las zonas de simetra se mezclan con
las de asimetra, recorriendo todas las escalas de magnitud creando as formas cada vez
ms complejas.
El orden es una condicin necesaria de todo lo que la mente humana desea comprender.
Por ejemplo: una pintura se dice que es ordenada cuando un observador puede captar su
estructura general y la ramificacin de la estructura con algn detalle. En muchos casos,
el orden se capta ante todo por los sentidos. Por ejemplo, el observador percibe una
estructura organizada en las formas y colores de una pintura (Figura 1).
Figure 1. Thermodynamic Horizon de Adam Scott Miller.
Modelo de Clausius.
Si consideramos uno de los soportes fundamentales de la Segunda Ley de la
Termodinmica a la Entropa, entonces nos sirve para medir el grado de desorden dentro
de un proceso y nos permite distinguir la energa til, que es la que se convierte en su
totalidad en trabajo, de la intil, que se pierde en el medio ambiente.
Originalmente la palabra Entropa viene del griego em que significa sobre, en y cerca de;
y sqopg que significa giro, alternativa, cambio y evolucin. Este trmino fue usado por
primera vez en 1850 por el fsico alemn Rudolf Julius Emmanuel Clausius, que introduce
la Entropa como la formulacin matemtica de la Segunda Ley de la Termodinmica,
definida como
SA=dQ/T

Donde SA es el valor (arbitrario) que asignamos a la Entropa del estado de referencia A,


T es la temperatura absoluta y Q es el calor intercambiado en un proceso reversible.
Ejemplo 1:
Una sustancia slida con un calor latente de fusin Lf se funde a una temperatura Tm.
Calcular el cambio de entropa cuando se funden m gramos de la sustancia. Hacer el
clculo si se funden 0.3 kg de plomo a 327 C, de calor de fusin 24.5 kJ/kg.
Datos:
Q = Lf = 24.5 kJ/kg
T = Tm = 327 C = 600 K
m = 0.3 kg
Solucin:
Suponer que el proceso de fusin se produce lentamente en forma reversible. En este
caso es posible considerar constante la temperatura Tm.
Como el calor latente de fusin es Q = mLf, reemplazando en la ecuacin del modelo de
Clausius, se obtiene:
Resultado:
Es decir, que de acuerdo al sentido de la definicin y modelo matemtico de Clausius, se
pierden 12.25 J/K en el ambiente, es decir es energa no apta para convertirse en
trabajo.
Modelo de Boltzmann.
En 1877, Ludwing Boltzmann la caracteriz como el nmero de estados microscpicos
distintos (N) en los que pueden hallarse las partculas que componen un trozo de materia
de forma que siga pareciendo el mismo trozo desde un punto de vista macroscpico. Su
frmula indica que la Entropa o S, es igual a una constante K por el logaritmo del
nmero (N).
S = k ln N
Donde k es la constante de Boltzmann una constante universal igual a la constante de los
gases R dividida por el nmero de Avogadro (NA).

Un estado desordenado es ms probable que un estado ordenado, debido a que el estado


desordenado se puede alcanzar de mltiples maneras. La ecuacin de Botzmann nos da
una interpretacin precisa de la Entropa en trmino de orden y desorden, proporciona
una medida cuantitativa del desorden.
Con esta ecuacin Boltzman hizo la conexin crucial entre Entropa termodinmica y
desorden. A partir de esta ecuacin es claro que un incremento en N resulta en un
incremento en S. Un cambio espontneo en el macroestado de un sistema aislado est
siempre acompaado por un incremento en N, por lo que siempre estar acompaado por
un incremento de Entropa. Cuanta ms alta es la Entropa mayor es el desorden. La
Entropa es una medida de medida del desorden del sistema (p. ej. la dispersin de su
materia y energa del sistema).
La diferencia de Entropa entre dos estados microscpicos depende de la razn del
nmero de posibles es estados microscpicos:
S = Sf - Si = k ln Nf - k ln Ni = k ln Nf/Ni
Ejemplo 2:
Para entender este resultado y como la ecuacin de Boltzmann est relacionada con la
probabilidad supongamos que tenemos un caja (mini-universo) de 20 monedas.
Datos:
20 monedas
1 caja
Solucin:
Si agitamos la caja y observamos el resultado esperamos que el estado perfectamente
ordenado (20 caras p. ej.) es mucho menos probable que un estado desordenado donde
las caras y cruces aparecen de manera azarosa. Ello es debido a que la probabilidad de
los estados ordenados y desordenados es proporcional al nmero de maneras en las que
el estado es alcanzado.
Para alcanzar el estado perfectamente ordenado (20 caras) solo puede ser alcanzado de
una manera al consistir en una nica configuracin. Por otra parte un estado desordenado
se puede alanzan de mltiples maneras.
Resultado:

Para veinte monedas el nmero de posibles ordenamientos desordenados es 220. Es por


ello que la probabilidad de aparicin de un estado desordenado es 220 veces mayor que
el estado ordenado.
Ejemplo 3:
Supongamos ahora que nuestro mini universo es un cristal conteniendo molculas de
monxido de carbono CO en las cuales el tomo de oxgeno corresponde a la cabeza de
nuestra moneda y el tomo de carbono corresponde a la cruz del ejemplo 1.
Datos:
20 molculas de CO
1 caja
Solucin:
Supongamos que las molculas estn orientadas en su eje mayor verticalmente y a una
temperatura de 0 K para mantener las molculas en una configuracin fijada. El
ordenamiento de todas las molculas de CO con los tomos de O orientados hacia arriba
puede ser obtenido en una sola vez, mientras que el estado desordenado con las cabezas
de O y colas de C orientadas al azar puede ser igual a 220. Por lo tanto el estado
desordenado del cristal es 220 ms probable que la estructura perfectamente ordenada.
Si aplicamos la ecuacin de Boltzamn a estas diferentes situaciones tenemos que:
Para el estado ordenado con todas las molculas de CO orientadas en la misma
direccin:
S = k ln N = k ln 1 = 0
Para el estado desordenado (las molculas de CO orientadas al azar)
S = k ln N = k ln 220 = (1.38 x 10-23 J/K)(20)(ln 2) = 1.91x10-22 J/K
Si el cristal de CO contiene 1 mol de molculas de CO, la Entropa del estado
perfectamente ordenado (6.02 x 1023 molculas orientadas hacia arriba) sera cero, pero
la Entropa de un estado totalmente desordenado podra ser mucho ms alta pues un
nmero de Avogadro de molculas (6.02 x 1023 puede ser organizado en un nmero
enorme de maneras):
S = k ln N = k ln 2NA = k NA ln 2
Debido a que

k = R/NA
S = R ln 2 = (8.14 J/K) (0.693) = 5.76 J/K
Resultado:
Basados en datos experimentales, la Entropa de un mol (Entropa molar) de CO slido
que est cercana a 0 K es aproximadamente de 5 J/K, indicando as que las molculas en
el mismo adoptan una configuracin casi al azar.
Ejemplo 4:
Segundo Principio de la Termodinmica. El primer principio de la termodinmica relaciona
las diferentes formas de energa que intervienen en un proceso (p. ej. una reaccin
qumica), pero no puede dar cuenta de la espontaneidad de un proceso, o la forma de
producirse la misma, sin ayuda exterior. Se necesita algo que complete el primer principio,
que nos informe sobre que procesos pueden ocurrir y cuales son imposibles. Este algo
es el Segundo Principio de la Termodinmica que afirma que:
La Entropa total de cualquier sistema ms la de su entorno (Universo) se incrementa
como resultado de cualquier proceso natural, o dicho de otra manera:
La Entropa del Universo se incrementa en el curso de cualquier cambio espontneo que
ocurre en l
Solucin:
Esto es matemticamente
S (Universo) > 0
Esto es, todos los procesos que ocurren en el Universo constituyen un proceso neto
adiabtico. Considerando explcitamente la posibilidad de mltiples procesos se puede
escribir:
La suma de los cambios entrpicos de un sistema y su exterior nunca puede disminuir:
S (Universo) = Si > 0
Donde Si representa el cambio de Entropa de un proceso individual.
Esta desigualdad indica que los cambios de Entropa asociados con un proceso individual
pueden ser positivos (Si > 0), negativos (Si < 0) o iguales acero (Si = 0) siempre que
la suma del cambio de entropa de todos los procesos individuales que ocurran sea
siempre ms grande cero. O dicho de otro modo cuando todos los cambios de Entropa

que resultan en algn proceso natural son sumados algebraicamente juntos, la suma es
ms grande que cero.
Esta ecuacin proporciona una manera para determinar si un proceso es reversible,
irreversible y permitido o irreversible y no permitido. Uno debe simplemente sumar todos
los cambios de Entropa en el Universo (sistema + entorno) resultante del proceso.
Cuando el cambio neto de Entropa es cero Stotal = 0 el proceso es reversible, y
entonces se dice que el sistema est en equilibrio. Si el cambio de Entropa total (sistema
+ ambiente) es mayor que cero Stotal > 0, el proceso puede ocurrir, dicindose entonces
que es un proceso espontneo o natural. Si la Entropa neta es menor que cero Stotal <
0, el proceso no es espontneo o no natural y no puede ocurrir. As la Segunda Ley de la
Termodinmica proporciona un mtodo importante para predecir la espontaneidad o
reversibilidad de un proceso. La direccin del cambio espontneo est siempre
determinada por el signo de la variacin de Entropa total del proceso.
Resultado:
En cualquier proceso real espontneo (incluyendo las reacciones qumicas) el desorden
del Universo siempre se incrementa. As en cualquier sistema aislado, en la cual la
energa total no cambia, una reaccin es espontnea es aquella en la que la Entropa (y el
desorden) se incrementa. En ningn proceso que produce orden, es decir que baja la
Entropa, puede ocurrir sin la intervencin o ayuda exterior.
Un importante aspecto de la Segunda Ley de la Termodinmica es que nos dice tambin
que en cualquier proceso natural irreversible existe alguna energa que aparece como no
disponible para hacer trabajo til. As aunque la energa no se pierde cuantitativamente,
como exige el Primer Principio de la Termodinmica, si pierde cualidad, es decir es menos
til para hacer trabajo. La energa en este sentido se degradada, es decir que va de una
forma ms ordenada y til para hacer trabajo (tal como la mecnica) a otra forma
eventualmente menos ordenada, energa interna o energa trmica. Una salida natural de
este proceso a lo largo del tiempo sera la muerte trmica del Universo, en la que toda la
energa del Universo se habra degradado en energa trmica, ningn trabajo sera
posible de hacer, y el Universo se encontrara en un estado de mximo desorden en
equilibrio trmico.

Conclusiones:
La Entropa tiene un uso amplio en el sentido metafrico, del cual se abusa, tanto por
parte de autores dedicados a las ciencias exactas, como de filsofos o de otro tipo de
cientficos. Para entender el concepto aplicable en Termodinmica, se pueden utilizar los
modelos propuestos por Clausius y por Boltzman, de donde se obtienen resultados
numricos que se pueden interpretar y aplicar. De esto ltimo por ejemplo, por el modelo
de Clausius podemos medir en unidades de J/K la energa que no se utiliza en forma de

trabajo y que hace cumplir el Primer principio de la Termodinmica; o bien desde el


enfoque probabilstico de Boltzman hacer cumplir la Ley de la Conservacin de la energa
para reacciones qumicas.

Referencias:
Bevan Ott, J. y Boerio-Goates, J. 2000. Chemical Thermodynamics. Principles and
Applications. Elsevier Academic Press. Volumen 54, Issue 6, Pg. B110.
Hewitt, P. G. 2004. Fsica Conceptual, Novena Edicin. Edit. Perarson Educacin. Mxico.
816 Pp.
Kondepudi, D. y Progogine, I. 1998. Modern Thermodynamics. From Engines to
Dissipative Structures. Edit. John Wiley & Son. 486 Pp.

Recuperado 18/03/13 de
http://catarina.udlap.mx/u_dl_a/tales/documentos/lap/carmona_c_dc/capitulo1.pdf
Recuperado 18/03/13 de
http://books.google.com.mx/books?id=lg49BBMdCAwC&pg=PA57&dq=La+relaci
%C3%B3n+entre+
Recuperado
20/03/13
de
entrop
%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CDEQ6AEwAQ#v=onepage&q=La
%20relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de
%20informaci%C3%B3n.&f=false
Recuperado 19/03/13 de
http://books.google.com.mx/books?id=ZxVlO2ELnugC&pg=PA157&dq=La+relaci
%C3%B3n+entre+entrop%C3%ADa+y+la+carencia+de+informaci%C3%B3n.&hl=es419&sa=X&ei=1kBJUZuoH8i7qQH1k4DgBw&ved=0CCsQ6AEwAA#v=onepage&q=La
%20relaci%C3%B3n%20entre%20entrop%C3%ADa%20y%20la%20carencia%20de
%20informaci%C3%B3n.&f=false
Recuperado 20/03/13 de
http://enciclopedia.us.es/index.php/Entrop%C3%ADa_(teor%C3%ADa_de_la_informaci
%C3%B3n)

También podría gustarte