Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La entropía y el desorden
Resumen
Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden , he de allí que nos resulte
tan difícil comprender el desorden desde otra perspectiva, desde la entropía. En entre trabajo se
intentara explicar de la manera simple la relación que existe entre estos conceptos.
Problemática
a) Explica las razones para hacer la relación entre entropía y desorden.
Los procesos irreversibles son la evolución natural del orden al desorden o, en términos científicos, la
natural tendencia del Universo a aumentar su entropía.
“aquí no se está identificando el desorden con la revoltura sino que se le está dando otro
significado. En mecánica estadística el comportamiento de una sustancia se describe en términos
del comportamiento estadístico de los átomos y moléculas que la sustancia contiene “(ESAD).
Podemos definir una situación desordenada como aquella que puede obtenerse de muchas maneras
diferentes y, al contrario, una situación ordenada como la que puede obtenerse de pocas formas distintas
(Sistema Madri+d).
La entropía es la magnitud física que se obtiene de multiplicar el logaritmo del número de estados
accesibles por la constante de Ludwig Boltzmann
Pues la desventaja de tal relación, viene dada en el momento en el que se están explorando estos
conceptos, ya que uno tiene una cierta idea intuitiva de lo que es orden y desorden debido a nuestras
experiencias previas y el concepto que ya tenemos en el cerebro de estas palabras puede dificultar en
algún momento el entendimiento de la entropía. Y la ventaja viene dada en el momento en que se
comprende este otro punto de vista del desorden, visto desde la estadística y la termodinámica, y más
cuando se ven muchos ejemplos donde explican esta nueva faceta del orden y el desorden, una vez
entendido así, ya se pueden usar esas palabras.
La entropía también puede ser considerada como una medida de la incertidumbre y de la información
necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre.
d) Explica por qué es más exacto relacionar la entropía con la carencia de información.
Pero personalmente yo encuentro una definición más fiel para el ámbito de la termodinámica en una ya
mencionada anteriormente en este trabajo, la cual dice,
“…una situación desordenada es aquella que puede obtenerse de muchas maneras diferentes y, al
contrario, una situación ordenada como la que puede obtenerse de pocas formas distintas” (Sistema
Madri+d), donde la entropía es la magnitud del desorden.
e) Explica las desventajas de usar las comparaciones entre entropía y orden, así como de la
relación entre entropía con la carencia de información.
Pues como ya había explicado arriba la desventaja de relacionar la entropía con el desorden viene dada
cuando el nuevo estudiante conoce el concepto de entropía y lo intenta relacionar inmediatamente con
el desorden sin saber bien, que es el desorden visto desde otro punto de vista, pero una vez que se
conocen varios ejemplos teóricos, se comprende esta relación.
Consideremos algún texto escrito, codificado como una cadena de letras, espacios y signos de
puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos
caracteres no son muy comunes (por ejemplo, “y”), mientras otros si lo son (como la “e”), la
cadena de caracteres no es tan “aleatoria” como podría llegar a ser. Obviamente, no podemos
predecir con exactitud cuál será el siguiente carácter en la cadena y eso la haría aparentemente
aleatoria; pero es la entropía la encargada de medir precisamente esa aleatoriedad.
Si lo tiene, el fundamento físico se nota claramente en la segunda ley de la termodinámica que expresa:
Es una ley que lleva al concepto de la irreversibilidad y al de la entropía. Este último concepto, cuando es
tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información,
queda ligado al grado de desorden de la materia y la energía de un sistema.
Termodinamica I
Unidad 3. Segunda ley de la termodinámica
Desarrollo:
Si consideramos los tres estados de agregación del agua, sus entropías serán:
Modelo
ΔS = S final – S inicial
Datos
ΔS > 0 Aumento del desorden
ΔS < 0 Disminución del desorden
S hielo = 44,8 J/K·mol < S líquido= 69,9 J/K·mol < S vapor= 188,8 J/K·mol
Resultados
S sólido< S líquido< S gas
Análisis de resultados
En este caso el hielo tiene más baja entropía que el agua en estado líquido y que el agua en estado gas.
Debido a que entre más separadas estén las moléculas, más desorden abra y la entropía será mayor.
Conclusiones
La entropía abordada desde el punto de vista del desorden, me parece una visión correcta, sí y solo si se
complementa con varios ejemplos teóricos, para comprender ese otro punto de vista.
Fuentes de consulta
1. ESAD. Plan desarrollado de la asignatura Termodinámica I. Unidad 3. [consultado el 08 de mayo
de 2014]
2. Sistema Madri+d. Entropía. [Consultado el 08 de mayo de 2014]. Disponible en:
http://www.madrimasd.org/cienciaysociedad/ateneo/temascandentes/entropia/default.asp
3. Vena, Daniel Esteban. ORT Argentina, Escuelas Técnicas, sede Belgrano. Teoría de la
información. Entropía. [Consultado el 08 de mayo de 2014]. Disponible en:
https://docs.google.com/presentation/d/1YN38tVHmffOaOuF20qtbjGudUhulbIppBImCpOnNA_
w/embed#slide=id.gf1708952_03
4. Shannon, Claude E. (1948). A Mathematical Theory of Communication. [Consultado el 08 de
mayo de 2014]. Disponible en: http://cm.bell-
labs.com/cm/ms/what/shannonday/shannon1948.pdf