Está en la página 1de 4

Termodinamica I

Unidad 3. Segunda ley de la termodinámica

Nombre: Verónica P. Govea Loyola.


Matrícula: AL13501862.
Carrera: Ingeniería en Energías Renovables.
Asignatura: Termodinámica I.
Profesor: Luis Cesar Cervantes González.
Actividad 3. La entropía y el orden.
Termodinamica I
Unidad 3. Segunda ley de la termodinámica

La entropía y el desorden
Resumen
Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden , he de allí que nos resulte
tan difícil comprender el desorden desde otra perspectiva, desde la entropía. En entre trabajo se
intentara explicar de la manera simple la relación que existe entre estos conceptos.

Problemática
a) Explica las razones para hacer la relación entre entropía y desorden.

Los procesos irreversibles son la evolución natural del orden al desorden o, en términos científicos, la
natural tendencia del Universo a aumentar su entropía.

“aquí no se está identificando el desorden con la revoltura sino que se le está dando otro
significado. En mecánica estadística el comportamiento de una sustancia se describe en términos
del comportamiento estadístico de los átomos y moléculas que la sustancia contiene “(ESAD).

Podemos definir una situación desordenada como aquella que puede obtenerse de muchas maneras
diferentes y, al contrario, una situación ordenada como la que puede obtenerse de pocas formas distintas
(Sistema Madri+d).

La entropía es la magnitud física que se obtiene de multiplicar el logaritmo del número de estados
accesibles por la constante de Ludwig Boltzmann

b) Describe las ventajas y desventajas de tal relación.

Pues la desventaja de tal relación, viene dada en el momento en el que se están explorando estos
conceptos, ya que uno tiene una cierta idea intuitiva de lo que es orden y desorden debido a nuestras
experiencias previas y el concepto que ya tenemos en el cerebro de estas palabras puede dificultar en
algún momento el entendimiento de la entropía. Y la ventaja viene dada en el momento en que se
comprende este otro punto de vista del desorden, visto desde la estadística y la termodinámica, y más
cuando se ven muchos ejemplos donde explican esta nueva faceta del orden y el desorden, una vez
entendido así, ya se pueden usar esas palabras.

c) Explica la relación entre entropía y la carencia de información.

La entropía también puede ser considerada como una medida de la incertidumbre y de la información
necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre.

d) Explica por qué es más exacto relacionar la entropía con la carencia de información.

Esto puede ser cierto en el ámbito de la entropía de la información que dice:


Termodinamica I
Unidad 3. Segunda ley de la termodinámica

La entropía también se puede considerar como la cantidad de información promedio que


contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor
información. Cuando todos los símbolos son igualmente probables (distribución de probabilidad
plana), todos aportan información relevante y la entropía es máxima. (Vena)

Pero personalmente yo encuentro una definición más fiel para el ámbito de la termodinámica en una ya
mencionada anteriormente en este trabajo, la cual dice,

“…una situación desordenada es aquella que puede obtenerse de muchas maneras diferentes y, al
contrario, una situación ordenada como la que puede obtenerse de pocas formas distintas” (Sistema
Madri+d), donde la entropía es la magnitud del desorden.

e) Explica las desventajas de usar las comparaciones entre entropía y orden, así como de la
relación entre entropía con la carencia de información.

Pues como ya había explicado arriba la desventaja de relacionar la entropía con el desorden viene dada
cuando el nuevo estudiante conoce el concepto de entropía y lo intenta relacionar inmediatamente con
el desorden sin saber bien, que es el desorden visto desde otro punto de vista, pero una vez que se
conocen varios ejemplos teóricos, se comprende esta relación.

La desventaja entre carencia de información y entropía, yo la noto en el mismo sentido. Tenemos un


concepto intuitivo sobre la carencia de información debido a nuestro bagaje cultura, y cuando es
relacionado con la entropía en la teoría de la información, encontramos una pared, fácil de librar si se
leen los suficientes ejemplos, uno de ello es Claude E. Shannon pusiera en su artículo A Mathematical
Theory of Communication (1948),

Consideremos algún texto escrito, codificado como una cadena de letras, espacios y signos de
puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos
caracteres no son muy comunes (por ejemplo, “y”), mientras otros si lo son (como la “e”), la
cadena de caracteres no es tan “aleatoria” como podría llegar a ser. Obviamente, no podemos
predecir con exactitud cuál será el siguiente carácter en la cadena y eso la haría aparentemente
aleatoria; pero es la entropía la encargada de medir precisamente esa aleatoriedad.

f) Explica si las comparaciones tienen fundamento físico.

Si lo tiene, el fundamento físico se nota claramente en la segunda ley de la termodinámica que expresa:

“La cantidad de entropía del universo tiende a incrementarse en el tiempo”.

Es una ley que lleva al concepto de la irreversibilidad y al de la entropía. Este último concepto, cuando es
tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información,
queda ligado al grado de desorden de la materia y la energía de un sistema.
Termodinamica I
Unidad 3. Segunda ley de la termodinámica

Desarrollo:
Si consideramos los tres estados de agregación del agua, sus entropías serán:

Modelo
ΔS = S final – S inicial

Datos
ΔS > 0   Aumento del desorden
ΔS < 0   Disminución del desorden

S hielo = 44,8 J/K·mol < S líquido= 69,9 J/K·mol < S vapor= 188,8 J/K·mol

Resultados
S sólido< S líquido< S gas

Análisis de resultados
En este caso el hielo tiene más baja entropía que el agua en estado líquido y que el agua en estado gas.
Debido a que entre más separadas estén las moléculas, más desorden abra y la entropía será mayor.

Conclusiones
La entropía abordada desde el punto de vista del desorden, me parece una visión correcta, sí y solo si se
complementa con varios ejemplos teóricos, para comprender ese otro punto de vista.

Fuentes de consulta
1. ESAD. Plan desarrollado de la asignatura Termodinámica I. Unidad 3. [consultado el 08 de mayo
de 2014]
2. Sistema Madri+d. Entropía. [Consultado el 08 de mayo de 2014]. Disponible en:
http://www.madrimasd.org/cienciaysociedad/ateneo/temascandentes/entropia/default.asp
3. Vena, Daniel Esteban. ORT Argentina, Escuelas Técnicas, sede Belgrano. Teoría de la
información. Entropía. [Consultado el 08 de mayo de 2014]. Disponible en:
https://docs.google.com/presentation/d/1YN38tVHmffOaOuF20qtbjGudUhulbIppBImCpOnNA_
w/embed#slide=id.gf1708952_03
4. Shannon, Claude E. (1948). A Mathematical Theory of Communication. [Consultado el 08 de
mayo de 2014]. Disponible en: http://cm.bell-
labs.com/cm/ms/what/shannonday/shannon1948.pdf

También podría gustarte