Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La entropía se define como la cantidad de energía de un sistema que no se puede utilizar para hacer
trabajo. En otras palabras, es una medida de la cantidad de energía que se ha dispersado en el sistema
y que no se puede recuperar para hacer trabajo útil.
La entropía se puede entender de manera más sencilla en términos de una analogía. Imagina una
habitación perfectamente ordenada y limpia. Si se deja sin ser intervenida, esta habitación
eventualmente volverá más desordenada y sucia. El desorden con el tiempo, y la cantidad de trabajo
necesario para volver a ordenar la habitación prescrita también. Este proceso es el aumento de
entropía, que se puede definir como la cantidad de desorden que se produce con el tiempo.
La segunda ley de la termodinámica establece que la entropía de un sistema aislado siempre aumenta
con el tiempo. En otras palabras, los sistemas tienden a volverse más desordenados y caóticos a
medida que pasa el tiempo. Esto es cierto para sistemas físicos, como una habitación desordenada,
pero también para sistemas biológicos, económicos y sociales.
La entropía se puede calcular y medir de varias maneras, pero una de las formas más comunes es
mediante la entropía de Shannon, que se utiliza para medir la cantidad de información contenida en
un mensaje o señal. La entropía de Shannon se basa en la probabilidad de que cada símbolo apareció
en el mensaje y se utiliza en campos como la criptografía y la teoría de la información.
En la física, la entropía se relaciona con la entalpía, que es una medida de la energía total de un
sistema. La entalpía se puede dividir en la energía útil, que se puede utilizar para hacer trabajo, y la
energía inútil, que se dispersa y no se puede recuperar. La entropía es una medida de la cantidad de
energía inútil presente en un sistema.