Está en la página 1de 5

La entropa y el orden

Titulo
La entropa y el orden

Resumen
De acuerdo con el segundo principio de la termodinmica, la entropa del universo est en constante aumento; es decir, la distribucin de energa en el universo est constantemente igualndose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energa aumenta tambin el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partculas que lo componen no es sino otro aspecto del segundo principio, y la entropa cabe considerarla como una medida del desorden que existe en el universo. (Isaac Asimov)

Introduccin
La palabra entropa procede del griego () y significa evolucin o transformacin.

El concepto de temperatura est comprendido en la ley cero de la termodinmica y el de energa interna en la primera ley. Tanto la temperatura como la energa interna son funciones de estado. Es decir se pueden utilizar para describir el estado de un sistema. Otra funcin de estado, relacionada con la segunda ley de la termodinmica, es la funcin entropa.

Muchos textos y artculos se refieren a la entropa como una medida del desorden o la aleatoriedad. Esta interpretacin se justifica por la definicin de entropa. El argumento es que un aumento en el desorden en un sistema corresponde a un aumento en la entropa. Sin embargo, existen dos problemas con esta interpretacin: no agrega nada a la comprensin de la entropa y es inconsistente con la concepcin comn de desorden.

Desarrollo
Relacin entre entropa y orden

La termodinmica es la rama de la fsica que estudia fenmenos en los que interviene el calor. La segunda ley de la termodinmica fue enunciada por S. Carnot en 1824. Se puede enunciar de muchas formas. Una formulacin sencilla y precisa es la siguiente: La evolucin espontnea de un sistema aislado se traduce siempre en un aumento de su entropa. La palabra entropa fue utilizada por Clausius en 1850 para calificar el grado de desorden de un sistema. Por tanto la segunda ley de la termodinmica dice que los sistemas aislados tienden al desorden. En la teora de la comunicacin o de la informacin, la entropa es un nmero que mide la incertidumbre de un mensaje. La entropa es nula cuando la certeza es absoluta. Para un proceso reversible entre dos estados de equilibrio, si dQ es el calor absorbido o liberado por el sistema durante algn intervalo pequeo de la trayectoria, el cambio de entropa, dS, entre dos estados de equilibrio est dado por el calor transferido, dQ,

dividido entre la temperatura absoluta T del sistema, en ese intervalo.

Es decir: dQ dS = --------T Donde: dS Cambio de entropa dQ Diferencia de calor T Temperatura La unidad de medida de la entropa en el Sistema Ingles es J/K. Cuando el sistema absorbe calor, dQ es positivo y la entropa aumenta. Cuando el sistema libera calor, dQ es negativo y la entropa disminuye. La ecuacin (1) no define la entropa, sino el cambio de entropa.

(1)

La funcin termodinmica entropa, (S), es central para la segunda Ley de la Termodinmica. La entropa puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene una alta entropa. Puesto que un sistema en una condicin improbable tendr una tendencia

natural a reorganizarse a una condicin ms probable (similar a una distribucin al azar), esta reorganizacin resultar en un aumento de la entropa. La entropa alcanzar un mximo cuando el sistema se acerque al equilibrio, alcanzndose la configuracin de mayor probabilidad.

La entropa y la carencia de informacin Cuando se habla del contenido de informacin del orden y de la complejidad, es importante comprender lo que eso significa. Un sistema ms ordenado, es aquel que tiene una energa potencial mayor y en el que las partculas que lo componen tienen una variabilidad menor o ms controlada. Esa menor variabilidad de los microestados en un sistema implica que la cantidad de informacin necesaria para describir el

comportamiento del mismo es menor. Cuanto ms ordenado es un sistema menos informacin se requiere para describirlo. En cambio un sistema complejo suele tener un alto grado de intercambio energtico con el ambiente, una gran variabilidad y flexibilidad de estados y un gran nmero de elementos y sistemas articulados, orientados a mantener un ncleo de orden bsico. A medida que la entropa aumenta en cualquier sistema, la complejidad aumenta igualmente, es por ello que muchos fsicos afirman que lo que se pierde en orden en un sistema, se transforma en informacin, debido a la complejidad que genera la variacin de estados de las partculas a medida que el orden se degrada. Cuanto ms orden se pierde, mayor es la informacin requerida para explicar el sistema, por lo que la cantidad de informacin existente es inversamente proporcional a la cantidad de orden. En la visin clsica Shannon y Gibbs. Definen la entropa de un sistema ya sea termodinmico o informacional basndose en las probabilidades de sus posibles microestados y se interpreta como una medida de la desinformacin que tenemos sobre el sistema. Esto implica que si tenemos una descripcin completa del sistema la entropa del mismo sera nula al igual que para un microestado particular ya que este est totalmente determinado Hemos visto que hay una relacin entre el nmero de microestados y el orden. Cuantos ms microestados tiene un macroestado, ms desordenado est, porque ms posiciones

y velocidades distintas pueden tener sus partculas. Teniendo en cuenta esta relacin entre microestados y macroestados, el genial fsco Ludwig Boltzmann, a finales del siglo XIX, busca una magnitud fsica que d cuenta del orden interno de un estado; y as define la entropa S de un macroestado como: (2)

Donde: S es la entropa k es la constante de Boltzmann, cuyo valor es igual a 1.3805 x 10-23 J/K. , W es el nmero de estados. Lo que esta ecuacin significa es que la entropa (S) de un estado fsico crece con el nmero posible de microestados, W. La manera en la que S crece con W se ve muy bien en la siguiente grfica:

En termodinmica, la entropa S aparece como una cantidad relacionada con la cantidad de energa que un sistema termodinmico no puede aprovechar para realizar trabajo til. Por otro lado, en teora de la informacin se define una cantidad H, tambin denominada entropa, la cual mide el grado de impredecibilidad de una variable aleatoria y que solo depende de algo tan abstracto como la cantidad de informacin que puede codificar dicha

variable. En particular, H no tiene nada que ver con ningn sistema fsico ni con ninguna ley fsica. No obstante, si ambas cantidades reciben el mismo nombre es porque, al recurrir a la formulacin estadstica de la termodinmica, S y H adoptan la misma expresin formal.

Conclusiones.

Los dos conceptos deben considerarse en conjunto, la entropa nos sirve para determinar el orden del desorden de un sistema ya que siempre se encuentra en constante cambio la entropa de cualquier sistema. La informacin nos sirve para conocer el cambio de los microestados que constantemente estn variando las variables de los macroestados del sistema y por consecuencia el cambio de la entropa. Fuentes de consulta.
1. Frodden E. Royo J. Entropa e Informacin. Entropa_Frodden-Royo04-1.pdf 2. Aguilar Peris. 1981, Curso de termodinmica edicin revisada 1984, editorial Alhambra mexicana, s.a. 3. 1997-2013 Astronoo.com - Astronoma, Astrofsica, Evolucin y Ciencias de la Tierra. Consultado 2/4/2013. http://www.astronoo.com/articles/entropia-es.html 4. Martnez J. Anexo. La entropa y la segunda ley de la termodinmica. Las flechas. Economa del tiempo y la informacin.

También podría gustarte