Está en la página 1de 4

Termodinmi

ca

Unidad 1. Conceptos y
propiedades
termodinmicas

Cortes Cruz Carlos Yair.

Asignatura: Termodinmica

Unidad 3.
Actividad 3.

Ing. Tecnologa ambiental

La entropa y el orden
Muchos textos y artculos se refieren a la entropa como una medida del
desorden o la aleatoriedad. Esta interpretacin se justifica por la definicin
de entropa. El argumento es que un aumento en el desorden en un sistema
corresponde a un aumento en la entropa. Sin embargo, existen dos problemas
con esta interpretacin: no agrega nada a la comprensin de la entropa y es
inconsistente con la concepcin comn de desorden.
1. Para aclarar las ideas anteriores investiga y explica lo siguiente:

Las razones para hacer la relacin entre entropa y orden.


En casi todos los procesos naturales intervienen miles, millones y billones de
tomos que se encuentran libres y pueden mover en infinidad de direcciones.
Si, por casualidad, la disposicin de tomos estuviera en un principio sometida
a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio,
cualquier cambio espontneo, disminuira ese orden y por ende aumentara el
desorden.
El segundo principio de la termodinmica, podemos decir que nos menciona
que
la entropa del universo est en constante aumento; es decir, la
distribucin de energa en el universo est constantemente igualndose. Puede
demostrarse que cualquier proceso que iguala las concentraciones de energa
aumenta tambin el desorden. Por consiguiente, esta tendencia a incrementar
el desorden en el universo con los movimientos aleatorios libres de las
partculas que lo componen no es sino otro aspecto del segundo principio, y la
entropa cabe considerarla como una medida del desorden que existe en el
universo.

Las ventajas y desventajas de tal relacin.


Desde una perspectiva, es fcil ver el segundo principio por doquier, porque los
cambios naturales actan claramente en la direccin del desorden; para
restaurar el orden hace falta un esfuerzo.
Los objetos se descolocan, las cosas se desordenan... Y para tener las cosas a
punto es preciso estar constantemente ordenando y arreglando.

La relacin entre entropa y la carencia de informacin.


La relacin de la entropa con la informacin fue establecida por Shannon y
Weaver en su teora de informacin. Si el sistema es uno de comunicacin, en
este caso, la informacin transmitida tender a desordenarse; a medida que un
mensaje circula, el ruido lo altera y el contenido original se va desordenando

(un chisme, un "telfono roto", etc.). Ellos proponan entonces mecanismos de


retroalimentacin que permitieran mejorar la relacin entre un mensaje
enviado y un mensaje recibido. Y para hacerlo, la frmula de entropa de la
termodinmica result apropiada. Mientras que la entropa mide el nivel de
desorden en el sistema, es decir la incertidumbre; la informacin representa el
orden, la certidumbre. Por tanto, la informacin correspondera a entropa
negativa dando la posibilidad de medir la cantidad de informacin en un
sistema (o en un mensaje para compararlo con la cantidad enviada y corregir o
reenviar en caso de prdida de informacin).

Las razones para relacionar la entropa con la carencia de


informacin.
La tambin llamada entropa de la informacin y entropa de Shannon (en
honor a Claude E. Shannon), mide la incertidumbre de una fuente de
informacin como ya se mencion anteriormente.
El concepto de entropa es usado en termodinmica, mecnica estadstica y
teora de la informacin. En todos los casos la entropa se concibe como una
"medida del desorden" o la "peculiaridad de ciertas combinaciones". La
entropa puede ser considerada como una medida de la incertidumbre y de la
informacin necesaria para, en cualquier proceso, poder acotar, reducir o
eliminar la incertidumbre. Resulta que el concepto de informacin y el de
entropa estn ampliamente relacionados entre s, aunque se necesitaron aos
de desarrollo de la mecnica estadstica y de la teora de la informacin antes
de que esto fuera percibido.

Las ventajas y desventajas de usar la comparacin entre


entropa y carencia de informacin.
La informacin es tratada como magnitud fsica, caracterizando la informacin
de una secuencia de smbolos utilizando la Entropa. Se parte de la idea de que
los canales no son ideales, aunque muchas veces se idealicen las no
linealidades, para estudiar diversos mtodos de envo de informacin o la
cantidad de informacin til que se pueda enviar a travs de un canal.
La informacin necesaria para especificar un sistema fsico tiene que ver con
su entropa.

Referencias:
http://definicion.de/entropia/
http://www.profesorenlinea.com.mx/Ciencias/entropia.htm
http://www.monografias.com/trabajos/termoyentropia/termoyentropia.shtml

También podría gustarte