P. 1
ENTALPIA y ENTROPIA

ENTALPIA y ENTROPIA

|Views: 2.470|Likes:
Publicado porLuis Toledano

More info:

Published by: Luis Toledano on Jan 05, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

08/20/2013

pdf

text

original

ENTALPIA

La entalpía es la cantidad de energía calorífica de una sustancia. En una reacción química, si la entalpía de los productos es menor que la de los reactantes se libera calor y decimos que es una reacción exotérmica. Si la entalpía de los productos es mayor que la de los reactantes se toma calor del medio y decimos que es una reacción endotérmica. El cambio de entalpía se denomina H y se define como: H = Hproductos hreactantes

La entalpía de formación ( Hf0) es la variación de energía calorífica en la reacción de formación de un mol de un compuesto a partir de sus elementos en sus fases estándar en condiciones de presión y temperatura estándar ambientales (TPEA), que son temperatura de 298 K (25 ºC) y presión de 100 kPa ( 1 atm.). La entalpía de formación de un elemento es cero por definición. Ejemplo 1: En las tablas encontramos que Hf0(CO2) = -394 kJ/mol, esto indica que H para la reacción: C(s) + O2(g) CO2(g) en condiciones TPEA es -394 kJ/mol

Ejemplo 2: En las tablas encontramos que Hf0(CO) = -111 kJ/mol, esto indica que H para la reacción: C(s) + 1/2 O2(g) CO(g) en condiciones TPEA es -111 kJ/mol

Por combinación de las Hf0 podemos determinar entalpías de reacción de otras reacciones distintas, puesto que la entalpía es una función de estado (sólo depende de los estados inicial y final, no del camino recorrido) La H de la reacción CO(g) + 1/2 O2(g) CO2(g) será:

H0 = Hproductos - Hreactantes = Hf0(CO2) - Hf0(CO) = -283 kJ/mol

ENTROPIA
(concepto base) El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal. Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'w'), mientras otros sí lo

Pero es la entropía la encargada de medir precisamente esa aleatoriedad. y fue presentada por Shannon en su artículo de 1948. entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres . Si todos los elementos de la señal son equiprobables a la hora de aparecer. en inglés). A Mathematical Theory of Communication ("Una teoría matemática de la comunicación". el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía. no podemos predecir con exactitud cuál será el siguiente carácter en la cadena. pues estos no se repiten ni están ordenados en una forma predecible. Es decir. Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones: La medida de información debe ser proporcional (continua). En dicho cable solo se reciben las letras en minúscula de la a hasta la z.son (como la 'a'). se puede decir que este mensaje llega a nosotros con la máxima entropía (o desorden posible). Obviamente. la cadena de caracteres no será tan "aleatoria" como podría llegar a ser. ya que es poco probable que se pueda pronosticar la entrada de caracteres. Ejemplos de máxima entropía: Suponiendo que estamos a la espera de un texto. y eso la haría aparentemente aleatoria. por ejemplo un cable con un mensaje. . entonces la entropía será máxima.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->