Está en la página 1de 3

INSTITUTO TECNOLOGICO DE DURANGO

DEPTO. DE INGENIERIA METAL MECANICA,


MECATRONICA

UNIDAD I: ANALISIS Y DISEÑO DE CONTROLADORES


DEFINICION DE LOS CONCEPTOS DE ENTALPÍA Y
ENTROPÍA
UNIDAD DE CONOCIMIENTO
U1-T3

PROFESOR:
M. en C. JUAN DE DIOS CASTAÑEDA CASTRELLON

ALUMNO:

LUIS EDUARDO SIDA GURROLA - 20040310

NOVIEMBRE 2022
Entalpía
Es una cantidad termodinámica, denotada por una letra H mayúscula, cuyo cambio
representa una medida de la cantidad de energía absorbida o liberada por el sistema
termodinámico, es decir, la cantidad de energía transferida por el cambio del
sistema con el medio ambiente.

Es una función del estado termodinámico, donde el cambio permite expresar la


cantidad de calor introducido en el juego durante la transformación isostática, es
decir, a una presión constante en el sistema termodinámico, nótese que cualquier
objeto conocido puede entenderse como un sistema termodinámico. Es una
transformación en la que se puede recibir o ceder energía (utilizada para trabajo
mecánico, por ejemplo). En este sentido, la entalpía es numéricamente igual al
intercambio de calor con el medio exterior al sistema considerado.

Definición del diccionario

El valor termodinámico de un objeto, igual a la suma de su energía interna más el


producto de su volumen y presión externa.

𝐻 = 𝑈 + 𝑃𝑉

U es la energía interna

P es la presión del sistema

V es el volumen del sistema

Las unidades son kJ/mol

Entropía
La entropía (símbolo S) es una cantidad física que a través del cálculo podemos
determinar la cantidad de energía que no se puede utilizar para el trabajo. Es una
función de estado extendida y su valor en un sistema aislado aumenta en un
proceso natural. La entropía describe la irreversibilidad de los sistemas
termodinámicos.

La función termodinámica de la entropía es fundamental para la segunda ley de la


termodinámica. La entropía puede entenderse como una medida de la distribución
aleatoria de un sistema. Se dice que un sistema altamente aleatorio tiene una
entropía alta. Un sistema en un estado improbable tendrá una tendencia natural a
reorganizarse en un estado más probable (similar a una distribución aleatoria), la
reorganización aumentará la entropía. La entropía será máxima cuando el sistema
esté cerca del equilibrio, y entonces se logrará la configuración con la mayor
probabilidad.

Definición del diccionario

Una cantidad termodinámica, que mide la cantidad de energía que no se puede


utilizar para el trabajo y se expresa como la relación entre el calor emitido por un
objeto y su temperatura absoluta.

𝑆 = 𝑘 ∗ 𝐿𝑛Ω

k es la constante de Boltzmann.

Ω Número de microestados que tienen la misma probabilidad de ocurrencia.

Las unidades son J/K

También podría gustarte