Está en la página 1de 15

EXPOSICIÓN DIGITAL

: BALANCE DE
ENTROPÍA
ALUMNO: Christopher Antonio López Flores
MATRICULA:
64203671 MATERIA:
Termodinámica
LICENCIATURA: Ingeniería Industrial y de
Sistemas
INTRODUCCIÓN
En termodinámica, la entropía (simbolizada
como S) es una magnitud física para un sistema
termodinámico en equilibrio. Mide el número
de microestados compatibles con el
macroestado de equilibrio, también se puede
decir que mide el grado de organización del
sistema, o que es la razón de un incremento
entre energía interna frente a un incremento
de temperatura del sistema termodinámico.
HISTORIA
El concepto de entropía fue desarrollado en respuesta a la
observación de que una cierta cantidad de energía liberada de
reacciones de combustión siempre se pierde debido a la disipación o
la fricción y por lo tanto no se transforma en trabajo útil. Los
primeros motores de calor como el Thomas Savery (1698), la
máquina de Newcomen (1712) y el Cugnot de vapor de tres ruedas
(1769) eran ineficientes, la conversión de menos del 2 % de la
energía de entrada en producción de trabajo útil; una gran cantidad
de energía útil se disipa o se pierde en lo que parecía un estado de
aleatoriedad inconmensurable. Durante los próximos dos siglos los
físicos investigaron este enigma de la energía perdida, el resultado
fue el concepto de entropía.
INTERPRETACIÓN ESTADÍSTICA
DE LA ENTROPÍA
Entre 1890 y 1900 el físico austríaco Ludwig Boltzmann y otros
desarrollaron las ideas de lo que hoy se conoce como física
estadística, teoría profundamente influenciada por el concepto de
entropía. Una de las teorías termodinámicas estadísticas (la teoría
de Maxwell-Boltzmann) establece la siguiente relación entre la
entropía y la probabilidad termodinámica:
donde S es la entropía, k la constante de Boltzmann y Ω el número
de microestados posibles para el sistema (ln es la función logaritmo
natural). La ecuación asume que todos los microestados tienen la
misma probabilidad de aparecer.

La ecuación se encuentra grabada sobre la lápida de la tumba de


Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de
Viena. Boltzmann se suicidó en 1906, profundamente deprimido,
quizá por la poca aceptación de sus teorías en el mundo académico
de la época.5​
ENTROPÍA COMO CREADORA DE
ORDEN
A pesar de la identificación entre la entropía y el desorden, hay
muchas transiciones de fase en la que emerge una fase ordenada y
al mismo tiempo, la entropía aumenta. En este artículo se muestra
que esta paradoja se resuelve haciendo una interpretación literal de
la famosa ecuación de Boltzmann S = k log W. Podemos verlo en la
segregación de una mezcla tipo coloide, por ejemplo cuando el agua
y aceite tienden a separarse. También en la cristalización de esferas
duras: cuando agitamos naranjas en un cesto, estas se ordenan de
forma espontánea. De estos casos se deduce el concepto de fuerza
entrópica o interacción, muy útil en la ciencia de polímeros o
ciencia coloidal.
RELACIÓN DE LA ENTROPÍA CON
LA TEORÍA DE LA INFORMACIÓN
Recientes estudios han podido establecer una relación entre la entropía
física y la entropía de la teoría de la información gracias a la revisión de la
física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein
el bit de información sería equivalente a una superficie de valor 1/4 del área
de Planck. De hecho, en presencia de agujeros negros la segunda ley de la
termodinámica solo puede cumplirse si se introduce la entropía generalizada
o suma de la entropía convencional (Sconv) más un factor dependiente del
área total (A) de agujeros negros existente en el universo, del siguiente
modo:
LA ENTROPÍA COMO FLECHA
DEL TIEMPO
Como se demuestra en el segundo principio de la termodinámica, de
los dos únicos sentidos en que puede evolucionar un sistema el
espontáneo es el que corresponde al estado del universo con una
igual o mayor entropía. Se entiende por lo tanto que la entropía del
universo tiene un único sentido: es creciente. Es equiparable al
paso del tiempo, cuyo sentido a ojos de la vida humana es siempre
el mismo.

El tiempo pasa y la entropía crece hasta alcanzar el punto de


máxima entropía del universo, el equilibrio termodinámico. A modo
tanto de cuestión filosófica como de cuestión científica este
concepto recae inevitablemente en la paradoja del origen del
universo. Si el tiempo llevara pasando infinitamente la entropía del
universo no tendría sentido, siendo esta un concepto finito
creciente en el tiempo y el tiempo un concepto infinito y eterno.
EJEMPLO
Un ejemplo es un reloj de arena. La arena en la parte superior, por su
posición tiene una mínima entropía (mínima libertad y mínimo desorden, y
máxima disponibilidad de energía.) Una vez que la arena va cayendo,
liberando energía, su entropía en la parte inferior será máxima y por lo
tanto la energía disponible es mínima, porque salvo que alguien de vuelta el
reloj (con un movimiento que aporta energía externa), la arena de la parte
inferior está ya liberada de su posición superior. Además el proceso es
irreversible, la arena que ha caído no puede volver al lugar superior. Este
ejemplo de todos modos se da en un sistema cerrado, donde hay un manejo
de las variables que pareciera dar lugar a su determinismo. Pero en un
sistema donde el reloj de arena, en su parte inferior es abierto, la arena
caería sin poder predecirse que otras formas de agrupación podría adoptar,
y se haría más evidente el aumento de entropía, el desorden, la
irreversibilidad y el crecimiento de probabilidades de nuevas y múltiples
formas de organización de la arena, dispuestas en parte por el azar.
La contribución que el principio de entropía hace a la teoría del
conocimiento, debemos pensarla en los conceptos de reversibilidad e
irreversibilidad, equilibrio y no equilibrio. Orden y caos, determinismo y
azar.
“El primer principio de la termodinámica postula que la energía
total del universo se mantiene constante, no se crea ni se
destruye, se transforma. Pero el segundo principio estipula que si
bien la energía se mantiene constante, está afectada de entropía.
Es decir, tiende a la
degradación, a la incomunicación, al desorden. La enunciación del
principio de entropía conmocionó a una ciencia que tenía como
uno de sus principales bastiones
la capacidad de predecir de manera determinista. Y, tan pronto
como se conoció la tendencia al caos, se pensó en la auto
aniquilación del universo. No obstante, existen posturas científico-
epistemológicas optimistas, porque el caos no implica
necesariamente la destrucción definitiva del sistema afectado. Del
caos puede también surgir el
orden. Mejor dicho, un nuevo orden”. 2 La noción de entropía echó
por tierra el ideal de la ciencia del orden y la reversibilidad
absoluta de todo proceso, sobre todo en los sistemas cerrados.
Irreversibilidad, desorden, caos, probabilidad, azar entran de la mano de
este complejo concepto. La entropía es el caballo de Troya que asestó un
duro golpe a las ciencias duras que tuvieron que admitir la inconsistencia
de su intento de ordenar la complejidad y el desorden, creando una
estructura cerrada ideal, que produjera un movimiento continuo, un sistema
ordenado, cerrado, pre-determinable, autosuficiente, reversible.
Es por eso que el concepto de entropía es también afín al Psicoanálisis y
otras disciplinas afines, el mismo Freud tuvo que apelar a la entropía como
principio, luego de su posición inicialmente excesivamente determinista.
Su afinidad con la física de su época lo condujo a un intento de
conceptualización del funcionamiento del aparato psíquico como sistema
energético semicerrado: punto de vista económico.
Freud lo presenta como una búsqueda del equilibrio a través del principio
de constancia, sin embargo la entropía le hace variar de posición, ya que el
principio de Placer-displacer y la tendencia a la descarga al cero absoluto
(Principio de Nirvana) lo obligan en 1920 a pensar la pulsión de muerte
(máxima desorganización, máxima entropía, ireversibilidad absoluta) más
allá del principio del placer.
BALANCE DE ENERGÍA EN
SISTEMAS CERRADOS
El principio que rige los balances de energía es la ley de conservación de la energía
que establece que la energía no puede crearse ni destruirse (excepto en procesos
nucleares). Esta ley es también llamada primer principio de la termodinámica. En la
más general de sus formas, la primera ley dice que la velocidad a la cual la energía
(cinética + potencial + interna) es ingresada a un sistema por un fluido, más la
velocidad a la cual ingresa energía en forma de calor, menos la velocidad a la cual la
energía es transportada por el fluido fuera del sistema, menos la velocidad a la cual el
sistema realiza trabajo sobre los alrededores, es igual a la velocidad a la cual la energía
se acumula en el sistema. Veamos su aplicación a un sistema cerrado.

Un sistema será abierto o cerrado según la masa pueda o no atravesar los límites del
mismo durante el período de tiempo en que se plantea el balance de energía. Por
definición, un proceso batch o por lotes es cerrado mientras que un semibatch o un
proceso contínuo son abiertos.

El balance integral de un sistema cerrado debe ser planteado entre dos instantes de
tiempo (por qué?). Como la energía no puede crearse ni destruirse, los términos de
generación o consumo no tienen sentido, llegando a:
Acumulación = entrada - salida
Cuando planteamos los balances de masa en un sistema cerrado los términos de
entrada y salida de materia se cancelaban ya que no había cruce de masa en las
fronteras del sistema. Sin embargo, en un sistema cerrado, la energía puede ser ser
transferida en los límites del
sistema como calor o trabajo, por lo tanto, los términos anteriores de entrada y salida
no pueden eliminarse (sí se eliminan los términos de entrada/salida de energía
transportada por el fluido dentro o fuera del sistema)
Energía final del sistema - Energía inicial del sistema = Energía neta transferida al
sistema (entrada - salida)

Energía inicial del sistema = Ui + Eci + EPi


Energía final del sistema = Uf + Ecf + EPf
Energía transferida = Q + W
BALANCE DE ENERGÍA EN SISTEMAS
ABIERTOS EN ESTADO ESTACIONARIO
Por definición de proceso abierto, en estos hay un flujo de materia que
atraviesa los límites del mismo mientras el proceso se lleva a cabo. Por lo
tanto, para que la masa ingrese al sistema es necesario efectuar un trabajo
para empujar esta masa en el sistema y el sistema debe realizar un trabajo
sobre los alrededores para que la masa pueda salir del sistema.
Ambos trabajos (tanto para ingresar la materia o que esta egrese) deben ser
incluidos en el balance de energía, y la diferencia entre ambos es el trabajo
de flujo. En realidad en estos sistemas, más que hablar de trabajo decimos
velocidad de transferencia de energía como trabajo o trabajo/tiempo)
ΔH’ = ∑ m’jĤj - ∑ m’jĤj

Ctes. Salida -
Ctes. Entrada

ΔE’c = ∑ m’juj^/2 - ∑
m’juj^/2
Ctes. Salida -
Ctes. Entrada

ΔE’p = ∑ m’jgzj - ∑
m’jgzj
Ctes.Salida -
Ctes. Entrada

También podría gustarte