Está en la página 1de 5

Física estadística

(Redirigido desde «Mecánica estadística»)

Ir a la navegaciónIr a la búsqueda

La temperatura de un gas monoatómico es una medida relacionada con la energía cinética promedio de


sus moléculas al moverse. De acuerdo con la física estadística clásica la energía por molécula
es  (siendo g el número de grados de libertad, k la constante de Boltzmann y T la temperatura absoluta.

La física estadística o mecánica estadística es una rama de la física que


mediante la teoría de la probabilidad es capaz de deducir el comportamiento de
los sistemas físicos macroscópicos constituidos por una cantidad estadísticamente
significativa de componentes equivalentes a partir de ciertas hipótesis sobre los
elementos o partículas que los conforman y sus interacciones mutuas.
Los sistemas macroscópicos son aquellos que tienen un número de
partículas cercano a la constante de Avogadro, cuyo valor, de aproximadamente ,
es increíblemente grande, por lo que el tamaño de dichos sistemas suele ser de
escalas cotidianas para el ser humano, aunque el tamaño de cada partícula
constituyente sea de escala atómica. Un ejemplo de un sistema macroscópico
sería, por ejemplo, un vaso de agua.
La importancia del uso de las técnicas estadísticas para estudiar estos sistemas
radica en que, al tratarse de sistemas tan grandes es imposible, incluso para las
más avanzadas computadoras, llevar un registro del estado físico de cada
partícula y predecir el comportamiento del sistema mediante las leyes de
la mecánica, además del hecho de que resulta impracticable el conocer tanta
información de un sistema real.
La utilidad de la física estadística consiste en ligar el
comportamiento microscópico de los sistemas con su comportamiento
macroscópico o colectivo, de modo que, conociendo el comportamiento de uno,
pueden averiguarse detalles del comportamiento del otro. Permite describir
numerosos campos de naturaleza estocástica como las reacciones nucleares;
los sistemas biológicos, químicos, neurológicos, entre otros.

Índice

 1Ejemplos de aplicación
 2Historia
 3Aplicación en otros campos
 4Relación estadística-termodinámica
 5Postulado fundamental
o 5.1La entropía como desorden
 6Procedimientos de cálculo
 7Véase también
 8Referencias
o 8.1Bibliografía

Ejemplos de aplicación[editar]
Empíricamente, la termodinámica ha estudiado los gases y ha establecido su
comportamiento macroscópico con alto grado de acierto. Gracias a la física
estadística es posible deducir las leyes termodinámicas que rigen el
comportamiento macroscópico de un gas, como la ecuación de estado del gas
ideal o la ley de Boyle-Mariotte, a partir de la suposición de que las partículas en el
gas no están sometidas a ningún potencial y se mueven libremente con una
energía cinética igual a:
colisionando entre sí y con las paredes del recipiente de forma elástica (sin
fuerzas disipativas). El comportamiento colectivo del gas depende de tan solo
unas pocas variables macroscópicas (como la presión, el volumen y la
temperatura). Este enfoque particular para estudiar el comportamiento de los
gases se llama teoría cinética.
Para predecir el comportamiento de un gas, la mecánica exigiría calcular la
trayectoria exacta de cada una de las partículas que lo componen (lo cual es
un problema inabordable). La termodinámica hace algo radicalmente opuesto,
establece unos principios cualitativamente diferentes a los mecánicos para
estudiar una serie de propiedades macroscópicas sin preguntarse en absoluto
por la naturaleza real de la materia de estudio. La mecánica
estadística media entre ambas aproximaciones: ignora los comportamientos
individuales de las partículas, preocupándose en vez de ello por promedios. De
esta forma podemos calcular las propiedades termodinámicas de un gas a
partir de nuestro conocimiento genérico de las moléculas que lo componen
aplicando leyes mecánicas.

Historia[editar]
En el siglo XVIII Daniel Bernoulli aplica razonamientos estadísticos para explicar
el comportamiento de sistemas de fluidos.
Los años cincuenta del siglo XIX marcaron un hito en el estudio de los sistemas
térmicos. Por esos años la termodinámica, que había crecido básicamente
mediante el estudio experimental del comportamiento macroscópico de los
sistemas físicos a partir de los trabajos de Nicolas Léonard Sadi Carnot, James
Prescott Joule, Clausius y Kelvin, era una disciplina estable de la física. Las
conclusiones teóricas deducidas de las primeras dos leyes de la
termodinámica coincidían con los resultados experimentales. Al mismo tiempo,
la teoría cinética de los gases, que se había basado más en la especulación
que en los cálculos, comenzó a emerger como una teoría matemática real. Sin
embargo, fue hasta que Ludwig Boltzmann en 1872 desarrolló su teorema H y
de este modo estableciera el enlace directo entre la entropía y la dinámica
molecular. Prácticamente al mismo tiempo, la teoría cinética comenzó a dar a
luz a su sofisticado sucesor: la teoría del ensamble.
El poder de las técnicas que finalmente emergieron redujo la categoría de la
termodinámica de «esencial» a ser una consecuencia de tratar
estadísticamente un gran número de partículas que actuaban bajo las leyes de
la mecánica clásica. Fue natural, por tanto, que esta nueva disciplina terminara
por denominarse: mecánica estadística o física estadística.

Aplicación en otros campos[editar]


La física estadística puede construirse sobre las leyes de la mecánica clásica o
la mecánica cuántica, según sea la naturaleza del problema a estudiar.
Aunque, a decir verdad, las técnicas de la física estadística pueden aplicarse a
campos ajenos a la propia física, como por ejemplo en economía. Así, se ha
usado la física estadística para deducir la distribución de la renta, y
la distribución de Pareto para las rentas altas puede deducirse mediante la
física estadística, suponiendo un estado de equilibrio estacionario para las
mismas (ver econofísica).

Relación estadística-termodinámica[editar]
La relación entre estados microscópicos y macroscópicos (es decir, la
termodinámica) viene dada por la famosa fórmula de Ludwig Boltzmann de
la entropía:
donde  es el número de estados microscópicos compatibles con una
energía, volumen y número de partículas dado y  es la constante de
Boltzmann.
En el término de la izquierda tenemos la termodinámica mediante la
entropía definida en función de sus variables naturales, lo que da una
información termodinámica completa del sistema. A la derecha tenemos las
configuraciones microscópicas que definen la entropía mediante esta
fórmula. Estas configuraciones se obtienen teniendo en cuenta el modelo
que hagamos del sistema real a través de su hamiltoniano mecánico.
Esta relación, propuesta por Ludwig Boltzmann, no la aceptó inicialmente la
comunidad científica, en parte debido a que contiene implícita la existencia
de átomos, que no estaba demostrada hasta entonces. Esa respuesta del
medio científico, dicen, hizo que Boltzmann, desahuciado, decidiera
quitarse la vida.
Actualmente esta expresión no es la más apropiada para realizar cálculos
reales. Ésta es la llamada ecuación puente en el colectivo microcanónico.
Existen otros colectivos, como el colectivo canónico o el colectivo
macrocanónico, que son de más interés práctico.

Postulado fundamental[editar]
El postulado fundamental de la mecánica estadística, conocido también
como postulado de equiprobabilidad a priori, es el siguiente:
Dado un sistema aislado en equilibrio, el sistema tiene la misma probabilidad de estar en
cualquiera de los microestados accesibles.

Este postulado fundamental es crucial para la física estadística, y afirma


que un sistema en equilibrio no tiene ninguna preferencia por ninguno
de los microestados disponibles para ese equilibrio. Si Ω es el número
de microestados disponibles para una cierta energía, entonces la
probabilidad de encontrar el sistema en uno cualquiera de esos
microestados es p = 1/Ω.
El postulado es necesario para poder afirmar que, dado un sistema en
equilibrio, el estado termodinámico (macroestado) que está asociado a
un mayor número de microestados es el macroestado más probable del
sistema. Puede ligarse a la función de teoría de la información, dada
por:
Cuando todas las rho son iguales, la función de
información I alcanza un mínimo. Así, en el macroestado más
probable además es siempre uno para el que existe una mínima
información sobre el microestado del sistema. De eso se desprende
que en un sistema aislado en equilibrio la entropía sea máxima (la
entropía puede considerarse como una medida de desorden: a
mayor desorden, mayor desinformación y, por tanto, un menor valor
de I).
La entropía como desorden[editar]
En todos los libros de termodinámica se interpreta la entropía como
una medida del desorden del sistema. De hecho, a veces se
enuncia el segundo principio de la termodinámica diciendo: El
desorden de un sistema aislado sólo aumenta.
Es importante saber que esta relación viene, como acabamos de
saber, de la mecánica estadística. La termodinámica no es capaz de
establecer esta relación por sí misma, pues no se preocupa en
absoluto por los estados microscópicos. En este sentido, la
mecánica estadística es capaz de demostrar la termodinámica, ya
que, partiendo de unos principios más elementales (a saber, los
mecánicos), obtiene por deducción est

También podría gustarte