Está en la página 1de 10

La Mecánica Estadística.

Preliminares.

Existen dos enfoques para tratar el problema del cálculo de magnitudes


macroscópicas que corresponden a sistemas de muchos cuerpos. Uno de esos enfoques
es el de teoría cinética, en el que se estudia el comportamiento de un cuerpo en el campo
promedio de todos los demás, o el comportamiento de dos cuerpos en el campo
promedio de todos los demás, y así sucesivamente. Esto produce una jerarquía de
funciones de distribución de probabilidades, a partir de las cuales se pueden calcular
magnitudes macroscópicas como viscosidades, presiones, otros. El otro enfoque es
estudiar al sistema en su conjunto, calculando las propiedades estadísticas del sistema
de muchos cuerpos, este enfoque es el que se desarrollará en el presente trabajo.

1. Sistemas mecánicos y sistemas termodinámicos.

Generalmente se usa como prototipo de las discusiones a un sistema de partículas


puntuales muy alejadas entre sí (por eso lo de interacciones despreciables, salvo los
choques), que se conoce como gas ideal monoatómico. Como este gas debe estar
confinado en un recipiente, se imagina a las paredes de éste como perfectamente lisas y
rígidas, y a las partículas chocando elásticamente contra las paredes. Como consecuencia
de esta hipótesis, la velocidad de la partícula conserva intacta la componente de su
velocidad paralela a la pared e invierte la componente normal a la misma; el módulo de
la velocidad es el mismo antes y después del choque. Ese modelo puede servir para
estudiar la presión ejercida por el sistema sobre las paredes y para estudiar cómo se
altera la energía del sistema cuando una pared se mueve (intercambio de energía como
trabajo), sin embargo, es absolutamente incapaz de dar cuenta de los intercambios de
energía que en termodinámica se denomina calor.
El sistema descrito es un sistema mecánico y no un sistema termodinámico, no es
de extrañar que no sea capaz de explicar las evoluciones llamadas “irreversibles”, ya
que las ecuaciones de la mecánica y las condiciones de borde (el comportamiento de las
paredes) son invariantes frente a la inversión temporal.
Para tener en cuenta las transferencias de calor es necesario que las partículas
interactúen en forma diferente con las paredes, de modo que una pared “caliente” pueda
modificar la energía cinética de las partículas, u otro. Una manera de tener en cuenta
esto es imaginar que la pared no es lisa (en el nivel microscópico), y que las partículas
del gas interactúan con las partículas de la pared en vibración, o algún proceso aún más
complicado. En ese caso, el valor medio de la energía cinética de la partícula será igual
antes y después del choque solamente en el equilibrio, y la relación entre las
orientaciones puede ser aún más complicada. Es este tipo de cambio en las condiciones
de borde que introduce la irreversibilidad, transformando al sistema en un sistema
termodinámico, en el cual, si bien las ecuaciones de evolución pueden ser invariantes
frente a la inversión temporal, la evolución no lo es, ya que está determinada por las
ecuaciones y por las condiciones de borde.
2. Los sistemas tienen un número enorme de cuerpos en
interacción.

La cantidad de cuerpos microscópicos que forman una porción macroscópica de


cualquier sustancia es decididamente enorme. Por ejemplo, una sustancia de peso
molecular 200, contiene en un volumen del orden de una taza de café con leche la
cantidad de No = 6,021023 partículas (el número de Avogadro). Esta cantidad de
partículas corresponde también a 22,4 litros de cualquier gas en condiciones normales de
presión y temperatura. En un volumen tan pequeño como 1mm  1mm  1mm de aire, o
sea, 10-9m3, se encuentran nada menos que unas 3  1016 partículas. En esas condiciones
es muy poco lo que se puede pedir a la intuición, y aparecen propiedades que no se
pueden imaginar con facilidad, tales como, que para conocer el estado macroscópico es
irrelevante conocer detalladamente las condiciones iniciales y las evoluciones detalladas
de todas las partículas.
Para ilustrar este tipo de características de los números muy grandes, es
interesante considerar el siguiente ejemplo: muchas veces es necesario calcular el
logaritmo del número de configuraciones posibles de un sistema. Para simplificar se
considerarán logaritmos decimales y un sistema de 10 23 partículas que pueden estar en
10 estados cada una. El número de configuraciones es 10N con N = 1023, por lo tanto:
log 1010   10 23
23

 
Ahora se considera un número de configuraciones sustancialmente menor, por ejemplo
un billón (en español) de veces más pequeño:
log 1012 1010   log 1012   log 1010   10 23  12
23 23

   
23
Como 12 es perfectamente despreciable frente a 10 , se obtiene la extraña conclusión de
que ambos logaritmos son aproximadamente iguales a pesar de la aparente “enorme”
diferencia de sus argumentos.

3. El número de estados posibles crece con la energía del sistema.

3.1. Argumento clásico:

Consideremos un sistema de N partículas puntuales que no interactúan salvo los


choques. Estas partículas pueden estar en cualquier lugar de un recinto de volumen V y
además su energía cinética total debe estar entre E - E y E + E. Si se considera que el
volumen involucrado en un estado posible de la posición de una partícula es v, el
número de estados de posición para una sola partícula es V/v y para N partículas es
(V/v)N. Con respecto a la energía se puede imaginar un espacio de 3N coordenadas en el
cual cada eje es una componente de la velocidad de una partícula. Los estados
correspondientes a energías menores o iguales que E forman una esfera cuyo radio es
2 E / m , el volumen de esa esfera es proporcional a ese radio elevado a la 3N:
3N
 2E 
Vol  k  
 m 
Si la energía debe estar entre E - E y E + E, el volumen asignado a esos estados es del
orden de:
3 N 1
 2E 
Vol  6 Nk   E
 m 
Y si se asigna un volumen b por estado, se obtiene:
3 N 1
6 Nk E  2 E  2 3N
n     KE 2
b  m 
El último paso se justifica porque N es un número muy grande. El número total de
estados posibles es entonces:
3N
  BV N E 2
Donde B no depende ni del volumen V ni de la energía E.
Se ve entonces que en este caso el número de estados posibles del sistema crece
como una potencia muy elevada de la energía (el exponente es del orden del número de
grados de libertad).

3.2. Argumento cuántico:

Considérese un sistema formado por N osciladores cuánticos cuya energía es E.


En promedio, cada oscilador puede tener una energía del orden de E/N. Si la diferencia
de energías entre estados sucesivos es E, el número de estados con energías menores o
iguales a E/N es del orden de E/(NE). Esto es para un oscilador, como son N
osciladores independientes se tiene que el número de estados posibles es:
N
 E  1
   N N E
N

 N . E  N E
O sea, que nuevamente se ha encontrado un crecimiento del número de estados del orden
de la energía elevada al número de grados de libertad del sistema.

4. Magnitudes macroscópicas.

Las magnitudes macroscópicas son las que se pueden medir con ayuda de los
instrumentos usuales; por ejemplo: Presión, Volumen, Temperatura, Energía Interna,
otras. En todos estos casos se debe pensar que corresponden a promedios temporales de
magnitudes microscópicas. Por ejemplo, la energía de un sistema puede fluctuar por las
múltiples y pequeñas interacciones que experimenta con el medio ambiente, pero su
energía interna es un valor constante, equivalente a un promedio temporal de esa energía
instantánea.
6. El espacio de las fases.

Se trata de un espacio imaginario, llamado espacio de configuración, en donde


por medio de un punto se representa las características instantáneas de un cuerpo que se
mueve. Consideremos un oscilador que se mueve sobre el eje q, su impulso lineal será:
dq
p  mq  m
dt
Como el oscilador es un sistema conservativo, la energía se escribe:
p2 1
E  m 2 q 2
2m 2
En donde  es la frecuencia angular. Las sucesivas posiciones del punto representativo
trazan una curva en el espacio de las fases (que en este caso tiene dos dimensiones):
Si p el cuerpo se moviera en tres dimensiones, tendría tres
componentes de la posición y tres del impulso, y su
espacio de las fases sería de seis dimensiones. Si el
sistema estuviese formado por N cuerpos, y cada uno
de ellos se moviese en tres dimensiones, el espacio de las
q fases tendría 6N dimensiones. Comúnmente, al número
de dimensiones del espacio de las fases se le llama
número de grados de libertad.

La ecuación de la energía del oscilador puede ser reescrita


en la forma:
p2 q2
1 
2mE  2 E 
 2 
 m 
Esto pone en evidencia que la trayectoria del punto representativo del sistema en el
espacio de las fases es una elipse y que los radios de la elipse son:
a  2mE
2E
b
m 2
Es interesante calcular el área de la elipse:
2E
Área   ab   2mE
m 2
O bien:
E
Área  2

Resulta que el área es proporcional a la energía mecánica del oscilador.
Si se tuviese un sistema que interactúa débilmente con el exterior y su energía a
veces aumenta y otras veces disminuye, la trayectoria en el espacio de las fases sería
algo como lo que se muestra en la siguiente figura (la figura es exagerada). Para que la
energía del sistema esté definida, la interacción debe ser débil y el aumento o
disminución del área de la elipse debe ser muy lento, en un número grande de “vueltas”.
Sin embargo, sirve para ilustrar un concepto interesante: La trayectoria del punto que
representa a un sistema en el espacio de las fases, si se trata de un cuerpo que interactúa
con otros, es una curva muy complicada en el espacio de las fases.
Es casi imposible imaginar este proceso en 6 dimensiones
y p mucho menos para un sistema de N cuerpos. De todas
maneras se puede afirmar que la curva en el espacio de
las fases será muy complicada. Una pregunta que surge
es: ¿volverá a pasar por los mismos puntos?.
En el comienzo de la mecánica estadística se planteó
q
una hipótesis llamada hipótesis ergódica, que decía
que si el sistema había pasado por un punto, volvería a
pasar por él en un tiempo finito, esta hipótesis fue
refutada, es falsa.
Sin embargo, hay una hipótesis que fue demostrada, la
hipótesis cuasiergódica: Si el sistema pasa por un
punto, en un tiempo finito pasará por otro punto muy cercano al primero, esta hipótesis
(o más bien teorema) es suficiente para fundamentar la mecánica estadística.
Consideremos un sistema con N partículas (por ejemplo N átomos oscilando
alrededor de sus posiciones de equilibrio e interactuando débilmente: el modelo más
elemental de un cristal). En el espacio de fases de 6N dimensiones, la trayectoria del
punto representativo de ese sistema será una curva 6N dimensional, muy, muy
complicada. La hipótesis cuasi ergódica dice que si se distingue un recinto de
dimensiones muy pequeñas:
  dqx1dq y1dqz1...dq xN dq yN dqzN dp x1dp y1dpz1...dp xN dp yN dp zN
Entonces la curva pasará por ese recinto (atravesará el recinto) muchas veces en un
tiempo T. Cabe definir una medida de probabilidad en la forma:
tiempo en 
w     lim
T  T
Esta medida de probabilidad cumple con los postulados de la teoría matemática de
probabilidades, su suma sobre todo el espacio es igual a la unidad, y puede interpretarse
físicamente como la propensión del punto representativo del sistema de estar en el
recinto  . Definida esta medida de probabilidad, el valor medio de cualquier
magnitud X se puede calcular como:
X   w  q, p  X  q, p  
En esta expresión “q, p” significa los 3N valores de las coordenadas de posición y los
3N valores de los impulsos. La distribución de probabilidades definida anteriormente es
una propiedad del sistema de 3N partículas, y cuando el sistema se encuentra en
equilibrio, no varía, es una constante de movimiento.

7. Relación entre las probabilidades y la energía.


Si se consideran dos sistemas independientes, y el primero tiene una probabilidad
p1i de estar en el estado i y el segundo una probabilidad p2j de estar en el estado j; la
probabilidad de que el sistema formado por ambos se encuentre en el estado ji, o sea,
uno de ellos en el j y el otro en el i, es:
w ji  p1 j p2i
Es interesante ver que estas probabilidades se componen por multiplicación, sin
embargo, sus logaritmos se componen por adición:
ln w ji  ln p1 j  ln p2i
Por otra parte, para sistemas en equilibrio las probabilidades permanecen
constantes, de modo que las probabilidades son constantes de movimiento y los
logaritmos de las probabilidades son constantes de movimiento aditivas.
En mecánica se demuestra que un sistema no tiene más que siete constantes de
movimiento aditivas: La energía, las tres componentes del impulso lineal y las tres
componentes del impulso angular (se puede agregar el número de partículas, pero ahora
no se hará). Las nuevas constantes aditivas, o sea, los logaritmos de las probabilidades,
se tienen que poner en función de esas siete, y la función debe ser lineal para respetar la
aditividad:
ln wi  a  bEi  cpix  dpiy  epiz  flix  gliy  hliz
pix , piy , piz l ,l ,l
En donde son las componentes de impulso lineal, ix iy iz las componentes
de impulso angular y a, b, c, d , e, f , g , h son constantes. Como el sistema está en
equilibrio, entonces está en reposo y no rota, por lo que los últimos seis términos son
nulos, de modo que resulta:
ln wi  a  bEi
O sea, que los logaritmos de las probabilidades deben ser funciones lineales de la
energía. De esto se obtiene que las probabilidades son una función exponencial de la
energía:
wi  AebEi

8. La hipótesis de Boltzmann.

Es importante distinguir la probabilidad de que la energía de un estado sea E de


la probabilidad de que el sistema se encuentre en un estado cuya energía sea E, esto
ocurre porque pueden haber muchos estados del sistema con la misma energía E. Si se
intenta calcular la probabilidad de que la energía del sistema sea E, W(E), se debe
multiplicar a la probabilidad de que la energía del estado sea E, w(Ei), por la densidad de
estados, o sea, por el número de estados entre E y E+dE:
dn
W  E  dE  w  Ei  . dE
dE
El número de estados posibles crece muy rápidamente con la energía, eso se vio en el
punto 3. En el punto 7 se vio que la probabilidad es una función exponencial de la
energía, de modo que la probabilidad buscada tiene la forma:
dn
W  E   A.ebEi .
dE
Por ser una probabilidad, la suma (o la integral) de W(E) sobre todos los valores de E
debe ser la unidad, eso solamente es posible si b < 0. W(E) es el producto de un factor
que crece muy rápidamente con la energía por otro que disminuye rápidamente con la
energía. De manera que esa función debe tener un máximo para algún valor de la
energía, llamemos E* a dicho valor. Una manera de estimar el “ancho” de esa
distribución es definir un E , en la forma:
W  E * .E  1
Esto significa:
dn
w  E * . E  1
dE
De donde se puede estimar que el número de estados cercanos al máximo, para los
cuales la probabilidad W de que la energía del sistema sea E es apreciablemente distinta
de cero, es:
dn 1
 E 
dE w  E *
El logaritmo de esta cantidad es:
ln    ln w  E *
El valor de E* es un valor medio de una distribución muy aguda (en particular su moda)
y no difiere de su promedio apreciablemente. Como la relación entre la probabilidad w y
la energía E es lineal:
ln    ln w  E *  promedio
Los promedios se calculan según las probabilidades wi, de modo que se puede escribir:
ln    wi ln wi
i
Esta es la relación de Boltzmann.
La hipótesis de Boltzmann establece una relación entre las cantidades anteriores
y la entropía del sistema, S:
S  k ln   S   k  wi ln wi
i
En donde k es la constante de Boltzmann (también llamada constante de los gases por
molécula, ya que es igual a la constante de los gases ideales dividida por el número de
Avogadro).

Esta hipótesis es central en la mecánica estadística debido a que vincula las


probabilidades, que son propiedades microscópicas, con la entropía, que es una
propiedad macroscópica.

9. Consecuencias inmediatas de la hipótesis de Boltzmann.


En un estado de equilibrio se debe esperar que la entropía adopte su valor
máximo, y esa es la condición que se debe utilizar para calcular las probabilidades wk.
Utilizando la expresión:
wk  Ae  Ek
Donde se ha escrito - en lugar de b, para resaltar que el coeficiente debe ser negativo.
Se puede ver que si se suma sobre todos los estados:
 Ae  Ek  1
k
Por otro lado:
S   k  wi ln wi  k  Ae   Ei ln( Ae   Ei )   k  Ae   Ei (ln A   Ei )
i

Desarrollando:
S   k ln A Ae   Ei  k   Ei Ae   Ei  S   k ln A  k  E
Si se identifica la energía media E con la energía interna U del sistema termodinámico,
resulta:
S  k ln A  k U
Recordando la igualdad termodinámica:
dU  TdS  PdV
Con lo que se aprecia que la temperatura es la derivada parcial de U con respecto a S,
manteniendo las demás variables extensivas constantes:
 U 
T  
 S V
De esta relación es inmediato obtener:
1  S 
 
T  U V
Que aplicada a la relación entre S y U permite identificar la temperatura:
 S  1
   k 
 U V T
Y el valor de :
1

kT
Escribiendo la entropía con esta nueva identificación:
U
S  k ln A 
T
Multiplicando por T y reordenando:
U  TS  kT ln A  F
Con esto se llega a la importante conclusión de que la constante multiplicativa de la
distribución de probabilidades, se relaciona con la energía libre de Helmholtz del
sistema, F.
Como se debe cumplir que la probabilidad total debe ser la unidad:
1   Ae   Ei  A e   Ei
i i
De modo que:
1
 Z  e j
 E

A j

Por costumbre se trabaja con Z y no con A. Z se llama función de partición.


La relación entre la función de partición y la energía libre resulta ser:
F  kT ln Z
Pero esa no es la única propiedad importante de Z. Si se examina el cálculo de U,
o sea, del promedio de la energía E, se tiene:
e   Ei 1 1  1 Z
U  E   Ei Ae   Ei   Ei   Ei e   Ei    e   Ei  
i i Z Z i Z  i Z 
Y finalmente, la relación entre la función de partición y la energía interna es:
 ln Z
U 

De modo que conocida la función de partición, el cálculo de la energía interna del
sistema, así como el cálculo de su energía libre, y por lo tanto de su entropía, es
inmediato.
Todos estos sistemas son sistemas con números de partículas perfectamente fijos.
Se pueden generalizar estas expresiones para sistemas con números de partículas
fluctuantes, cuestión que se hará más adelante.

10. Aplicación elemental al gas ideal.

En el punto 3.1 se llegó a la conclusión de que el número de estados posibles de


un gas ideal con energía E y N partículas, confinado en un volumen V, es:
3N
  BV N E 2
Según Boltzmann la entropía debe ser una cantidad del tipo:
S  k ln 
De donde se tiene:
 3N

S  k ln  BV N E 2 
 
Desarrollando el logaritmo:
3 Nk
S  k ln B  kN ln V  ln E
2
Identificando la energía E con la energía interna U del gas queda:
3 Nk
S  k ln B  kN ln V  ln U
2
La temperatura del gas se puede calcular mediante la relación:
1  S 
 
T  U V
Efectuando la derivada y resolviendo para la energía interna resulta:
3
U  NkT
2
Como este resultado es bastante alentador, se tratará de calcular la presión del gas por
medio de la relación:
P  S 
 
T  V U
Resolviendo también esta derivada se llega a:
PV  NkT
Se ve que se han obtenido todas las fórmulas básicas, hasta el calor específico a
volumen constante, que se obtiene de la relación para U.
NOTA: La mayoría de las fórmulas de este apartado están mal formadas, puesto
que una expresión como lnV no tiene sentido, debido a que V tiene unidades. Un
desarrollo más cuidadoso evita este problema.

También podría gustarte