Está en la página 1de 81

FÍSICA TEÓRICA 3 - TEORÍA

Autor: Fabricio Éric Fernández


Primer Cuatrimestre 2017

1. Termodinámica (Repaso)

1.1. Generalidades

Vamos a tratar a la teorı́a de la Termodinámica de manera puramente clásica y teniendo en


cuenta que tiene carácter fenomenológico. De manera que existirán parámetros (macroscópi-
cos) que pueden ser controlados en los experimentos, y los llamaremos variables o parámetros
termodinámicos, y los mismos se definen experimentalmente. Por ejemplo, tenemos el volumen,
la presión, la temperatura, el campo eléctrico, magnético, etc. Llamamos estado termodinámico
del sistema a cualquier estado en el cual los parámetros termodinámicos se encuentren fijos. El
sistema estará en equilibrio, cuando ninguno de estos parámetros de los cuales depende, varı́a en
el tiempo. Todo sistema termodinámico va a estar caracterizado por una ecuación de estado, en
la cual un parámetro se escribe en función del resto (lo cual me reduce en 1 el número de grados
de libertad del mismo). Nos queda entonces la forma: f (x1 , x2 , ..., xn ) = 0. Para los gases ideales
tenemos n = 3, x1 = P , x2 = V y x3 = T , y la forma es: f (P, V, T ) = 0, o bien: P V −N kB T = 0.

1.2. Los principios de la Termodinámica

El primer principio: Desde hace más de un siglo, cuestionamientos de la época dieron


lugar a la definición de calor como la cantidad que hace falta definir (además del trabajo
realizado) para cuantificar la energı́a de las máquinas de vapor. Varı́a con la temperatura,
y se lo define como:
∆Q = C∆T

donde c es un calor especı́fico, que se lo define dejando constante alguna cantidad x.


Luego:  
∂Q
Cx =
∂T x

1
De este modo, se postula el Primer Principio de la Termodinámica, como:

∆U = ∆Q − ∆W

donde U es la energı́a interna de nuestro sistema termodinámico. Se observa que ∆U es


independiente del camino realizado para calcular las integrales, lo que la convierte en una
función de estado. Las otras dos variables que intervienen en esta formulación no son
funciones de estado. Si el proceso involcurado es reversible, vale la forma diferencial del
primer principio:
dU = dQ − dW

El segundo principio: Previamente a esta definición hay que establecer lo que es una
fuente térmica, donde los procesos se realizan sin variación de su temperatura. Una fuen-
te térmica es un reservorio tan grande que puede entregar y/o recibir calor sin modificar
apreciablemente su temperatura. Ahora, respecto del principio en sı́, existen dos enuncia-
dos distintos, pero equivalentes entre sı́. Uno es el de Lord Kelvin, que dice que no existe
ninguna transformación cuyo único efecto sea extraer calor de una fuente y convertirlo
enteramente en trabajo, y el otro de Rudolf Clausius, que dice que no existe ninguna trans-
formación cuyo único efecto sea extraer calor de una fuente frı́a y entregarlo a una fuente
más caliente. Matemáticamente, se puede escribir este principio recurriendo a una nueva
función de estado, sobre la cual en secciones posteriores volveremos, que es la entropı́a,
que se la define como el cociente entre el flujo de calor de un sistema y su temperatura:

δQ
S=
T
De manera, que si bien el calor no es una función de estado, al dividirlo por la temperatura
se puede demostrar (vı́a ciclo de Carnot) que su integral en un circuito cerrado es nula.
De manera, que vale la expresión:

δQ = T dS

como el Segundo Principio de la Termodinámica.

2. Procesos aleatorios
En Mecánica Estadı́stica, como la mayorı́a de los procesos que se estudian, son de origen
microscópico, entonces tiene sentido pensar que los resultados que se pueden obtener de cual-

2
quier tipo de medición van a ser aleatorios, de manera que las variables termodinámicas, en
este caso, van a ser variables aleatorias.

2.1. El camino al azar

Vamos a tomar el camino al azar como proceso aleatorio microscópico paradigmático.

2.1.1. El camino al azar discreto

Comencemos por el caso más sencillo, en el cual podemos suponer un borracho que camina
de manera aleatoria en una sola dirección (hacia la izquierda o hacia la derecha), y solo puede
dar pasos discretos (separados por una distancia d, siempre la misma). El lı́mite cuando d → 0
es el que corresponde al movimiento browniano.

Figura 1: Esquema de un camino al azar discreto

Vamos a considerar a la distancia en pasos recorrida por el borracho, que la notamos x = m.d
(−N < m < N ), como nuestra variable aleatoria. Entonces, el objetivo que nos proponemos
al analizar este proceso aleatorio es encontrar el valor medio de la variable x luego de realizar
muchos experimentos de N pasos. Sea r la probabilidad de moverse a la derecha, y l, la proba-
bilidad de moverse hacia la izquierda. Entonces, r = 1 − l. Por su parte, la probabilidad de dar
nr pasos hacia la izquierda y de dar nl pasos hacia la derecha sigue una distribución binomial:

P (nr , nl ) α rnr lnl

Pero hay muchas formas de dar N pasos en total, y que nr de ellos sean hacia la derecha, y
que nl de ellos sean hacia la izquierda. Entonces, la idea será obtener este número de formas.
Si el borracho da un paso en algún sentido, le quedarán N − 1 por dar, entonces, habrá N − 1
posibilidades para diagramar su caminata. Cuando dé su siguiente paso, le quedarán N − 2
posibilidades, hasta que cuando vaya a dar su último paso, solo le quedará una. De manera
que habrá N ! formas. Pero a este número habrá que eliminarle el número de pasos hacia la

3
izquierda y hacia la derecha que no tienen ningún significado (los pasos no están etiquetados,
da igual considerar el primer paso hacia la izquierda que el quinto, son todos iguales). Para ello,
al resultado anterior hay que dividirlo por el número de permutaciones que se pueden hacer de
N!
los pasos hacia la derecha y hacia la izquierda. Entonces, nos queda el número: nr ! nl !
. Entonces
hemos encontrado una expresión para la probabilidad antes planteada:

N!
P (nr , nl ) = rnr lnl
nr ! nl !

Y si queremos reescribir este número en función de datos conocidos y no de variables aleatorias


como nr y nl , podemos tener en cuenta que valen las relaciones: N = nr + nl y m = nr − nl .
N +m N −m
Invirtiendo este sistema de ecuaciones nos queda: nr = 2
y nl = 2
. De este modo, nos
queda:
N! N +m N −m
PN (m) = r 2 (1 − r) 2
( N +m
2
)! ( N −m
2
)!

Como la distribución es binomial, cuando N tiende a infinito, el histograma final tendrá más
forma de gaussiano. Ahora, para terminar, vamos a calcular el valor medio del desplazamiento
del borracho, es decir, la cantidad hmi, dada por:

N N N
X X N! X N!
hmi = m PN (m) = hnr i − hnl i = nr rnr lnl − nl r nr l nl
m=−N nr =0
(nr )! (nl )! n =0
(nr )! (nl )!
l

Usando:
∂(rnr ) ∂(rnr )
= nr rnr −1 ⇒ r = nr rnr
∂r ∂r

deberı́a obtenerse:

N N
X ∂(rnr ) N! X ∂(lnl ) N!
hmi = r lnl − l rnr
nr =0
∂r (nr )! (n l )! n =0
∂l (n r )! (nl )!
l

Intercambiando suma con derivada, y teniendo en cuenta que r + l = nr + nl = 1 tenemos:

N   ! N   !
X N X N nl 1−nl
∂ rnr l(1−nr ) ∂ l r
n =0
nr n =0
n l
r l
hmi = r −l
∂r ∂l

4
Y si vemos que lo de adentro de cada derivada es la expresión de un binomio de Newton, lo
anterior se reduce a:

 
∂ (r + l)N ∂ (l + r)N
hmi = r −l = r N (r + l)N −1 − l N (l + r)N −1 = (r − l) N
∂r ∂l

que es, justamente, el valor medio del desplazamiento del borracho, que buscábamos. Con esta
cantidad podemos calcular dispersiones cuadráticas medias y momentos de orden superior.
Podemos observar también que si las probabilidades de moverse a la izquierda y a la derecha
son iguales, valdrá hmi = 0, como corresponde a un caso simétrico. Calculemos la dispersión
que tiene este movimiento sabiendo que (calcularlo explı́citamente), hm2 i = N 2 (r − l)2 + 4 N rl:

h∆mi2 = hm2 i − hmi2 = 4 N rl

2.1.2. El camino al azar continuo

Ahora tenemos a un borracho que es continuo, es decir, puede dar pasos largos o cortos,
luego la distribución que van a seguir las magnitudes aleatorias van a ser continuas. Lo que nos
va a interesar obtener ahora es la probabilidad de encontrar al borracho entre las posiciones x
y x + dx, dada por P (x) dx.

Encontremos nuestra distribución. Supongamos que nuestro borracho da un paso, entonces


la densidad de probabilidad de quedar entre las posiciones x1 y x1 + dx1 será f (x1 ) dx1 ; en
el segundo paso, la densidad probabilidad de terminar entre las posiciones x2 y x2 + dx2 será
f (x2 ) dx2 . Al final, la densidad de probabilidad de terminar en la posición xn será: f (xn ) dxn .
Entonces, la densidad probabilı́stica de encontrar al borracho en alguna posición x, teniendo
N
X
en cuenta el vı́nculo dado por x = xi , será:
i=1

"Z N
! #
∞ Z ∞ Z ∞ X
P (x) dx = ... f (x1 ) f (x2 ) ... f (xn ) δ x − xi dx1 dx2 ... dxn dx
−∞ −∞ −∞ i=1

La función Delta de Dirac introducida en el desarrollo anterior satisface la siguiente propiedad:

5
 
XN
xi − x
 
N
! ik 
Z ∞
1
X  
i=1
δ x− xi = e
i=1
2π −∞

Entonces, reemplazando tenemos:

   
N
 
 X 
xi − x
   


Z ∞ Z ∞
 Z ∞ ik   

1 
i=1

 
P (x) dx = ... f (x1 ) ... f (xn ) 
 2π e dk 
 dx1 ... dxn  dx

 −∞ −∞  −∞  

 

 

O bien:

 Z ∞ Z ∞ Z ∞  
1 ik x1 ik xn −ik x
P (x) dx = f (x1 ) e dx1 ... f (xn ) e dxn e dk dx
2π −∞ −∞ −∞

Como las primeras n integrales son todas iguales tenemos:

Z ∞ Z ∞ N Z ∞
1 −ik x 1
P (x) = f (s) e ik s
ds e dk = Q(k)N e−ik x dk
2π −∞ −∞ 2π −∞

Como nosotros vamos a considerar siempre en estos casos el lı́mite termodinámico, entonces N
va a ser muy grande, con lo cual la función Q(k), que es oscilatoria, va a tener una frecuencia
muy grande (oscilará muy rápido). De manera que solo los valores pequeños de k son los que
van a contribuir a la integral. Entonces, vamos a aproximar esta integral considerando valores
pequeños de k: Z ∞ 
1 2 2
Q(k) = f (s) 1 + ik s − k s + · · · ds
−∞ 2

Abriendo esta expresión, y quedándonos a segundo orden, tenemos lo siguiente:

Z ∞  Z ∞  Z ∞ 
1
Q(k) ∼
= f (s) ds + ik s f (s) ds − k 2 2
s f (s) ds
−∞ −∞ 2 −∞

y esta expresión la podemos simplificar renombrando a las integrales como los momentos de la
variable s de orden 0, 1 y 2, respectivamente. Veamos:

6
1 2 2
Q(k) ∼
= 1 + ik hsi − k hs i
2

Pero nosotros necesitamos Q(k)N , con lo cual, para simplificar los cálculos vamos a plantear su
logaritmo. Veamos:
   
 N
 1 2 2 ∼ 1 2 2 1 2 3

ln Q(k) = N ln 1 + ik hsi − k hs i = N ik hsi − k hs i + k hsi + O hsi
2 2 2
 
1
= N ik hsi − k 2 h∆si2
2

donde se usó la aproximación ln(1 + x) ∼


= x− x2
2
, para x = ik hsi − 12 k 2 hs2 i y además siempre
nos quedamos a segundo orden. En lo anterior h∆si2 es la dispersión cuadrática media de
la variable s, y representa el ancho de nuestra distribución. Finalmente, para obtener Q(k),
aplicamos exponencial a la última expresión:

1 2
Q(k)N = eln[Q(k) ] ∼
= eN [ik hsi− 2 k h∆si ]
N 2

Y reemplazando en la densidad de probabilidad:


Z ∞ Z ∞
1 1 1 2
eN [ik hsi− 2 k h∆si ] e−ik x dk
2
N −ik x
P (x) = Q(k) e dk =
2π −∞ 2π −∞
Z ∞ (x−N hsi)2
1 [i(N hsi−x)] k−[ 12 N h∆si2 ]k2 1
= e dk ⇒ P (x) = q e 2 N h∆si2
2π −∞ 2
2π (N h∆si)

cuya distribución es gaussiana, como habı́amos postulado que debı́a ocurrir (según el Teorema
Central del Lı́mite) si se consideraba N  1.

2.2. Entropı́a en el sentido de información

La entropı́a puede definirse como una medida de cuánta información se dispone sobre un
determinado sistema. Por ejemplo, si se tiran dos dados al mismo tiempo, y la suma de ambos
resultados es 2, entonces se tiene mucha información (se obtuvieron dos 1), pero si la suma es
7, ahı́ ya no se puede decir nada de los resultados de cada dado individual. Luego, en el primer
caso, la entropı́a es menor que en el segundo. Vamos a definir la siguiente expresión para la
entropı́a, conocida como Entropı́a de Shannon:

7
N
X
S=− pi ln(pi )
i=1

donde pi indica la probabilidad de que la variable aleatoria X tome el valor xi , es decir, la


expresión: P (X = xi ).

Propiedad improtante - La entropı́a es máxima para eventos equiprobables: Sea


un sistema con N eventos discretos que son equiprobables. Si la cantidad de eventos total es N ,
1
entonces, la probabilidad de que ocurra especı́ficamente cada uno de ellos será siempre: pi = N
.
Luego, la entropı́a tendrá la forma:

N  
X 1 1
S=− ln = ln(N )
i=1
N N

Como vemos, la entropı́a crece en este caso con el número N de eventos, de manera que de este
modo probamos el ejemplo que pusimos antes del dado. Si un dado (cuyos resultados posibles
son equiprobables) tiene 20 caras, la entropı́a será mucho mayor que si el mismo tiene solo 3.
En el caso de la Termodinámica, cuando tomemos N  1, la entropı́a puede ser considera-
da extensiva y compatible con la definición tradicional. Por ejemplo: si tiramos dos dados, la
cantidad de resultados posibles en teorı́a serı́a 62 = 36, pero hay que eliminar de allı́ los casos
repetidos (1-3 y 3-1, por ejemplo), de manera que quedará un número bastante menor, pero
si N es grande, esta diferencia no se notará mucho, y N 2 puede ser tomado con muy buena
aproximación como el número total de resultados. De este modo, la entropı́a se vuelve aditiva.

Sea ahora un sistema con N eventos, pero no todos equiprobables, con lo cual en general
uno planteará una probabilidad distinta para cada evento. Veamos cómo cambia en este caso
la entropı́a de Shannon:

N   X N
X 1 1
Seq − Sno eq =− ln + p0i ln (p0i )
i=1
N N i=1

N N
X 1 X
Pero =1= p0i , entonces:
i=1
N i=1

8
N
X N
X N
X
Seq − Sno eq = p0i ln (N ) + p0i ln (p0i ) = p0i [ln (N p0i )]
i=1 i=1 i=1

Pero ln(x) ≥ 1 − x1 . Luego, si tomamos x = N p0i , nos quedará:

N   X N N  
X 1 X 1
Seq − Sno eq ≥ p0i 1− = 0
pi − =1−1=0
i=1
N p0i i=1 i=1
N

De manera que vale:


Seq − Sno eq ≥ 0 ⇒ Seq ≥ Sno eq

Con lo cual, el caso en el cual hay N eventos equiprobables termina siendo el estado de máxima
entropı́a (al cual se le puede asociar la idea de estado de equilibrio del mismo). De este modo,
puede establecerse una conexión con la Termodinámica.

Propiedad importante - La distribución gaussiana maximiza la entropı́a: Sea X


la variable aleatoria continua que toma al azar un número de la recta real. Supongamos la
existencia de una función de distribución de probabilidad que no es gaussiana, y llamémosla
Pno g (x), y que cumple:
Z ∞ Z ∞
Pno g (x) dx = 1 , x2 Pno g (x) dx = σ 2
−∞ −∞

Entonces:
Z ∞ Z ∞
Sg − Sno g = − Pg (x) ln [Pg (x)] dx + Pno g (x) ln [Pno g (x)] dx
−∞ −∞

Pero:
ln(2πσ 2 ) x2
ln [Pg (x)] = − − 2
2 2σ

Entonces, reemplazando:

9
ln(2πσ 2 ) ∞
Z Z ∞ Z ∞
1 2
Sg − Sno g = Pg (x) dx + 2 x Pg (x) dx + Pno g (x) ln [Pno g (x)] dx =
2 −∞ 2σ −∞ −∞
ln(2πσ 2 ) ∞
Z Z ∞ Z ∞
1 2
= Pno g (x) dx + 2 x Pno g (x) dx + Pno g (x) ln [Pno g (x)] dx =
2 −∞ 2σ −∞ −∞
Z ∞ Z ∞
=− Pno g (x) ln [Pg (x)] dx + Pno g (x) ln [Pno g (x)] dx =
−∞ −∞
Z ∞   Z ∞  
Pg (x) Pno g (x)
=− Pno g (x) ln dx = Pno g (x) ln dx
−∞ Pno g (x) −∞ Pg (x)

Pno g
Usando nuevamente que ln(x) ≥ 1 − x1 , ahora con x = Pg
, se obtiene:

Z ∞ Z ∞
Sg − Sno g ≥ Pno g (x) dx − Pg (x) dx = 1 − 1 = 0 ⇒ Sg ≥ Sno g
−∞ −∞

Luego, la gaussiana nos define la situación de máxima entropı́a, correspondiente al estado de


equilibrio.

3. Ensables estadı́sticos
Vamos a utilizar nociones de Probabilidad y Estadı́stica para estudiar algunas propiedades
macroscópicas de la materia. Para ello vamos a obtener la distribución de probabilidad que hable
del estado de equilibrio de determinado sistema. Para empezar, es necesario definir algunos
conceptos importantes previamente. Por ejemplo, se define un macroestado de un sistema como
un conjunto de variables que en el mismo se especifican y permanecen fijas. Luego, existe una
gran diversidad de formas en las cuales se pueden disponer los valores de estas cantidades;
por otra parte, definimos un microestado del sistema como una de las tantas formas en las
que pueden disponerse los valores de las cantidades que uno especificó en el macroestado (de
manera que el microestado nos permite conocer con detalle la dinámica de cada una de las
componentes de nuestro sistema). En este contexto, hablamos de ensambles estadı́sticos como
un número grande de copias de nuestro sistema, todas en el mismo macroestado y, que en un
instante fijo de tiempo se encuentra cada una en un microestado distinto, lo cual hace que no
se necesite disponer de muchas muestras del mismo para su análisis. De este modo, uno trabaja
con N partı́culas que satisfarán las ecuaciones:

∂H dqi ∂H dpi
= , =−
∂pi dt ∂qi dt

10
Luego, el sistema quedará determinado por 6N variables (3N coordenadas de posición y 3N mo-
mentos lineales), y la probabilidad que intentaremos calcular será la de encontrar a la partı́cula
en el espacio de fases en una posición contenida en el intervalo [qi , qi + dqi ] y con momento
lineal en el intervalo [pi , pi + dpi ].

Figura 2: Intervalo en el espacio de fases donde se espera que aparezca la partı́cula a estudiar.

Una caracterı́stica propia de la mayorı́a de estos sistemas de estudio es la ergodicidad, es


decir, que da lo mismo en principio tomar el promedio de determinada cantidad (como por
ejemplo, la energı́a) a lo largo de un intervalo temporal que hacer lo mismo pero a lo largo de
un conjunto grande de copias que forman el ensamble. En otras palabras, vale la igualdad:

Z τ Z x Z y Z z
1 1
hAi = A dt = A d3 r
τ 0 V 0 0 0

Lo anterior ocurre siempre y cuando todos los estados de nuestro sistema cubran la totalidad
del espacio de fases transcurrido un tiempo largo. Por ejemplo, el oscilador armónico no es un
sistema ergódico, pues los estados de energı́a se quedan solo sobre una esfera de radio constante,
cuya ecuación es la siguiente:

 2  2 √ 2
p q
√ + 2 = E
2m k

11
Figura 3: Esquema del espacio de fases para el oscilador armónico, que demuestra la
no-ergoicidad de este sistema..

Por último, el equilibrio de nuestro sistema va a depender también de los vı́nculos a los
cuales el mismo está sujeto. Existen tres potenciales termodinámicos (la entropı́a S, la energı́a
libre de Helmholtz (F ) y la energı́a libre de Gibbs (G), que alcanzan un máximo en el equi-
librio, luego esto motiva la introducción de tres tipos de ensambles distintos, cada uno atado
a un vı́nculo macroscópico determinado, y son: el ensamble microcanónico (donde E, V y N
están fijos), el ensamble canónico (donde están fijos T , V y N y fluctuá E), y el ensamble
gran-canónico (donde están fijos µ, V y T , y fluctúan E y N ).

3.1. El ensamble microcanónico

Vamos a suponer un sistema aislado (luego no intercambiará materia ni energı́a con el


entorno). Se considerará que su volumen V está fijo, que el número de partı́culas N , y el
vı́nculo al cual se sujeta será que la energı́a varı́a entre E y E + dE. Con esto tenemos que
construir una descripción microscópica de nuestro sistema. Como nuestro sistema por hipótesis,
además de ser aislado está en equilibrio, hay un resultado que dice que podemos concluir que
todos los estados microscópicos (microestados) serán equiprobables, con lo cual la distribución
de probabilidad será una constante si la energı́a se encuentra entre E y E + dE y será nula
fuera de dicho rango. Esto es:

 α si H(p, q) ∈ [E, E + dE)

f (p, q) =
 0 si H(p, q) ∈
/ [E, E + dE)

Ahora tenemos que calcular la constante α, para ello hay que contar la cantidad de estados que
cumplen que H(p, q) ∈ [E, E + dE).

12
Si los estados son discretos, entonces pueden ser contados fácilmente. Sea Γ(E, V ), la can-
tidad de estados que cumplen el vı́nculo, o en otras palabras, la cantidad de microestados
presentes en este macroestado (lo llamaremos también multiplicidad de microestados). Luego
1
tenemos: pi = α = Γ(E,V )
. Vamos a calcular la entropı́a:

Γ Γ  
X X 1 1 1
S = −kB pi ln (pi ) = −kB ln = kB 
Γ(E,
V)

 ln [Γ(E, V )]
i=1 i=1
Γ(E, V ) Γ(E, V ) Γ(E,
V )


= kB ln [Γ(E, V )]

donde aquı́ se observa la relación que existe entre la fı́sica microscópica (Γ(E, V )) y la fı́sica
macroscópica (S).

Por otro lado, si los estados son continuos se va a complicar un poco más la forma de contar
estados. Una alternativa posible es cuantificar el volumen que ocupan dichos microestados en
el espacio de fases, que lo definimos:
Z
ω(E.V ) = d3N p d3N q
H(p,q)∈[E, E+dE)

Luego, normalizando esta cantidad le damos el caracter adimensional que debe tener la multi-
plicidad de estados: Z
1
Γ(E, V ) = d3N p d3N q
ω0 H(p,q)∈[E, E+dE)

Notar que en el caso cuántico, valdrá: ω0 = h3N , con h, la constante de Planck. Teóricamente, la
entropı́a se obtiene reemplazando en su expresión la multiplicidad recientemente obtenida, pero
el problema reside en el hecho de que esta es en general muy dificil de calcular. En consecuencia,
alternativamente se puede tomar la cantidad:

Z
1
Σ(E, V ) = d3N p d3N q
ω0 H(p,q)≤E

No es difı́cil ver que Σ crece monótonamente con el número de microestados, que es aditiva, y
que satisface todas las propiedades que las anteriores definiciones de entropı́a. De este modo,
podemos escribir:
S(E, V ) = kB ln [Σ(E, V )]

13
El conjunto de todas las configuraciones posibles de un sistema, que cumplen con el vı́nculo
corresponde al ensamble, mientras que el número de configuraciones es la múltiplicidad. Estos
números, al ser muy grandes, luego resulta totalmente irrelevante pifiarles por un factor 2, 10,
102 ó 1012 .

Propiedad importante - Paradoja de Gibbs y conteo correcto de Boltzmann: En


un gas ideal clásico se tiene el hamiltoniano:

3N
X p2i
H=
i=1
2m

Luego, el número de microestados compatibles con el macroestado dado por E, V y N fijos


(esto es usar Σ en lugar de Γ como multiplicidad) viene dado por (hacer explı́citamente la
cuenta): s
N
3N
V 2πmE
Σ(E, V, N ) =  3 
Γ 2N + 1 h

Luego, la entropı́a resulta en:


  s 
3  3 
4πmE 
S(E, V, N ) = kB ln [Σ(E, V, N )] ∼
= + ln V N kB
2 3h2 N 

donde el aproximado viene de que en el medio de la cuenta se usa sobre el logaritmo de un


factorial, la aproximación de Stirling, dada por: ln (n!) ∼
= n ln(n) − n. Como la energı́a del
gas viene dada por la expresión E(T, N ) = 23 N kB T , entonces podemos pasar a la siguiente
expresión de la entropı́a:
  s 
3  3 
2πmkB T 
S(T, V, N ) ∼
= N kB + ln V
2 3h2 

Ahora, supongamos que dividimos nuestro recipiente con el gas en dos secciones a través de un
tabique, como se observa en la figura:

14
Figura 4: Recipiente separado por un tabique con un gas ideal en ambas secciones.

Si los gases a ambos lados del tabique no interactúan de ningún modo, como la temperatura
y la densidad del gas son las mismas, entonces también lo será la densidad de energı́a interna
a ambos lados. Entonces a Gibbs se le ocurrió quitar el tabique y mezclar los gases, y de este
modo, calcular la diferencia de entropı́a. La entropı́a final será lógicamente la que ya calculamos
para el gas mezclado. Veamos:

 
(1) (2)
∆S = Sf − Si = Sf − Si + Si =
  s 
3  3     
2πmkB T  V V
= N kB + ln V

2
− N1 kB ln − N2 kB ln
2 3h  V1 V2

Esta entropı́a tiene un problema, y es que no es extensiva. Esta entropı́a siempre crece, pero al
haber un sistema de dos gases iguales, la misma no puede crecer (no es una función de estado). Si
se libera un sistema de dos gases iguales bloqueados por un tabique, no puede variar la entropı́a.
Luego, dicha ecuación es errónea (en el laboratorio por ejemplo, no se manifiesta). Lo que sucede
es que no estamos teniendo en cuenta que las partı́culas del gas son indistinguibles, y entonces ya
el tratamiento clásico no nos sirve. Entonces, Boltzmann introdujo su factor de conteo correcto,
que involucra dividir a la multiplicidad de estados por el número de permutaciones posibles
para las N partı́culas de nuestro gas, y ese número es N !. Luego, la forma correcta de contar
los microestados es:
s 3N
VN 2πmE
Σ(E, V, N ) = 3 
N! Γ 2N + 1 h

Entonces, ahora con esta definición, habrı́a que volver a calcular la entropı́a:

15
 s 
3   
V 3 3 5 4πm
S(T, V, N ) = N kB ln  kB T + N kB + ln
N 2 2 3 3h2

La anterior es la expresión de Sackur-Tetrode para la entropı́a. De manera que la diferencia de


entropı́a al liberar el tabique en el experimento de Gibbs será (considerando N = N1 + N2 y
V = V1 + V2 ):

 s 
3    
N1 + N2 3 V1 V2
∆S = (N1 + N2 ) kB ln  kB T  − kB N1 ln − kB N2 ln
V1 + V2 2 N1 N2

En la expresión anterior no se incluye el segundo término de la entropı́a de la mezcla, pues es


una constante que no depende de ningún parámetro termodinámico del sistema, luego valdrá lo
mismo al final que al principio del proceso, y al calcular la diferencia de entropı́as se cancelará.
De este modo, si se tienen dos gases iguales que se mezclan, en lugar de asociar ω0 con h3N ,
como habı́amos propuesto, habrá que asociarlo con N ! h3N .

3.2. El ensamble canónico

A este ensamble se lo conoce como el ensamble de Gibbs, y para su descripción van a cam-
biar los vı́nculos. Vamos a tener sistemas con el número de partı́culas N , el volumen V y la
temperatura T como parámetros de control. Luego, se define un macroestado de un sistema
de este tipo prescribiendo N , V y T . Con lo cual puede suponerse que el sistema se encuentra
sometido a un baño térmico que le proporciona una temperatura fija, lo cual se suma a la
condición de constantes de su volumen y su número de partı́culas. En estos sistemas, la energı́a
hEi será un valor que fluctúe y entonces será una cantidad a medir (en realidad a promediar en
un determinado intervalo de tiempo, o si el sistema es ergódico, a promediar en un ensamble).
Ejemplos de este tipo de sistemas pueden ser un trozo de metal, un gas, un flujo de fotones, un
conjunto de resortes, etc.

Demos la distribución de probabilidad considerando los vı́nculos impuestos por el ensamble


canónico. Supongamos que tenemos n copias de nuestro sistema, y que los estados diferentes
de energı́a se pueden disponer en r niveles discretos {ε1 , ε2 , · · · , εr }, de manera que habrá n1
experimentos con energı́a ε1 , n2 experimentos con energı́a ε2 , ... , y nr experimentos con energı́a

16
εr . Entonces, los vı́nculos que se deben cumplir deben ser:

r
X r
X
ni = n , ni εi = hEi
i=1 i=1

Entonces, la pregunta a responder es de cuántas maneras se pueden distribuir todos los estados
de energı́a posibles (que son n, un estado por cada copia de nuestro sistema) en los r niveles de
energı́a. El siguiente gráfico intenta explicar la manera de contar este número de configuraciones:

Figura 5: Esquema explicativo de la forma de contar estados de energı́a distintos en un


sistema a N, T y V constantes.

Con energı́a ε1 entonces, habrá la cantidad indicada de formas de distribuir la cantidad total
de copias (i.e. de estados de energı́a distintos), con energı́a ε2 , la indicada para este caso, lo
mismo para el caso de energı́a εr . Entonces, la cantidad total de formas será igual al producto
de todas estas cantidades parciales. Y luego de todas las simplificaciones se llega a la expresión
n!
final de n1 ! n2 ! ··· nr !
configuraciones. De manera que definimos la multiplicidad de estados como:

1 n! 1
Γ= =
n! n1 ! n2 ! · · · nr ! n1 ! n2 ! · · · nr !

donde cada estado es indistinguible del resto, con lo cual se emplea el factor de conteo correcto
de Boltzmann. La idea ahora va a ser encontrar la distribución que maximice este conteo
de estados, y nos generen un equilibrio. Hagamos esto entonces, pero en lugar de considerar
a la función n! Γ, extrememos su logaritmo, lo cual no modifica los resultados, pues tanto
esta expresión como su logaritmo son funciones continuas, monótonas crecientes y derivables.
Además vamos a considerar esta extremación sujetándonos a los vı́nculos planteados. Veamos:

17
r
! r
!!
X X
δ ln(n! Γ) − α0 ñi − n −β ñi εi − hEi =0
i=1 i=1

donde ñi denota al valor de ni que extrema a dicho logaritmo. Calculemos su expresión:

 
1
ln (n! Γ) = ln = ln (n!) − ln (n1 !) − ln (n2 !) − · · · − ln (nr !)
n1 ! n2 ! · · · nr !
Xr
= n ln (n) − n − ni ln (ni ) + ni
i=1

Entonces reemplazando:

r r
! r
!!
X X X
δ n ln (n) − n − ñi ln (ñi ) + ñi − α0 ñi − n −β ñi εi − hEi =0 ⇒
i=1 i=1 i=1
r
X r
X r
X
δ (ñi ln (ñi )) + δ (ñi ) − α0 α0
((
⇒ (
δ (n
((
((− n) −
ln((n) δ (ñi ) −  δ(n)

−β δ (ñi ) εi − · · ·
i=1 i=1 i=1
r
X r
X
··· −  = 0 ⇒
δhEi δ ñi [ln (ñi ) + (α0 − 1) + β εi ] = 0 ⇒ δ ni [ln (ñi ) + α + β εi ] = 0
i=1 i=1

Como δ ñi 6= 0, entonces:

ln (ñi ) + α + β εi = 0 ⇒ ln (ñi ) = −α − β εi ⇒ ñi = e−α−β εi = c e−β εi

Ahora, usando los vı́nculos y la termodinámica encontremos los valores de las constantes inde-
terminadas:

r r
X X n
ni = n ⇒ c e−β εi = n ⇒ c = r
X
i=1 i=1
e−β εi
i=1

r r
!!
X X
r
ni e−β εi ∂ ln e−β εi
X i=1 i=1 ∂ (ln (Q))
ni εi = nhEi ⇒ hEi = r =− =−
X ∂β ∂β
i=1
e−β εi
i=1

r
X
donde llamamos Q = e−β εi a la función de partición del ensamble canónico, y es lo primero
i=1
que vamos a calcular cuando analicemos la estadı́stica de un sistema considerando el ensamble

18
canónico. Sin embargo, todavı́a no encontramos nuestro coeficiente β. Como el potencial ter-
modinámico que se extrema a temperatura constante es la energı́a libre de Helmholtz, entonces
escribamos hEi en función de hF i. Veamos:

hEi = hF i + T hSi

Pero

 
∂hF i
dhF i = d (hEi − T hSi) = −hSidT − P dV ⇒ = −hSi
∂T V

Entonces:

  hF i  
 
∂hF i
  
∂hF i
 ∂ T
hEi = hF i + T − = hF i − T =  
∂T V ∂T V ∂ T1
V

Hemos llegado a la igualdad:

  hF i  

∂ (−ln (Q))
 ∂ T
=  
∂β V,N ∂ T1
V,N

Lo cual nos conduce a las siguientes igualdades, por un lado:

hF i T
−ln (Q) = γ ⇒ hF i = − ln (Q)
T γ
Y por el otro:

 
1
β=γ
T

Ahora nos falta ver quién es γ. Para ello planteamos:

r
e−β ε
X D  E
pi ln (pi ) = hln (P )i = ln = −βε − ln (Q) = −βhEi + βhF i = β (hF i − hEi) =
i=1
Q
 
1
=γ (−T hSi) = −γ hSi
T

Pero en el ensamble microcanónico ya vimos que valı́a:

19
r
X hSi
pi ln (pi ) = −
i=1
kB

de manera que, si uno considera equivalentes ambos ensambles (luego veremos en qué condi-
1
ciones esto vale), se tiene que γ = kB
. Entonces tenemos:

r
X εi 1
Q= e kB T , hF i = −kB T ln (Q) , β=
i=1
kB T

Por último, veamos aquello que habı́amos anticipado, sobre las fluctuaciones en el ensamble
canónico, y ver en qué casos puede considerarse que los resultados del ensamble canónico son
los mismos que los del microcanónico. Calculemos la dispersión cuadrática media de la energı́a:

r
X r
X r
−β i
εj e−β j
X
εi e ε2i e−β i
i=1 j=1 i=1 ∂hEi
h∆Ei2C = −hEi2 + hE 2 i = − !2 + r =− =
r X ∂β
εi e−β i
X
εi e−β i
i=1 i=1
!  
∂hEi 2 ∂hEi
= −kB = kB T = kB T 2 C V
∂ T1

∂T V,N
V,N

Este resultado nos dice que al menos para temperatura nula (T = 0) los dos enambles son
equivalentes. Pero veamos qué más podemos decir. Tomemos:

h∆Ei2C kB T CV N
= ∝ →0
hEi2 hEi2 N2

Con lo cual para un sistema suficientemente grande (los que son objeto de nuestro estudio clara-
mente lo son), las fluctuaciones van a ser despreciables y ambos ensambles van a ser equivalentes.

Ejemplo - Paramagnetismo semi-cuántico: Supongamos un material magnético dado


por una tira de spines (con dos posibles orientaciones posibles -hacia arriba o hacia abajo-). Si
consideramos que cada electrón posee el mismo momento dipolar magnético, su hamiltoniano
es de la forma:

N
X N
X
H=− µ̄i .H̄ = − si |µ̄||H̄|
i=1 i=1

20
Entonces, podemos dar su función de partición en el ensamble canónico:

 
N
X
−k 1T  si |µ̄||H̄|
 
1 1 1 − 1 1 1 N
B  
|µ̄||H̄|
− k HT si
X X X X X X X Y
i=1
Q= e B = ··· e = ··· e kB T =
estados s1 =−1 s2 =−1 sN =−1 s1 =−1 s2 =−1 sN =−1 i=1
1 1 1 1
!N
|µ̄||H̄| |µ̄||H̄| |µ̄||H̄| |µ̄||H̄|
s1 s2 sN s
X X X X
= e kB T e kB T ··· e kB T = e kB T
s1 =−1 s2 =−1 sN =−1 s=−1

Calculemos ahora la energı́a libre de Helmholtz:

" N #  
|µ̄||H̄| |µ̄||H̄| |µ̄||H̄| |µ̄||H̄|
− −
hF i = −kB T ln (Q) = −kB T ln e kB T
+e kB T
= −N kB T ln e kB T
+e kB T

Finalmente demos la magnetización media de la muestra:

|µ̄||H̄|
   
∂hF i
dhF i = −hSi dT − h|M̄ |i d|H̄| ⇒ h|M̄ |i = = N |µ̄| tgh
∂|H̄| T kB T

|µ̄||H̄|
Para kB T
 1, se tiene:

N |µ̄|2 |H̄|
h|M̄ |i ∼
=
kB T

Y derivando respecto del campo de intensidad magnética |H̄|, se obtiene la Ley de Curiè para
la susceptibilidad magnética χmag (T ). Veamos:

∂h|M̄ |i ∼ N |µ̄|2
χmag (T ) = =
∂|H̄| kB T

De este modo, cuando aumenta la temperatura, por fluctuaciones energéticas disminuye la sus-
ceptibilidad magnética.

Ejemplo - Gas ideal molecular: Sea un gas ideal compuesto por moléculas de determi-
nado compuesto, sin interacciones entre partı́culas. De este modo, el hamiltoniano del sistema
puede separarse en tres sumandos con caracterı́sticas propias. Veamos:

21
H = Htrasl + Hrot + Hvibr

Como no hay intercambio de partı́culas, y la temperatura se la considera fija, es válido con-


siderar el ensamble canónico para realizar la estadı́stica. Al ser las partı́culas no interactuantes,
tendremos la clásica factorización de la función de partición:

 N
(1 p)N (1 p) (1 p) (1 p)
Q=Q = Qtrasl Qrot Qvibr

Luego, ya podemos calcular la energı́a libre de Helmholtz. Veamos:

h i  
N (1 p) (1 p) (1 p)
hF i = −kB T ln (Q) = −kB T ln (Q) = −N kB T ln Qtrasl + Qrot + Qvibr =
     
(1 p) (1 p) (1 p)
= −N kB T ln Qtrasl − N kB T ln Qrot − N kB T ln Qvibr =

= hF itrasl + hF irot + hF ivibr

Con esta expresión podemos calcular una cantidad más interesante, como el calor especı́fico a
volumen constante:

  ∂hF i  

∂hEi
 
∂hSi
 ∂ − ∂T  2
∂ hF i

V  =−
CV = =T =T 
∂T V ∂T V ∂T ∂T 2 V
V

La parte traslacional corresponde a un hamiltoniano de partı́cula libre, que ya sabemos calcular.


De manera que tenemos:
q  q 
(1 p)
V (2πmkB T )3 V (2πmkB T )3
Qtrasl = , hF itrasl = −N kB T ln  
h3 h3

q    
V (2πmkB T )3
 3
CtraslV = −N kB ln  +
 h3 2

Veamos ahora cómo se comporta la parte de rotaciones. Para un rotador rı́gido en cuántica
tenemos:

∞ ∞ 2
εi
−k −j(j+1) 2Ik~
X X
H= e BT = e BT

j=1 j=1

22
con I, el momento de inercia del rotador, y con 2j + 1-degeneración de energı́as. De este modo,
tenemos:

∞ 2
−j(j+1) 2I ~k T
(1 p)
X
Qrot = (2j + 1) e B

j=0

Vamos a definirnos una temperatura de rotación, a la cual se excita solamente el modo más
bajo de rotación (con j = 1). Obtengámosla sabiendo que cada modo de rotación contribuye a
la energı́a total con kB T :

~2 ~2
ε1 = kB Trot = ⇒ Trot =
I kB I

~2
Luego, para T  kB I
, la sumatoria se puede aproximar por una integral, y puede despreciarse el
valor del modo j frente a modos pequeños, ya que al ser alta la temperatura, estarán presentes
solamente los modos altos. De este modo nos queda:

Z ∞
(1 p) ∼
h 2
j 2 2Ibar 2I kB T
Qrot = 2j e k T
B dj =
0 ~2

Luego, la energı́a libre de Helmholtz y el calor especı́fico a volumen constante serán de la forma:

 
2I kB T
hF irot = −N kB T ln , CrotV = N kB
~2

Veamos qué sucede ahora con los modos de vibración. Ahora tenemos para modelar las vibracio-
nes de cada molécula, un hamiltoniano de tipo oscilador armónico, donde el espectro energético
está discretizado de la siguiente manera:

 
1
εi = n+ ~ω
2

Entonces, la función de partición será:

∞ ∞ ∞  − 2k~ωT
X εn X (n+ 12 ) k~ωT − 2k~ωT
X − 2k~ωT
n e B 1
Q= e kB T
= e B =e B e B = =  
− k~ωT
n=0 n=0 n=0 1−e B 2 senh ~ω
2kB T

23
Y demos finalmente la energı́a libre de Helmholtz y el calor especı́fico a volumen constante:

    2  
~ω ~ω 2 ~ω
hF ivibr = −N kB T ln senh , CvibrV = N kB senh
2kB T kB T 2kB T

De este modo, la función de partición total será el producto de las tres funciones:

 q N
2I kB T V (2πmkB T )3
Q = Qtrasl Qrot Qvibr =   
2 5 ~ω
4π N ! h senh 2kB T

Y la energı́a libre de Helmholtz será la suma de las tres parciales:

 q 
2I kB T V (2πmkB T )3 


hF i = hF itrasl +hF irot +hF ivibr = −N kB T ln  senh 
4π h5 2kB T

Y por último, demos el calor especı́fico a volumen constante:

 q 
V (2πmkB T )3
(
1
CV = CtraslV + CrotV + CvibrV = −N kB ln   + − ···
h3 2
  2 )
~ω ~ω
··· − senh
kB T 2kB T

3.3. El ensamble gran canónico

Para la descripción de los sistemas en el ensamble gran canónico vamos a tener sistemas no
aislados térmicamente ni quı́micamente, con lo cual, intercambian energı́a y partı́culas con el
exterior, de manera que tanto E como N van a ser cantidades que se van a promediar en un
tiempo determinado o (si el sistema es ergódico) en cada una de las copias de nuestro sistema
que forman este ensamble. Por lo tanto, ahora vamos a tener tres vı́nculos. Para definirlos,
vamos a considerar primero n copias de nuestro sistema (es el ensamble), y vamos a etiquetar
ni j a la copia con energı́a εi y con número de partı́culas nj . Entonces, los vı́nculos van a ser:

24
r X
X s r X
X s r X
X s
nij = n , nij εi = hEi , nij nj = hN i
i=1 j=0 i=1 j=0 i=1 j=0

Utilizando un razonamiento análogo al empleado en el ensamble canónico, demos ahora la


multiplicidad de estados (solamente hay que tener en cuenta que hay s condiciones más para
plantear sobre los números de partı́culas de cada copia:

n!
Γ= r s
Y Y
nij !
i=1 j=1

Extrememos, como antes, el logaritmo de Γ, sujetándonos a los tres vı́nculos:

r X
X s  r X
X s  r X
X s !
δ ln (Γ) − α̃ ñij − n − β ñij εi − hEi − γ ñij nj − hN i =0 ⇒
i=1 j=0 i=1 j=0 i=1 j=0
Xr X s Xr X s r X
X s
⇒ δ (ln (n!)) − δ (ln (ñij !)) − α̃ ñij + α̃ n − β ñij εi + βhEi − · · ·
i=1 j=1 i=1 j=0 i=1 j=0
r X
X s
··· − γ ñij nj + γhN i = 0 ⇒
i=1 j=0
r X
X s r X
X s r X
X s

⇒ δ (n
  ln(n))

−  −
δ (n) δ (ñij ln (ñij )) + δ (ñij ) − α̃ δ (ñij ) + · · ·
i=1 j=0 i=1 j=0 i=1 j=0
r X
X s r X
X s
··· +
δ (α̃ −
n) βδ (ñij ) εi +   −
δ (βhEi) γδ (ñij ) nj +   i) = 0
δ (γhN ⇒
  

i=1 j=0 i=1 j=0
r X
X s
⇒ − δ (ñij ) δ (ln (ñij ) − α − β εi − γ nj ) = 0
i=1 j=0

donde, como antes, llamamos α = α̃ − 1. De este modo, como δ (ñij ) 6= 0, entonces tenemos:

ñij = e−(α+β εi +γ nj ) = C e−β εi −γ nj

donde C va a salir mediante el primer vı́nculo, como constante de normalización:

n
C= r X
s
X
e−β εi −γ nj
i=1 j=1

25
r X
X s
con Z = e−β εi −γ nj , la función de partición del ensamble gran canónico. De este modo,
i=1 j=1
podemos definirnos la probabilidad de encontrar a nuestro sistema con energı́a εi y número de
partı́culas nj como:

e−β εi −γ nj e−β εi −γ nj
P (i, j) = = r s
Z XX
e−β εi −γ nj
i=1 j=1

Por otra parte, ya sabemos (por el segundo vı́nculo y por la termodinámica, además de por
1
nuestra intuición) que β = kB T
, con lo cual solamente nos resta saber qué forma tiene la
constante γ, para lo cual vamos a plantear:

r X
X s r X
X s !
εi e−β εi −γ nj ∂ ln e−β εi −γ nj
i=1 j=1 i=1 j=1 ∂ (ln (Z))
hEi = r X s =− =−
X ∂β ∂β
e−β εi −γ nj
i=1 j=1

r X
X s r X
X s !
nj e−β εi −γ nj ∂ ln e−β εi −γ nj
i=1 j=1 i=1 j=1 ∂ (ln (Z))
hN i = r X s =− =−
X ∂γ ∂γ
e−β εi −γ nj
i=1 j=1

Conseguimos expresiones para dos cantidades fı́sicas diferentes, en términos de derivadas del
logaritmo de nuestra función de partición. Trabajemos entonces con ella. Calculemos su dife-
rencial:

r
∂ (ln (Z)) ∂ (ln (Z)) X ∂ (ln (Z))
d (ln (Z)) = dβ + dγ + dεi = hEi dβ − hN i dγ + · · ·
∂β ∂γ i=1
∂εi
r X
X s
−β e−β εi −γ nj
i=1 j=1 n˜ij
··· + r X s dεi = −hEi dβ − hN i dγ − β dεi ⇒
X
−β εk −γ nl
n
e
k=1 l=1
r X s
 X ñij
⇒ d ln (Z) + βhEi + γhN i = β dhEi + γ dhN i − β dεi ⇒
i=1 j=1
n
r X s
!
 γ X ñij
⇒ d ln (Z) + βhEi + γhN i = β dhEi + dhN i − dεi
β i=1 j=1
n

26
Hemos llegado a una ecuación similar a la del Primer Principio, con lo cual podemos asociar
términos de manera conveniente. Veamos lo que decı́a este principio:

dQ = dhEi − µ dhN i + dW

El último término (aquel que viene con la doble sumatoria) puede ser tranquilamente asociado
con el trabajo entregado por el sistema, pues se trata de la variación de la energı́a de cada una
de las copias promediada en el ensamble. Siendo esto ası́, no queda otra más que decir que lo
que varı́a en el primer miembro del resultado anterior tiene que ser el calor multipicado por β.
Entonces de este modo, podemos igualar directamente los factores que acompañana a hN i y
obtener la forma del coeficiente γ. Veamos:

γ
= −µ ⇒ γ = −β µ
β

De manera que podemos reescribir de este modo, la función de partición para el ensamble gran
canónico:

s
r X εi −µ nj r s ∞
εi
− −k
X X X X
Z= e kB T
= e BT z nj = z N Q(N p)
i=1 j=1 i=1 j=1 N =0

donde Q(N p) es la función de partición del ensamble canónico para un sistema de N partı́culas.
Ahora aprovechemos la condición que habı́amos hallado para definir el diferencial de calor, para
continuar caracterizando a este ensamble:


d ln (Z) + βhEi + γhN i = β dQ

1 µ dhSi
Pero β = kB T
, γ= kB T
, y β dQ = kB
. Entonces:

   
hEi µ hSi hEi µ hSi
d ln (Z) + + hN i = d ⇒ ln (Z) + + hN i = ⇒
kB T kB T kB kB T kB T kB
T hSi − hEi − µ hN i
⇒ ln (Z) =
kB T

Pero tenemos que hGi = µ hN i, con lo cual:

27
 
T hSi + hGi − hEi T
 hSi

+ hEi
−T
 hSi

+ P V −
hEi

PV
ln (Z) = = = ⇒
kB T kB T kB T
⇒ P V = ln (Z) kB T

Encontramos la ecuación de estado para nuestro sistema, cuando es tratado en este ensamble.

NOTA: Es también usualmente empleada en las expresiones de cada cantidad fı́sica, una
µ
cantidad que llamaremos fugacidad y que notamos: z = e−γ = e kB T .

Finalmente, demos para este ensamble, los potenciales termodinámicos, que conectan la
estadı́stica con la termodinámica:

∂ (ln (Z)) ∂ (ln (Z)) ∂ (ln (Z)) ∂ (ln (Z))


hEi = − , hN i = − = −z β µ =z
∂β ∂γ e ∂ (−β µ) ∂z

hEi
 
µ Z
hSi = kB ln (Z) − − hN i , hF i = µ hN i − P V = −kB T ln
T T z hN i

Ω = −kB T ln (Z) = −P V

donde la última expresión para hF i sale de expresar al potencial quı́mico µ como µ = kB T ln (z),
en función de la fugacidad; y donde la expresión de Ω refiere al gran potencial canónico, que es
el que surge directamente de calcular la función de partición.

Veamos ahora cómo se comportan las fluctuaciones de la energı́a y del número de partı́culas
en el ensamble gran canónico, como para saber en qué casos puede considerarse equivalente
al resto de los ensambles, y de esta forma, tal vez establecer un criterio de equivalencia entre
todos. Comencemos con el número de partı́culas planteando su dispersión cuadrática media.
Veamos:

28
r X
X s r X
X s r X
X s
−β εi −γ nj −β εk −γ nl
nj e nk e n2j e−β εi −γ nj
i=1 j=1 k=1 l=1 i=1 j=1
h∆N i2GC = hN i2 − hN 2 i = !2 − r X s =
s
r X X
X −β εi −γ nj
e−β εi −γ nj e
i=1 j=1 i=1 j=1
"  #
h∆N i2GC
    
∂hN i 1 ∂hN i 1 ∂hN i
=− ⇒ =− =− −kB T =
∂γT,V hN i2 hN i2 ∂γ T,V hN i2 ∂µ T,V
! !
kB T ∂ Vv kB T v 2 ∂ v1 kB T v 2
  
1 ∂v
= 2
= = − 2 =
hN i ∂µ V ∂µ V v ∂µ T,V
T,V T,V
 
kB T ∂v
=−
V ∂µ T,V

 
h∆N i2GC ∂v
donde al ser hN i2
definido positivo, entonces debe ser ∂µ
< 0, para que valga dicha
T,V
igualdad. Veamos como podemos reescribir esa derivada. Vamos a plantear:

−hsi
dµ = dg =  dT
 + v dP = v dP


donde se ha anulado el término con el diferencial de T , dado que el ensamble gran canónico
considera (al igual que el canónico) al sistema embebido en un baño térmico que le proporciona
una temperatura constante. De este modo tenemos:

h∆N i2GC
 
kB T 1 ∂v kB T kB T κ T
=− =− (−κT ) = →0
hN i2 V v ∂P T,V V V

donde llamamos κT a la compresibilidad isotérmica, que como dijimos antes, debı́a ser definida
negativa.

Veamos ahora cómo se comportan las fluctuaciones en la energı́a del sistema, planteando la
dispersión cuadrática media de E. Veamos:

   
∂hEi ∂hEi
h∆Ei2GC 2
= hE i − hEi = − 2
= kB T 2
=
∂β V,µ ∂T V,µ
"      #
2 ∂hEi ∂hEi ∂hN i
= kB T +
∂T V,N ∂hN i T,V ∂T V,µ

Pero, como hN i = − ∂(ln(Z))


∂γ
y hEi = − ∂(ln(Z))
∂β
, entonces vale la igualdad:

29
   ! !
∂hN i ∂hEi ∂hN i ∂hEi
= ⇒ = ⇒
∂ kB1T ∂ − kBµT
 
∂β V,µ ∂γ T,V
V,µ T,V
       
kB
 ∂hN i ∂hEi ∂hN i 1 ∂hEi
⇒ 
= −BT
k ⇒ =
− 12 ∂T V,µ ∂µ T,V ∂T V,µ T ∂µ T,V
T

Entonces:

     
∂hEi ∂hEi 1 ∂hEi
h∆Ei2GC = kB T 2
+ kB T 2 =
∂T
V,N ∂hN i T,V T ∂µ T,V
   
2 ∂hEi ∂hEi
= kB T CV + kB T =
∂hN i T,V ∂µ T,V
  "    # 
2 ∂hEi ∂hEi ∂hN i ∂hEi
= h∆EiC + kB T =
∂hN i T,V ∂hN i T,V ∂hEi T,V ∂µ T,V
    "    #
∂hEi ∂hEi ∂hN i ∂hEi
= h∆Ei2C + kB T =
∂hN i T,V ∂hN i T,V ∂hEi T,V ∂µ T,V
     
2 ∂hEi ∂hEi ∂hN i
= h∆EiC + kB T =
∂hN i T,V ∂hN i T,V ∂hµi T,V
    "   #
∂hEi ∂hEi ∂hN i
= h∆Ei2C + kB T =
∂hN i T,V ∂hN i T,V ∂hµi T,V
"  #2
∂hEi
= h∆Ei2C + h∆N i2GC → 0
∂hN i T ,V

donde en el lı́mite termodinámico la expresión anterior se va a cero, el primer término porque


las fluctuaciones energéticas en el ensamble canónico se iban a cero y el segundo término porque
las fluctuaciones en el número de partı́culas para el ensamble gran canónico se van a cero. De
este modo, en el lı́mite termodinámico (V → ∞), tenemos que los ensambles gran canónico
y canónico son equivalentes (al menos para N grande). Pero como vimos que el canónico era
equivalente al microcanónico, luego el gran canónico también será equivalente a este último.
De este modo se termina de probar la equivalencia entre los tres ensambles. De manera que
ya no será necesario aclarar con un subı́ndice a qué ensamble nos estamos refiriendo cuando se
utilicen dispersiones cuadráticas medias.

Ejemplo - Intercambio de partı́culas mediante una membrana porosa: Sea una


membrana con N0 agujeros, que se la coloca en contacto con un reservorio de partı́culas (que
posea muchas más partı́culas que N0 , por ejemplo un gas). Cada agujero es capaz de adsorber

30
una y solo una partı́cula de nuestro sistema. Nos proponemos encontrar una forma de conocer
el potencial quı́mico de este sistema. Sea hN i, el número medio de partı́culas que entran en los
poros, y ε, el trabajo necesario para que la placa capture una partı́cula. Como el número de
partı́culas no está fijo, es válido utilizar para este propósito el ensamble gran canónico.

Figura 6: Membrana porosa en presencia de un gas de N partı́culas.

Escribamos la función de partición:

 
N0 N0
X µ X
ε
sj − sj 
 
1 X
1 1 −
− kB T 1 X
1 1 N0
X X kB T j=1  X X Y
Z= ··· e j=1
= ··· eβ(ε+µ) sj =
s1 =0 s2 =0 sN0 =0 s1 =0 s2 =0 sN0 =0 j=1
1 1 1 N0
ε+µ
X X X 
= eβ(ε+µ) s1 eβ(ε+µ) s2 · · · eβ(ε+µ) sN0 = 1 + e kB T
s1 =0 s2 =0 sN0 =0

Calculemos ahora el número medio de partı́culas:

ε+µ ε+µ
     
ε+µ
∂ (ln (Z)) ∂ N0 ln 1 + e kB T
∂ ln 1 + e kB T
N0 
kBT e kB T

hN i = − =− = N0 kB T = =
∂ − kBµT
ε+µ

∂γ ∂µ kB
1 + e kB T  T

ε+µ
N0 e kB T N0
= ε+µ =
− kε+µ
1+e kB T
1+e T
B

Luego, a bajas temperaturas se llenarán todos los agujeros, pues hN i = N0 . A mayor tem-
N0
peratura, habrá menos partı́culas adsorbidas (exactamente serán 2
las partı́culas adsorbidas
cuando la temperatura tiende a infinito). Pero además acá aparece el potencial quı́mico µ,
con lo cual, esta cantidad puede ser medida conociendo la función trabajo del material de la
membrana. De este modo, midiendo la temperatura de equilibrio, la energı́a y el número de
partı́culas, se puede estimar el potencial quı́mico.

31
3.4. Aplicaciones de la teorı́a de ensambles

Vamos a ver algunas aplicaciones en las que es útil aplicar los conceptos anteriores.

3.4.1. El teorema del virial clásico

Sea un sistema clásico con N partı́culas confinadas, con un hamiltoniano dado por:

N
X p2i
H= + V (q)
i=1
2m

D E
∂H
con V (q) → ∞ cuando |qi | → ∞ (pues están confinadas). Hallemos la magnitud xi ∂xj
, donde
denotamos indistintamente a x como una coordenada de posición o momento lineal. Veamos:
Z Z
∂H − kBH 3N 3N
xi e T d pd q
D ∂H E R3N R3N
p
∂xj
xi = Z Z
∂xj H
− kB
e T d3N p d3N q
R3N R3N
p

Usando la regla de la cadena, se tiene:

− H − H
   
∂ −kB T e kB T ∂ −kB T e kB T ∂H ∂H
− H
= = e kB T
∂xj ∂H ∂xj ∂xj

Entonces, reemplazando:

− k HT
 
Z Z ∂ −kB T e B

xi d3N p d3N q
D ∂H E R3N 3N
Rp ∂x j
xi = Z Z =
∂xj − H
e kBT d3N p d3N q
R3N R3N
p
  − H  
Z ∂ xi e k B T
Z
∂xi − k HT  3N 3N
−kB T  − e B d pd q
R3N R3N
p
∂x j ∂x j
= Z Z
H
=
− kB 3N 3N
e T d pd q
R3N R3N p
− HT
  (
Z Z ∂ xi(e(k( B (((
(((( Z Z
3N 3N ∂xi − k HT 3N 3N
−kB T ((((( ( (
d p d q + kB T e B d pd q
(((( R3N R3Np
∂xj R3N R3N
p
∂xj
= Z Z
H
=
− kB 3N 3N
e T d pd q
R3N R3N
p

32

Z Z
− k HT
3N
kB T δij e B d p d3N q

R3N
R3N

=  p  = kB T δij

Z Z
H
− kB 3N
 3N
e d pd q
T
3N 
R R3N
p



donde el primer sumando cancelado en el tercer renglón del anterior desarrollo tiene que ver
con que se trata de la integral en el espacio de las coordenadas de posición de una divergencia,
lo cual mediante el Teorema de Gauss remite a una integral sobre una superficie infinita de una
expresión que se va a cero en el infinito. Hemos llegado al teorema del virial clásico. Vamos a
aplicarlo en algún ejemplo concreto. Sea xi = xj = qi (es decir, una coordenada de posición).
Entonces nos queda que: qi ∂H = kB T δii = kB T . Por otra parte, como ∂H = − ∂p


∂qi ∂qi ∂t
i
, tenemos

∂pi
que: qi ∂t = −kB T . Ahora supongamos xi = xj = pi (una coordenada de momento lineal),
entonces análogamente nos queda: pi ∂H = kB T δii = kB T . Y nuevamente, como ∂H = ∂q


∂pi ∂pi ∂t
i
,

∂qi
se tiene que: pi ∂t = kB T . Con lo cual, de este modo, cerramos la expresión para el teorema
del virial de Clausius:

D ∂qi E D ∂p E
i
pi = − qi
∂t ∂t

3.4.2. El teorema de equipartición

Vamos a suponer un sistema de N partı́culas, ahora no necesariamente confinadas, y tal que


su hamiltoniano tiene la forma:

H = H 0 (pi , qi ) + αj x2j

donde H 0 no depende explı́citamente de la coordenada generalizada xj . Entonces se sigue que:

hHi = hH 0 i + αj hx2j i

Calculemos αj hx2j i:

33
αj x 2
Z Z Z Z 0 j
− k HT − kH T −
αj x2j e B d 3N
pd 3N
q αj x2j e B e kB T
d3N p d3N q
R3N R3N R3N R3N
αj hx2j i = Z Z p
= Z p
Z 0 =
− k HT 3N 3N − kH T 3N 3N
e B d pd q e B d pd q
R3N R3N
p R3N R3N
p
∞ αj x 2 ∞ αj x2
Z Z 0 (
((
Z Z
j
− kH T (( (
3N(( 3N −1 − j
αj e (B( d
(((
pd q x2j e kB T
dxj αj x2j e
− kB T
dxj
−1
3N(( R3N −∞
(R( p −∞
= Z Z 0
Z ∞ αj x 2
= Z ∞ αj x 2
=
(((
− kH T − j
− j
(((3N −1
(3N
(( e((B (d p d q e kB T
dxj e kB T
dxj
−1
3N(((R3N −∞ −∞
(R( p

kB T
=
2

kB T
Luego, cada término cuadrático en el hamiltoniano contribuirá con 2
a la energı́a. Este es el
Teorema de Equipartición. Veamos algunos ejemplos:

Sea un gas ideal monoatómico. Entonces hay 3N coordenadas de posición y 3N de mo-


mento lineal. Luego:

3N
X p2i 3
H= ⇒ hEi = N kB T
i=1
2m 2

Sea ahora un gas de barras rı́gidas (por ejemplo cuyas partı́culas que pueden ser conside-
radas como moléculas diatómicas). Luego vale:

3N 3N
X p2i X 1  5
I1 ω12 + I2 ω22

H= + ⇒ hEi = N kB T
i=1
2m i=1 2 2

Por último, sea un sólido modelado por masitas unidas por resortes. De este modo, se
tiene:

3N  2 
X pi 1 2
H= + kq ⇒ hEi = 3 N kB T
i=1
2m 2 i

Y además se tiene la Ley de Dulong & Petit (que es válida solo para temperaturas altas):

CV = 3 N kB

34
4. Estadı́stica Cuántica
La idea en esta sección va a ser trabajar sobre los ensambles estadı́sticos (más precisamente
sobre el problema del gas ideal), pero ahora desde el punto de vista de la Mecánica Cuántica.
Podemos notar que existe una cierta diferencia entre las probabilidades en mecánica estadı́stica
y en cuántica. Por ejemplo, en el ensamble microcanónico, ya sabemos que el estado de equilibrio
será aquel cuyos microestados sean equiprobables, pero ahora además habrá que pedir que
no haya interferencia o correlación interna entre los elementos del ensamble (es decir, que sus
estados no sean entrelazados). De este modo, para describir un ensamble, será necesario plantear
una mezcla de estados puros (estados mixtos), y estos van a estar definidos por una matriz u
operador densidad, dado por:

n
X
ρ̂ = Pi |ψi i hψi |
i=1

donde este operador será utilizado para calcular valores medios de ensamble para determinadas
cantidades observables. De este modo se pueden reformular los tres ensambles y hacer estadı́sti-
ca para partı́culas de este tipo. Esto ocurre porque la probabilidad es clásica, pero la fase de
cada estado es aleatoria. Un ejemplo de sistema descripto por estados mixtos es la luz blanca,
pues se tienen millones de fotones con fases al azar y en cualquier dirección, luego hay millones
de estados puros mezclados.

4.1. Formalismo de Partı́culas Idénticas

Supongamos un sistema de N partı́culas no interactuantes bajo ningún potencial, cada una


de ellas con ni niveles de energı́a. La función de ondas del sistema va a ser el producto de N
funciones de ondas (una para cada partı́cula). De este modo tenemos:

|ψi = |n1 i ⊗ |n2 i ⊗ · · · ⊗ |ni i ⊗ · · · ⊗ |nj i ⊗ · · · ⊗ |nN i

Supongamos que intercambiamos dos de estas partı́culas. Para ello see aplica el operador Pi,j
de permutación de la partı́cula i con la partı́cula j. Entonces se tiene:

P̂i,j |ψi = |n1 i ⊗ |n2 i ⊗ · · · ⊗ |nj i ⊗ · · · ⊗ |ni i ⊗ · · · ⊗ |nN i

35
Pero como las partı́culas i y j son idénticas, también vale:


P̂i,j |ψi = α |n1 i ⊗ |n2 i ⊗ · · · ⊗ |ni i ⊗ · · · ⊗ |nj i ⊗ · · · ⊗ |nN i

ˆ con lo cual no queda otra más que la fase global sea α = 1 ó α =


Entonces vale: Pi,j = I,
−1. De este modo, nos van a quedar dos posibles funciones de ondas para nuestro sistema.
Una será par y la otra será impar respecto del intercambio de partı́culas. Entonces, dada esta
clasificación, existirán dos clases de partı́culas: a las simétricas las llamaremos bosones y a las
antisimétricas las llamaremos fermiones. Para escribir la función de ondas de los bosones vamos
a simetrizar la expresión de |ψi, mientras que para dar la función de ondas de los fermiones, la
antisimetrizaremos. Veamos:

1 X 1 X
|ψs i = √ |n1 i ⊗ |n2 i ⊗ · · · ⊗ |nN i , |ψa i = δp √ |n1 i ⊗ |n2 i ⊗ · · · ⊗ |nN i
N ! perm. N ! perm.

donde:

 −1

si la permutación es impar
δp =
 1

si la permutación es par

Lo más importante, igualmente, será el conteo de microestados. Por ejemplo, si N = 2, ten-


dremos tres estados simétricos (de bosones) y uno antisimétrico (de fermiones), a diferencia
del caso clásico donde los cuatro estados eran equiprobables. Veamos, suponiendo |n1 i = |+i y
|n2 i = |−i:

Simetrı́a Función de ondas


|+i ⊗ |+i
Simétrica
|−i ⊗ |−i
|+i⊗|−i + |−i⊗|+i
2
|+i⊗|−i − |−i⊗|+i
Antisimétrica 2

Si fuesen partı́culas de Boltzmann (o boltzmanniones), como decı́amos, los cuatro estados


son equiprobables, y los notamos: |+i ⊗ |+i, |+i ⊗ |−i, |−i ⊗ |+i y |−i ⊗ |−i.

36
NOTA: Los fermiones cumplen el Principio de Exclusión de Pauli, con lo cual si hay más de
una partı́cula en el mismo estado o nivel de energı́a, entonces la función de ondas (antisimétrica)
será nula. En términos del spin, los bosones son aquellas partı́culas cuyo spin es un entero, y
los fermiones son aquellas partı́culas cuyo spin es un semientero.

4.2. Tratamiento del gas ideal cuántico

Vamos a usar el gas ideal como ejemplo paradigmático para trabajar con sistemas cuánticos,
con lo cual solamente nos vamos a limitar a este sistema y para el mismo vamos a definir toda
la termodiámica y a realizar todo el análisis estadı́stico.

4.2.1. Termodinámica general

Vamos a tener r niveles de energı́a permitidos, y necesitaremos distribuir N partı́culas del


gas en dichos niveles, cumpliendo con ciertos vı́nculos. Los tres ensambles son equivalentes,
pero nos va a resultar más sencillo trabajar en el ensamble gran canónico, con lo cual vamos a
comenzar planteando su función de partı́ción:

 
∞ ∞ Pr
− k 1T i=1 (ni εi )
X X X
Z = (2s + 1) z N Q(N p) = (2s + 1) zN  e B =
P
N =0 N =0 { ni =N }
∞ r
n εi
− ki
X X Y
= (2s + 1) zN e BT =
P
N =0 { ni =N } i=1
α α α n 0  n1 nr
εi ε1
− kεrT
 
−k −k
X X X
= (2s + 1) ··· ze BT ze BT ··· ze B =
n0 =0 n0 =0 nr =0
α  α 
n 0 X n 1 α  nr
εi ε1
−k −k − kεrT
X X
= (2s + 1) ze BT ze BT ··· ze B =
n0 =0 n1 =0 nr =0
r X α ni
 εi
−k
Y
= (2s + 1) ze BT

i=1 ni =0

donde definimos:

 1

si son fermiones
α=
 ∞

si son bosones

37
y donde s es el spin de cada partı́cula del gas (de modo que el factor 2s + 1 constituye el factor
de degeneración debida al spin de cada partı́cula). De modo que se tiene para fermiones:

r  εi 
−k
Y
Z = (2s + 1) 1+ze BT

i=1

Y para bosones:

∞ 
r X r
Y εi
−k
n Y 1
Z = (2s + 1) ze BT = (2s + 1) −k
εi

i=1 n=0 i=1 1−ze BT

PV
Según el ensamble gran canónico, vale: ln(Z) = kB T
, y como nuestro sistema es un gas ideal,
debe verificarse su ecuación de estado, con lo cual también vale: ln(Z) = N . Demos entonces,
una expresión para la ecuación de estado de nuestro gas:
 r  ε 
− k iT
 X
 (2s + 1) ln 1 + z e si el gas es de fermiones

 B

PV i=1
= r
kB T  X  ε
− k iT




 (2s + 1) −ln 1 − z e B si el gas es de bosones
i=1

Podemos escribir lo anterior en una forma más compacta si definimos el coeficiente:



1 si el gas es de fermiones


a=
 −1

si el gas es de bosones

Entonces tenemos:

r
PV X 
−k
εi 
= (2s + 1) a ln 1 + a z e BT
kB T i=1

Esta es la ecuación de estado de un gas ideal cuántico. Obtengamos ahora el valor medio del
número de partı́culas:

εi
∂ (ln (Z)) X z e− kB T r X 2s + 1
r
hN i = z = (2s + 1) εi
−k T
= εi
∂z i=1 1 + a z e B i=1 z
−1 e kB T + a

Y por último demos el valor medio de la energı́a:

38
εi
∂ (ln (Z)) X z εi e− kB T
r r
X (2s + 1) εi
hEi = − = (2s + 1) εi
−k T
= εi
∂β i=1 1 + a z e B
i=1 z −1 e kB T + a

Y podemos definir a la ocupación media de cada nivel de energı́a como el argumento de la


sumatoria en la expresión de hN i. Veamos:

2s + 1
hni i = εi
z −1 e kB T + a

pues esto obedece a uno de los vı́nculos que deben satisfacerse en el ensamble gran canónico,
Xr
dado por: hni i = hN i. Veamos esto gráficamente:
i=1

Figura 7: Gráfico de los niveles medios de ocupación de las distribuciones de Fermi-Dirac,


Bose-Einstein y Boltzmann, con sus respectivas formas funcionales.

Notemos que para energı́as suficientemente altas los niveles de ocupación de partı́culas
clásicas, bosones y fermiones son los mismos. De este modo, terminamos teniendo un gas clásico.
La condición para que esto suceda será:

ε−µ ε−µ
e kB T  1 ⇒ 0
kB T

NOTA: Cuando la curva de Fermi-Dirac vale cero, se tienen la mitad de las partı́culas, pues
hnε i = 21 . Esta curva (al igual que las demás) decae suavemente hacia cero a partir de una

39
energı́a determinada. Cuando la temperatura se va pareciendo cada vez más a cero, dicho de-
caimiento va dejando de ser suave, hasta que en el caso lı́mite se tiene una función escalón.
Por su parte, tanto para Boltzmann como para Bose-Einstein, se pueden apilar en un dado
nivel tantas partı́culas como se quiera (pues hnε i diverge con la energı́a), aunque sin embargo
ε−µ
existe un mı́nimo para la energı́a (en kB T
= 0), de modo que se pueden llevar todos los bosones
al nivel fundamental y generar lo que se conoce con el nombre de condensación de Bose-Einstein.

4.2.2. Estadı́stica de Fermi-Dirac

En el tratamiento estadı́stico de estos gases, vamos a considerar que los mismos se encuentran
contenidos en un recipiente muy grande, de manera que en el lı́mite para N → ∞, las energı́as se
vuelven continuas, y las sumatorias que planteamos para definir cada potencial termodinámico
se vuelven integrales. El sistema igualmente no deja de ser cuántico. De este modo, vamos a
considerar el siguiente pasaje:

∞ Z
X V
−→ 3 d3 p
i=0
h R3p

Nos concentraremos en esta sección en el caso a = 1. De manera que, como estamos trabajando
con un gas ideal de fermiones y cuyas partı́culas son no interactuantes, tenemos:

∞ ∞
PV X  εi  X 2s + 1 p2i
= (2s + 1) ln 1 + z e kB T , hN i = ε
− k iT
, εi =
kB T i=1 i=0 z −1 e B +1 2m

Entonces, reescribamos estas cantidades pero teniendo en cuenta la consideración del principio,
suponiendo que nuestro gas se encuentra en un volumen grande. Comencemos dando la presión:

p2 +p2 +p2
4π (2s + 1) V ∞ 2
   
p2
Z Z
PV (2s + 1) V − x2m ky T z 3 − 2mk
= ln 1 + z e B d p= p ln 1 + z e B T
dp =
kB T h3 R3p h3 0
q
4π (2s + 1) V (2mkB T )3 Z ∞  2 " 2 #  
p − √ p p
= √ ln 1 + z e 2m kB T
d √ =
h3 0 2m kB T 2m kB T
q
4 π(2s + 1) V (2m kB T )3 √π  4 Z ∞ 2  −x2
 
= √ x ln 1 + z e dx
h3 4 π 0

Para termnar de escribir la presión vamos a introducir la función de Fermi de orden 52 , que

40
Z ∞ ∞ 3
1 X (−1)l+1 z l
x2
notamos f 5 (z) , y cuya expresión es: f 5 (z) = 5 = 5 . Intentemos
2 2
l=1 l2 Γ( 2 ) 0 z −1 ex + 1
llegar a dicha expresión, integrando por partes el resultado del desarrollo anterior:

" % ∞ #
Z ∞ 3 Z ∞ 3 −x2
4 4 x x (−2x) z e
   

2 2
x2 ln 1 + z e−x −x
√ dx = √ ln 1+z e − 
dx =
π 0 π 3  0 3 1 + z e−x2
0
∞ Z ∞ Z ∞
x4 y2 √ y2
Z
8 8 8
= √ 2 dx = √ d( y) = √ √ dy =
3 π 0 z −1 ex + 1 3 π 0 z −1 ey + 1 3 π 0 2 y (z −1 ey + 1)

p Z ∞ 5
y3 y 2 −1
Z
4 1
= √ dy = dy = f 5 (z)
Γ 52

3 π 0 z −1 ey + 1 0 z −1 ey + 1 2

donde el término que se cancela tiende a cero cuando x tiende a ∞ y vale cero cuando x = 0.
De manera que volviendo a la presión se tiene:

p
PV (2s + 1) V (2π m kB T )3
= f 5 (z)
kB T h3 2

En general se tienen las siguientes propiedades para las funciones de Fermi:

∞ ∞
(−1)l+1 z l xν−1
Z
X 1 ∂fν fν−1 (z)
fν (z) = = dx , (z) =
l=1
lν Γ(ν) 0 z −1 ex + 1 ∂z z

h
y además podemos vincular al factor λ = √
2πm kB T
con una longitud de onda térmica, que puede
ser pensada como la longitud de onda de las ondas piloto que de Broglie habı́a introducido para
interpretar los estados de un sistema cuántico. Ambas longitudes son proporcionales entre sı́, y
difieren bastante poco.

Ahora demos el número medio de partı́culas, haciendo un cálculo análogo al anterior:

q
4π (2s + 1) V
Z ∞
p 2 (2s + 1) V (2πm kB T )3
hN i = p2
dp = f 3 (z)
h3 − h3 2
0 z −1 e 2m kB T +1

Juntando las expresiones para la presión y para el número de partı́culas (las últimas dos que
acabamos de calcular), se puede llegar a la ecuación de estado en su versión más general.
Veamos:
" #
PV hN i f 5 (z)
= f 5 (z) ⇒ P V = hN i kB T 2

kB T f 3 (z) 2 f 3 (z)
2 2

41
Demos ahora el valor medio de la energı́a del gas:

  √ 
(2s+1) V (2πm kB T )3
∂ f 5 (z) 
!
∂ (ln (Z)) h3 2
hEi = − 1
 = −
 1
 
 =
kB T V,µ kB T
V,µ
!
q ∂ r 1
(2s + 1) V (2πm)3
3 !
1
kB T
=− f 5 (z) 1
 =
h3 2 ∂ kB T V,µ
q q
(2s + 1) V (2πm)3 3 (2s + 1) kB T V (2πm kB T )3
−3
!
∂ x 2
=− f 5 (z) = f 5 (z)
h3 2 ∂x 2 h3 2
V,µ

Pero si miramos bien esta última expresión, veremos que nos queda también:

 q 
3 (2s + 1) V (2πm kB T )3 3

P V

3
hEi =  f 5 (z) kB T = kBT =

 PV
2 h3 2 2  kBT
 
2

O bien:

3 f 5 (z)
hEi = hN i kB T 2

2 f 3 (z)
2

De manera que el valor medio de la energı́a es una magnitud proporcional a la presión que
ejerce el gas sobre el recipiente. Por su parte, es de esperar (y lo vamos a demostrar) que en el
lı́mite clásico valga f 5 (z) = f 3 (z). Demos por último el CV (demostrar el procedimiento):
2 2

15 f 52 (z) 9 f 32 (z)
 
∂hEi
CV = = −
∂T V 4 f 3 (z) 4 f 1 (z)
2 2

Analicemos ahora los casos lı́mites, comenzando por el caso del gas no degenerado (tempe-
λ3
ratura alta y densidad baja). La aproximación se aplica pidiendo v
 1. De la expresión para
hN i hallada antes se tiene:

V λ3
hN i = (2s + 1) f 3 (z) ⇒ = (2s + 1) f 3 (z)
λ3 2 v 2

Luego, para el gas ideal cuántico, la aproximación de altas temperaturas tiene que ver con:

42
f 3 (z)  1. Pero como el desarrollo en serie de f 3 (z) al orden más bajo es: f 3 (z) ∼
= z, podemos
2 2 2

considerar de buena manera, que la aproximación es: z  1. Ası́, al orden más bajo tendremos:

λ3 ∼
=z
(2s + 1) v

De manera que, por ejemplo, la ecuación de estado tiende a ser la del gas ideal, pues se tiene:
g 5 (z)
P V = hN i kB T 2 ∼
= hN i kB T zz = hN i kB T . Al siguiente orden:
g 3 (z) 
2

h i2
λ3
λ3 ∼ z2 z2 λ3 z2 λ3 (2s+1) v
=z−√ =z−√ ⇒ z∼ = +√ ∼= + √ =
(2s + 1) v 23  8 (2s + 1) v 8 (2s + 1) v 8
λ3 λ3

= 1+ √
(2s + 1) v 8 (2s + 1) v

Entonces, reemplazando en la expresión de la presión:

q
(2s + 1) (2πm kB T )3
( )
λ3 λ3

P 2s+

1
f 5 (z) ∼ 1+ √

= =
kB T h3 2
λ3 (2s
 + 1)

v 32 (2s + 1) v
λ3
 
1
= 1+ √
v 32 (2s + 1) v

Continuando con la aproximación, en general se tiene:

∞ l−1
λ3

P ∼
X
l+1
= (−1) al
kB T l=1
(2s + 1) v

1 hN i
donde a1 = v
= V
, de manera de que al orden más bajo (l = 1) se recupera la ecuación de
estado del gas ideal. Luego, uno puede obtener las expresiones conocidas de la energı́a media
3 3
(hEi = 2
hN i kB T ) y de la capacidad calorı́fica a volumen constante (CV = 2
hN i kB ).

Ahora analicemos el caso lı́mite del gas completamente degenerado. (temperaturas ba-
λ3
jas y densidad alta). La aproximación se aplica pidiendo v
 1 (o bien f 5 (z)  1). Nuevamen-
2

te, como al orden más bajo se tiene fν (z) ∼


= z, entonces pedir la condición de gas completamente
degenerado será equivalente a pedir z  1. De modo que la expansión de las funciones de Fermi
ahora son compatibles con el desarrollo de Sommerfeld, dado por:

lnν (z) π 2 ν (ν − 1)
  
1
fν (z) = 1+ +O
Γ(ν + 1) 6 ln2 (z) ln3 (z)

43
3
Especialicemos entonces en los casos que nos interesan a nosotros (ν = 2
y ν = 52 ):

p p
π2 5 π2
   
4 ln3 (z) 8 ln5 (z)
f 3 (z) ∼
= √ 1+ , f 5 (z) ∼
= √ 1+
2 3 π 8 ln2 (z) 2 15 π 8 ln2 (z)

Veamos entonces en la aproximación de gas completamente degenerado, un resultado impor-


tante, que tiene que ver con la forma del potencial quı́mico en el orden más bajo (es decir, en
el lı́mite de temperatura cero). Partimos de la ecuación para el número medio de partı́culas:

~2 3
 r 
p 6π 2
3
(2s + 1) V λ 4 ln3 (z) 2m (2s+1) v
hN i = f 3 (z) ⇒ = f 3 (z) ∼
= √ ⇒ z∼
=e kB T
λ3 2 (2s + 1) v 2 3 π

De este modo, podemos asociar al potencial quı́mico a la expresión del numerador en el expo-
nente. Al mismo le damos el nombre de energı́a de Fermi. Damos su expresión:
s
~2 3
6π 2
εF =
2m (2s + 1) v

Entonces, la energı́a de Fermi es el potencial quı́mico del gas a la temperatura más baja posible
(T = 0). Ası́, podemos escribir el número medio de ocupación para bajas temperaturas:

2s + 1
hni i = εi −εF −→ (2s + 1) Θ (εi − εF )
e kB T

Figura 8: Gráfico de variación del número medio de ocupación de cada nivel de energı́a del
gas ideal cuántico a bajas temperaturas.

44
Entonces, la energı́a de Fermi es la energı́a debajo de la cual se tienen N niveles ocupados,
se trata del mı́nimo de energı́a que cuesta para agregar una partı́cula al sistema. Es la energı́a
del nivel más alto ocupado.

Una vez definida una energı́a de Fermi, es sencillo definir un momento lineal de Fermi, uti-

lizando su forma funcional: pF = 2m εF . Este momento lineal es el máximo que puede tener
una partı́cula a temperatura T = 0, luego todas las partı́culas estarán contenidas en una esfera
cuyo radio máximo será justamente pF . A la superficie de dicha esfera la llamaremos superficie
de Fermi. También llamamos temperatura de Fermi a aquella que satisface: εF = kB TF . Luego,
si TF , estaremos en el caso no degenerado, mientras que si TF ó T < TF , el comportamiento
será completamente degenerado.

Vayamos ahora al siguiente orden en la expansión:

p
λ3 2
3 (z)
 
(2s + 1) V 4 ln π
hN i = f 3 (z) ⇒ = f 3 (z) ∼
= √ 1+
λ3 2 (2s + 1) v 2 3 π 8 ln2 (z)

Pero a primer orden se tiene: kB T ln(z) ∼


= εF . Luego en la última igualdad podemos considerar:

r 3
εF
4 p p
π2 ε3F
 
kB T 4 ln3 (z)
q
√ ∼
= √ 1+ ⇒ ∼
= [kB T ln(z)]3 ⇒
3 π 3 π 8 ln2 (z) π2
  1+ 8 ln2 (z)
 2 
εF 2 π
⇒ µ = kB T ln(z) ∼
= rh ∼
i3 = εF 1−
2 3 8 ln2 (z)
1 + 8 lnπ2 (z)

Demos ahora el valor medio de la energı́a:

√ h i
4 ln3 (z)

5π 2
f (z) 2 ln(z) √ 1+
3 5
∼ 3 5 3 π 8 ln2 (z)

hEi = hN i kB T = hN i kB T
2
√ 3 =
2 f 3 (z) 2 h i
4ln
(z) π2
2 √
3 π

1+ 8 ln2 (z)

5π 2 π2 π2
     
∼ 3 3 ∼
= hN i kB T ln(z) 1 + 1− = hN i kB T ln(z) 1 + =
5 8 ln2 (z) 8 ln2 (z) 5 2 ln2 (z)
π2 2 2
    
∼ 3 εF ∼ 3 2 π π ∼
= hN i rh i2 1 + 2 ln2 (z) = 5 hN i εF 1 − 3 8 ln2 (z) 1 + 2 ln2 (z) =
5 2
3
1 + 8 lnπ2 (z)
"  #
5π 2 kB T 2

∼ 3
= hN i εF 1 +
5 12 εF

45
donde la aproximación del ln(z) que multiplica es a segundo orden mientras que la aproximación
del ln(z) que divide dentro del corchete es a primer orden para que la expresión final termine
quedando de segundo orden en kB T . Ahora demos el CV :

π 2 hN i kB 2
 
∂hEi
CV = = T
∂T V,hN i 2 εF

De este modo nos queda el siguiente gráfico:

Figura 9: Gráfico de variación de la capacidad calorı́fica a volumen constante del gas ideal
cuántico.

en el cual se observa que para bajas temperaturas, el CV varı́a linealmente con la tempe-
ratura, mientras que para temperaturas altas es una constante, como lo es para el gas ideal
clásico. Veamos ahora cuánto vale la presión del gas:

" 2 # " 2 #
5π 2 5π 2
 
2 2 3 kB T 2 εF kB T
P = hEi ∼
= hN i εF 1+ = 1+
3V 3 V 5 12 εF 5v 12 εF

Notar que aún a temperatura T = 0 el gas de Fermi tiene presión no nula. Esto permite estudiar
las estrellas enanas blancas.

Ejemplo - Carga en presencia de un campo magnético: Vamos a concentrarnos sobre


gases (también puede trabajarse sobre sólidos), y vamos a escribir el hamiltoniano de una carga
(un fermión) en interacción con un campo magnético externo:

46
1  q 2
H= p̄ + Ā − µ̄ · B̄
2m c

donde el término −µ̄ · B̄ es quien da lugar al fenómeno conocido como paramagnetismo de Pau-
q
li, y el término c
Ā es quien da lugar al fenómeno conocido como diamagnetismo de Landau.
Para la mayorı́a de los medios materiales magnéticos resulta dominante el término de Pauli, en
consecuencia la mayorı́a de estos medios son paramagnéticos, de manera que al ser expuestos
a un campo magnético externo, sus dipolos magnéticos se alinean con el campo. Sin embargo
existen también medios diamagnéticos (no los gases), estos materiales al ser expuestos a un
campo magnético externo, sus dipolos se alinean en contra de dicho campo.

Comencemos entonces analizando el paramagnetismo de Pauli. A temperatura T = 0


todos los niveles de energı́a se encontrarán llenos hasta la energı́a de Fermi. De este modo, la
energı́a cinética satisfará la condición:

p2  
εF = ∓ µ̄ · H̄ ⇒ Ecin ∈ 0 , εF ± µ̄ · H̄
2m

donde el doble signo se corresponde en el primer caso con la alternativa en la cual el spin de
1
las partı́culas es s = 2
y en el segundo con la alternativa de que su spin sea s = − 12 . En el
siguiente gráfico se observa la disposición de estos niveles de energı́a distintos según el spin:

Figura 10: Diagrama de niveles de energı́a para el gas de electrones cuántico sometido a un
campo magnético externo en su fase paramagnética a temperatura T = 0.

47
Luego, habrá dos regiones bien marcadas en el diagrama energético, de modo que tenemos:

p2
H± = ∓ µ̄ · H̄
2m

La idea es comparar el valor de la susceptibilidad magnética a temperatura nula con el resultado


obtenido para el caso semi-clásico haciendo tender T a 0. Comencemos obteniendo entonces, el
número de partı́culas en cada nivel a temperatura T = 0:

∞ p± (εF )
4π V p± (εF )3
Z Z
4π V 2 1 4π V
hN± i = 3 p ε± dp = 3 p2 dp = =
h 0 z −1 e kB T + 1 h 0 h3 3
q 3
4π V 2m εF ± µ̄ · H̄
=
3 h3

Calculemos ahora la magnetización de la muestra a temperatura nula:

p
(2m)3
q 
4π µ V
q
M̄ = µ̄ (hN+ i − hN− i) = 3
(εF + µ̄ · H̄) − (εF − µ̄ · H̄) 3
3 h3

Pero lo que nos interesa es la susceptibilidad magnética a T = 0, para lo cual plantearemos:

p   2
p
∂M 4π µ V (2m)3 3 p 3 p 4π |µ̄| V (2m)3 √
· − −µ̄ ·

χmag = (0) = ε F +µ̄


0̄ µ̄ ε F  
0̄ µ̄ = εF =
∂H 3 h3 2 2 h3
" p #
4π V (2m εF )3 3 |µ̄|2 3 hN i |µ̄|2
=2 =
3 h3 2 εF 2 εF

Figura 11: Gráfico de variación de χmag del gas cuántico con la temperatura.

48
De esta manera, notamos que esta expresión es distinta de la que habı́amos obtenido para el
paramagnetismo semi-clásico (o semi-cuántico), en el cual la susceptibilidad magnética divergı́a
para T → 0. En este caso adopta un valor finito, pues la energı́a de Fermi está bien definida
para este gas, y varı́a como se indica en el gráfico, tendiendo a alinear a las partı́culas con el
campo magnético.

Veamos ahora el diamagnetismo de Landau. Ahora nuestro hamiltoniano tendrá la for-


ma:

1  q 2
H= p̄ + Ā
2m c

¯ × Ā Ā = − B2 y , B

Sea B̄ = B ž = ∇ ⇒ 2
x, 0 .
Luego, reescribimos el hamiltoniano, teniendo en cuenta que la partı́cula está libre en la direc-
ción ž y que el campo solamente afecta al movimiento en las otras dos direcciones:

" 2  2 #
q 2 p z 2 pz 2
 
1  q 2  1 qB qB
H= px + Ax + py + Ay + = px − y + py + x +
2m c c 2m 2m 2c 2c 2m

Demos el logaritmo de la función de partición:

N  ε 
− i
X
ln (Z) = ln 1 + z e kB T
i=1

donde εi es la autoenergı́a del nivel i. Calulémosla:

~2 kz 2
 
1
H ψi = εi ψi ⇒ εi = + i+ ~ ωct
2m 2

qB
donde ωct = mc
es la llamada frecuencia de ciclotrón. De este modo, podemos reemplazar en
el logaritmo, sin embargo al encender el campo, todo el continuo e niveles inicial se nos va a
colapsar en un número discreto de niveles. Luego tenemos que considerar, al pasar a un volumen
infinito, una degeneración de cada nivel, que dé cuenta de cuántos niveles cayeron en cada caja
discreta. Hallémosla, pero primero planteemos este pasaje:


3
q
Z 4 ~ q B (i+ 3 )
XX V 2 c 2
−→= 2 q 2π p dp
py pz
h 4~qB
c (i+ 12 )

49
Entonces, de esta expresión va a salir la degeneración, que llamaremos g. Veamos:

 q 2 
 2
 q
√ √ 4 q B 3 4~qB
i + 12
 ~
 
i+ 2
q  
4~qB

3
V2
Z
c (i+ 23 ) 2π
3
V2

 c c


g= p dp = − =
h2 h2 2 2
q
4~qB
c (i+ 12 ) 





 

3  √3
V2qB

4π V 2 ~qB 3 1
= i + −i −
 =
h2 c 2 2 hc

Esta es la degeneración por nivel. Ahora podemos volver al logaritmo de la función de partición.
Veamos:

~2 kz 2 + i+ 1
( " #)
XX X 2m ( 2 ) ~mq Bc
ln (Z) = g gz ln 1 + z e kB T
=
px py pz

V qB ∞X
Z  
~2 kz 2
2m kB T (
+ i+ 12 ) m ~c qKB T
= ln 1 + z e B dpz ∼
=
h2 c 0 i=0
pz 2 ~qBx
(Z Z " # )
∞ ∞ Z ∞
∼ V qB +
− 2mk Tmc ~qB dpz
= ln 1 + z e B dx dpz − =
h2 c −∞ 0 24 m c kB T −∞ −1 2mpzkB2 T
z e +1
pz 2 ~q Bx
( Z Z " # )
∞ ∞ Z ∞
V qB 1 − 2m + m c ~ q B dy
= ln 1 + z e kB T
d(Bx) dpz − √ 2
h2 c B −∞ 0 12 c 2m kB T −∞ z −1 ey + 1

3
V
donde g = h
es la degeneración por la dirección ž, que se obtiene trivialmente, y la aproxi-
mación que se utilizó fue la de la fórmula de Euler-McLaurin, cuya expresión viene dada por:

1 ∼ ∞
  Z
X 1 df
f i+ = f (x) dx + (0). Además, se usó (además del cambio de variables
i=0
2 0 24 dx
x) se usó el cambio de variables y = √2mpzkB T , que lo usaremos luego cuando calculemos la
magnetización. Ahora, justamente, si queremos la susceptibilidad magnética vamos a tener que
derivar el logaritmo de la función de partı́ción respecto del campo B, pero como solo aparece
en el segundo término, será este último solamente el que haya que derivar. Veamos:

  q 
µB 2 B 2 8π 3 m3
kB T  ∂ − 6 h3 V f 1 (z) 
 
kB T ∂ (ln (Z)) kB T 2
χmag = = =
B ∂B B ∂B
 
V,T
V,T
µB 2 V f 1 (z) p
=− 2
8π 3 m3 kB T
2 h2
q~
donde µB = 2mc
es una cantidad llamada magnetón de Bohr. Vemos que al ser la susceptibi-
lidad proporcional a esta cantidad pequeña, la misma es dominada por la susceptibilidad para

50
sustancias paramagnéticas. Corroboramos además que el resultado es negativo, como esperába-
mos, luego las partı́culas tienden a alinearse en contra del campo. Por último, como esta cantiad
tiende a cero cuando h se hace chico, se ratifica el origen cuántico de este fenómeno.

4.2.3. Estadı́stica de Bose-Einstein

Para el tratamiento de los gases de bosones vamos a suponer a = −1 en todas las fórmulas
que dedujimos al principio. Comencemos entonces dando la ecuación de estado de estos gases
a partir del logaritmo de la función de partición. Veamos:

" ∞
#
 ε   0

− k iT −
X 
ln (Z) = [ln (Z)]exc. + [ln (Z)]f und. = −(2s + 1) ln 1 − z e B − ln 1 − z e
 kB T
=
i=1
Z ∞ 2
4π (2s + 1) V 2 − 2mpk 
=− p ln 1 − z e BT dp − (2s + 1) ln (1 − z) =
h3 0
q
(2m kB T )3 Z 2 "  2 #
4π (2s + 1) V ∞ 
p − √ p

p

=− √ ln 1 − z e 2m kB T
d √ − ···
h3 0 2m kB T 2m kB T

· · · − (2s + 1) ln (1 − z) =
q
4 π (2s + 1) V (2m kB T )3 √π  Z ∞ 4 2 −x2

= − √ x ln(1 − z e ) dx − (2s + 1) ln (1 − z) =
h3 4 0 π
q
(2s + 1) V (2π m kB T )3
= g 5 (z) − (2s + 1) ln (1 − z) =
h3 2

(2s + 1) V
= g 5 (z) − (2s + 1) ln (1 − z)
λ3 2

donde ahora introdujimos la función gν (z), que es la función de Bose, la cual tiene las mismas
propiedades que la función de Fermi, y se relaciona con esta a través de la igualdad dada por:
gν (−z) = −fν (z). Hay una propiedad que nos será útil luego cuando introduzcamos el proceso
de condensación de Bose-Einstein, que es la siguiente:

 ∞

si ν < 1
gν (z) =
 ζ(ν)

si ν > 1

Entonces, ahora podemos aprovechar el resultado anterior para dar la presión:

PV (2s + 1) V
= g 5 (z) − (2s + 1) ln (1 − z)
kB T λ3 2

51
Del mismo modo podemos dar el número medio de bosones:

∞ ∞
X 2s + 1 X 2s + 1
hN i = hN iexc. + hN if und. = εi + 0 =
i=0 z −1 e kB T
−1 i=0z −1  BT − 1
e k
Z ∞
4π (2s + 1) V p2 (2s + 1) z
= 3 p2
dp + =
h 1−z
0 z −1 e 2m kB T − 1
 2
√ p

p  
4π (2s + 1) V (2m kB T )3
Z
2m kB T p (2s + 1) z
= 3
2 d √ + =
h 1−z

0 √ p 2m kB T
z −1 e 2m kB T − 1
4π (2s + 1) V (2m kB T )3 ∞
p
x2
Z
(2s + 1) z
= 3 −1 2 dx + =
h 0 z e −1x 1−z
p √ " Z ∞ √ #
2 π (2s + 1) V (2m kB T )3 π 1 y (2s + 1) z
= 3
− 3 −1 y
dy + =
h 2 Γ 2 0 (−z) e − 1 1−z
p
(2s + 1) V (2m π kB T )3 h i (2s + 1) z
= 3
−f 3 (−z) + =
hp 2 1−z
(2s + 1) V (2m π kB T )3 (2s + 1) z
= 3
g 3 (z) +
h 2
1−z

1
Ahora queda calcular la energı́a media. Veamos (llamaremos x = kB T
para poder derivar más
cómodamente):

 
! − 32
∂ x
p
∂ (ln (Z)) (2s + 1) V (2m π)3
hEi = − = − g 5 (z) =
∂ kB1T

h3 2 ∂x
V,µ
p p
3 (2s + 1) V (2m π)3 − 5 3 (2s + 1) V k B T (2m π kB T )3
= g 5 (z) x 2 = g 5 (z) =
2 h3 2
 2 h
3
 
2

3 (2s + 1) kB T V 3 (2s + 1) V 3 PV 3
= g 5 (z) =
3
g 5 (z) k B T = k 
B T
 = PV
2 λ3 2 2 λ 2 2  kBT 
2

Para terminar, veamos los casos lı́mites de gas no degenerado y de gas completamente degene-
rado. Comencemos con el primero de ellos (el gas no degenerado), en el cual la temperatura
es alta y por lo tanto, la fugacidad es chica. De este modo, no existen cambios significativos
respecto de lo que ocurrı́a con el gas de fermiones, dado que la fugacidad puede crecer todo lo
que se quiera, y no hay restricciones de ningún tipo, a diferencia de lo que ocurre en el caso
completamente degenerado. Entonces, vamos a tener las aproximaciones conocidas (g 5 (z) ∼
=zy 2

g 3 (z) ∼
= z). De este modo, por ejemplo, la ecuación de estado del gas de bosones a temperaturas
2

altas será:

52
g 5 (z) z
P V = hN i kB T 2 ∼
= hN i kB T = hN i kB T
g 3 (z) z
2

parecida a la del gas ideal. En general se tiene el mismo comportamiento que el gas de fermiones,
luego la expresión general de la ecuación de estado es:

∞ l−1
λ3

PV X
= al
hN i kB T l=1
v

Por otra parte, donde sı́ va a haber cambios es en el tratamiento del gas de bosones completa-
mente degenerado, pues ahora habrá que tener en cuenta aquı́ que el número de partı́culas
en el estado fundamental puede diverger, mientras que la fugacidad está acotada superior-
mente. Esto es lo que da lugar a la condensación de Bose-Einstein. Repasemos la expresión
correspondiente para el número de partı́culas medio en el gas de bosones:

(2s + 1) V
hN i = hN if und. + g 3 (z)
λ3 2

Si la densidad de este gas no cambia, entonces tanto hN i como V permanecerán fijos. Luego, si
se comienza a enfriar el sistema (i.e. bajar el valor de T ), entonces el término del fundamental
en principio se mantendrá fijo, y en el segundo término variará el único factor no constante,
que es g 3 (z), el cual comenzará a crecer. Como esta función de Bose es creciente, entonces su
2

aumento implicará el aumento de la fugacidad z, que es su argumento. Si el orden de la función


de Bose es menor a 1 (que no es lo que sucede en nuestro caso), entonces la función puede
crecer indiscriminadamente. Pero esto no es lo que sucede, de manera que g 3 (z) comenzará
2

a cercer, al unı́sono con z, pero hasta que esta última llegue a valer 1, que es su supremo.
Entonces, como el segundo término pasa a ser una constante, lo que comenzará a variar será
el término del fundamental. A este proceso se lo denomina condensación de Bose-Einstein.
De manera que la condición que hay que pedir para que exista condensado es que el término
del fundamental sea no nulo. Veamos:

(2s + 1) V λ3
hN if und. > 0 ⇒ hN i − g 3 (z) > 0 ⇒ > g 3 (z)
λ3 2 (2s + 1) v 2

La temperatura a partir de la cual vale la desigualdad anterior vamos a llamarla temperatura

53
crı́tica Tcrit y la podemos obtener colocando z = 1 en la condición de condensado. Hallémosla
para el gas degenerado:

λcrit 3 h3
 
3
=g 3 (1) ⇒ p =ζ ⇒
(2s + 1) v 2
(2s + 1) v (2m kB Tcrit )3 2
2π ~2
⇒ Tcrit = q
m kB 3 (2s + 1)2 v 2 ζ 32


Esta condición crı́tica define una temperatura en la cual es posible tener coexistencia de fases. Si
T > Tcrit se tendrán partı́culas en estados excitados, mientras que si T < Tcrit habrá partı́culas
macroscópicas en el estado fundamental. Por su parte, si T = Tcrit , como vimos la transición
no es suave, y de allı́ la existencia de un cambio de fase. Por encima de esta temperatura no
tendremos partı́culas condensadas. Explicitemos entonces este cambio de fase, comenzando por
dar el número de partı́culas medio en el estado fundamental en función de la temperatura.
Veamos:

0 si T ≥ Tcrit


hN if und. = h i
 hN i 1 − (2s+1) V
g 3 (z) si T < Tcrit

λ3 2

Figura 12: Gráfico de variación del número medio de bosones excitados y en el estado
fundamental donde se muestra la conensación de Bose-Einstein.

Si queremos escribir la ecuación de estado de este gas en función de la temperatura lo que


hacemos es tomar la expresión que obtuvimos al comienzo de esta sección, y cortarla cuando
se llega a la condición crı́tica. Veamos:

54

(2s+1) V 5

ζ si T ≥ Tcrit

PV 
λ3 2
=
kB T (2s+1) V
g 5 (z) si T < Tcrit


λ3 2

La presión a partir de la cual se da la transición de fase se la llama presión de saturación del


vapor y a esta presión se tiene coexistencia de las dos fases. Escrı́bamosla:

 
(2s + 1) kB T 5
Ps (T ) = ζ
λ3 2

Derivando esta expresión de la presión respecto de la tempeatura se obtiene la conocida ecuación


de Clausius-Clapeyron para las transiciones de fases. Veamos:
 
5 ζ ( 52 ) kB T
2 ζ ( 32 )
 
dPS 5 5 (2s + 1) kB ql
(T ) = ζ = =
dT 2 2 λ3 (v − 
vf und.) T ∆v T

que es la ecuación de Clausius-Clapeyron para este gas (ql viene siendo el calor latente de la
transición). Se trata de una transición de fase de primer orden, pues la derivada de primer
orden de los parámetros termodiámicos es discontinua. Por su parte, del calor latente podemos
extraer la diferencia de entropı́a en la transición, pues el mismo se escribe como: ql = T h∆si,
de manera que en este caso tenemos:

5

5ζ 2
h∆si = 3
 kB
2ζ 2

Sabiendo que vale hEi = 32 P V , fácilmente podemos dar el valor medio de la energı́a. Veamos:

3 (2s+1) V kB T 5

ζ si T ≥ Tcrit


2 λ3 2
hEi =
3 (2s+1) V kB T
g 5 (z) si T < Tcrit


2 λ3 2

Y derivando la energı́a se obtiene la capacidad calorı́fica a volumen constante. Veamos:


15 (2s+1) g 5 (z) 9 (2s+1) g 3 (z)


4 g 3 (z)
2
− 4 g 1 (z)
2
si T ≥ Tcrit
CV = 2 2
 15 (2s+1) V 5


4 λ3
ζ 2
si T < Tcrit

55
Figura 13: Gráfico de variación de la capacidad calorı́fica a volumen constante en el gas de
bosones a bajas temperaturas.

Ejemplo - Gas de fotones: Sea una cavidad (un cuerpo negro) y muchos fotones dentro a
una dada temperatura. La cavidad presenta un orificio por donde está permitido el intercambio
de partı́culas con el exterior. No habrá vı́nculos para el número de fotones, pues estos se crean y
se destruyen constantemente, luego solo tendremos un vı́nculo para la energı́a. Además, como el
número de fotones no está fijo, energéticamente da lo mismo por ejemplo, un fotón de frecuencia
2 ω que dos fotones de frecuencia ω, luego el potencial quı́mico de los fotones vale µ = 0 (de este
modo, coincidirán los resultados del ensamble canónico con los del ensamble gran canónico).
Comencemos entonces, escribiendo la función de partición del ensamble canónico:

∞ 
X − k ~T
P
{k̄, σ} ω nk̄, σ
Y X − k~ ωT
n Y 1
Q= e B = e B =
− k~ ωT
{nk̄, σ } k̄, σ n=0 k̄, σ 1−e B

donde k̄ es el vector de propagación de la onda que representa el fotón, σ es su degeneración


debido al spin (en este caso tiene que ver con los estados de polarización de la luz), y nk̄, σ es el
número de estados con vector de ondas k̄ y polarización σ. Pese a que el fotón tiene spin s = 1
no son tres los estados degenerados posibles debido a esta propiedad (como en principio es de
suponerse), pues las ecuaciones de Maxwell terminan permitiendo solamente dos polarizaciones
posibles para la luz (las polarizaciones izquierda y derecha conocidas de óptica, con ms = −1
y ms = 1, respectivamente). El estado con mS = 0 no está permitido, dado que los fotones
poseen masa nula, por lo tanto se muven a la velocidad de la luz y satisfacen las ecuaciones
de Maxwell, luego mS = 0 implica momento angular Lz nulo, lo cual implica que el fotón debe
oscilar hacia adelante y hacia atrás en la misma dirección en la que la onda se propaga. Para
que esto ocurra es necesario que los campos eléctrico y magnético se propaguen a una velocidad

56
mayor que la de la luz. De manera que sumar sobre σ significa tener en cuenta que la luz tiene
2 (dos) posibles estados de polarización degenerados, y que hay que considerar en cada una de
las cantidades termodinámicas. Veamos:

Y 2
Q=
− k~ ωT
k̄ 1−e B

Y como µ = 0, entonces también vale:

Y 2
Z=
− k~ ωT
k̄ 1−e B

De manera que:

PV X 
− ~ω

ln (Q) = ln (Z) = =− 2 ln 1 − e kB T
kB T

Obtengamos ahora el valor medio de la energı́a:


! !
∂ (ln (Z)) X 2 X
hEi = − = ~ω = hnk̄ i ~ ω
∂ kB1T


z=1 k̄ e kB T − 1 k̄

Para sumar sobre k̄, se puede tomar un volumen muy grande y pasar al continuo. Veamos
entonces como quedarı́a la ecuación de estado:


PV
Z
X 
− k~ ωT
 4π V 
− ~ω

=− 2 ln 1 − e B − 3 2 ln 1 − e kB T p2 dp =
kB T h 0


8 π V h3 ∞ 
Z Z
8π V 
− k~ ωT

2 − k~ ωT
  ω 2  ω 
=− 3 ln 1 − e B (~ k) d (~ k) = − ln 1 − e B d =
h 0 8 π 3 h3 0 c c
V
Z ∞
V (kB T )3 ∞ 
Z   ~ ω 2  ~ ω 
− k~ ωT − k~ ωT
 
2
=− 2 3 ln 1 − e B ω dω = − 2 3 3 ln 1 − e B d =
π c 0 π ~ c 0 kB T kB T
V kB 3 T 3 ∞ 2 ∞
 Z ∞ 3
V k B 3 T 3 x3 x (−e−x )
Z  
−x −x
 
=− 2 3 3 x ln 1 − e dx = − 2 3 3 ln 1− e
 
− dx =
π ~ c 0 π ~ c 3 0 0 3 1 − e−x
V k B 3 T 3 ∞ x3 V kB 3 T 3 π 4 π 2 V kB 3 3
Z
=− 2 3 3 dx = − 2 3 3 =− T
3π ~ c 0 ex − 1 3π ~ c 15 45 ~3 c3

donde, como antes, el término anulado tiene que ver con que vale cero para x = 0 y con que
tiende a ∞ para x → ∞. Demos ahora el valor medio de la energı́a:

57
! Z ∞ Z ∞
X 2 4π V 2~ω 2 4π 2 V ~ ω (~ k)2
hEi = ~ω ~ ω → ~ω p dp = ~ω d(~ k) =
e kB T
− 1 h3 0 e kB T
− 1 h3 0 e kB T
− 1

2  
π 2 V h3 ∞ ~ ω ωc
Z ∞
ω3
Z
4 ω ~V
= ~ω d = dω
π 4 π 2 h3 0 e kB T − 1
2 c π 2 c3 0 e k~BωT − 1

donde podemos definir una densidad volumétrica de energı́a por unidad de frecuencia u(ω, T )
como el argumento de la última integral, que se la llama distribución de Planck. Veamos:

~V ω3
u(ω, T ) = 2 3 ~ ω
π c e kB T − 1

Figura 14: Gráfico de la densidad de energı́a por unidad de frecuencia en función de esta
última, para dos valores distintos de temperatura.

Vemos en la figura, que al aumentar la temperatura el pico de energı́a más probable aumenta
y además se desplaza una cierta cantidad hacia la derecha. Integrando se obtiene la energı́a
media total contenida en el gas. Veamos:

 3
4 ~ω
∞ 3 ∞ ∞
(kB T )4 V x3
Z Z   Z
~V ω (kB T ) V kB T ~ω
hEi = 2 3 ~ω dω = 2 3 3 ~ω d = 2 3 3 dx =
π c 0 e kB T − 1 π ~ c 0 e kB T − 1 kB T π ~ c 0 ex − 1
kB 4 T 4 V π 4 π 2 kB 4 V
= 2 3 3 = T4
π ~ c 15 3
15 ~ c 3

Juntando los últimos dos resultados se obtiene la (esperable) relación entre la presión y la
energı́a:

π 2 kB 3 V 3
   
PV
hEi = 3 T kB T = 3 kB
T =
 3PV
45 ~3 c3 kB
 T
 

58
que es la presión de radiación del gas sobre las paredes. Demos finalmente la capacidad calorı́fica
a volumen constante:

4 π 2 kB 4 V
CV = T3
15 ~3 c3

Y como cierre, demos la cantidad de energı́a que sale por el agujero de la cavidad (llamemos I
a esta cantidad). Para ello usaremos la teorı́a cinética:

π Z 2π Z π

hEi π 2 kB 4 4
Z Z
2 2
I= vz sen (θ) dθ dϕ = c cos (θ) T sen (θ) dθ dϕ =
0 0 V 0 0 15 ~3 c3
Z π
π 2 c kB 4 4 2π π 2 c kB 4 4 c kB 4
Z
2 1
3 3
T dϕ cos (θ) sen (θ) dθ = 3 3
T 2 π = T4
15 ~ c 0 0 15 ~ c 2 3
120 h c 3

c kB 4
donde llamamos σ = 120 h3 c3
, de manera que la cantidad I determina la Ley de Stefan-
Boltzmann, con σ la constante homónima.

Ejemplo - Gas de fonones: Podemos plantear al fonón como una cuasi-partı́cula, que
viene a representar más bien a un modo normal de vibración de un dado material sólido. El gas
de fonones será representado por una red de osciladores armónicos como se muestra en el dibujo:

Figura 15: Esquema representativo de un gas de fonones, como una red de osciladores
armónicos.


Para un fonón vale: p = vs
(donde vs es la velocidad del sonido), y el cuanto energético
es ~ ω. Por otra parte, si se tienen N partı́culas unidas a resortes en nuestro modelo, entonces

59
tendremos 3N modos normales de vibración. Sin embargo, cuando pasemos al continuo vamos
a tener que cuantificar de alguna manera la frecuencia del modo más alto de vibración (ya
no nos alcanzará con saber que se trata del modo 3N de vibración, pues esa es una cantidad
discreta). En este modo, todas las partes móviles se disponen intercaladamente hacia arriba y
hacia abajo, si se trata de una red bidimensional cuadrada, como la del dibujo. Como vemos,
ωmax depende de propiedades microscópicas del sólido, como la geometrı́a de la red. Entonces,
como esto no es muy manejable, vamos a tener que realizar una cierta aproximación. Se puede
3V
interpretar a la expresión g(ω) = 2 π 2 vs 3
ω 2 como la degeneración en frecuencias (o en energı́as)
de cada nivel. Luego, se tiene:

Z ωmax Z ωmax
3 V
g(ω) dω = 3N ⇒ ω 2 dω = 3 N ⇒
0 0 2 π 2 vs 3
r
ωmax
ωmax 3 6 π2
Z
V 2 V 3
⇒ ω dω = N ⇒ =N ⇒ ωmax = vs
2 π 2 vs 3 0 2 π 2 vs 3 3 v
q
La aproximación va a consistir en llamar ωD ∼
= 3 6 π2
vs a la frecuencia máxima, donde ωD
v

es la frecuencia de Debye. Formalmente se la define como la máxima frecuencia a la que se


puede hacer oscilar a un rı́gido, relevando todos los sólidos presentes en la naturaleza y todas
sus configuraciones de redes (lineal, cuadrada, rectangular, etc.). Por lo tanto ωD representa
una muy buena aproximación para este problema. A partir de esta frecuencia podemos definir
una temperatura de Debye:
s
~ ωD ~ vs 3 6 π2
~ ωD = kB TD ⇒ TD = =
kB kB v

Esta es la temperatura que excita el modo de más alta frecuencia. Si se aumenta la temperatura
más allá de T = TD , entonces el sólido acabará por romperse, y volverse lı́quido.

Entonces, con esta información pasemos a dar el valor medio de la energı́a:

X
hEi = hnk̄ i ~ ω
k̄, σ

donde nuevamente, los vectores k̄ son los vectores de propagación e las ondas de sonido, y σ
representa la degeneración de estados de polarización, que en este caso son 3, pues se tienen los
dos modos de vibración transversal y la compresión longitudinal de la red. Luego tenemos:

60
3N Z pmax Z ~ kmax
X ~ ωi 4π V 3~ω 2 12 π V ~ω 2
hEi = 3 ~ ωi → 3 ~ω p dp = ~ ω ~ k) d (
( ~ k) =
i=1 e kB T
−1 h 0 e kB T
− 1 8 π 3 ~ 3
0 e kB T
− 1
Z kmax Z ωmax  2  
3V ~ω 2 3V c ~ω ω ω ∼
= 2 ~ω k dk = 2 ~ω d =
2π 0 e kB T − 1 2π 0 e kB T − 1 vs vs
 3
Z ωD 4 Z ~k ωD ~ω
3
 
∼ 3V ~ω 3 V (kB T ) BT kB T ~ω
= dω = d =
2 π 2 vs 3 0 e k~BωT − 1 2 π 2 vs 3 ~3 0 ~ω
e kB T − 1 kB T
3 V k B 4 T 4 xD x 3
Z
= dx
2 π 2 vs 3 ~3 0 ex − 1

TD
Dividiendo por N , y teniendo en cuenta que xD = T
, nos queda:

hEi v kB 3 T 3 xD
x3 xD
x3
Z Z
v 1
= 3 kB T dx = 3 kB T 3 dx =
2 π 2 vs 3 ~3 x
e −1 2π 2 ex − 1

N 0 ~ vs 0
kB T
" TD #
xD
6 π2 x3 x3
Z Z
v 1 3 T
dx ∼

= 3 kB T 3 dx = 3 kB T =
v ex − 1 TD 3 ex − 1
2 π2
 q 
~ vs 3 6 π2  0 0
T
kB T v
"   Z # "  3 4 #
3 ∞
π 2 v kB 4 4
3
r
∼ T x kB T 3
v π
3
= B k T 3 dx = 3 kB T 3 = T
TD 0 ex − 1 h vs 6π 2 15 10 h3 vs 3

donde la expresión entre corchetes se la llama función integral de Debye y la aproximación que
se hizo es la de temeperatura pequeña. De manera que el CV tendrá la forma:

2 π 2 v kB 4
CV = T3
5 h3 vs 3

y se arregla de alguna manera el conflicto que presentaba la Ley de Dulong & Petit para bajas
temperaturas.

5. Modelo de Ising y Fenómenos crı́ticos


Cuando no habı́a potenciales de interacción, las funciones de partición eran perfectamente
factorizables y por lo tanto no aparecı́an transiciones de fases. Entonces, vamos a introducir
ahora una interacción que nos va a hacer aparecer una transición. El modelo de Ising es un
modelo muy sencillo de un imán, que nos permite interpretar estos sistemas que cambian de

61
fase. Existen algunos resultados que matemáticamente se pueden obtener de manera exacta,
pero en general las mismas son numéricas.

Vamos a suponer entonces un material ferromagnético. Luego existe una temperatura de


Curiè (TC ), tal que para T < TC el material queda completamente magnetizado. La fase es
ordenada, con todos los spines alineados en alguna dirección. Y el modelo que se usa para
simular este fenómeno es justamente el modelo de Ising. El sistema se compone de un conjunto
de spines, el cual vamos a suponer que solamente siente el campo generado por sus primeros
vecinos, luego el sistema estará gobernado por el siguiente hamiltoniano de interacción:

N
X X
H = −µ B σi − J σi σj
i=1 hi,ji

donde µ es el momento dipolar magnético, J es la energı́a de interacción de la partı́cula en


cuestión con sus primeros vecinos, y la notación hi, ji denota que los ı́ndices sobre los cuales
se ejecuta la sumatoria corresponden a partı́culas primeras vecinas. Si J > 0, el material va
a ser ferromagnético y si J < 0 el material va a ser antiferrogmanético. De este modo, el
objetivo va a ser construir la fución de partición para este hamiltoniano. Para el caso de una
cadena unidimiensional y bidimensional de spines este problema tiene solución exacta, mientras
que para cadenas tridimensionales la misma es aproximada. Vamos a trabajar en el ensamble
canónico, y comenzaremos como es usual, dando su función de partición:

µB PN
− k HT σi + k J T
P
σi σj
X XX X
Q= e B = ··· e kB T i=1 B hi,ji

estados {σ1 } {σ2 } {σN }

donde los valores de σ mueven entre −1 y 1, pudiendo solamente adoptar estos dos valores.
Notemos que el término cruzado no nos permite continuar como estábamos acostumbrados, con
lo cual lamentablemente acá tendremos que detenernos. Pero retornaremos, de momento vamos
a dar las expresiones de determinadas cantidades. Por ejemplo, comencemos dando la energı́a
libre de Helmholtz:

hF i = −kB T ln (Q)

Ahora demos la energı́a interna:

62
     
hF i hF i hF i
∂ (ln (Q)) ∂ − kB T
∂ T
∂ T
2
hEi = − 1
 =− 
1
 = 1 = −T
∂ kB T ∂ k − T 2 ∂T ∂T
B T 

De manera que la capacidad calorı́fica C es de la forma:

 hF i
  
2 ∂( T ) ∂( F
T)
∂ −T F
 ∂
∂hEi ∂T ∂ (−T 2 ) ∂ T 2
∂T
C= = = + (−T ) =
∂T ∂T ∂T ∂T ∂T

1
1 ∂hF i ∂ ( )
"
1
 # ∂ T ∂T
+ ∂T
T
hF i
1 ∂hF i ∂ T
= −2 T + hF i − T 2 =
T ∂T ∂T ∂T
1 ∂ 2 hF i
   
2 T ∂hF i 1 2 2 ∂hF i 2
=− − 2T − hF i − T − 2 + + 3 hF i =
T ∂T T 2 T ∂T T ∂T 2 T
∂hF i hF i 2  T2 ∂hF i T 2 ∂ 2 hF i 2  T2
= −2 +2 + 2 − − hF i =
∂T T T ∂T
 T ∂T 2 T 3
∂hF
i hF
i
 ∂hF
 i ∂ 2 hF i hF
i
 ∂ 2 hF i
= −2  +2 +2  −T −2 = −T
 ∂T  T  ∂T ∂T 2  T ∂T 2
  

Por último, demos la magnetización de la muestra:

  N
∂hF i X  
M̄ = − = µ̄ σi = µ̄ N hσi = µ̄ N hσi
∂B T i=1

Luego, como vemos, todo el problema se reduce a calcular la función de partición Q del ensam-
ble canónico, pues todas las magnitudes termodinámicas que nos van a interesar subyacen de
ella. Entonces, para obtener su forma funcional existe una solución exacta, y dos aproximacio-
nes de campo medio, que son las que nos van a interesar precisamente.

Comencemos dando la forma más general de la función de partición Q. Para dar el primer
término de la exponencial necesitaremos saber cuántos de nuestros spines están orientados hacia
arriba (supongamos N+ ) y cuántos están orientados hacia abajo (supongamos N− ), mientras
que para dar el segundo necesitaremos los pares de dos spines hacia arriba (digamos N++ ), de
dos spines hacia abajo (digamos N−− ) y de spines con orientaciones opuestas (digamos N+−
y N−+ según corresponda). Sea q el número de primeros vecinos de cada partı́cula en la red.
Entonces, los estados, dados esos seis numeritos están degenerados. Veamos cómo podemos
reducir un poco el número de incógnitas, teniendo en cuenta que existen los siguientes vı́nculos:

63
N = N+ + N− , q N+ = 2 N++ + N+− , q N− = 2 N−− + N+−

Despejemos estas ecuaciones en términos de N , N+ y N++ :

q
N− = N − N+ , N+− = q N+ − 2 N++ , N−− = N − q N+ + N++
2

Entonces por definición tenemos:

N
X N
X
σi := N+ − N− ⇒ σi = 2 N+ − N
i=1 i=1
X X q
σi σj := N++ + N−− − N+− ⇒ σi σj = N − 2q N+ + 4 N++
2
hi,ji hi,ji

Reemplacemos estos valores en el hamiltoniano:

N
X X q 
H = −µ B σi − J σi σj = −µ B (2 N+ − N ) − J N − 2q N+ + 4 N++
i=1
2
hi,ji

Entonces, ya podemos dar la función de partición:

N
X X H (N,N+ ,N++ )
Q= g (N+ , N++ ) e kB T
=
N+ =0 N++ (N+ )

( q2 J−µ B ) N
N 2 N+ (q J−µ B) 4J
− N++
X X
=e kB T
e kB T
g (N+ , N++ ) e kB T
N+ =0 N++ (N+ )

Lo realmente difı́cil es hallar la degeneración g(N+ , N++ ), con lo cual es mejor proponer las
aproximaciones de campo medio que introdujimos antes. La primera aproximación de campo
medio (al orden más bajo) que veremos será la aproximación de Bragg-Williams, que
consiste en cambiar el segundo término de la exponencial por una sumatoria sobre todos los
valores de los ı́ndices i y j del valor medio del campo. Comenzaremos definiendo el orden
macroscópico de corto rango de nuestro sistema como el valor medio hσi de todos los spines.
Veamos:

64
N
1 X N+ − N− N+ + (N+ − N+ ) − N− 2 N+ − (N+ + N− ) N+
hσi = σi = = = =2 −1
N i=1 N N N N

De este modo, cuando esta cantidad sea nula, tendremos el sistema en su estado en el cual
todos los spines contiguos tienen orientaciones opuestas. Demos ahora el orden de alto rango,
que vendrı́a a ser la medida del orden microscópico. Veamos:

2 N++
h∆σi2 = 2 −1
qN

Esta cantidad viene siendo la dispersión del orden macroscópico, que caracterizamos con la can-
tidad hσi, y viene a dar una idea del ordenamiento microscópico del sistema, y nos da estados
del sistema en los cuales hay un cierto porcentaje de spines en una orientación y el restante en
la otra. En configuraciones grandes, esta cantidad nos proporciona un diagrama de islas, como
se observa en el dibujo.

Figura 16: Esquema panorámico de un sistema multidimensional de spines magnetizado.

Entonces ahora reescribamos la sumatoria de los spines:

N
X X qN
2 h∆σi2 − 2hσi + 1

σi = N hσi , σi σj =
i=1
2
hi,ji

Hasta ahora todo es exacto. Apliquemos entonces la aproximación de campo medio (generado
por todos los spines) para reemplazar a la sumatoria sobre los spines primeros vecinos. Veamos:

65
N N
!
X
∼ q X qN 1 X qN   qN
σi σj = hσi σi = hσi σi = hσi hσi = hσi2
2 i=1
2 N i=1 2 2
hi,ji

donde se divide por 2 para no contar dos veces el mismo par. Ahora, por consistencia, debe
valer la igualdad:

q N  q N hσi2 + 2 hσi − 1
 2 h∆σi2 − 2hσi + 1 ∼ =  hσi2 ⇒ h∆σi2 ∼
= ⇒
2 2 2
2
(hσi2 + 2 hσi + 1) − 1 − 1 2 ∼ (hσi + 1) − 2
⇒ h∆σi2 ∼
= ⇒ h∆σi = ⇒
2 2
2
(hσi + 1)
⇒ h∆σi2 ∼
= −1
2

Reemplazando los momentos estadı́sticos por lo que valen se tiene:

h  i2
(hσi + 1) 2
2 N++  ∼ 2 NN+ 
−1 +1
 
h∆σi2 ∼
= −1 ⇒ 2 −1 =
 −1
 ⇒
2 qN 2
2 N++ ∼ N+ 2 2 N++ ∼ N+ 2
⇒ 2 = 2 ⇒ =
qN
 N 2 q N

De este modo, dada esta aproximación, para cada valor de hσi habrá uno de h∆σi2 , y para
cada valor de N+ habrá un (único) valor de N++ . Ahora volvamos a la función de partición y
apliquemos esta aproximación:

1 1 1
µB PN
σi + k J T
P
σi σj ∼
X X X
Q= ··· e kB T i=1 B hi,ji
=
σ1 =−1 σ2 =−1 σN =−1
1 1 1
 
µN B PN q N hσi2

X X X kB T ( N1 i=1 σi )+ k J T 2
= ··· e B
=
σ1 =−1 σ2 =−1 σN =−1
1 1 1 1 1 1
µN B N hσi q J hσi
hσi+ 2Jkq NT hσi2
e kB T ( 2
+µ B )
X X X X X X
= ··· e kB T B = ··· =
σ1 =−1 σ2 =−1 σN =−1 σ1 =−1 σ2 =−1 σN =−1
1   1  
N N hσi q J hσi N N hσi q J hσi
e kB T ( 2
+µ B )
e kB T ( 2
+µ B )
X X
=  = N (hσi+1) =
N+ hσi 2
hσi=−1 hσi=−1
1
N! N hσi q J hσi
i e kB T ( 2 +µ B )
X
= h i h
N (hσi+1)
hσi=−1 2
! N (1−hσi)
2
!

Supongamos N  1 y construyamos, aproximando por el término más grande de la serie, el


logaritmo de la función de partición:

66
 ( )
 N! (N hσi q J hσi
) , hσi ∈ [−1, 1]

ln (Q) ∼
+µ B
= ln max h i h i e kB T 2
=
N (hσi+1) N (1−hσi)

2
! 2
! 

¯ +1 ¯ 
(" #) (" #)
¯  q hσi
¯ J

N hσi N 1 − hσi

N hσi
= ln (N !) − ln ! − ln ! + + µB ∼ =
2 2 kB T 2
 
¯  ¯ !
N ¯
hσi +1
 − N hσi + 1 ln N hσi + 1


= N ln (N ) −N + − ···
2 2 2
 
¯  ¯  !
N 1 − hσi¯ ¯  q hσi¯ J
N 1 − hσi N 1 − hσi

N hσi
··· − ln + + + µB =
2 2 2 kB T 2
( " # " #
¯ +1
hσi N hσi ¯ +1 ¯
1 − hσi N 1 − hσi ¯
= N ln (N ) − ln − ln + ···
2 2 2 2
!)
¯
hσi ¯ J
q hσi
··· + + µB
kB T 2

¯ sea extrema para el logartimo de la función de partición. Veamos:


Vamos a pedir que hσi

¯ + 1
( " #
¯ +1
hσi N hσi
δ (ln (Q)) = 0 ⇒ δ N ln (N ) − ln − ···
2 2
¯ 
" #  )!
1 − hσi ¯ N 1 − hσi ¯  q hσi
hσi ¯ J
··· − ln + + µB =0 ⇒
2 2 kB T 2
¯ + 1
( " #
δ ¯
hσi N hσi ¯
hσi +1

2 N
⇒ N (N )) −
δ (ln  
ln −
 
¯ + ···
δ hσi
 
2 2 2 N
 ( ¯
hσi + 1) 2
 

¯ 
" #
¯
δ hσi N 1 − hσi 1− ¯
hσi 2

N

··· + −

 ¯
¯ − 2 δ hσi + · · ·

ln
2 2 2 N
 (1−  hσi)
)
1

qJ ¯
 ¯ qJ
hσi
··· + hσi + µ B δ hσi ¯ + ¯
δ hσi =0 ⇒
kB T 2 kB T 2
¯ + 1 ¯ 
( " # " #
1 N hσi 1 1 N 1 − hσi 1 qJ ¯ µB
⇒ − ln − + ln + + hσi + + ···
2 2  2 2 2 2 2 kB T kB T
)
qJ ¯ = 0
··· + δ hσi
 ⇒
2 kB T 
¯ + 1
" #
1  hσi
N
 2 qJ ¯ µB
⇒ − ln ¯  + hσi + =0 ⇒
2 2 N
 1 − hσi kB T kB T

1
 ¯ 
1 + hσi qJ ¯ µB
⇒ ln = hσi + ⇒ arctg ¯  = q J hσi
hσi ¯ + µB ⇒
2 ¯
1 − hσi kB T kB T kB T kB T
 
⇒ ¯ = tgh q J hσi
hσi ¯ + µB
kB T kB T

67
Veamos qué tipo de soluciones se pueden obtener de esta ecuación trascendente. En principio
podemos distinguir dos tipos de comportamientos. Uno de ellos es con el campo B −→ 0, en
cuyo caso la ecuación que se satisface es:

 
¯ = tgh qJ ¯
hσi hσi
kB T

Figura 17: Gráfico auxiliar para determinar la existencia de soluciones a la ecuación


trascendente para la magnetización.

En general, se ve del gráfico que existen 3 soluciones para la ecuación. Sin embargo, estamos
qJ
en presencia de una bifurcación, pues para determinados valores de kB T
el grafico curvo cortará
solo una vez a la recta identidad, de manera que en ese caso solamente habrá una solución.
Entonces, esquemáticamente tenemos:

 ¯ =0
hσi si qJ
≤1
kB T
n o
 ¯ ∈ − hσ0 i , 0 , hσ0 i
hσi si qJ
>1
kB T

Se ha producido una ruptura espontánea de la simetrı́a, y de este modo, fácilmente se puede


determinar el valor de la temperatura crı́tica de la transición de fase. Será la temperatura para
la cual tiene origen esta ruptura espontánea. Hallémosla, pidiendo:

qJ qJ
=1 ⇒ Tcrit =
kB Tcrit kB

68
Calculemos ahora la energı́a media. Para ello podemos derivar el logaritmo de la función de
partición, pero más fácil es considerar valores medios en el hamiltoniano. Veamos:

 ! 
N N
X X qJN  2 X 1 X
H = −µ B σi − J σi σj = −N µ B − σi
σi σj  =
i=1
2 q N N i=1
hi,ji hi,ji
 
¯ − q J N hσi
= −N µ B hσi ¯ 2 = −N hσi
¯ µB +
qJ ¯
hσi
2 2

Luego, si consideramos B −→ 0, nos queda:



0 si T ≥ Tcrit


hEi =
− N q J hσ0 i2

si T < Tcrit
2

¯ = 0.
Con lo cual, notamos aquı́ que para Tcrit no tenemos fluctuaciones microscópicas, pues hσi
De este modo, en este rango la energı́a media es nula. Demos ahora la capacidad calorı́fica, para
lo cual vamos a necesitar calcular la derivada de la magnetización. Veamos:

  
dhσ0 i d tgh kqBJT hσ0 i qJ
  
q J dhσ0 i q J hσ0 i

2
= = − tgh hσ0 i − 1 − =
dT dT kB T kB T dT kB T 2
 
Tcrit dhσ0 i Tcrit dhσ0 i kB hσ0 i
= − hσ0 i2 − 1

− 2 hσ0 i ⇒ =  2 
T dT T dT T 1

T
q J Tcrit + hσ0 i2 −1 Tcrit

Entonces tenemos:

 
0 si T ≥ Tcrit 0 si T ≥ Tcrit
 
dhEi  
C= = NqJ
= =
dT  d(− 2 hσ0 i )
2
− N q J , d(hσ0 i )
2
si T < Tcrit si T < Tcrit
 
dT 2 dT

 
0 si T ≥ Tcrit 0 si T ≥ Tcrit

 

= =
− N q J 2 hσ0 i dhσ0 i

si T < Tcrit −N q J hσ0 i dhσ0 i

si T < Tcrit
2  dT dT

 


 0 si T ≥ Tcrit 

 0 si T ≥ Tcrit
= kB hσ0 i2
= 2
N kB hσ0 i
−N 
q
J  si T < Tcrit si T < Tcrit

  2  
 
q
J T
+ 1 T  kB T kB T
−1
 Tcrit hσ0 i2 −1 Tcrit qJ q J (1−hσ0 i2 )

69
Se puede notar que cuando la temperatura tiende a su valor crı́tico por la izquierda, entonces
c −→ 23 N kB , como lo indica el gráfico.

Figura 18: Gráfico de la capacidad calorı́fica de la cadena de Ising en función de la


temperatura. Queda evienciado un cambio de fase cerca de la temperatura crı́tica.

Ahora vamos a introducir la segunda aproximación de campo medio, y si en el caso anterior


habı́amos dicho que aproximarı́amos al orden más bajo, esta aproximación de Hans-Bethe
será una aproximación al orden siguiente. Teniendo en cuenta un spin de la red y a sus vecinos,
lo que vamos a hacer es realizar un cálculo exacto para la interacción con los primeros vecinos,
y para el resto aplicaremos la aproximación de campo medio pertinente. Comencemos entonces
escribiendo el hamiltoniano del grupito formado por un dado spin (llamémoslo σ1 ) más sus q
primeros vecinos:

q q
X X
0
H = −µ B σ1 − µ (B + B ) σi − J σ1 σi
i=1 i=1

donde llamamos B al campo generado por el spin σ1 , y B 0 al campo medio generado por el resto
de los spines. El último término se corresponde con la parte exacta del hamiltoniano (aquella
que habla sobre el spin σ1 y sus primeros vecinos. Vamos a ver que en este caso podemos
tener algunas fluctuaciones. Dicho esto, pasemos a escribir la función de partición del ensamble
canónico:

70
1 1 µ (B+B 0 ) Pq Pq
µB
− k HT σ1 + σi + k J T σ1 σi
X X X X
Q= e B = e kB T kB T i=1 B i=1
=
σ1 =−1 {σi } σ1 =−1 {σi }
1  0 P
µB µB q
σ1 + + kµ BT + k J T σ1 σi
X X
= e kB T kB T B B i=1
=
σ1 =−1 {σi }
µB µ (B+B 0 )+J Pq µ (B+B 0 )−J Pq
+ σi − kµ BT + σi
X X
= e kB T kB T i=1
+ e B kB T i=1
=
{σi } {σi }
q µ (B+B 0 )+J
q µ (B+B 0 )−J
µB
σi − kµ BT σi
XY XY
=e kB T
e kB T
+e B e kB T
=
{σi } i=1 {σi } i=1
q q
µ (B + B 0 ) + J µ (B + B 0 ) − J
   
µB
− kµ BT
=e kB T
2 cosh +e B 2 cosh = Q+ + Q−
kB T kB T

Sin embargo, al campo B 0 debemos imponerle algunas condiciones de consistencia para que se
trate realmente de una buena aproximación. Para que haya consistencia entonces tendremos
que pedir que el valor medio de ensamble del spin σ1 sea el mismo que el del resto de los spines.
Veamos:

 
q
(+1) Q+ + (−1) Q− 1 X Q+ − Q− 1 1 ∂Q
hσ1 i = hσi i ⇒ = σi ⇒ =   0  ⇒
Q q i=1 Q
 q  Q
 ∂ µB
kB T
0 0
   
1 µ B µ (B + B ) + J µ (B + B ) + J
⇒ Q+ − Q− = e kB T 2q q coshq−1 senh + ···
q kB T kB T
µ (B + B 0 ) − J µ (B + B 0 ) − J
   
1 − kµ BT q q−1
· · · + e B 2 q cosh senh
q kB T kB T

h i
µ (B+B 0 )−J
Multiplicando y dividiendo en el segundo miembro por cosh kB T
se tiene:

µ (B + B 0 ) + J µ (B + B 0 ) − J
   
Q+ − Q− = tgh Q+ + tgh Q− ⇒
kB T kB T
µ (B + B 0 ) + J µ (B + B 0 ) − J
     
⇒ 1 − tgh Q+ = 1 + tgh Q−
kB T kB T

Entonces, del anterior cálculo se tiene:

71
µ (B+B 0 )−J µ (B+B 0 )−J µ (B+B 0 )−J
     
senh kB T
cosh kB T
+senh kB T
h
µ (B+B 0 )−J
i 1+ 
µ (B+B 0 )−J
 
µ (B+B 0 )−J

Q+ 1 + tgh kB T cosh kB T
cosh kB T
= h i= 
µ (B+B 0 )+J
 = 
µ (B+B 0 )+J
 
µ (B+B 0 )+J
 =
Q− 1 − tgh µ (B+B
0 )+J
senh kB T
cosh kB T
−senh kB T
kB T
1− 
µ (B+B 0 )+J
 
µ (B+B 0 )+J

cosh k T
cosh k T
B B
h i h i h i
µ (B+B 0 )+J µ (B+B 0 )−J µ (B+B 0 )−J
cosh kB T
cosh kB T
+ senh kB T
= h i h i h i=
µ (B+B 0 )−J µ (B+B 0 )+J µ (B+B 0 )+J
cosh kB T
cosh kB T
− senh kB T
   
µ (B+B 0 )−J µ (B+B 0 )−J
! !
µ (B+B 0 )−J − µ (B+B 0 )−J −
kB T kB T kB T kB T
h i e +e + e −e 
µ (B+B 0 )+J 2 2
cosh kB T
= h i
µ (B+B 0 )+J
!  
µ (B+B 0 )+J
! =
µ (B+B 0 )−J µ (B+B 0 )+J µ (B+B 0 )+J
cosh kB T kB T

kB T kB T

kB T
 e +e − e −e 
2 2

0 ) 0 )
   
µ (B+B µ (B+B
 
µ (B+B 0 )−J −J µ (B+B 0 )−J −J
h i
µ (B+B 0 )+J −  − 
cosh kB T e kB T
+e

k T B
+e kB T
−e

k T B
= h i 
µ (B+B 0 )+J
 
µ (B+B 0 )+J
 =
µ (B+B 0 )−J µ (B+B 0 )+J µ (B+B 0 )+J

cosh −  −

 kB T kB T
kB T e
 +e
kB T
−e
 +e
kB T

µ (B+B 0 )
h i h i
µ (B+B 0 )+J J µ (B+B 0 )+J
cosh kB T 2 e kB T
−
e

k T B µ (B+B 0 ) cosh kB T
 2
= h i µ (B+B 0 )
=e kB T h i
µ (B+B 0 )−J − k T − J µ (B+B 0 )−J
cosh kB T 2 e B e


k T B cosh kB T

Pero también, de la definición de Q+ y de Q− :


n µB
h ioq h i q
µ (B+B 0 )+J µ (B+B 0 )+J

Q+ 2 e kB T
cosh cosh
2 kµ BT
 kB T
 kB T

= q = e B
− µB
n h io h i
Q− e kB T 2 cosh µ (B+B
0 )−J  cosh µ (B+B 0 )−J 
kB T kB T

Igualando ambas expresiones tenemos:

h i h i q
µ (B+B 0 )+J µ (B+B 0 )+J

2 µ
B 2 µ B 0 cosh 2 µ
B cosh
kB T
 kB T

e B e B
k T k T h 0 )−J
i = e B
k T h i ⇒
cosh µ (B+B  cosh µ (B+B 0 )−J 
kB T kB T
h 0 )+J
i q−1 h i
µ (B+B 0 )+J
  
µ B0
 cosh µ (B+B kB T
 µB 0
q−1  cosh kB T

2
⇒ e kB T = h i ⇒ = ln h i
 cosh µ (B+B 0 )−J  kB T 2  cosh µ (B+B 0 )−J 
kB T kB T

Vamos a ver algunos casos lı́mites:

µB J
Para B −→ 0 (esto es kB T
−→ 0) y kB T
−→ 0 (esto es T −→ ∞ ó J −→ 0) vale:

72
  
µ (
0+B 0 )+
0    0 
0

 cosh kB T
 cosh µB
µB ∼ q −1 q − 1    = q − 1 ln(1) = 0

   kB T
= ln   = ln  0
µ B
kB T 2 2 cosh 2
 cosh (k T )  
0
µ 0+B −0   

    kB T
B

luego, en este caso no tenemos campo medio, ni tampoco magnetización.

Para B −→ 0 y T −→ Tcrit , tenemos que la muestra se empieza a magnetizar y el campo


µ B0
medio es muy pequeño, con lo cual kB T
debe ser también muy pequeño. De este modo,
podemos hacer una expansión de Taylor, de la siguiente manera:

   0      0  
q−1 cosh µB +J
q−1 cosh µB +J

∂ ln  kB0 T  ∂ 2
ln  kB0 T   
0 2 
µB 0 ∼ 2 cosh µB −J
µB 0 2 µB −J

k T 1 µB
cosh  
k T
= 0 +  0 B
(0) + 

  0 2 B
(0) + ···
kB T µB
∂ kB T kB T 2  µB kB T
  ∂ kB T
   µ B0 +J  
cosh k T
∂ 3 q−1 ln  B0  3
2 cosh µkB −J µ B0

1 T
··· +  0 3 B
(0) =
6 kB T
∂ kµBBT
  
J

q−1

J

µ B0 1  senh kB T 
µ B0
3
= tgh + − (q − 1)    =
2 kB T kB T 6 cosh3 kBJ T kB T
 
J
q−1

J

µB 0 (q − 1) senh kB T

µ B0
3
= tgh −   ⇒
2 kB T kB T 3
6 cosh kB T J kB T
 
(q − 1) senh kBJ T  µ B 0 3  q − 1 
J
 
µ B0 ∼
⇒ −   + tgh −1 =0 ⇒
6 cosh3 kBJ T kB T 2 kB T kB T
v  
J
u
0 0    6 cosh 3
µB µB ∼ u u J kB T
⇒ =0 , = ±t (q − 1) tgh −1  
kB T kB T kB T (q − 1) senh kB T J

Como vemos, hay una solución que es la trivial, mientras que las dos restantes surgen de
resolver la cuadrática. Para que la misma tenga soluciones reales, habrá que pedir:

  
1

J

J

1

1 1+
1 q−1

q

(q−1) tgh >1⇒ > arctgh = ln     = ln
kB T kB T q−1 2 1
1 − q−1 2 q−2

Notar que para q = 2, (cadena 1D), vale Tcrit → 0 y no hay transición. Ası́ se recupera
 
un caso conocido. De aquı́ podemos suponer que la que cumple la igualdad es kBJ T :
crit

73
   
J ∼ 1 q
= ln
kB T crit 2 q−2

Y de aquı́ subyace inmediatamente la temperatura crı́tica de la transición:

   
J J J ∼ 1 q 2 J
= ⇒ = ln ⇒ Tcrit =  
kB T crit kB Tcrit kB Tcrit 2 q−2 ln q kB
q−2

Por encima de esa temperatura se tiene magnetización, mientras que por debajo se tiene
solo una solución inestable sin magnetización. Notemos que para q = 2 vale que Tcrit −→ 0.

Calculemos ahora la magnetización de la muestra:

µ (B+B 0 )+J
 
2 µ (B+B 0 ) cosh kB T

Q+
e kB T 
µ (B+B 0 )−J
 −1
Q+ − Q− Q+ − Q− Q−
−1 cosh kB T
hM i = hσi = = = Q+
= 
µ (B+B 0 )+J
 =
Q Q+ + Q− Q−
+1 2 µ (B+B 0 ) cosh
kB T
e kB T 
µ (B+B 0 )−J
 +1
cosh k T B
h i µ (B+B 0 ) h i
µ (B+B 0 )+J 2 µ (B+B 0 )−J
cosh kB T
e kB T
− cosh kB T
= h i µ (B+B 0 ) h i=
µ (B+B 0 )+J 2 µ (B+B 0 )−J
cosh kB T
e kB T
+ cosh kB T
" µ (B+B0 )+J µ (B+B 0 )+J
# " µ (B+B 0 )−J µ (B+B 0 )−J
#
− 2 µ (B+B 0 ) −
e kB T +e kB T e kB T +e kB T
e kB T

2 2
=" µ (B+B 0 )+J µ (B+B 0 )+J
# " µ (B+B 0 )−J µ (B+B 0 )−J
#=
− 2 µ (B+B 0 ) −
e kB T +e kB T e kB T +e kB T
e kB T
+
2 2
3 µ (B+B 0 )+J µ (B+B 0 −J
) µ (B+B 0 −J
) µ (B+B 0 )−J
  −
e kB T
+e
  k B T
−e
  kB T
−e kB T
= 3 µ (B+B 0 )+J µ (B+B 0 )−J µ (B+B 0 )−J µ (B+B 0 )−J
=

e kB T
+e kB T
+e kB T
+e kB T

3 µ (B+B 0 )+J µ (B+B 0 )−J



e kB T
−e kB T
= 3 µ (B+B 0 )+J µ (B+B 0 )−J µ (B+B 0 )−J
=

e kB T
+ 2e kB T
+e kB T

2 µ (B+B 0 ) 2 µ (B+B 0 ) µ (B+B 0 +J


)
2 µ (B+B 0 ) µ (B+B 0 )
h i
− 
−e

e kB T kB T
e
  kB T
e kB T
−e
−2 kB T
=h 2 µ (B+B 0 ) 2 µ (B+B 0 )−J µ (B+B 0 )+J
 = 2 µ (B+B 0 ) 2 µ (B+B 0 )
=
− k2 JT − k2 JT
i
−  −
e kB T
+ 2e B +e kB T
e
 kB T
e kB T
+ 2e B +e kB T

2 µ (B+B 0 ) µ (B+B 0 )
" #
−2
e kB T −e kB T
2
h i
2 2 µ (B+B 0 )
senh kB T
= 2 µ (B+B 0 ) 2 µ (B+B 0 )
=
− k2 JT
" # h i
2 µ (B+B 0 )
e kB T +e

kB T − k2 JT cosh + 2e B
2 2
+ 2e B kB T

74
El siguiente gráfico esquematiza la variación de la magnetización con la temperatura en el
µB
caso en el cual el campo magnético es nulo (B = 0, o es decir: kB T
= 0):

Figura 19: Gráfico de variación de la magnetización para la cadena de Ising a campo nulo.

Solo nos falta dar la energı́a media y la capacidad calorı́fica. Demos el hamiltoniano para la
cadena de Ising sin campo:

q    
q  2N++ + N+− + N−+
H = −J N − 2 qN+ + 4N++ = −J (N+ + N− ) − 2 q + 4N++ =
2 2 q
    
q 2 N++ + N+− + N−+ 2 N−− + N+− + N−+
= −J + − ···
2 q q
· · · − 2 (2 N++ + N+− + N−+ ) + 4 N++ =
 
q 2 (N++ + N+− + N−+ + N−− )
= −J −4
N++ − 2 N+− − 2 N−+

+4N
++ =


2 q 

= −J (N++ + N+− + N−+ + N−− − 2 N+− − 2 N−+ ) = −J (N++ − N+− − N−+ + N−− )

En este caso, como vamos a tener que determinar los valores de N+ y de N++ , vamos a tener
fluctuaciones microscópicas. Para determinar estos valores vamos a necesitar plantear de una
manera sugerente la función de partición del ensamble canónico. Veamos:

1 1 µ (B+B 0 ) Pq Pq
µB
− k HT σ1 + σi + k J T σ1 σi
X X X X
Q= e B = e kB T kB T i=1 B i=1
=
σ1 =−1 {σi } σ1 =−1 {σi }
1 1 µ (B+B 0 ) µ (B+B 0 ) Pq Pq
µB
σ1 + σ2 + k J T σ1 σ2 σi + k J T σ1 σi
X X X
= e kB T kB T B e kB T i=1 B i=1
=
σ1 =−1 σ2 =−1 {σi 6=σ2 }
1 1 µ (B+B 0 )
q−1
µ (B + B 0 + J σ1 )
 
µB
σ + k T σ2 + k J T σ1 σ2
X X
kB T 1
= e B B 2 cosh =
σ1 =−1 σ2 =−1
kB T

75
µ (B+B 0 )
q−1
µ (B + B 0 − J)
 
− kµ BT − + k JT
=e B kB T B 2 cosh + ···
kB T
µ (B+B 0 )
q−1
µ (B + B 0 − J)
 
− kµ BT + k T − k J T
··· + e B B B 2 cosh + ···
kB T
µ (B+B 0 )
  0
q−1
µB
− − J µ (B + B + J)
· · · + e kB T kB T kB T
2 cosh + ···
kB T
µ (B+B 0 )
q−1
µ (B + B 0 + J)
 
µB
+ k T + k JT
··· + e kB T B B 2 cosh =
kB T
= Q−− + Q−+ + Q+− + Q++

Luego, debe valer:

Q−− Q+− Q−+ Q++


N−− = , N+− = , N−+ = , N++ =
Q Q Q Q
 )q−1
µ (B+B 0 )+J
( 
µ B0 cosh kB T
2
Entonces, usando la igualdad e kB T
= 
µ (B+B 0 )−J
 que encontramos antes, tenemos:
cosh k T
B

q−1
µ B0
0
 
Q−− −2 kµ BT − kµ BT + k J T µB J
N−− = = A Q−− = A e B B B 2 cosh + − =
Q kB T kB T kB T
h 0
i
q−1 µ (B+B )+J
µ (2 B+B 0 )−J cosh
q−1
µ (B + B 0 ) − J
 
− kB T
=Ae kB T h i 2 cosh =
coshq−1 µ (B+B
0 )+J
kB T
kB T
n h ioq−1 n h ioq−1
µ (B+B 0 )+J µ (B+B 0 )+J
0
µ (2 B+B )−J 2 cosh kB T
0
µ (2 B+B )−J 2 cosh kB T
− −
= Ae kB T
(  µ (B+B0 )+J  )q−1 = A e
kB T
2 µ B0
=
cosh kB T e kB T
 
µ (B+B 0 )−J
cosh k TB

µ (2 B+3 B 0 )−J µ (B + B 0 ) + J q−1


  

=A e kB T
2 cosh
kB T

q−1
µ B0
0
 
Q+− − kµ BT − k J T µB J
N+− =A = A Q+− = e B B 2 cosh + + =
Q kB T kB T kB T
  0 q−1
0
− µkB +J µ (B + B ) + J
=A e BT 2 cosh
kB T

76
q−1
µ B0
 
Q−+ µ B0 µB J
− k JT
N−+ = = A Q−+ = A e kB T B 2 cosh + − =
Q kB T kB T kB T
h 0
i
q−1 µ (B+B )+J
0
µ B −J cosh kB T
 
µ (B + B 0 ) − J
q−1
=Ae kB T h i 2 cosh =
coshq−1 µ (B+B
0 )+J
kB T
kB T
n h ioq−1 n h ioq−1
µ (B+B 0 )+J µ (B+B 0 )+J
0
µ B −J 2 cosh kB T
0
µ B −J 2 cosh kB T
= A e kB T (  µ (B+B0 )−J  )q−1 = A e B
k T
2 µ B0
=
cosh kB T e kB T
 
µ (B+B 0 )+J
cosh kB T
q−1
µ (B + B 0 ) + J
0 +J
 
− µkB
=A e BT 2 cosh
kB T

  0
q−1
Q++ 2µB µ B0 J µ B µ B J
+ +
N++ = = A Q++ = A e kB T kB T kB T 2 cosh + + =
Q kB T kB T kB T
2 µ (B+B 0 )+J
  0 q−1
+ µ B0
+ J µ (B + B ) + J
=A e kB T kB T kB T
2 cosh
kB T

La constante A la hallamos proponiendo el siguiente vı́nculo conocido:

µ (2B+B 0 )+J
q−1
µ (B + B 0 ) + J
 
qN
N++ + N−− + N+− + N−+ = ⇒ Ae kB T
2 cosh + ···
2 kB T
µ(2B+3B 0 )−J
  0
q−1
− µ (B + B ) + J
··· + Ae kB T
2 cosh + ···
kB T
q−1
µ (B + B 0 ) + J
0
 
− µkB +J
··· + A e B T
2 cosh + ···
kB T
q−1
µ (B + B 0 ) + J
0
 
− µkB +J qN
··· + A e B T
2 cosh = ⇒
kB T 2
 µ (2 B+B0 )+J µ (2 B+3 B 0 )−J
  0
q−1
µ B 0 +J µ (B + B ) + J qN
− −
⇒ A e kB T +e kB T
+ 2 e kB T 2 cosh = ⇒
kB T 2
 2 µ (B+B0 )+J 2 µ (B+B 0 )−J
q−1
µ (B + B 0 ) + J
0
 
− kµ BT − − k JT qN
⇒ Ae B e kB T
+e kB T
+ 2e B 2 cosh = ⇒
kB T 2
  2µ (B+B0 ) 2µ (B+B 0 )
 
0 −   0
q−1
− kµ BT
 e kB T
+ e kB T J
− J µ (B + B ) + J
⇒ Ae B 2  e kB T + 2 e kB T 2 cosh =
 2  kB T
qN
= ⇒
2
q−1
2µ (B + B 0 ) k J T µ (B + B 0 ) + J
0
    
− kµ BT − k JT qN
⇒ Ae B 2 cosh e B + 2e B 2 cosh = ⇒
kB T kB T 2
µ B0
q N e kB T
⇒ A= i J ioq−1
− J
n h 0)
on h 0 )+J
4 cosh µ (B+B
kB T
e kB T + e kB T 2 cosh µ (B+B
kB T

77
De este modo, tenemos:

µ (2 B+3 B 0 )−J
q−1
µ (B + B 0 ) + J
 

N−− =Ae kB T
2 cosh =
kB T
µ B0 µ (2 B+3 B 0 )−J n h ioq−1 (
− µ (B+B (((
0 )+J
qN e e 2 cosh( kB T
kB T kB T ( ( ((
((((
= n J
(=
ioq−1
− k JT
h 0)
i on h (((
0 )+J
4 cosh µ (B+B
kB T
e kB T
+ e B 2
((
cosh
( (
µ (B+B
( (((
kB T
(
2 µ (B+B 0 )−J

qN e kB T

= J
− k JT
n h i o
µ (B+B 0 )
4 cosh kB T
e kB T
+e B

q−1
µ (B + B 0 ) + J
 0 +J

− µkB
N−+ =Ae 2 cosh
BT =
kB T
µB 0 µB 0 +J
n h ioq−1(
 − µ (B+B (((
0 )+J
qN  e kBT e kB T
2(cosh( ( ( ((
kB T
( ((
= n h i J J
o n h (((
0 )+J
(=
ioq−1
µ (B+B 0 ) −k T µ (B+B
4 cosh e +e 2(cosh
kB T ( (
B ( (
kB T (((
( kB T
− k JT
qN e B
= J
− k JT
n h i o
µ (B+B 0 )
4 cosh kB T
e kB T
+e B

q−1
µ (B + B 0 ) + J
 0 +J

− µkB
N+− =Ae 2 cosh
BT =
kB T
µB 0 B 0 +J
µ
n h ioq−1(
 − µ (B+B (((
0 )+J
qN  e kBT e kB T
2(cosh
( ( ( (((
kB T
( (
= n h 0
i J J
on h (((
0 )+J
(=
ioq−1
−k T
4 cosh µ (B+B
kB T
)
e kB T
+ e B 2 cosh
((((
µ (B+B
( ( ((
kB T
(
− k JT
qN e B
= J
− k JT
n h 0)
i o
4 cosh µ (B+B
kB T
e kB T
+ e B

µ (2 B+B 0 )+J
q−1
µ (B + B 0 ) + J
 
N++ =Ae kB T
2 cosh =
kB T
µ B0 µ (2 B+B 0 )+J n h ioq−1 (
µ (B+B (((
0 )+J
qN e e 2 cosh( kB T
kB T kB T ( ( ((
((((
= n J
(=
ioq−1
− k JT
h 0)
i on h (((
0 )+J
4 cosh µ (B+B
kB T
e kB T
+ e B 2 cosh
(((
(
µ (B+B
( (((
kB T
(
2 µ (B+B 0 )+J
qN e kB T

= J
− k JT
n h i o
µ (B+B 0 )
4 cosh kB T
e kB T
+e B

Entonces volvamos a la expresión del hamiltoniano para dar la energı́a media:

78
hEi = −J (N++ − N+− − N−+ + N−− ) =
 2 µ (B+B0 )+J 2 µ (B+B 0 )+J

− k JT − k JT −
JqN e kB T
−e B −e B +e kB T
− J
e kB T
=− i J =
− k JT − k JT
n h 0)
o
4 cosh µ (B+B kB T
e kB T
+ e B e B

(  2 µ (B+B0 ) 2 µ (B+B 0 ) 
)
− 2J
k T k T −
JqN 2 e B +e B
− 2 e kB T − k2 JT
h i
µ (B+B 0 )
2
1 cosh kB T
− e B

=− = − J q N
− 2J − 2J
n h 0)
i o h 0)
i
4 cosh µ (B+B + e kB T 2 cosh µ (B+B + e kB T
kB T kB T

Si queremos el mismo resultado a campo nulo y con T ≥ Tcrit (i.e. a B 0 = 0 también), tenemos:

− k2 JT − k2 JT − k2 JT J !
1 cosh (0) − e B 1 1 − e B 1 1 − e B e kB T
hEi ∼
= − JqN = − JqN = − JqN =
2 − 2J 2 − 2J 2 − 2J J
cosh (0) + e kB T 1 + e kB T 1 + e kB T e kB T
J
 k JT − k JT 
− k2 JT
   
e B −e B J
1 e kB T
1 − e B
1 2 2 1 senh kB T
= − JqN J
 2J
 = − JqN  J J = − J q N   =
2 −
e kB T 1 + e kB T 2 −
e kB T +e kB T
 2 cosh J
2 2 kB T
 
1 J
= − J q N tgh
2 kB T

Y demos también la capacidad calorı́fica:

J2 q N
 
∂hEi ∼ 1 1 J
C= = − JqN   − =  
∂T 2 cosh2 kBJ T kB T 2 2 kB T 2 cosh2 J
kB T

El gráfico muestra una comparación entre los valores de temperatura para la transición, obte-
nidos mediante ambas aproximaciones (la de Bragg-Willams y la de Hans-Bethe).

Figura 20: Grafico comparativo de capacidad calorı́fica en función de la temperatura donde se


observa que la transición de fase de la cadena de Ising varı́a segú la aproximación realizada.

79
Notamos que en este sistema vale que Tcrit (Bethe) < Tcrit (B−W ) , y esto se corresponde con el
hecho de que la temperatura crı́tica en la aproximación de Hans-Bethe tiene un ln (q) dividien-
do. Vemos del gráfico también que se puede tener una capacidad calorı́fica positiva por encima
de su respectiva temperatura crı́tica, pues nos sobreviven pares de spines positivos (término
N++ ).

Ejemplo - Red de spines unidimensional: La idea aquı́ es ver una propiedad interesante
de estos sistemas, en la cual si el mismo es unidimensional entonces a temperatura T > 0 será
imposible que presente magnetización espontánea. Supongamos entonces que preparamos un
estado en el que nuestra muestra de N spines, en la que todos se encuentran inicialmente hacia
arriba, y que no tenemos encendido ningún campo magnético externo (ver figura). Y supon-
gamos que luego, por fluctuaciones térmicas algunos spines se nos dan vuelta. Para fijar ideas,
en la figura se observa esquemáticamente la forma en que se mide la energı́a de acoplamiento
entre spines dependiendo de la orientación relativa de cada par, para un número reducido de
spines.

Figura 21: Esquema representativo de una red de Ising unidimensional.

Sea N− , el número de spines que se dieron vuelta. Entonces, la diferencia de energı́a será:

∆hEi = hEif − hEii = [(N


−1)
 J − (N−
−1)
 J] − [(N − 1) J] = 
NJ − N− J
 −N J +J



= (1 − N− ) J

es decir, en el primer caso se tiene energı́a ∆hEi = (N − 1) J y en el segundo se tiene energı́a


∆hEi = (N −N− ) J. Demos ahora la entropı́a, que básicamente se reduce al problema de contar
cuántas formas hay de colocar m paredes (m  N − 1) en un conjunto de N cajitas (dado que
las paredes separan los conjuntos de spines contiguos que quedaron con la misma orientación).
Entonces tenemos:

80
   
N N!
∆hSi = kB ln (Σ) = kB ln = kB ln =
m m! (N − m)!
   
N (N − 1) · · · 
(N− m)!
 N (N − 1) · · · (N − m + 1)
= kB ln = kB ln =
(N−

m!   m)! m!
∼
−1)
= kB ln(N ) + kB ln(N + · · · + kB ln(N
−m −ln(m!)
+1) = (N − m + 1) kB ln(N )
 
 

donde lo que se hizo fue despreciar las cantidades 1 y m respecto a N . De este modo, se tiene
(considerando que la temperatura no es un parámetro variable):

∆hF i = ∆ (hEi − T hSi) = ∆hEi − T ∆hSi − 


∆T
hSi

= ∆hEi − T ∆hSi =

= [(N − N− ) J] − T [(N − m + 1) kB ln(N )] = (


(N(−
((N(
(
( ∼
− ) J − (N − m + 1) ln(N ) kB T =


= −(N − m + 1) ln(N ) kB T

donde en el último paso se despreció el primer término respecto del segundo, debido a que
la constante de acoplamiento es muy pequeña. De este modo tenemos que la cantidad ∆hF i
evoluciona hacia un mı́nimo, y no existe ninguna solución estable que presente magnetización
permanente. Se van a seguir generando paredes hasta que el sistema quede formado comple-
tamente por pares de spines contiguos con orientaciones distintas. De este modo probamos
que en un sistema unidimensional a temperatura mayor que cero, no es posible que exista
magnetización espontánea.

81

También podría gustarte