Está en la página 1de 233

Curso de Física Estadística

Jordi Ortín Rull


José María Sancho Herrer»
*ste texto cubre los contenidos de la materia troncal Física Estadística de la licenciatura d e Física en
|)(.aña. Está dirigido principalmente a los estudiantes de segundo ciclo de dicha licenciatura, si bien
erá útil también como libro de consulta a estudiantes de otras especialidades científicas, especialmente
quíinica. Se trata de un curso introductorio y troncal, centrado en el desarrollo de la teoría de,
■olectivídades para los sistemas en equilibrio y su aplicación a sistemas ideales, que permiten un
*!iiamiento analítico exacto mediante la aplicación sistemática de los fundamentos desarrollados en
I j curso. El objetivo del curso es proporcionar al estudiante una buena formación básica, que le permita
D o r d a r con seguridad no solamente las ampliaciones de esta disciplina en cursos posteriores, sino
j (mbién otras partes de la física de la materia condensada como pueden ser el estado sólido, la física
le Huidos y la termodinámica de no equilibrio, El libro está dividido en tres partes: fundamentos,
) ^licacioncs y apéndices. En la parte de fundamentos (cinco primeros capítulos) se presenta con toda
ciuiriilidiid la estructura formal de la asignatura dentro del esquema de la teoría de colectividades,
' iicicMílii rspeciiil énfasis en la metodología más adecuada para su utilización posterior. En cada uno
kj.· los dio:z capítulos siguientes, dedicados a las aplicaciones, se presenta un tratamiento detallado de
II li'ilfiiiii físico realista. Se estudia, por ejemplo, el sólido paramagnètico, defectos en sólidos, el
|uililiii(i NÚlido viipor y la condensación de Bose-Einsteín, entre otros sistemas. Aquí el énfasis se
iii'ii· cu la cloccióii dol esquema teórico más adecuado en cada caso, en los cálculos y aproximaciones
iriiiiids para llegar a la solución, y en la interpretación de los resultados. Cada capítulo de estaparte
■■iinplclii c o n algunos ejercicios propuestos.
*Inrilnieiitc, se incluyen tres apéndices, en que se pone a disposición del estudiante un recordatorio de
)(' fundamentos físicos y matemáticos básicos, necesarios para el tratamiento estadístico de los sistemas
jnsidcrados. De esta forma el texto es prácticamente autocontenido.

orili Ortfn (Barcelona, 1959) es catedrático de Física de la Materia Condensada en la Facultad de


fcica de la Universidad do Barcelona. En los últimos años ha impartido diferentes cursos de termodinámica
tínica estadística en la licenciatura de física, de la cual fue jefe de estudios de 1993 a 1998. Su trabajo
investigación, de carácter marcadamente experimental, se centra en los fenómenos de inestabilidades
^diudinámicas y formación de estructuras en sistemas lejos del equilibrio.
(sé Muría Snncho (Amusco, 1948) es catedrático de Física de la Materia Condensada en ^!-E?«iÜad
): l’lsica de la Universidad de Barcelona. Desde el año 1977 viene desarrollando su docencia en
lignaturas relacionadas con la física estadística. Su investigación está centrada en te itó teóricos de
' física estadística y no lineal y, en particular, en el estudio de los efectos consttpctiM-iú- ^ s
actuaciones en sistemas físicos, químicos y biológicos. (http://ns.ecm.ub.eS/~noise/filc.s/sanc?'·'r'ra}.

U' w w w .p u b lic a c io n s .u b .e s
IS B N 84-475-311T-1
lié )
t
Publicacions i Edicions :i
UNIVERSITAT DE BARCELONA
Ortin Rull, Jordi
Curso de física estadística- (Universität; 28)
Apdndixs. Bibliografía
ISBN 84-475-3117-1
I. Sancho Herrero, Josep Maria II. Títol III. Col lecció; Universität (Universität de Barcelona); 28
1. Física estadística

© PUBLICACIONS I EDICIONS DE LA UNIVERSITÄT DE BARCELONA, 2006


Adolf Rorensa, s/n; 08028 Barcelona; Tel. 934 035 442; Fax 934 035 446;
comercial.edicions@ub.edu; www.publicacions.ub.es

Impresión: Gráficas Rey, S.L.

ISBN: 84-475-3117-1

Depósito legal: B-49558-2006

Impreso en España / Printed in Spain


A nuestros hijos, Daniel y Víctor,

cuya curiosidad científica no deja de sorprendernos cada día


INDICE GENERAL

Prefacio 15

I FU N D A M EN TO S 17
1. Introducción 19
1.1. G eneralidades...................................................................................... 19
1.1.1. Ejemplo: la capacidad caloríñca......................................... 20
1.2. Fundamentación y e s tr u c tu r a ......................................................... 21
1.3. Breve perspectiva histórica ...................... .................................... 24
1.4. Conceptos necesarios......................................................................... 26
2. Teoría de colectividades. La colectividad microcanónica 27
2.1. Introducción................................................................... ..................... 27
2.1.1. Macroestados y m icro esta d o s......................................... 27
2.1.2. Teoría de colectividades...................................................... 28
2.2. Postulados de la colectividad m icrocanónica............................... 29
2.2.1. Postulado de equiprobabilidad a p r io r i.......................... 30
2.2.2. Postulado sobre el número de microestadosj íi, en el
e q u ilib r io ............................................................................. 30
2.2.3. Postulado de compatibilidad con la termodinámica . . . 30
2.3. Equilibrio termodinàmico en la colectividadmicrocanónica . . . 31
2.3.1. Entropía de B o ltz m a n n ................................................... 34
2.4. Cálculo del número de microestados en la colectividad micro-
canónica ............................................................................................... 36
2.4.1. Microestados discreto s...................................................... 36
2.4.2. Microestados continuos ................................................... 36
3. La colectividad canónica 39
3.1. Introducción......................................................................................... 39
3.2. Equilibrio de un sistema en contacto con unbaño térmico . . . 40
3.2.1. Probabilidad del estado de energía E r .......................... 40
3.2.2. Valor medio y ñuctuaciones de lae n e r g ía ........................ 42
3.3. Colectividad canónica y te rm o d in á m ic a ..................................... 42
3.4. Equivalencia entre las colectividades microcanónica y canónica 43
3.5. Dajntì y altas te m p e r a tu r a s ........................................................... 44
3.6. Grados de libertaxl, separabilidad y tem peraturas características 45
3.7. Clasificación de los grados de l i b e r t a d ......................................... 46
3.7.1. Estadísticas clásica y cuántica............................................ 47
3.7.2. Energías discretas y continuas............................................ 48
3.7.3. Clasifícación de los sistemas estadístico s......................... 48
3.8. La colectividad canónica en la estadística clásica-continua . . . 49
3.8.1. Gas de partículas que obedecen la mecánica clásica . . . 49
3.8.2. Sistemas de partículas localizadas..................................... 51
3.9. Teorema de equipartición de la e n e rg ía ......................................... 51
4. La colectividad macrocanónica 55
4.1. Introducción........................................................................................ 55
4.2. Equilibrio de un sistema en contacto con un baño térmico y un
r e s e r v o i r de p artíc u la s.................................................................. 56
4.2.1. Fluctuaciones de energía y número de partículas en la
colectividad macrocanónica ................................................ 58
4.3. Colectividad macrocanónica y term odinám ica............................ 60
4.4. Equivalencia entre colectividades.................................................. 61
4.5. Función de partición macrocanónica de un sistema ideal . . . . 62
5. Mecánica estadística cuántica 63
5.1. Introducción........................................................................................ 63
5.2. La matriz d en sid ad ............................................................................ 64
5.2.1. Propiedades de la matriz d e n s id a d .................................. 64
5.2.2. Estado estacionario............................................................... 65
5.3. Las colectividades c u á n tic a s............................................................ 65
5.3.1. La colectividad microcanónica ......................................... 65
5.3.2. La colectividad canónica..................................................... 66
5.3.3. La colectividad m acrocanónica......................................... 67
5.4. Sistemas de partículas idénticas y condiciones de simetría . . . 68
5.4.1. Funciones de o n d a ............................................................... 68
5.4.2. Teorema de la conexión spin-estadística ......................... 69
5.4.3. Principio de exclusión de P a u l i ............................... ... . . 70
5.4.4. E je m p lo s ............................................................................... 70
5.4.5. Funciones de onda de un sistema de N partículas idénti­
cas l i b r e s ..................................................................... ... 71
5.4.6. E je m p lo s .............................................................................. 73
5.5. Función de partición canónica de un sistema ideal...................... 76
5.6. Función de partición macrocanónica de un sistema ideal . . . . 79
5.6.1. Notación uniñcada de las tres estadísticas...................... 82
5.7. Estadística de los números de ocupación de los estados monopar-
tic u la re s ............................................................................................... 82
5.7.1. Valor medio del número de o c u p a c ió n ............................ 82
5.7.2. Fluctuaciones del número de o c u p a c ió n .......................... 83
5.7.3. Límite clásico......................................................................... 84
5.8. Límite continuo y gases ideales cuánticos..................................... 85

II A PLICA CIO N ES 87
6 . G as id eal m o n o ató m ico en la co lec tiv id ad m icro c an ó n ica 89
6.1. Introducción........................................................................................ 89
6.1.1. Propiedades macroscópicas de un gas i d e a l ................... 90
6.1.2. Modelo microscópico de un gas ideal monoatómico . . . 90
6.2. Gas ideal en la colectividad m icrocanónica.................................. 90
6.2.1. Gas ideal de partículas que obedecen a la mecánica clásica:
cómputo del número de microestados............................. . 91
6.2.2. Gas ideal de partículas que obedecen a la mecánica cuánti­
ca: cómputo del número de microestados.......................... 92
6.2.3. Propiedades termodinámicas del gas i d e a l ...................... 95
6.3. Complemento: volumen y superficie de una hiperesfera de radio
r en n dim ensiones......................................... .................................. 97
6.4. E je rc ic io s ........................................................................................... 98
7. D efecto s p u n tu a le s en sólidos 99
7.1. Introducción.................................. ..................................................... 99
7-2. Vacantes de S chottky........................................................................ 101
7.3. Intersticios de F r e n k e l..................................................... ... 102
. 7.4. E je rc ic io s ........................................................................................... 103
8 . M ez cla id eal d e gases p e rfe c to s. P a ra d o ja de G ib b s 105
8.1. Introducción........................................................................................ 105
8.2. Gas ideal en la colectividad c a n ó n ic a ............................................106
8.2.1. Partículas libres que obedecen a la mecánica clásica . . 106
8.2.2. Partículas libres que obedecen a la mecánica cuántica . 107
8.2.3. Propiedades te rm o d in á m ic a s...................................... 108
8.3. Entropía de mezcla y paradoja de G ib b s ..................................... 108
8.3.1. Estudio te rm o d in à m ic o ...................................................... 108
8.3.2. Estudio m ecánico-estadístico............................................ 110
8.4. E je rc ic io s ........................................................................................... 111
9. P a ra m a g n e tis m o clásico y c u á n tic o 113
9.1. Introducción........................................................................................113
9.1.1. Aspectos macroscópicos del p a ra m a g n etism o ................ 114
9.1.2. Elementos microscópicos del param agnetism o................ 114
9.2. Paramagnetismo c u á n tic o ...............................................................116
9.3. Paramagnetismo c lá s ic o ..................................................................118
9.4. Desimanación ad iab á tic a..................................................................119
9.5. E je rc ic io s ...........................................................................................121
10. Vibraciones en sólidos 123
10.1. Introducción.........................................................................................123
10.2. Resultados experim entales................................................................123
10.3. Sólido ideal y modos norm ales......................................................... 124
10.4. Modelo de E in stein ............................................................................ 126
10.5. Modelo de D e b y e ............................................................................... 127
10.6. Cadena lineal a r m ó n ic a ...................................................................129
10.7. E je rc ic io s ............................................................................................ 133
11. Equilibrio sólido-vapor 135
11.1. Introducción y resultados genéricos............................................... 135
11.2. Modelo A (sólido de Einstein y gasideal) ......................................137
11.3. Modelo B (sólido con vacantes y gas id e a l).....................................138
11.4. E je rc ic io s ............................................................................................140
12. Gas de moléculas diatómicas 141
12.1. Introducción.........................................................................................141
12.2. Grados de libertad elec tró n ico s......................................................143
12.3. Molécula AB: grados de libertad del n ú c l e o ................................144
12.4. Hamiltoniano de los grados de libertad vibracionales y rota­
cionales de Lma molécula d iató m ica............................................... 144
12.5. Grados de libertad vibracionales ...................................................146
12.6. Molécula AB: gr¿\dos de libertad roteicionales............................ 148
12.7. Gas ideal de moléculas AB: comportamiento asintótico de la
capacidad calorífica............................................................................150
12.8. Molécula homonuclear, AA: acoplamiento entre los grados de
libertad del núcleo y los grados de libertad rotacionales . . . . 152
12.8.1. Análisis clásico (T » &, ) ...................................................152
12.8.2, Análisis cuántico (T ^ Q r ) ............................................... 153
12.9. E je rc ic io s ............................................................................................155
13.Radiación térmica: gas de fotones 157
13.1. Introducción........................................................................................ 157
13.2. Distribución de la energía del espectro de radiación...................158
13.3. Presión de ra d ia c ió n .........................................................................161
13.4. Otras propiedades term odinám icas............................................... 162
13.5. Deducción de la densidad espectral por el método de Planck . . 163
13.6. E je rc ic io s .................................................................. .........................165
14. Gases ideales cuánticos en dimensión dos 167
14.1. Introducción........................................................................................ 167
14.2. Ga¿5 ideal de bosones ..................................................................... 168
14.2.1. Potencial químico de los bosones ...................................... 168
14.2.2. Comportamiento asintótico de la energía......................... 169
14.2.3. Solución exacta de la e n e r g ía ............................................ 170
14.3. Gas ideal de ferm iones...................................................................... 170
14.3.1. Potencial químico de los fe rm io n e s................................... 170
14.3.2. Comportamiento asintótico de la energía .......................... 171
14.3.3. Cálculo exacto de la energía................................................173
14.4. Ecuaciones de e s ta d o ......................................................................... 174
14.5. E jerc icio tì............................................................................................ 175
15.C o n d en sació n d e B o se -E in ste in 177
15.1. ¿Qué 68 y cómo aparece la co n d en sació n ?................................... 177
15.2. Coexistencia de fases e is o te rm a s ................................................... 179
15.3. E je rc ic io s ............................................................................................ 183

III A PÉN D ICES 185


A. C o m p en d io d e fu n d a m e n to s físicos 187
A .l. Mecánica c l á s i c a ................................................................................187
A.1.1. Partículas libres ...................................................................187
A. 1.2. Oscilador arm ónico................................................................188
A .l.3. Péndulo e s fé r ic o ...................................................................189
A.1.4. Sistema de dos partículas en interacción..........................189
A.2. Mecánica c u á n tic a ............................................................................ 190
A.2.1. Partícula libre en una caja cúbica delado L .....................lü l
A.2.2. Partícula libre ultra rrela tivista ......................................... 193
A. 2.3. Oscilador armónico trid im en sio n a l................................... 194
A.3. E lectrom agnetism o............................................................................ 195
A.3.1. Partícula con momento dipolar en presencia de un cam­
po externo ............................................................................ 195
A .3.2. Ondas electromagnéticas en una cavidad. Fotones . . . . 195
A.4. Vibraciones atómicas en sólidos. Fonones...................................... 197
A.4.1. Modelo de E in stein ................................................................198
A.4.2. Modelo de D e b y e ......................................................... ... 198
A. 4.3. Cadena lineal a r m ó n ic a ...................................................... 201
B . R e s u m e n d e te rm o d in á m ic a 205
B .l. Conceptos básicos y definiciones ................................................... 20G
B.2. Principios de la term o d in ám ica...................................................... 207
B.3. Funciones r e s p u e s t a ......................................................................... 209
B.4. Sistema a is la d o ...................................................................................210
B.5. Sistema en equilibrio con un baño té rm ic o ................................... 211
B.6. Sistema en equilibrio con un baño térmico y de partículas . . . 213
B.7. Magnitudes termodinámicas de un sistema magnético ............. 215
B.8. Condiciones de equilibrio de sistemas heterogéneos y pluricom-
p o n e n te s............................................................................................... 216
B.8.1. Equilibrio de f a s e s ............................................ ...................216
B.8.2. Equilibrio q u ím ic o ...............................................................217
B.9. Límite term o d in am ico .....................................................................218
C. Elementos de teoría de la probabilidad 219
C .l. Permutaciones y com binaciones...................................................... 219
C.2. Funciones de d is trib u c ió n ................................................................221
C.2,1. Variables aleatorias d is c r e ta s ............................................221
C.2.2. Variables aleatorias co n tin u a s............................................ 222
C.2.3. Probabilidad conjunta y probabilidad m a rg in a l............222
C.3. Ejemplos de distribuciones................................................................222
C.5.I. Distribución exponencial..................................................... 222
C.3.2. Distribución b in o m ia l........................................................ 224
C.3.3. Distribuciones normal y g a u s s ia n a .................................. 225
C.3.4. Distribución de P o is s o n ..................................................... 227

BIBLIOGRAFÍA 228

ÍNDICE DE MATERIAS 231


PREFACIO

El presente Curso de Física Estadística cubre los contenidos de la m ateria


troncal del mismo nombre de la licenciatura de Física en España. Como libro
de texto está dirigido primordialmente a los estudiantes de segundo ciclo de
dicha licenciatura, si bien será útil también como libro de consulta a estudi­
antes de otras especialidades científicas, especialmente de química. Se trata de
un curso introductorio y troncal, centrado en el desarrollo de la teoría de colec­
tividades para los sistemas en equilibrio y su aplicación a sistemas en que sus
constituyentes fundamentales no interaccionan, que se conocen como sistemas
ideales. Pretende proporcionar al estudiante una buena formación básica, para
abordar las ampliaciones de esta disciplina en posteriores asignaturas optati­
vas.
El libro está motivado por una serie de aspectos pedagógicos que echamos
en falta en los libros de texto de esta materia. El aspecto más im portante
es la voluntad de separar claramente los fundamentos teóricos de las aplica­
ciones a sistemas concretos. Pensamos que mezclar el formalismo teórico con
aplicaciones particulares, o introducir técnicas de cálculo específicas a cada
aplicación, sin explicar su generalidad, desorienta a los estudiantes y les difi­
culta la elección del esquema teórico adecuado para afrontar el estudio de un
problema nuevo. Por ello, con objeto de potenciar la formación conceptual de
los estudiantes, hemos separado estos dos elementos.
Así, los fundamentos se presentan en una primera parte del curso, en for­
ma sucinta pero con la generalidad necesaria para abordar posteriormente el
estudio de cualquier sistema mecánico-estadístico. Hacemos especial énfasis
en los aspectos fundamentales que deben guiar dicho estudio.
En cada uno de los capítulos de la segunda parte del hbro, dedicada a las
aplicaciones, se presenta el estudio completo de un sistema fisico particular. En
esta parte el énfasis se pone en la elección del esquema teórico más adecuado
en cada caso, los cálculos y aproximaciones necesarios para llegar a la solución,
y la interpretación de los resultados. Cada capítulo de esta parte se completa
con algunos ejercicios propuestos.
El libro contiene una tercera parte de apéndices, en que se pone a disposi­
ción del estudiante un recordatorio de los fundamentos fisicos y matemáticos
necesarios para el tratamiento estadístico de los sistemas considerados. De esta
forma el texto es prácticamente autocontenido.
En la preparación del texto nos hemos guiado por nuestra experiencia
como docentes de la licenciatura en Física de la Universidad de Barcelona.
Es el resultado del trabajo de los últimos tres años, en que ambos au^;ores
hemos impartido la asignatura troncal Física Estadística, de 7,5 créditos, a
un total de unos doscientos estudiantes por año. Deseamos que el libro sea
de utilidad como texto básico de trabajo a los futuros estudiantes de esta
materia. Estamos convencidos de que asimilando razonablemente el material
de este curso tendrán la formación adecuada para abordar problemas de física
estadística de mucha mayor complejidad.
Queremos agradecer a los profesores de nuestro departamento las numerosas
conversaciones sobre temas de física estadística que de un modo u otro se ven
reflejadas en el contenido del curso. Estamos particularmente agradecidos a
Rolf Tarrach por sus comentarios al capítulo 5. También agradecemos a Ángel
Sánchez, de la Universidad Carlos III, y a Raúl Toral, de la Universidad de
las Islas Baleares, la lectura crítica de algunos capítulos.
Este texto se enmarca en las actividades del Giiij) d'Innovado Docent en
Termodinámica i Física Estadística de la Universidad de Barcelona.

Jordl Ortíii, José María Sancho.


Barcelona, junio de 2001.
Parte I
FUNDAMENTOS
Capítulo 1
INTRODUCCIÓN

1.1. Generalidades
La física estaxiística (llamada también mecánica estaxlfetica o termodinámi-
ca estadística) es aquella parte de la física que tiene como objetivo conectar
la física microscópica, caracterizada por partículas o unidades elementales y
sus interacciones, con el mundo macroscópico, objeto de estudio de la ter­
modinámica. Pretende entender cómo ciertas propiedades macroscópicas de
los cuerpos extensos formados por un inmenso número de partículas (sólidos,
líquidos, gases.. .) dependen de sus constituyentes microscópicos y sus inter­
acciones.
Por una parte el mundo microscópico está bien descrito por la mecánica
clásica, la mecánica cuántica y el electromagnetismo. Por su parte el mun­
do macroscópico está bien caracterizado por la termodinámica y la física
de los medios continuos, principalmente. La termodinámica da predicciones
muy útiles sobre relaciones entre magnitudes inácroscópicas pero no deter­
mina cómo éstas son consecuencia de las propiedades de los constituyentes
microscópicos. El papel de la física estadística es establecer esta conexión.
Mientras que un sistema macroscópico está formado por im ingente número
de subsistemas, partículas o grados de libertad, el conjunto de cuyas ecua­
ciones dinámicas es imposible de resolver matemáticamente, resulta que para
describir las propiedades macroscópicas únicamente son necesarias unas pocas
variables. Nos encontramos, pues, ante un problema de reducción de variables.
Para abordarlo, además de los fundamentos microscópicos, la física estadística
necesita de forma natural de herramientas matemáticas adecuadas, como son
el cálculo de probabilidades y la estadística matemática.
La física estadística, en definitiva, es una parte de la física indisolublemente
conectada al resto de disciplinas que forman parte de esta ciencia. Su estudio
requiere por ello una buena preparación previa en termodinámica, electromag­
netismo, mecánica clásica y mecánica cuántica.
P ara apreciar más claramente dónde se sitúa la física estadística respecto a
la termodinámica y a las disciplinas de la física microscópica, vamos a explicar
a continuación qué aportan cada una de ellas al estudio de una magnitud
térmica en particular como es la capacidad calorífica.

1.1.1. E jem plo: la capacidad caloríñca


La capacidad calorífica es una magnitud importante porque es a la vez
sensible a detalles microscópicos y medible experimentalmente. A los efectos
de esta explicación no será necesario distinguir entre la capacidad calorífica a
volumen constante o a presión constante, Cv o Cp respectivamente (ecuaciones
(B.7) y (B.8)).
Experimentalmente podemos estudiar la dependencia de esta magnitud en
función de T, y encontrarnos una gran variedad de comportamientos:

(a) Pajra un gas noble, la capacidad calorífica es constante en un intervalo


de tem peraturas muy amplio.

(b) Para un sólido cristalino la capacidad calorífica tiende a cero para T muy
bajas, y luego va creciendo con la tem peratura hasta alcanzar un valor
constante a altas temperaturas (ley de Dulong y Petit).

(c) En un sólido paramagnètico encontramos que la capacidad calorífica ex­


hibe un máximo pronunciado a una cierta tem peratura relativamente
baja (pico Scliottky).

(d) Existen siatemas en los que la capacidad calorífica presenta anomalías


notable». Por ejemplo, tanto cerca del punto crítico de la transición de
faae líqiiido-vapor, como cerca del punto de Curie de la transición pai am-
ogllética-forromagnética, la capacidad calorífica exhibe una divergencia.

A pesar de esta diversidad de comportamientos, la termodinámica nos


dice cómo medir la capacidad calorífica experimentalmente y cómo calcularla
a partir de un potencial termodinàmico. También nos dice que ha de estar
relacionada de una forma muy determinada con otras propiedades del sis­
tema como el coeficiente de dilatación térmica, la compresibihdad, etc., que
se obtienen de la ecuación de estado. Sin embai'go no nos dice cómo obtener
explícitamente ni el potencial termodinàmico ni la ecuación de estado, por
lo que no podemos conocer la forma funcional de la capacidad calorífica en
función de las variables termodinámicas del sistema.
En cambio, la fisica microscópica nos ilustra sobre qué tipo de estructura
interna de los sistemas anteriores podría ser responsable del comportamiento
observado de esta magnitud:

(a) Tenemos un sistema formado por partículas casi libres cuya única magni­
tud relevante es la energía cinética. La mecánica clásica es aquí el marco
teórico microscópico.
(b) Podemos suponer allora que los átomos del sólido tienen energía cinética
vibracional e Interaccionan entre ellos a través de un potencial que pode-
moa suponer armónico. Ahora necesitamos la mecánica cuántica, aunque
únicaiuente resultan relevantes los aspectos de cuantizacióu de la energía.
(c) En este caso la energía cinética y de interacción no son muy relevantes y
lo im portante esperamos que sea la interacción entre el campo magnético
externo y los momentos magnéticos internos de los átomos o moléculas
del sólido paramagnètico. Aquí debemos usar lo que nos dice la mecánica
cuántica sobre cuantización del momento angular intrínseco de los com­
ponentes microscópicos.
(d) Esta situación es ciertamente más difícil, pero se puede asegurar que la
cantidad relevante es el potencial de interacción entre partículas, princi­
pal responsable de la existencia de una transición de fase y en consecuen­
cia de la divergencia observada. El problema es muy difícil de resolver
matemáticamente, pero como punto de partida basta la mecánica clásica.

Hemos visto por tanto cómo diferentes comportamientos se corresponden


con mecanismos microscópicos también diferentes.
Los métodos habituales de la física microscópica no son factibles ni adecua­
dos para estudiar un sistema macroscópico, formado por N ~ 10^^ partículas.
Es la física estadística, usando sus propios axiomas, la encargada de poder ex­
plicar cómo tan variado comportamiento macroscópico es consecuencia directa
de una determinada estructura e interacción microscópica.
En todos los casos, el método de operar de la física estadística es el mismo.
Usando la información microscópica, hay que calcular alguno de los poten­
ciales termodinámicos (entropía, energía libre de Helmholtz o energía libre
de Gibbs) y a partir de él encontrar la ecuación de estado del sistema y sus
propiedades termodinámicas, tales como capacidades caloríficas, compresibil­
idades, susceptibilidades, etc.

1.2. Fund¿unentación y estructura


Podríamos pensar que, dadas las partículas del sistema y sus interacciones,
el comportamiento macroscópico queda ya determinado y por tanto no se nece­
sita una nueva disciplina. Las simulaciones numéricas de la dinámica clásica
de N partículas son un buen ejemplo.
Sin embargo las cosas no son tan simples. Ciertamente obtenemos resul­
tados numéricos exhaustivos y correctos pero nos hemos alejado de nuestro
verdadero objetivo: entender el porqué y el cómo emergen los comportamien­
tos cooperativos macroscópicos de la materia. Para poder hacer esta conexión
ae necesitan axiomas nuevos, que fundamentan la física estadística.
Aunque existen diferentes alternativas, en este curso seguiremos el método
de la teoría de colectividades de Gibbs. Aún dentro de esta teoría hay diversas
formulaciones que parten de axiomas diferentes: postulado de equiprobabilidad
a priori, método de la distribución más probable, maximización de la entropía,
etc. Nosotros seguiremos la primera de estas formulaciones.
La física estadística puede dividirse en dos grandes cuerpos de doctrina,
según estudie propiedades de sistemas en equilibrio termodinámico o fuera del
equilibrio:
■ La física estadística de equilibrio es una teoría bien establecida y elabora­
da. En un primer estadio, que se corresponde con la materia desarrollada
en este curso, aborda problemas de sistemas ideales (sin interacción en­
tre los constituyentes microscópicos del sistema) o reducibles a sistemas
ideales, que sirven de base para el estudio de problemas más complejos
en que la interacción es importante.
■ La física estadística de no equilibrio está todavía por fundamentar de
una manera comúnmente aceptada. En su estado actual es un conjunto
de teorías parciales adaptadas a situaciones concretas: teoría cinética,
teoría de distribuciones de no equilibrio, teoría de la respuesta lineal,
etc.
La física estadística de equilibrio puede dividirse a su vez en dos grandes
partes: física estadística clásica y física estadística cuántica. Esta división, sin
embargo, no es equivalente a la separación que se hace, por ejemplo, entre
mecánica clásica y mecánica cuántica.
(a) Física estadística cuántica
El sistema viene descrito por el hamiltoniano cuántico, que en algunos
casos tiene la misma forma que su correspondiente hamiltoniano clásico,
A nivel de este curso es importante el conocimiento de las simetrías de
las funciones propias, soluciones del problema, y el conocimiento de los
valores propios que representan los niveles cuantizados de la energía del
sistema y su degeneración.
La característica fundamental de esta estadística es que tiene en cuenta
la coherencia cuántica. Desde un punto de vista cuántico, las partículas
idénticas de un sistema son mutuamente indistinguibles. Por esta razón,
la función de onda que describe estos sistemas debe cumphr condiciones
de simetría muy restrictivas. Estas condiciones dependen del spin de las
partículas, que quedan clasificadas como bosones o fermiones.
Como ejemplos podemos citar los gases cuánticos, en particular el gas
de átomos bosónicos con masa y el gas de electrones (fermiones) en un
metal.
(b) Física estadística clásica
La cai-acterística fundamental de esta estadística es que no tiene en cuen­
ta la coherencia cuántica. Esta estadística se divide en dos partes:

• Sistemas con hamiltoniano clásico, que depende de variables canónicas


conjugadas continuas. Para estos sistemas no sólo interesa conocer
el hamiltoniano sino también el dominio de existencia de las vari­
ables, contenido en el dominio de los números reales.
• Sistemas con hamiltoniano cuántico. Ahora sólo se necesita el conocimien­
to de los valores propios que representan los niveles cuantizados de
la energía del sistema y su degeneración.

Como ejemplos representativos de este grupo señalamos dos: el problema


de las vibraciones en sólidos ideales (modelos de Einstein y Debye), y el
estudio del sóUdo paramagnètico.

Una idea central de este curso, que lo diferencia de la mayoría, es separar


el formalismo de las aplicaciones. En la primera parte, de forma resumida pero
completa, se presenta el cuerpo principal de la fundamentación, y en la segunda
parte se desarrollan las aplicaciones a sistemas concretos usando únicamente
los fundamentos introducidos. La tabla 1.1 ilustra el orden en que se encadenan
metodológicamente las lecciones del curso. Asociada a cada lección de la parte
de fundamentos hay una o varias lecciones de aplicaciones.
La primera parte del curso se dedica a la fundamentación de la física es­
tadística de equilibrio. En los primeros capítulos (2, 3 y 4) desarrollamos el
formalismo adecuado (i) a sistemas clásicos y (ii) a sistemas cuánticos en que
los aspectos cuánticos se reflejan únicamente en la discretización de los niveles
de energía, sin efectos de coherencia cuántica. Este formalismo, en la práctica,
describe correctamente las situaciones más comunes. Debe permitir al alum­
no familiarizarse con la nomenclatura y las diferentes técnicas matemáticas.
Posteriormente este aparato matemático se generaliza a los sistemas con co­
herencia cuántica (capítulo 5). Esto completa el formalismo.
La segunda parte del curso se dedica al estudio de las aplicaciones del
formalismo a sistemas concretos de especial relevancia. Se tratan únicamente
sistemas ideales, en que los constituyentes elementales no interaccionan, o
sistemas con interacción que admiten una reformulación como sistemas ideales.
En los primeros seis capítulos de esta segunda parte se abordan problemas
sin coherencia cuántica, en la colectividad microcanónica (capítulos 6 y 7),
canónica (capítulos 8 al 10) y macrocanónica (capítulo 11). Finalmente, los
problemas que requieren un uso explícito de las estadísticas cuánticas se tratan
en los capítulos 12 al 15.
Cuadro 1.1; Estructura del presente curso.

Curso de Física Estadística


Parte I: Fundam entos Parte II: Aplicaciones
1. Introducción
2. La colectividad microcanónica 6. Gas ideal monoatómico
7. Defectos puntuales en sólidos
3. La colectividad canónica 8. Mezcla de gases y paradoja de Gibbs
9. Paramagnetismo clásico y cuántico
lü. Vibraciones en sólidos
4. La colectividad macrocanónica 11. Equilibrio sólido-vapor
5. Mecánica estadística cuántica 12. Gas de moléculas diatómiccts
13. Radiación térmica: gas de fotones
14. Gases ideales cuánticos
15. Condensación de Bose-Einstein
Apéndice A: Resumen de fundamentos físicos
Apéndice B: Resumen de termodinámica
Apéndice C: Elementos de teoría de la probabilidad

A un eatudiantf! nuevo en esta disciplina, el camino propuesto le ayuda


a ftHlmilai mejor el cuerpo de doctrina principal de la física estadística. Pos-
teriornieuto, si le interesa esta parte de la física, puede abordar el estudio
dtt uliteman en interacción, clásicos o cuánticos, desde una perspectiva bien
fundamentada.

1.3. Breve perspectiva histórica


Encontrar una explicación de los fenómenos macroscópicos en la Natu­
raleza, a partir de su supuesta estructura microscópica, es uno de los objetivos
fundamentales de la física. El otro objetivo fundamental es precisamente cono­
cer esos constituyentes microscópicos y sus interacciones.
En este contexto, ya desde el 1600 aproximadamente se trató de encontrar
explicaciones sobre el comportamiento macroscópico de la materia suponiendo
que estaba formada por partículas muy pequeñas que obedecían a las ecua­
ciones de la mecánica clásica. Este modo de operar dio lugar a una parte de la
física llamada teoría cinética, en principio aplicable tanto a sistemas en equilib­
rio como fuera del equilibrio, que obtuvo logros muy remarcables. Actualmente
sigue usándose principalmente en el estudio de los gases. Se logró así entender
el comportamiento de los gases ideales y correcciones a los gases reales (ecua­
ciones de estado y energía interna). También se encontró la distribución de
velocidades de las partículas de un gas en equilibrio (distribución de Maxwell)
y los coeficientes de traniporte (conductividad eléctrica y térmica, y coefi­
cientes de viscosidad y difusión) en un gOÄ. La teoría cinética culminó con la
ecuación de Boltzmann, hacia el 1900, para la distribución de probabilidad de
la? posiciones y veloííldaci·;« de loa partículas con interacción de un gas. Sin
embargo esta teoría era de complicada extensión a los sistemas cuánticos y a
los sistemas no mecanlcistM, como por ejemplo, los sistemas magnéticos. Se
necesitaba, pues, un marco teórico más general que fuera aplicable a todos los
sistemas.
En 1902 Gibbs desarrolla su teoría de colectividades, que permite estudiar
cualquier sistema mticroscópico, siempre y cuando estén bien definidos sus con­
stituyentes microscópicos y sus interacciones. La teoría de Gibbs se desarrolla
prácticamente de forma simultánea a los trabajos de Einstein sobre mecánica
estadística, que llegan a conclusiones análogas aunque parten de ideas más
ligadas a la teoría cinética y a la constitución atómica de la materia. La teoría
de colectividades de Gibbs es una teoría abstracta y muy general, que si bien
es aphcable únicamente a sistemas en equilibrio termodinámico, ha podido in­
corporar en su esquema el estudio de sistemas cuánticos sin dificultad gracias
a los trabajos de Bose, Einstein, Fermi y Dirac.
Los resultados de la fisica estadística son muy notables. Las propiedades
de los gases reales clásicos pueden explicarse completamente usando única^
mente fundamentación clásica. Los sistemas magnéticos también son abord­
ables, si bien se ha de hacer uso de los fundamentos cuánticos. Fenómenos de
bajas tem peraturas, como la superfluidez y la superconductividad, típicamente
cuánticos, se explican adecuadamente dentro de este marco.
La fisica estadística ha mostrado con éxito que las transiciones de fase y
los fenómenos críticos tienen su origen en las interacciones microscópicas, y
ha permitido entender cómo el comportamiento colectivo cerca de un punto
crítico hace irrelevantes muchos detalles microscópicos del sistema.
Las técnicas de la física estadística son tan genéricas y potentes que se usan
actualmente con gran éxito en el estudio de sistemas complejos (polímeros,
cristales líquidos, redes neuronales...). En este sentido se ha convertido en
una materia interdisciplinaxia imprescindible.
Actualmente la física estadística se está convirtiendo en una disciplina
de referencia para cualquier problema moderno que involucre muchos grados
de libertad y del que se espera algún tipo de comportamiento cooperativo
entre sus componentes, abarcando desde el funcionamiento del cerebro hasta
el comportamiento socieil de los seres vivos, de los más pequeños como virus
y bacterias hasta el hombre. Otros temas de actualidad que están atrayendo
a loe físicos estadísticos incluyen la dinámica del mercado bursátil y el tráfico
de vehículos.
1.4. Conceptos necesarios
Dada la estrecha conexión de la física estadística con otras partes de la
física, es conveniente tener frescos algunos conceptos de física y inatemática^s
necesarios para estudiar los sistemas macroscópicos. Presentamos a contin­
uación una lista de temas que el alumno debería repasar y conocer antes de
iniciar el estudio de esta disciplina.

(a) Termodinámica: tem peratura absoluta. Energía interna. Entropía. Ener­


gías libres de Helmlioltz y de Gibbs. Condiciones de equilibrio termodinámi­
co. Ecuación de estado, equilibrio entre fases y equilibrio en sistemas
pluricomponentes. Funciones respuesta: compresibilidad de un gas, sus­
ceptibilidad magnética y capacidades caloríficas.

(b) Mecánica clásica: hamiltoniano clásico de diferentes sistemas, variables


canónicas conjugadas y espacio fásico.

(c) Mecánica cuántica: hamiltoniano cuántico. Niveles de energía y degen­


eración. Simetrías de la función de onda y spin. Cuantización del mo­
mento angular.

(d) Mecánica relativista: hamiltoniano de una partícula Hbre relativista.

(e) Electromagnetismo: interacción de un dipolo eléctrico (magnético) con


un campo eléctrico (magnético). Polarización, imanación, susceptibili­
dad magnética. Longitud de onda, frecuencia, energía y momento de las
ondas electromagnéticas.

(f) Estadística y teoría de la probabilidad: cálculo combinatorio, funciones


de distribución discretas y continuas, cambios de variable, valor medio
y varianza.

Por su importancia en este curso, el libro se completa con tres apéndices


que cubren la mayoría de los puntos señalados. En el apéndice A se repasan
nociones de mecánica clásica, cuántica y electromagnetismo. En el apéndice
B se hace un repaso de la termodinámica de equihbrio, y en el apéndice C se
recuerdan algunos conceptos necesarios de probabilidad y estadística.
Capítulo 2
TEORÍA DE COLECTIVIDADES. LA
COLECTIVIDAD MICROCANÓNICA

2.1. Introducción
En la línea de la mayoría de textos actuales, vamos a establecer la funda-
mentación de la física estadística en el marco de la llamada teoría de colec­
tividades, partiendo de la colectividad microcanónica. Aunque existen otras
alternativas, hemos tomado esta opción por ser la que deja más claros cuáles
son los elementos y postulados fundamentales. La colectividad microcanónica
es de interés en la fundamentación teórica de la física estadística. P ara las
aplicaciones prácticas, sin embargo, resultan más útiles otras colectividades,
en particular la colectividad canónica.

2.1.1. M a cro esta d o s y m icro esta d o s


Consideremos un sistema físico formado por un número de constituyentes
elementales suficientemente grande como para que tenga sentido hacer un
tratamiento de dicho sistema en el marco de la física estadística.

■ Un microestado es un estado del sistema en el que todas las variables


microscópicas de interés están especificadas. Dado el elevadísimo número
de éstas, en general un microestado no es accesible experimentalmente.

■ Un macroestado es el estado del sistema que observamos experimental­


mente, definido por un número pequeño de variables macroscópicas. Es
el estado termodinámico del sistema.

Los siguientes ejemplos ilustran el significado de microestado y macroes­


tado:

■ Ejemplo 1: gas de partículas


Tenemos un mol de gas, formado por AT 6 x 10^^ partículas puntuales.
Un microestado del gas en el instante t quedaría especificado dando las
6 N variables fi{t) y Vi{t), aunque ésta es una tarea virtualmente imposi­
ble, además de irrelevante. Por el contrario, un macroestado del sistema
queda especificado, por ejemplo, por las variables E, V, N (energía,
volumen y número de partículas), o por las variables p, V, T (presión,
volumen y tem peratura), dependiendo de las condiciones en que se en­
cuentre el sistema.
Obsérvese que en la descripción microscópica no aparece la temperatura.
El paso de 67V grados de libertad a tres o cuatro variables representa una
reducción muy fuerte. Debemos concluir que a cada estado macroscópico
le corresponde un elevado número de estados microscópicos.

■ Ejemplo 2: sólido paramagnètico


Tenemos ahora un sólido cristalino en el que cada uno de los N iones de
la red cristahna tiene un momento magnético ^ apuntando hacia arriba
o hacia abajo. Supongamos que la imanación total M está fijada: es la
correspondiente a n de dichos momentos apuntando hacia arriba y el
resto, N — n momentos, apuntando hacia abajo. El estado macroscópico
viene dado por el valor de la imanación total, M = {2n—N)ß. Este estado
macroscópico es compatible con N\/{n\ {N —n)\) estados microscópicos,
correspondientes a las diferentes combinaciones posibles de orientaciones
de los momentos.

Los dos ejemplos muestran que hay un número muy grande de estados mi­
croscópicos correspondientes a un único estado macroscópico.

2 .1 .2 . Teoría d e co lectivid a d es
El objeto de la física estadística de equilibrio es determinar las propiedades
termodinámicas de los sistemas macroscópicos en equilibrio termodinámico, a
partir de sus propiedades microscópicas.
En la teoría de colectividades se trabaja sobre un número extremadamente
grande de copias del sistema, cada una de ellas en uno cualquiera de los mi­
croestados posibles, compatibles con el estado macroscópico del sistema. El
conjunto de copias forma la colectividad asociada al sistema. Las propiedades
macroscópicas de equilibrio se obtienen como promedios sobre los posibles
estados microscópicos representados en la colectividad.
Para poder calcular estos promedios, la cuestión básica es determinar en
qué proporción está representado cada microestado en la colectividad. En otras
palabras, determinar la probabiUdad de cada microestado en la colectividad.
La respuesta resulta depender de las condiciones que definen el estado de
equilibrio del sistema, y ello lleva a definir distintas colectividades. Las más
importantes son:
1. La colííctlvldad microcanónica^ que es la colectividad de los sistemas ais­
lados, cuyo oslado termodinámico está definido por las variables (B, V, N )
en el CHSO de un HÍstonia hidrostático. Es objeto de estudio en este capítu­
lo.

2. La colectividad canónica, que es la colectividad de los sistemas que se


encuentran en equilibrio con un baño térmico, con el cual pueden in­
tercambiar energía. Su estado de equilibrio está caracterizado por las
variables (T, V, N ). Se estudiará en el capítulo siguiente.

3. La colectividad macrocanónica, que es la colectividad de los sistemas que


pueden intercamibiar energía con un baño térmico y paitículas con un
reservoir de partículas, y para los cuales las variables (T, V, fi) caracter­
izan el estado de equilibrio (capítulo 4).

En general, puede definirse una colectividad distinta para cada conjun­


to de ligaduras a que puede estar sujeto un sistema termodinámico. Las tres
colectividades anteriores son las más útiles para el desarrollo del formalismo y
para las aplicaciones teóricas. Sin embargo, tanto en simulaciones numéricas
como para estudiar sistemas magnéticos, es frecuente trabajar en la colec­
tividad isoterma-isobàrica. En esta colectividad el sistema puede intercam­
biar energía con un baño térmico, y modificar su volumen para alcanzar el
equilibrio mecánico con un foco externo de presión (si se tra ta de un sis-
teina hidrostático) o variar su imanación para alcanzar el equilibrio magnético
con un campo magnético externo (si se tra ta de un sistema magnético). El
estado de equilibrio viene caracterizado por las variables ( T . p , N ) (sistema
hidrostático) o { T , H , N ) (sistema magnético).
Este formalismo se conoce como teoría de colectividades estadísticas o
teoría de colectividades de Gibbs. Es el que seguiremos en este curso.
Una formulación alternativa es la denominada teoría ergòdica. En esta for­
mulación se considera que a lo largo del tiempo el sistema va explorando todos
sus estados microscópicos. El estado macroscópico experimenta pequeñas fluc­
tuaciones sin cambiar apreciablemente. Las magnitudes termodinámicas de
equilibrio se obtienen como promedios temporales. Esta formulación se utiliza
primordialmente para fundamentar la teoría. Sin embargo no resulta útil para
estudiar sistemas concretos, y por esta razón no la trataremos en este curso.

2.2. Postulados de la colectividad microcanónica


Aunque existen varias opciones equivalentes para escoger los postulados
básicoH, m oHte curso vamos a seguir el siguiente esquema:
2.2.1. P o stu la d o d e eq u ip ro b a b ilid a d a p rio ri
■ Todos los microestados compatibles con el estado macroscópico de equi­
librio de un sistema aislado son igualmente probables.

Puesto que todos los microestados juegan el mismo papel, la única cantidad
relevante es el número total de microestados, íl. La física estadística se ñin-
damenta en el hecho de que el comportamiento termodinámico del sistema se
puede deducir del número íí y de su dependencia en las variables E ^ V y N
(energía interna, volumen y número de partículas), que caracterizan el estado
macroscópico del sistema aislado.
Con todos los microestados igualmente probables, la probabilidad de un
determinado microestado r es simplemente:

íV - i P .i )

Conviene recalcar que este postulado es un verdadero axioma, no deducible


en principio de las leyes de la mecánica clásica o cuántica ni del electromag­
netismo. Constituye el punto de partida del formalismo de colectividades en
la mayoría de libros de texto, aunque no está libre de críticas [Ma, 1985].

2.2.2. P o stu la d o so b re el n ú m ero d e m icroestados, íí, en el


equ ilibrio
■ El número de microestados ^{Ei^Vi, Ni, E 2 ,V 2 , N 2 ), correspondiente a
dos sistemas 1 y 2 en equilibrio termodinámico entre si y aislados del
resto del universoj es máximo respecto de cualquiera de las variables
termodinámicas de uno de los dos sistemas.

Desde un punto de vista estadístico, estamos identificando el estado de equi­


librio con el estado más probable —aquél para el cual íl es máximo.
Este postulado nos permitirá expresar las condiciones de equilibrio ter­
modinámico en términos de Q.

2.2.3. P o stu la d o d e co m p a tib ilid a d con la term o d in á m ica


■ Las propiedades macroscópicas derivadas de una descripción mecánico-
estadística de un determinado sistema han de ser compatibles con las
leyes de la termodinámica.

Este postulado nos asegura que los principios de la termodinámica también


han de ser aphcables a cualquier sistema descrito estadísticamente.
2.3. Equilibrio termodinámico en la colectividad mi­
crocanónica
Iniciemos el estudio de la teoría de colectividades considerando un sistema
aislado, en equilibrio, caracterizado por las variables macroscópicas {E, V, N )
que definen la energía, el volumen y el número de partículas del sistema. La
colectividad de este tipo de sistemas, como ya hemos mencionado, se denomina
colectividad microcanónica.
Queremos establecer una conexión entre el número de microestados de un
sistema aislado, fi, y las propiedades termodinámicas de dicho sistema.
Para ello, consideramos dos sistemas aislados, 1 y 2, separadamente en
equilibrio. El macroestado del sistema 1 está definido por las variables E i,
Vi y M í y el número de microestados que le corresponden es Vi,iVi).
Análogamente, el macroestado del sistema 2 está definido por las variables
■£^2, V2 y ÍV2, y el número de microestados es Cl2 {E 2 , V2, -^2)· Las funciones fìi
y ^2 pueden depender de sus argumentos de manera distinta, ya que los dos
sistemas pueden ser de naturaleza muy diferente.
El sistema compuesto, 1 -h 2, es también un sistema aislado, de energía
E = El-{-E 2 y volumen V = Vi -f V2, y número de partículas N = Ni N 2 · El
número de microestados posibles del sistema compuesto viene dado por:

Ü{E, V, N; El, V i , N i ) = í i i{ Eu Vi, Ni ) Ü2 ÍE 2 , V2 , N 2 ), (2.2)

p.orque los microestados de uno y otro sistema son independientes.


Supongamos ahora que los sistemas 1 y 2 se ponen en contacto mùtuo, tal
y como muestra la figura 2.1. Los sistemas 1 y 2 dejan de estar aislados, pero
el sistema compuesto 1 + 2 sigue estando aislado y tiene (E, V, N ) fijados.
Si la interacción entre los dos subsistemas es muy débil, y dado que tiene
lugar únicamente a través de la superficie frontera entre ambos subsistemas,
podemos suponer que el número de microestados del sistema compuesto viene
dado todavía por el producto Q 1 Q2 :

n ( E , V , N ; E u V u N i ) = ü i ( E u V u N i ) n 2 ( B - E u V - V i , N ^ Ni). (2.3)

Al entrar en contacto, los sistemas 1 y 2 intercambian energía, volumen y


partículas. Por tanto el número de microestados del sistema compuesto evolu­
ciona en el tiempo, ya que depende de £*1, V^i y iVi. La evolución se de­
tiene cuando se establece una nueva situación de equilibrio termodinámico
mutuo entre los sistemas 1 y 2. De acuerdo con el segundo postulado, enun­
ciado en la sección anterior, esta situación se alcanza cuando se hace máximo
Q (E , V, N; E u V u N i ) .
La naturaleza del equihbrio que se establece entre los sistemas 1 y 2 de­
pende del tipo de pared que los separa. Estudiemos diferentes situaciones:
Figura 2.1: Dos sistemas en equilibrio termodinámico mutuo.

(i) Pared diatèrmica (conductora del calor)^ rígida e impermeable


La posibilidad de intercambio de calor hace que E \ y E 2 sean variables,
mientras que A^2, Vi, V2 están fijos. Puesto que E \ -\r E 2 = E, sola­
mente hay vma variable independiente, E i. Tenemos:

üiE-,Ei) = Q i { E , ) n 2 Í E - E i ) (2.4)

La condición de máximo de fi respecto de esta variable lleva a:


dQ 1 [dni\ 1 fdíÍ2\
= 0 (2.5)
dEi El S lA d E j Q 2\dE2j'

donde S i es la energía del sistema 1 en equilibrio. Hemos usado que


dE 2 = —dEi^ ya que E se mantiene constante. Así pues, desde el punto
de vista de la física estadística, la condición de equihbrio térmico entre
los dos sistemas es:
/ g in O A _ í dlnQ2\
(2.6)
V dEi V dE2 ) v2,N2

Desde el punto de vista termodinámico, la condición de equihbrio térmico


entre los dos sistemas es que sus tem peraturas sean iguales:

T i = T 2. (2.7)

En el apéndice B se muestra que esta condición, en notación termodinámi­


ca, equivale a:
De acuerdo con el postulado de correspondencia, las condiciones de equi­
librio han de ser las mismas, y por tanto las derivadas en (2.6) han de
estar directamente relacionadas con las derivadas en (2.8).

(ii) Pared diatèrmica, móvil e impermeable


En este caso £?i, jE?2, Vi, V2 son variables, mientras que N i y A2 se
mantienen fijos. Puesto que E i + E 2 = E y Vi-\-V 2 = V, solamente hay
dos variables independientes, E i y Vi. Tenemos:

Ü{E, V; E u V i ) = í l i { E u Vi) ^ 2 { E ^ E^V - Fi). (2.9)


Siguiendo el mismo procedimiento que en el apartado anterior, ahora
pai'a las variables E i y Vi, la condición de máximo del número de mi­
croestados:
díl
_ _ - O, (2.10)
dEi El,Vi
lleva a dos condiciones de equihbrio. La primera es idéntica a (2.6) y la
segunda es:
fdinni^ _ / 9 1nñ2 \
V 9F: J b i ,Ni V dV2 ^^
Las condiciones termodinámicas de equilibrio térmico y mecánico corre­
spondientes a la situación estudiada son:

Ti=T2, Pi =P2· (212)

En el apéndice B se muestra que estas condiciones llevan a la igualdad:

De nuevo, por el postulado de correspondencia, las condiciones de equi­


librio han de ser las mismas, y por tanto las derivadas en (2.11) han de
estar directamente relacionadas con las derivadas en (2.13).

(iii) Pared diatèrmica, móvil y permeable al paso de partículas


En este caso son variables £*1, £*25 Vi, V2, y ^ 2· Puesto que E 1 + E 2 =
Vi -h V2 = V y A/'i -h A^2 = AT, las variables independientes son E i, Vi
y N i. Tenemos ahora:

n { E , V , N ; E u V i , N i ) = n i { E i , V u N i ) Ü 2 Í E - E u V - V i , N - Ni).
(2.14)
Siguiendo el mismo razonamiento que en los dos casos anteriores, la
condición de máximo del número de microestados en el equilibrio lleva
de nuevo a las igualdades (2.6), (2.11) y a:

^ / d]níÍ2\
l dNi J b „ v, V 0N2 )E ,y ,' ^ ''
Estas condiciones de equilibrio se han de corresponder en termodinámica
con las condiciones de equilibrio térmico, mecánico y químico:

^ 1 = ^ 2, P i = P 2, A^i=/^2· '(2.16)

La condición de equilibrio químico equivale a:

Como en los casos anteriores, la igualdad de las derivadas en (2.15) tiene


que estar relacionada con la igualdad de las derivadas de la entropía en
(2.17).

2.3,1. E n tro p ía d e B o ltzm a n n


Del análisis precedente se sigue que:

(i) Desde un punto de vista termodinámico, un sistema aislado evoluciona


hacia el equihbrio maximizando su entropía. Desde el punto de vista de
la física estadística , un sistema aislado evoluciona hacia el equilibrio
maximizando íl (y por tanto también Infì).

(ii) Las condiciones de equilibrio termodinámico. Ti = T2, pi = P2 y A¿i =


se pueden expresar como igualdades entre derivadas de S respec­
to de sus variables naturales (ecuaciones (2.8), (2.13) y (2.17)). Estas
condiciones se corresponden en física estadística con igualdades entre
derivadas de Iníi respecto de sus variables naturales (ecuaciones (2.6),
(2.11) y (2.15)).

La conclusión más simple que se puede extraer es que 5 y In íi de un sistema


aislado han de ser proporcionales. En concreto, para un sistema aislado en
equilibrio termodinámico, caracterizado por el macroestado {E, V,N):

S{E, V, N) = k e In Q{E, V, N) (2.18)

donde Q{E, V, TV) es el número de microestados en que puede presentarse el


sistema, y es una constante universal (a determinar) que se introduce por
razones dimensionales. Tal y como se muestra en la segunda parte de este
curso, la resolución de problemas concretos de la física estadística lleva a la
conclusión de que k s no es otra que la constante de Boltzmann, k s = R ¡N a =
1,380658(12) x 10"^^ J/K , donde R es la constante universal de los gases y
N a el número de Avogadro.
Este resultado, debido originalmente a Boltzmann, ocupa un papel central
en la física estadística . Conecta el mundo macroscópico o termodinámico (5)
con el mundo microscópico (Í2). No se tra ta de una definición, puesto que
S{E, V, N) es un potencial termodinámico postulado por la termodinámica, y
Q{E, V, N ) es una cantidad que se evalúa a partir de teorías microscópicas.
Es interesante comprobar que fi tiene efectivamente las propiedades nece­
sarias para que sea válida la ecuación (2.18). De un lado, la función In íí
es definida positiva, ya que el valor mínimo de Í7 es 1. De otro lado, el
equivalente termodinámico de la relación (2.2) es S { E , V , N ; E i , V i , N i ) =
S\{Ei, Vi, Ni ) -h S 2 {E 2 , V2, A^2)j que se corresponde con el requisito de que la
entropía sea extensiva. La condición de extensividad de la entropía se traduce
en la siguiente forma funcional para Ü:

íl r. (2.19)

que identifica a los denominados sistemas normales. El comportamiento fun­


cional de <l>está sujeto a ciertas condiciones derivadas de las propiedades que
ha de satisfacer la entropía. Expresada de esta forma, Cl se comporta ade­
cuadamente en el límite termodinámico (apéndice B).
En termodinámica se interpreta la entropía como una medida del desor­
den de un sistema. En concreto, de la falta de disponibiüdad en el sistema
de energía convertible en trabajo. Con el resultado (2.18), la física estadística
asocia el desorden de un sistema al número de microestados accesibles que,
en definitiva, es una medida de su impredecibilidad. En particular, una con­
secuencia de (2.18) es que un sistema tiene entropía 5 = 0 cuando tiene un
único microestado accesible, fi = 1, situación en que el estado microscópico
del sistema es completamente predecible.
Llegados a este punto, podemos afirmar que la entropía es el potencial
termodinámico de la colectividad microcanónica. Todas las propiedades ter­
modinámicas de un sistema en esta colectividad (sistema aislado) se pueden
obtener a partir de la entropía, tal y como se muestra en el apéndice B. En par-
ticuleu·, la tem peratura absoluta, la presión y el potencial químico del sistema
se calculan como derivadas de la entropía (ecuaciones (2.8), (2.13) y (2.17) y
apéndice B):

Í - ( S . , · - ' ( S ) „ » »
Las dos primeras determinan la ecuación de estado del sistema al eliminar la
energía.

2.4. Cálculo del número de microestados en la colec­


tividad microcanónica
En las secciones anteriores hemos determinado la relación entre el número
de microestados íí y las magnitudes termodinámicas relevantes del sistema.
La otra cuestión fundamental que debemos tratar ahora es el cálculo explícito
de íí, en función de E , V y N .
En la práctica, el cómputo explícito de microestados requiere conocer la
estructura microscópica del sistema particular considerado, y se realiza en
el marco de la teoría que mejor describe su comportamiento microscópico
(mecánica clásica, mecánica cuántica, electromagnetismo, etc.). Los capítulos
6 y 7, y el apéndice A, presentan diferentes ejemplos. Nosotros nos hmitaremos
aquí a introducir los principios generales a seguir.

2.4.1. M icro esta d o s discreto s


Cuando describimos el sistema en el maico de la mecánica cuántica, los
estados microscópicos accesibles al sistema son discretos (si bien resultan muy
próximos cuando el sistema adquiere dimensiones macroscópicas), y por tanto
tiene pleno sentido preguntarse por su número total H (£, V, N ).
Sin embargo, la discretización de los niveles de energía asociados a los esta­
dos cuánticos hace que H(iV, V, E) sea una función discontinua de E. P ara evi-
toi’lo, se introduce una tolerancia SE en la energía que caracteriza el macroes­
tado, de manera que ésta puede variar continuamente entre E y E + SE. En
esta situación se define igualmente Í2, que se entiende ahora como el número
de microestados en el intervalo de energías { E , E + SE). Aunque SE es una
cantidad finita, en el límite termodinámico se cumple que S E ¡E —►O, y por
tanto en este límite el cómputo de microestados no queda alterado.

2.4.2. M icro esta d o s continuos


En el marco de la mecánica clásica, el estado microscópico de un sistema
de muchas partículas se define por medio del hamiltoniano W del sistema y
por las posiciones y los momentos de las partículas en un cierto instante de
tiempo. El marco adecuado para describir la evolución del sistema es el es­
pacio de las fases, definido por las variables canónicas conjugadas continuas
(íl) · · ·, Q3 N,Pi, · · · iP3n)· Un posible microestado del sistema en un cierto in­
stante de tiempo viene representado por un punto en el espacio de las fases. La
evolución del punto representativo viene dictada por las leyes de la mecánica
clásica para cada una do iaa N partículas del sistema. Cuando el sistema se
encuentra aislado, «in embargo, la condición de conservación de la energía E
impone una relación entre las 6N variables del espacio de las fases, que re­
stringe las trayectorias poflibles del punto representativo a una superficie de
Qhí - Ì dimensiuiied. En esta situación, el análogo clásico del postulado de
equiprobabilidad de loa microestados accesibles es que el punto representativo
del sistema en el espacio de las fases puede encontrarse con igual probabilidad
en cualquier punto de dicha superficie.
El problema se presenta cuando se pretende contar el número de microesta­
dos con energía E. Las variables no son variables discretas, y por tanto
no hay modo de realizar el cómputo. P ara solventar esta dificultad, se utihza
el siguiente artificio: se reticula el espacio de las fases en hipercubos elemen­
tales de volumen y se asocia a cada hipercubo un microestado distinto.
El volumen (Jq es el volumen asociado a cada par de variables conjugadas, y
tiene dimensiones de acción (energía x tiempo):

ApiAqi = 6o. (2,21)


Así tenemos un modo de contar el número de microestados, n(E'), compren­
didos entre E y E SE, como un cociente entre el volumen del espacio de las
fases accesible al sistema y el volumen elemental de un microestado:

íi{E, V , N ) = ¿ ^ f . . . I (2.22)
^0 J J e <u <e +6e
Al introducir una cierta incertidumbre en la posición de cada punto del espacio
de las fases hemos introducido inevitablemente uná incertidumbre en la energía
del sistema, que se refleja en el hecho de que las integrales en el espacio fásico
no se restringen a la superficie de E constante sino al volumen de la capa entre
E y E SE.
En muchos sistemas de interés (partículas hbres, osciladores,.. ) el hamil­
toniano es cuadrático en las variables canónicas {quPi}. En este caso, la
condición E < H < E + SE define una cáscara esférica en el espacio de
las fases multidimensional, hm itada por las hipersuperficies esféricas de E
constante y E SE constante. El número de microestados accesibles al sis­
tema, Ü{E, V, N ), es el número de microestados contenidos en la cáscara. En
el límite termodinámico la dimensionahdad del espacio de las fases (6AT) es ex­
traordinariamente elevada. Por esta razón, a efectos del cálculo de la entropía
del sistema es indiferente contar los microestados contenidos en la cáscara
hiperesférica, los contenidos en la hiperesfera de radio E, o los contenidos
sobre la superficie de dicha hiperesfera. Las diferencias en entropía son del
orden de l n { NS E / E) y por tanto, cuando iV —> oo, son despreciables frente
a las otras contribuciones a la entropía, que han de ser forzosamente propor­
cionales a N yeí que la entropía es extensiva. Un ejemplo concreto se detalla
en el capítulo 6, en que se estudia el gas ideal monoatómico en la colectividad
microcanónica.
Los resultados del capítulo 6 muestran que el cómputo del número de
microestados es independiente de que el sistema se describa clásica o cuánti­
camente, si se identifica 6q (el volmnen elemental del retículo asociado a un par
de variables conjugadas en el espacio de las fases) con la constante de Planck,
/1 = 6,626 x 10^34 jg
Además de proporcionar una nueva interpretación de la constante de Planck,
el resultado anterior se corresponde con:

ApiAqi = 2nñ = h, (2.23)

que es el límite inferior permitido por el principio de incertidumbre de Heisen-


berg. En definitiva, la formulación es consistente con la mecánica cuántica. En
el espacio de fases, los estados microscópicos se empaquetan con la densidad
máxima perm itida por la mecánica cuántica.
Capítulo 3
la COLECTIVIDAD CANÓNICA

3.1. Introducción
La colectividad microcanónica, a pesar de su utilidad en la fundamentación
de la física estadística, tiene dos inconvenientes notables que la hacen poco útil
en las aplicaciones prácticas. Por una parte, es difícil mantener un sistema con
energía fija. Una situación experimental más usual es tener al sistema en con­
tacto con un baño térmico a tem peratura controlada. En este caso el sistema
no está aislado sino en equilibrio térmico con sus fronteras. Por otra parte, no
existen técnicas matemáticas genéricas para calcular el número de microesta­
dos de cualquier sistema aislado, especialmente en sistemas con interacción. A
estos dos aspectos desfavorables hay que añadir la dificultad de su extensión
a sistemas que requieran el tratam iento correcto de la coherencia cuántica.
La colectividad canónica obvia estos inconvenientes y tiene grandes posibil­
idades de extensión a prácticamente cualquier sistema. Esta colectividad es la
más utilizada, debido fundamentalmente a su simple formalización matemática.
Los cálculos son fáciles de plantear y generalmente son asequibles a un tratam ien­
to perturbativo. La mayoría de los sistemas que se estudian en física estadística
se abordan en la colectividad canónica, razón por la cual ocupa una parte cen­
tral de este curso.
Por rabones históricas la colectividad canónica se considera representativa
de los sistemas clásicos, descritos por variables canónicas conjugadas contin­
uas. Sin embargo es mucho más general y puede usarse en sistemas cuánticos
discretos en el límite adecuado, que en este capítulo definiremos.
En algunos textos se tom a esta colectividad como axioma, y a partir de ella
se formula toda la física estadística. Nosotros vamos a derivarla a partir de los
resultados obtenidos en el capítulo anterior para la colectividad microcanónica
En la colectividad canónica, el sistema a estudiar se encuentra en equihbrio
térmico con un baño externo a tem peratura T, que asegura que la tem peratura
del sistema es también T. Las otras variables que definen el estado macroscópi­
co del sistema, en un sistema hidrostático, son el volumen, V, y el número de
partículas, N .
El potencial termodinámico asociado a esta colectividad es la energía libre
m M m z

Figura 3.1: Subsistema macroscòpico en contacto termico con un subsistema mayor (baño
térmico), ambos a temperatura T.

de Helmholtz, F , que tiene (T, F , N ) como variables naturales y por lo tanto


corresponde a la misma situación física a estudiar. Conviene repasar lo que
establece la termodinámica para esta situación concreta (apéndice B).
A continuación presentamos los ingredientes teóricos y formales princi­
pales, dejando su implementación práctica y aplicaciones para los capítulos 8,
9 y 10.

3.2. Equilibrio de un sistema en contacto con un


baño térmico
Una vez establecidas en el capítulo anterior las condiciones de equilib­
rio termodinámico en un sistema aislado, vamos a ver aquí cómo se aphcan
a un sistema muy grande que contiene a un subsistema más pequeño pero
macroscópico y que es nuestro objeto de estudio (ver figura 3.1). El resto del
sistema va a actuar como baño térmico. El subsistema puede intercambiar en­
ergía con el baño: sus paredes son diatermas. La energía de todo el sistema es
Eo, que por estar aislado se mantiene constante.

3.2.1. P ro b a b ilid a d d el esta d o d e energía Er


Como la energía del subsistema no está fijada, nos preguntamos por la
probabilidad P{Er) de que el subsistema tenga energía Er. Por lo explicado
en el capítulo anterior, dicha probabilidad será proporcional al número de
microestados de todo el sistema completo que correspondan precisamente a
que el subsistema tenga la energía Er. Esto corresponde a:

P{Er) = c n i ( £ ; , ) n 2(^0 - Er) = (3.1)


donde C es la constante de normalización a determinar más adelante. Los
subíridicea 1 y 2 so rofloron al subsistema y al baño respectivamente. S 2 es
la entropía del baño, do acuerdo con la expresión (2.18), que es aplicable
aquí porque al ñjai* Er queda ñjada también la energía del baño, Eq — Er.
Como suponemos q m E r < £*0, podemos desarrollar S 2 en la forma:

S2{Eo - Er) = SiiEo) - d E Eo


Er + --- = S 2 { E o ) - ^ + · · · , (3.2)
^

donde hemos usado la primera de las relaciones (2.20) para un sistema aislado
dividido en dos partes, que es precisamente nuestro caso.
En resumen, sustituyendo este resultado en la ecuación (3.1), podemos
establecer que la probabilidad de que el sistema tenga energía Er es:

P{Er) = p = l/ksT, (3.3)

donde fli{Er) es la degeneración del nivel de energía Er (número de estados


con dicha energía). Z agrupa las constantes de este cálculo, que luego deter­
minaremos. Vemos pues que la probabilidad es el producto de dos términos
que dependen de la energía: el primero, Qi{Er), es fuertemente creciente con
Er] el segundo, por el contrario, decrece cxponencialmente. El resultado es que
la probabiUdad tiene un máximo pronunciado a una energía intermedia, E*,
El cálculo de P{Er) no ha sido riguroso, ya que hemosdespreciado órdenes
superiores de Er. Comprobaremos en la sección 3.4 que esta distribución de
probabihdad, en el límite termodinámico. conduce a una descripción equiva­
lente a la de la colectividad microcanónica. En dicha comprobación, la posición
del máximo de P(Er) juega un papel relevante.
Puesto que P{Er) es una distribución de probabilidad, el valor de Z se
determina por normalización:

Z{T,V,N) = J2^,{Er)e-^^^. (3.4)


Er

La suma sobre Er es una suma sobre los posibles valores de la energía del
subsistema. Si en lugar de sumar sobre niveles de energía, sumamos sobre
estados, tenemos:
Z(T,V ,N) = J2 e -^ ^^ , (3.5)
T

donde la suma contiene términos repetidos cuando hay degeneración.


La cantidad Z, que depende explícitamente de T, y que contiene la de­
pendencia en V y AT a través de Er{V, N)^ es la llamada función de partición
canónica y es el punto de partida para el cálculo de la información macroscópi­
ca sobre el sistema.
3.2.2. Valor m ed io y ñ u ctu acion es d e la energía
A partir de la función de partición canónica vamos a obtener una expresión
para el valor medio de la energía del sistema, {E)^ y su varianza, (AE*)^ =
— (£)^· Es fácil ver que estas cantidades se pueden obtener mediante
derivadas de la función de partición:

{E) = ErP{Er) ü{Er) = - ( ^ In z ) .(3.6)

= (3.T,

Podemos ver que el calor específico está relacionado con las fluctuaciones de
la energía. E sta cantidad nos da información estadística sobre la probabilidad
de encontrar al sistema con una energía cercana a su valor medio. Además, las
fluctuaciones relativas:

LE _ V k ^ T ^ 1
m — m — 7Ñ
son despreciables en el límite termodinámico, —►oo, para los sistemas nor­
males, en que C v ^ N y {E) N (apéndice B). En estas circunstancias
podemos considerar que la energía media (E) es justamente la energía interna
U de la termodinámica.

3.3. Colectividad canónica y termodinámica


Para calcular las propiedades termodinámicas de un sistema en la colectivi­
dad canónica debemos, antes que nada, identificar el potencial termodinámico
de la colectividad y definirlo en términos de la función de partición.
El potencial termodinámico adecuado para un sistema en equilibrio con
un baño térmico es la energía libre de Helmholtz, F(iV, V,T). Proponemos
relacionar el potencial termodinámico F con la función de partición canónica,
Z, mediante la expresión:

F(T, y, N ) = - k B T In Z(T, F, N). (3.9)

La relación es análoga a la del capítulo anterior entre la entropía, 5, y el


número de microestados, H. Ambas relaciones nos dan información macroscópi­
ca a partir de los constituyentes microscópicos del sistema. Justificaremos la
expresión anterior en la sección siguiente.
El rosto de propiedades termodinámicas se obtienen del potencial F. Re-
HUiuimofl aquí los resultados del apéndice B:

" = - ( Í L ^ ^= {% )r.v ·
La primera ecuación proporciona directamente la ecuación de estado del sis­
tema.

3.4. Equivalencia entre las colectividades microcanónica


y csmónica
En la derivación de la probabilidad canónica (3.3) dejamos algún detalle
matemático por dilucidar. Además, debemos justificar todavía la relación (3.9)
entre F y Z, Para ello, vamos a comprobar que las definiciones de 5 y F ,
dadas por la física estadística en términos de In y In Z, son consistentes con
la relación termodinámica entre ambos potenciales termodinámicos.
Como sabemos, las fluctuaciones relativas (3.8) son despreciables en el
límite termodinámico. Ello lleva implícito que la distribución de probabilidad
canónica (3.3) es una distribución muy estrecha alrededor del valor máximo,
y por tanto dicho valor máximo está muy cerca del valor medio, {E).
Por ello, en el límite termodinámico, la ñmción de partición canónica (3.4) se
reduce a;
Z =Y ^ Ü { E r ) e ~ ^ ^ - (3.11)
Er
de donde se deduce que en dicho límite:

ln Z = l n í í ( E * ) - ^ . (3.12)

Teniendo en cuenta las definiciones estadísticas de la entropía y de la energía


libre de Helmholtz, la última igualdad nos conduce al resultado:

F = U -TS. (3.13)

Este resultado nos asegura que F es la energía hbre deHehnholtz y que la


conexión entre F y la ftinción de partición canónica es consistente con la
termodinámica. Una demostración más rigurosa puede verse en [Pat96], pág.
60.
En conclusión:

(i) Las colectividades microcanónica y canónica son termodinàmicamente


equivalentes. Predicen los mismos resultados físicos.
(ii) La física estadística nos proporciona una expresión explícita de los po­
tenciales termodinámicos en fíinción de parámetros del sistema, lo que
nos permite calcular observables y no solamente relaciones entre ellos.

3.5. Bajas y altas temperaturas


■ Cuando el sistema está acoplado a un baño térmico cuya tem peratura
es cercana al cero absoluto, el sistema tenderá a ocupar los niveles de
energía más bajos. A temperaturas bajas esto es necesariamente así, pues
la física que se debe aplicar es la mecánica cuántica. En particular, en el
cero absoluto el sistema estará en su estado fundamental, de energía Eq, y
si éste tiene ü {Eq) microestados (degeneración del estado fundamental),
la entropía y la energía interna serán:

r O: S{Eo) = kB In ü{Eo) ; {E) = E q. (3.14)

Muchos sistemas tienen el estado fundamental no degenerado (le cor­


responde un único microestado) y entonces su entropía es nula a esa
tem peratura.

■ El comportamiento del sistema a alta tem peratura depende del límite


superior de la energía microscópica. Si esta energía no está acotada, a
tem peraturas muy altas esperamos los resultados del límite continuo,
que estarán de acuerdo con el denominado teorema de equipartición de
la energía, que estudiaremos más adelante en este capítulo. Si la energía
está acotada, tenemos que a tem peraturas muy altas exp{—pEr) — 1, y
por tanto el sistema ocupa con igual probabilidad todos y cada uno de
los estados posibles (máximo desorden). Sea el número
total de estados microscópicos con cualquier energía dentro del intervalo
finito de energías accesibles. Entonces la entropía y la energía media son:

T-^oo: S = kBÍnQt·, {E) =

Este resultado, correspondiente a tem peraturas altas, es sorprendente y


a la vez tiene mucho sentido físico: la energía media está acotada, obvia­
mente, pero además resulta ser menor que la cota máxima de energía que
puede alcanzar el sistema, Emax· correspondiente a ocupar en exclusiva
el estado de máxima energía. Esto resulta extraño porque desde el punto
de vista de la colectividad microcanónica parece natural que el sistema
pueda ser preparado y aislado para cualquier valor de la energía dentro
del dominio accesible. El resultado (3.15) nos dice que esto no es posible
en la colectividad canónica, y que a tem peratura infinita necesariamente
hemos do tonor ol máximo desorden posible, que corresponde a que el sis­
tema ocupo con Igual probabilidad todos los estados del sistema. Veamos
por qué. SI tratamos de preparar el sistema con una energía mayor, éste
necesariamonto so ordena (ocupa menos microestados, aunque de mayor
energía) y por olio la entropía decrece. Como consecuencia la temper­
atura absoluta, T = { d E / d S ) N y i se hace negativa. Estados de tem per­
atura negativa son incompatibles con la termodinámica de equihbrio.
Sin embargo, al existir la posibihdad de construirlos experimentalmente,
hemos de interpretarlos como estados de no equilibrio, a los que no se
Itís puede aplicar el tratamiento presente. Son estados meta^stables que
necesariamente acaban relajando a un verdadero estado de equilibrio ter­
modinámico. Este problema está explicado con detalle en [ZD81], págs.
544-554.
Los resultados (3.14) y (3.15) se pueden obtener rigurosamente a partir de
las ecuaciones (3.3), (3.6), (3.9) y (3.10), y son de gran utilidad para verificar
la validez de expresiones generales de la entropía y la energía en esos hmites.

3.6. Grados de libertad, separabilidad y temperat­


uras características
En general, un sistema físico formado por N elementos tiene un cierto
número de grados de libertad por elemento, y diferentes tipos de interacciones
entre ellos. Por ejemplo, para un gas noble formado por átomos simples ten­
dríamos la siguiente hsta de posibles grados de hbertad: traslacionales (posi­
ciones y momentos), rotacionales (ángulos de Euler y sus velocidades angulares
correspondientes), atómicos (correspondientes a los electrones, su spin, etc.),
nucleares (partículas componentes del núcleo), etc. Además hay que considerar
las contribuciones energéticas (cinética, potencial, magnética, etc.) asociadas
a esos grados de libertad. En resumen, parece que la lista de grados de liber­
tad posibles no está acotada: depende del avance de nuestro conocimiento del
mundo subatómico. Sin embargo, el efecto de los diferentes grados de hbertad
se pone de manifiesto únicamente en determinados intervalos de tem peratura.
El origen de este comportamiento reside en la posibilidad de separar la
contribución de los diferentes grados de libertad y definir para cada uno de
ellos una tem peratura característica. El análisis se puede formular de la sigu­
iente forma: el hamiltoniano del sistema se puede expresar como suma de los
diferentes hamiltonianos:
Tí = Hrras + H roí + TÍMag *f TÍEle + TÍmuc + **’ , (3.16)
suponiendo que el acoplamiento entre las diferentes clases de grados de hbertad
puede despreciarse. Esta propiedad aditiva se propaga a la función de partición
clásica en forma multiplicativa:

z = Z ttos * Z bjoí · ZMaq * Z e U ' Z muc * ‘ * 7 ( 3 * 1 7 )

lo que lleva directamente a la aditividad de la energía libre de Helmholtz:

F = ^Tras + Pñot + ^Mag + ^Ele + ^Nuc H----- (3.18)

Esto nos indica que podemos hacer los cálculos y el estudio por separado de
cada una de las funciones de partición.
Queda todavía por discutir el tem a de las tem peraturas cai’acterísticas.
Como veremos en los sistemas estudiados en este curso, cada familia de grados
de hbertad tiene una energía microscópica característica, e», que por simple
análisis dimensional permite construir su temperatura característica asociada,
© i, dada por:
6 i = |í - . (3.19)

Una vez conocida esta tem peratura para cada famiha de grados de hbertad,
podemos ordenarlas de menor a mayor y predecir si su efecto será observable
cuando el sistema se encuentre a una tem peratura concreta. Así, para tem­
peraturas T < ©i, no será necesario tener en cuenta los efectos derivados del
hamiltoniano Hi. Esto nos permitirá exphcar qué grados de hbertad se van a
activar (despertar) a partir de cierta tem peratura y por qué.
Recíprocamente, para aquellos grados de hbertad que tienen una energía
acotada, £maxi podemos definir igualmente una tem peratura máxima ©max =
SmaxI^B, POT encima de la cual los efectos de dichos grados de hbertad no
serán observables.

3 .7 . Clasificación de los grados de libertad


Aquí veremos que la separación entre estadísticas clásicas y cuánticas, in­
troducida en la sección 1.2, requiere un tratam iento más elaborado. Debe
hacerse más hincapié en la naturaleza de los grados de libertad que en la
naturaleza del propio sistema fisico. En muchos casos, un mismo sistema pre­
senta grados de hbertad de diferente naturaleza, lo cual hace inadecuada una
clasificación que atienda a los sistemas en lugar de a los grados de libertad.
La función de partición canónica (3.4) es aphcable en principio a cualquier
grado de hbertad. En la práctica, sin embargo, hay dificultades a la hora
de hacer el sumatorio debido a las restricciones sobre los estados permitidos
impuestas por las simetrías de la función de onda. Este problema es suficien­
temente complejo como para necesitar una extensión adecuada de la fundar
mentación, que se abordará en el capítulo 5. Por otra parte algunos grados de
libertad presentan niveles de energía tan próximos que lo adecuado es estu­
diarlos en una aproximación de energía continua. Surge la pregunta de cómo
utilizar la expresión (3.4) para estos casos.
Por todo lo anterior, veremos que habrá que diferenciar entre estadísticas
clásica y cuántica, y para cada una de ellas considerar por separado los casos
de energía continua y discreta. Ello lleva a clasificar los grados de hbertad en
cuatro clases distintas.

3.7.1. E sta d ística s clásica y cuántica


La estadística clásica es aquélla que prescinde de las restricciones impuestas
por la mecánica cuántica sobre los estados permitidos, debidas a la simetría
exigible a la función de onda del sistema de N partículas. Recíprocamente,
la estadística cuántica es la que toma expHcitamente en consideración dichas
restricciones. La frontera entre estas estadísticas es difícil de establecer de
forma matemáticamente rigurosa [Huang, pág. 323].
Usando la intuición física podemos conjeturar que si las partículas que
forman el sistema están muy alejadas entre sí apenas habrá superposición de
las funciones de onda monoparticulíures, y por lo tanto podremos prescindir
de las restricciones mencionadas arriba. Una forma de exphcitar este punto
es tratar de encontrar la longitud característica del alcance de la coherencia
cuántica y compararla con la distancia de separación media entre partículas,
l = En el caso de un gas, esta longitud característica, llamada
longitud de onda térmica de De Broglie, viene dada por:

tal y como veremos en la sección siguiente.


A partir de estas dos longitudes podemos establecer un criterio de validez
de la estadística clásica para los gases:

\ / l < 1, (3.21)

que nos conduce a la condición macroscópica:

λ®η : ---- ;—— I n <C 1, (3.22)


^2πτηΑ:βΓ J

dolida TI · N / V , SI iio se cumple este criterio, hay que estudiar el sistema


«II fll iiiiirdo dn k «atadfstica cuántica. En este caso, justamente, se utilizan
daawrolio· «n «1 parámetro A^n.
P ara el caso de sólidos, las partículas se encuentran sepaiadas y bien lo­
calizadas. Excepto en casos muy peirticulares, esta separación es lo suficiente­
mente grande como para poder prescindir de las correlaciones cuánticas. Ello
permite estudiar los sólidos mediante la estadística clásica.

3.7.2. E nergías d iscreta s y continuas


En principio la mecánica cuántica predice que los niveles de energía de un
determinado grado de libertad están cuantizados. El llamado limite continuo
de la función de partición consiste en sustitMir el sumatorio sobre niveles de
energía discretos por una integral en que la energía es una variable continua.
Este límite puede definirse con todo rigor, pero para nuestros fines basta tener
en cuenta lo siguiente: los saltos de energía, Ae, han de ser menores que el
valor de la energía térmica kßT:

(3.23)

lo que implica que la tem peratura del sistema deberá ser suficientemente alta
para que los niveles más altos tengan peso estadístico.

La conclusión es que los conceptos clásico, cuántico, discreto y continuo


•on independientes. A continuación presentamos ejemplos correspondientes a
citda una de las situtvciones posibles.

3 .7.3. C lasiñcación d e ¡os sistem a s esta d ístico s


Atendiendo a las condiciones anteriormente expuestas, (3.21) y (3.23),
podemos establecer cuatro clases:

a) Sistemas estadísticos cuántico-discretos


Los grados de libertad del sistema físico que se estudia tienen niveles
de energía discretos. Además hay que imponer las restricciones que se
derivan de las condiciones de simetría de la función de onda asociadas al
carácter bosónico o fermiónico de las partículas. Ejemplo: los grados de
libertad rotacionales de una molécula diatómica homonuclear, tal como
Í Í 2 (capítulo 12).

b) Sistemas estadísticos cuántico-continuos


Se tienen en cuenta las características cuánticas bosónicas o fermiónicas
de las partículas, pero los niveles de energía de los grados de libertad
estudiados están tan juntos que se tratan en el continuo. Ejemplos: los
grados de libertad traslacionales de los gases ideales cuánticos (capítulo
14) y la condensación de Bose-Einstein (capítulo 15).
Ebtos dos cajioa debon estudiarse mediante la estadística cuántica corre­
spondiente, que se desarrolla en el capítulo 5.

c) Sistemas estadíaticoB clásico-discretos


Se considera el caiacter discreto de los niveles de energía, pero los efectos
de la coherencia cuántica se desprecian dado que las partículas están muy
separadatí entre sí. Se aplica directamente (3.4) o (3.5). Ejemplos: defec­
tos puntuales en sóUdos (capítulo 7), grados de libertad magnéticos de
un sólido paramagnètico (capítulo 9), y grados de libertad vibracionales
en sólidos a bajas tem peraturas (capítulo 10).

d) Sistemas estadísticos clásico-continuos


El espectro de energías se toma en el continuo y se desprecian las re­
stricciones sobre estados impuestas por la mecánica cuántica. Ejemplos:
grados de hbertad traslacionales de un gas ideal (capítulos 6, 8 y 12),
grados de hbertad magnéticos del sólido paramagnètico clásico (capítulo
9), y grados de libertad vibracionales de los sólidos cristalinos a altas
tem peraturas (capítulo 10).
La estadística clásica utilizada en estos casos se llama estadística de
MaxweU-Boltzmann. Dada la importancia histórica y práctica de esta
estadística, se presenta su desarrollo con más detalle en la siguiente sec­
ción.

. La tabla 3.1 resume esta clasificación y muestra los ejemplos correspon­


dientes a los sistemas físicos que serán estudiados en la segunda parte del
curso.

3.8. La colectividad canónica en la estadística clásica-


continua
3.8.1. G as d e p a rtícu la s q u e ob ed ecen la m ecánica clásica
Supongamos que se pueda utilizar la estadística clásica en el límite en
que la energía es una variable continua. Usando las variables microscópicas
{PiiQi) en lugar de la energía E, la función de partición canónica (3.5) para N
partículas idénticas, encerradas en un volumen V, es:

Z(T, V', N ) = (3.24)

donde el factor l / h ^ ^ corresponde a dividir por el volumen elemental de un


microestado en el espacio fásico, como se discutió en el capítulo anterior. El do­
minio de integración D es el dominio de las variables del sistema en el espacio
Cuadro 3.1: Clasificación de estadísticas y ejemplos de sistemas estudiados en este cursc
en función de la temperatura T, la separación de energía entre niveles, Ae, la separació;
interparticular y la longitud de onda térmica A.

ESTADÍSTICA CUÁNTICA ESTADÍSTICA CLÁSICA

CUÁNTICA - DISCRETA CLÁSICA - DISCRETA

Molécula diatómica homonuclear Vacantes de Schottky


Intersticios de Frenkel !
Paramagnetismo de Brillouin
Sóüdo de Einstein
Sólido de Debye

Gas de fotones Gas ideal clásico


Gas de bosones Paramagnetismo de Langevin
Gas de electrones Sóüdo de Dulong y Petit

CUÁNTICA - CONTINUA CLÁSICA - CONTINUA

^«1

fásico: p aja las posiciones y (—00, 00) para cada uno de los momentos lin­
eales. Finalmente, 1/N\ es un factor que tiene en cuenta de forma aproximada
el hecho de que, al ser las partículas idénticas, la$ permutaciones entre partícu­
las en diferentes estados no producen nuevos microestados. En particular la
presencia del N\ asegura la extensividad de los potenciales termodinámicos,
como veremos con detalle en el capítulo 8.
La expresión (3.24) constituye el paradigma de la estadística clásica. Es
aplicable en general a sistemas de partículas en interacción. En este caso, el
hamiltoniano tiene la forma:

(3.25)
i=i

El sumando contiene la energía cinética de las partículas yC /({^})esla energía


potencial. En la expresión (3.24) pueden hacerse las integrales gaussianas de
la energía cinética y llegar a:

V, N ) = ^ d^^q, (3.26)

donde la integral que resta por calcular se denomina integral de configuración.


Aquí podemos ver el origen de la longitud de onda térmica, A, definida en
(3.20), y cuya im portancia se discutió en la sección anterior.
P ara un sistema en que las partículas no interaccionan m utuamente el
hamiltoniano es la suma de los hamiltonianos monoparticulares. Ello permite
la factorización de la función de partición en producto de funciones de partición
monoparticulares, Zi, de manera que tenemos:

(3.27)

Zi{T,V) = ^ J^ (3 28)

donde D\ es el dominio de variación de los grados de hbertad de cada partícula,


y Tii{{p,q}) es el hamiltoniano de la partícula.

3.8.2. S istem a s d e p a rtícu la s localizadas


P ara partículas locahzadas, como en el caso de un sóhdo ideal, la función
de partición canónica (3.4) es factorizable en el producto de cada una de las
funciones de partición correspondientes a cada partícula. Supongamos que
tenemos N . Entonces:

Z{T,V,N) = [ Z , { T , V ) f , (3.29)

donde Zi(T, V) es la función de partición monoparticular, que puede tomar la


forma (3.28) en la aproximación continua o su equivalente discreto.
Este tipo de factorización, que veremos con más detalle en las aplicaciones
de los capítulos 9 y 10, simplifica mucho los cálculos para estos sistemas, cuyo
estudio sería muy engorroso usando la colectividad microcanónica.

3.9. Teorema de equipartición de la energía


El llamado teorema de equipartición de la energía tiene su origen histórico
en la interpretación de los resultados experimentales de la capacidad calorífica
molar de gases y sólidos cristalinos. Se encontró para los gases que cy ~
3/Í/2, en un amplio intervalo de tem peraturas. Para los sólidos cristalinos se
encontró que Cp ^ 3R (ley de Dulong y Petit), y que se aproximaba a este
valor a medida que se aum entaba la tem peratura.
Estos resultados se interpretaron como una manifestación de que cada uno
de los grados de libertad microscópicos adquiría una energía media k s T / 2
debida a la presencia del baño térmico. Así, para un gas con N partículas
(o moléculas) poco interactuantes, la única energía posible es cinética, corre­
spondiente a los 3 N grados de libertad de traslación de las partículas. Por
tanto: S S
E = - N k a T = - n N A k s T = -n iíT , (3.30)
donde n es el número de moles de gas y N a el número de Avogadro. De
aquí obtenemos que la capacidad calorífica molar es:

Por su parte, los sólidos cristalinos tienen 3iV grados de libertad cinéticos,
asociados a las vibraciones de los átomos, más ZN grados de libertad asociados
a la interacción armónica entre los átomos del cristal. Por el mismo tipo de
razonamiento que en el caso anterior se llega al resultado de Dulong y Petit.
Históricamente, este razonamiento simple permitía entender cómo una
propiedad macroscópica (la capacidad calorífica) era independiente de los de­
talles microscópicos de las sustancias.
Sin embargo apiueció un problema grave al constatarse, también experi­
mental mente, que los gases diatómicos pasaban a tener cy ~ hR/2 al aumentar
la tem peratura. Los gases nobles no experimentaban esta anomalía. Moléculas
inán complicadas también presentaban variaciones importantes, pero difíciles
de interpretar como fracción racional de R.
Si seguimos con nuestra interpretación hemos de suponer que, debido al
aumento de la tem peratura, han despeiiado dos grados más de libertad por
molécula diatómica. ¿Por qué no se manifiestan a temperaturas inferiores?
Este pequeño detalle llevó a los físicos a pensar que el mundo microscópico
no podría ser descrito correctamente a cualquier tem peratura simplemente
usando supuestos de la mecánica clásica.
A continuación vamos a deducir matemáticamente el teorema de equipar­
tición, que fundamenta el tipo de interpretación clásica que hemos utilizado
en los ejemplos anteriores. Es un resultado de la física estadística clásica,
que más adelante reinterpretaremos a la luz de los resultados de la mecánica
cuántica. Partimos de la probabilidad clásica correspondiente a (3.24), y va­
mos a enumerar las variables canónicas conjugadas con la notación {{p,q}) =
(xi, · · ·) Calculemos el siguiente valor medio:

d xj A Jd dxj

(3.32)
donde A — ZN \ para partículas libres y A = para partículas lo­
calizadas. Además hemos usado que el primer término de la integración por
partes es nulo en las fronteras [Pat96] y en el segundo término la integral se
cancela con Z. Este es formalmente el teorema de equipartición de laenergía.
Vamos a aplicar este resultado a un hamiltoniano particular coniV' grados
de libertad, que representa la situación física habitual de muchos sistemas
ideales:
n{{p,q})=f^aix'¡. (3.33)
i= l

Aplicando ahora el resultado (3.32), tenemos que:

= (3.34)

de donde obtenemos que el valor medio de la energía es

E = { n ) = ' £ { a i x ' l ) = N '’^ . (3.35)


1= 1 ”

Aphcando este resultado general a diferentes situaciones de N partículas


en un espacio de tres dimensiones, obtenemos:

a) Partículas Ubres. El hamiltoniano es:

«({?.?}) = (3-36)

de donde obtenemos que:

E = ^NkaT. (3.37)
jL

No hay contribución de las N ' = 3AT posiciones, y rj = 2 para los =


3 N momentos.

b) Partículas libres ultrarrelativistas. El hamiltoniano es:


N
n{{p,q}) = J 2 c \p ¿ (3.38)
i=l
y por lo tanto:
E = SNkBT. (3.39)
No hay contribución de las N ' = 3 N posiciones, y rj = 1 para los TV' =
3N momentos.
c) Osciladores armónicos. El hamiltoniano es:

(3 40)
i=l \ /
de donde concluimos que:

E = i N k B T + ^ N k a T = ZNkaT, (3.41)
z z
ya que 77 = 2 para las iV' = 3 N posiciones y para los iV' = 3 N momentos.

d) Moléculas extensas libres. EL hamiltoniano es:

+ (3 42)

y por lo tanto:

E = ^ N k e T + ^ N k e T = Z N k s T. (3.43)

No hay contribución de las 3 N posiciones ni de los 3 N ángulos, y 77 = 2


para los 3 N momentos hneales y para las 3 N velocidades angulares.

e) Partículas libres en un campo gravitatorio. El hamiltoniano es:

W({p. 9}) = X ] ( ^ + , (3.44)


í=l \ /
y por tanto:
E = ^ N k sT + NkgT = ^NkeT. (3.45)

No hay contribución de las 2 N coordenadas de posición x e y, mien­


tras que 77 = 1 para las N coordenadas z, y 77 = 2 para los TV' = 3 N
momentos.

Obsérvese que los ejemplos b), c) y d) dan el mismo resultado para hamilto­
nianos microscópicos diferentes. Estos ejemplos serán de utihdad para interpre­
tar el comportamiento de diferentes sistemas en el límite de alta tem peratura.
Estos son los resultados de la aphcación directa del teorema. Vimos en
la sección 3.6 que algunos de los grados de hbertad contabilizados anterior­
mente no se activan en determinados rangos de temperatura, lo que lleva a
observaciones experimentales que difieren de las predicciones anteriores.
Capítulo 4
LA COLECTIVIDAD MACROCANÓNICA

4.1. Introducción
La colectividad canónica, estudiada en el capítulo precedente, ocupa un
papel central en la teoría de colectividades. Sin embargo, algunos problemas
relevantes son difíciles de abordar en dicha colectividad. Las dos situaciones
más importantes son:

(i) El estudio de sistemas pluricomponentes y/o que se presentan en difer­


entes fases (estados de agregación). Incluye problemas tan importantes
como transiciones de fase y reacciones químicas. La dificultad estriba en
que el número de partículas de cada componente en cada fase es difícil
de controlar de forma directa y generalmente no se mantiene constante.

(ii) El estudio de sistemas en que la densidad de partículas es suficientemente


alta para que sean relevantes efectos de coherencia cuántica. En este caso
la restricción que supone m antener N fijado hace muy difícil sumar la
función de partición canónica.

Así pues, nos enfrentamos a la necesidad de introducir una nueva colec­


tividad, denominada colectividad macrocanónica, en que los sistemas tienen
tanto E como N variables. Las correspondientes cantidades macroscópicas
(termodinámicas) se identifican con los valores medios de E y N en la colec­
tividad.
En esta colectividad, el sistema a estudiar se encuentra simultáneamente
en equihbrio térmico con un baño externo a tem peratura T y en equihbrio
químico con un reservoir de partículas cuyo potencial químico es /x. El equi­
librio con el baño térmico fija la tem peratura del sistema al valor T, mientras
que el equilibrio con el reservoir de partículas fija el potencial químico del sis­
tema al valor //. E sta últim a condición se generaliza sin dificultad a cualquier
número de componentes y fases, para cada uno de los cuales se introduce el
correspondiente potencial químico fXj. El estado macroscópico de un sistema
hidrostático, por tanto, viene especificado por las variables y T.
^2 =^0-^r
N2 =No -N^

Figura 4.1: Subsistema en contacto con un segundo subsistema, mucho mayor, que actúa
como baño térmico y reservoir de pariiícuias, de manera que el conjunto es un sistema
aislado.

4.2. Equilibrio de un sistema en contacto con un


baño térmico y un re se rv o ir de partículas
Consideramos un sistema aislado, representado en la figura 4.1, que con­
tiene en su interior al subsistema objeto de estudio. Las paredes que rodean al
«ubsistema son diatérmicas y permeables al paso de partículas, de manera que
fil resto del sistema (que suponemos mucho mayor) actúa como baño térmico y
reservoir de partículas. Para simphficar, en adelante nos referiremos a él como
baño.
Denominamos Eq y Nq, respectivamente, a la energía y número de partícu­
las del sistema en su totalidad, que se mantienen constantes ya que el sistema
total está aislado. Si Er y Ng denotan la energía y número de partículas del
subsistema en un determinado estado, entonces los valores correspondientes al
baño son Eo — E r y Nq — Ns^ Nos preguntamos por la probabilidad, P { E r, Ng),
de que el subsistema se encuentre en ese estado. Dicha probabilidad será pro­
porcional al número de microestados del sistema completo que correspondan
precisamente a que el subsistema tenga energía Er y número de partículas
Ng. Por tanto, en la hipótesis habitual de que los subsistemas son débilmente
Ínter actuantes:

P{Er,Ns) = Cni{Er,N,)ÍÍ2{Eo - Er,No - Ns), (4.1)

donde los subíndices 1 y 2 se refieren al subsistema y al baño respectivamente.


C es una constante de normalización a determinar. Además, fijados Er y Ns,
la cantidad n i ( ^ r , ^ s ) también está fijada. Aprovechemos ahora que Er <
y Ns N q, dado que el subsistema es muy pequeño en comparación con el
bttño, para desarrollar 62 ■= fcfl ln iÌ2 en serie de Taylor alrededor de {Eq, Nq):

SiiEo - Er, No - N ,) = 52(£b, No) - ^ N , + · ·· (4.2)


Eo d N No
De condiciones de equilibrio deducidas en el capítulo 2, (2.20), vemos que
las derivadas de Sa son 1/T y —/x/T, respectivamente. Llegamos así a:
Q i (E^ No) ^-l^^r-aNs
P{Er, Ns) = ------------- , (4.3)

en que /3 = l/Ai^T, a = - n / k s T , y Q se obtiene de la condición de normal­


ización:
2= E E N, ) (4.4)
yv,=o Er
Las sumas sobre Ng y Er son sumas sobre los valores que pueden tomar estas
variables. En esta colectividad es usual escribir el sumatorio anterior en la
forma:
Q= ¿ (4.5)
Ns=0 r
En este caso la suma sobre r recorre cada uno de los microestados accesibles al
subsistema 1, en lugar de agruparlos por energías como en la ecuación (4.4).
En cualquier caso, la suma sobre estados, Q(^, V,T), recibe elnombre de
fanción de partición macrocanónica, y es el punto de partida para el cálculo
d.e la información macroscópica sobre el sistema. La dependencia de Q en y
T aparece explíciteimente en la expresión (4.5), mientras que la dependencia
en V entra a través de los niveles de energía del sistema, Er.
Más adelante en este capítulo comprobaremos que los resultados termodinámi­
cos que se obtienen a partir de la función de partición Q son equivalentes a los
obtenidos en el marco de las otras colectividades. De este modo verificaremos
la validez del cálculo que acabamos de completar, aún habiendo despreciado
órdenes superiores de Er y Ng.
Es conveniente introducir el concepto de fugacidad del sistema:

2 = e " “ = e^>*. (4.6)


En términos de 2:, la función de partición macrocanónica se puede escribir
como:

Q(z, V , T ) = E E N,) = E Z(Ns, V, T) , (4.7)


N,=0 Er Ns=^
donde Z{Ng, V, T) representa la función de partición canónica del sistema con
el número de partículas fijado a iV^, y se tom a Z (0, V,T) = 1. Esta expre­
sión de Q en términos de Z es particularmente conveniente cuando Z pueda
aproximarse por su límite continuo, siguiendo las pautas desarrolladas en el
capítulo anterior.

4.2.1. F lu ctu acion es d e energía y n úm ero d e p a rtícu la s en la


co le c tiv id a d m acrocanónica
Consideramos un sistema en la colectividad macrocanónica, cuyo macroes­
tado está definido por (/x, V^T). En principio, las variables E y N del sistema
pueden tom ar cualquier valor entre O y oo, y nos proponemos calcular la am­
plitud de las fluctuaciones de estas variables alrededor de su valor medio. El
resultado m ostrará que, en realidad, la magnitud relativa de estas fluctuaciones
es despreciable en el límite termodinámico. En consecuencia, las propiedades
macroscópicas del sistema en esta colectividad resultan equivalentes a las que
se obtendrían en las colectividades estudiadas anteriormente. La elección de
una u o tra colectividad es una pura cuestión de conveniencia teórica o práctica.
Es fácil ver que el número medio de partículas en el sistema viene dado
por:

w = ¿ <^·»)

y que la varianza del número de partículas, (ATV)^ = — (TV)^, es:

Usaremos que:

l dfi J t ,v V df^ ) r y V \d fiJ T ' ^ ’


siendo v el volumen medio por partícula, y que:

donde hemos usado las ecuaciones (B.40) y (B.41) para demostrar que:

d{-pV) = - S d T - p d V - N d i ^ ^ i = (4.12)

kt es la compresibihdad isoterma. Llegamos por tanto al siguiente resultado:


Las fluctuaciones relativas del número de partículas en el sistema son propor­
cionales a una función respuesta, la compresibilidad isoterma, «r- En el límite
termodinámico F —►oo, y por tanto las fluctuaciones relativas de N son des­
preciables en ese límite. En otras palabras, la probabilidad de que el número de
partículas del sistema sea diferente del valor medio {N) es despreciablemente
pequeña, y por tanto el sistema se comporta como si tuviera el número de
partículas fijado a {N), Una excepción notable se produce en una transición
de fase, en que las isotermas en el diagrama p - v se hacen prácticamente
planas y por tanto kt diverge. En este caso podemos encontrar grandes fluc­
tuaciones del número de partículas. En los puntos críticos, estas fluctuaciones
son responsables del fenómeno conocido como opalescencia crítica.
El cálculo de la energía media y de las fluctuaciones de energía es análogo
al que hicimos en la colectividad canónica, pero ahora debemos tener en cuenta
los cambios de energía asociados a cambios del número de partículas. Tenemos:

■ ( é ■“
Ahora bien:

y por tanto:

/a (£ )\ .( ■ « W ' I + 1 '^ ') ( m .) .(4.1


\ S T ) ^ y \ dT ar )^y ' ’’

La prim era derivada del miembro de la derecha es Al comparar las ecua­


ciones (4.8) y (4.14), deducimos que la últim a derivada es:

( d{N)\ ^ 1 ^ i f ^ \ ^
\ d T ) fuY T \ djx J t y T\d{N)Jrpy\ dfj, J ^ y

nmiM·
donde hemos usado la expresión (4.9). En definitiva:

= + (4.19)
El primer término es el mismo que obtuvimos en la colectividad canónica.
También es proporcional a una función respuesta del sistema, en este caso
la capacidad calorífica a volumen constante. El segundo proviene de que el
número N también fluctúa en la colectividad macrocanónica. En condiciones
normales ambos términos son despreciables frente a (J?)^ en el límite ter­
modinámico, por las razones ya apuntadas. En consecuencia, en ese límite
la energía del sistema está prácticamente fijada a su valor medio, que corre­
sponde a la energía interna termodinámica U, Cerca de una transición de fase,
sin embargo, las fluctuaciones de energía pueden hacerse muy grandes porque
tanto Cv como kt divergen.

4.3. Colectividad macrocanónica y termodinámica


Vamos a establecer ahora la conexión entre la función de partición macro­
canónica y las propiedades termodinámicas de un sistema perteneciente a esta
colectividad, cuyo estado macroscópico está definido por las variables (/z, V, T).
Como se muestra en el apéndice B, el potencial termodinámico que tiene como
variables naturales (j.,V ,T es el denominado potencial macrocanónico o gran
potencial, que se define como:

E= U-TS-fiN (4.20)

y que pai*a un sistema hidrostático corresponde a 2 = - p V . En física estadísti-


CA, iigulendo la línea de los capítulos anteriores, se hace la hipótesis de que el
gran potencial viene dado por:

s(/i, y, T) = ^ k B T hi Q(/i, K T). (4.21)


Esta relación nos liga el mundo macroscópico de la termodinámica, a través
de E, con el mundo microscópico de la física estadística, a través de Q.
Tal y como se muestra en el apéndice B, la presión, la entropía y el número
de partículas vienen dados en términos de E(/x, V,T) por:

La ecuación de estado se obtiene eliminando el potencial químico entre la


primera ecuación y la segunda. La entropía (en función de T, V, N) se obtiene
también eliminando el potencial químico, esta vez entre la segunda ecuación y
la tercera. El resto de propiedades termodinámicas se obtienen siguiendo los
pasos descritos en el apéndice B.
También conviene recordar aquí las condiciones de equilibrio en sistemas
heterogéneos pluricomponentes, ya que los problemas de equihbrio entre fases
y de reacciones químicas suelen abordarse en la colectividad macrocanónica.
Hemos visto en el capítulo 2 que el equilibrio químico entre dos partes de
un mismo sistema, 1 y 2, que intercambian partículas de la misma clase, se
alcanza cuando el potencial químico de estas partículas es el mismo en ambas
partes: /xi = //·>. Como se muestra en el apéndice B, esta condición no cambia
aunque cada una de las partes corresponda a una fase diferente (vapor, líquido,
etc). Así por ejemplo la condición de equilibrio termodinàmico entre un sólido
y su vapor es = fiy. Este sistema no homogéneo se estudia en el capítulo
11.
En esta colectividad podemos estudiar también situaciones en que se pro­
duzcan reacciones químicas en el interior del sistema. Supongamos, por ejem­
plo, la siguiente reacción reversible:

^ i/cC , (4.23)

donde A, B y C son los compuestos químicos en juego y i/i los coeficientes


estequiométricos. En este caso el equilibrio termodinàmico (ver apéndice B)
se alcanza cuando:
(4.24)
Este tipo de condición debe tenerse en cuenta al estudiar sistemas con reac­
ciones químicas desde el punto de vista de la física estadística.

4.4. Equivalencia entre colectividades


En el capítulo anterior mostramos la equivalencia entre las colectividades
microcanónica y canónica. Nos basamos en el hecho de que las definiciones
de entropía y energía libre de Helmholtz dadas por la fisica estadística, en
términos de In íi y In Z, llevaban a una relación entre estas magnitudes idéntica
a la correspondiente relación termodinámica. En esta sección seguimos un
razonamiento análogo para m ostrar la equivalencia entre las tres colectividades
definidas hasta ahora.
Hemos visto que las fluctuaciones relativas de N y E son despreciables
en el límite termodinamico. En consecuencia, la distribución de probabilidad
macrocanónica (4.3) es una distribución muy estrecha alrededor de los valores
medios (A^) y (£'), y estos valores medios coinciden en la práctica con los
valores más probables N"" y E*. Por ello la función de partición macrocanónica
(4.4) se reduce a:

2 = E E ^ (i?r, N ,) ~ n (£ * , N ·) , (4.25)
N a= 0 Er

y por tanto:

-/cb T In e = - Hb T In Ü { E \ N*) - / i N \ (4.26)


E sta relación se corresponde efectivamente con la relación termodinámica
(4.20), usando las expresiones que definen H y 5.

4.5. Función de partición macrocanónica de un sis­


tema ideal
■ Consideremos un sistema de partículas libres. De acuerdo con (3.27) la
función de partición canónica de N partículas libres en la estadística
clásica viene dada por:

Z{T, V, N ) = (4.27)

y por tanto la correspondiente función de partición macrocanónica es:

Q {^ ι, V ,T ) = E f; (4.28)
Ns=0 Ns=0

■ En el caso de un sólido ideal de partículas localizadas en los nudos de


una red, la función de partición canónica viene dada en la estadística
clásica por:
Z{T,V,N) = [ Z i { T , V ) f , (4.29)
y por lo tanto:

S(M ,V,T) = f ; Z { T ,V ,N ,) z ^ ‘ = f ; i z Z ^ f ’ = — (4.30)

donde se ha de cumphr la condición:

zZi<l, (4.31)

Estos resultados generales serán de utihdad en las aplicaciones.


Capítulo 5
m e c á n ic a ESTADÍSTICA CUÁNTICA

5.1. Introducción
Tanto en la introducción como al estudiar la colectividad canónica en el
capítulo 3 se insistió en el hecho de que los aspectos cuánticos relevantes en un
sistema de partículas son la cuantización de la energía y la coherencia cuántica
entre partículas idénticas.
En los capítulos precedentes, y en las aplicaciones correspondientes (capítu­
los del 6 al 11), se aborda el primero de estos aspectos. Se estudian los efectos
de la cuantización de la energía en el marco de la estadística clásica, ya que nos
limitamos a sistemas cuyos componentes están tan alejados (en promedio) que
los efectos de coherencia cuántica son despreciables. De esta forma se pueden
explicar muchos efectos macroscópicos de origen cuántico observados a bajas
temperaturas.
Sin embargo, cuando la separación media entre los componentes microscópi­
cos es tal que las funciones de onda monoparticulares pueden llegar a solaparse
apreciablemente, no es posible obviar los efectos de coherencia cuántica. En
este caso la estadística clásica no es aphcable. La estadística debe reformula-
rse para tener en cuenta desde el principio los efectos cuánticos asociados al
carácter indistinguible de las partículas. A pesar de ser una propiedad clara­
mente microscópica, la coherencia cuántica tiene importantes consecuencias
en las propiedades macroscópicas de muchos sistemas, en ocasiones incluso a
tem peraturas ordinarias: radiación del cuerpo negro, gas de electrones en un
metal, condensación del gas de bosones, etc.
Al nivel de este curso, los sistemas a estudiar no tienen energía de interac­
ción entre las partículas, por lo que el énfasis principal recae en la coherencia
cuántica asociada a las propiedades de simetría de la función de onda de un
sistema de N partículas idénticas. El lector ha de tener en mente los resultados
de la mecánica cuántica para los sistemas más simples (apéndice A).
A pesar de esta simplificación, compatible con toda la filosofía del curso,
presentaremos el formalismo cuántico con la mayor generalidad posible, a fin
de que el lector se familiarice con estas técnicas y le sea más fácil abordar sus
extensiones.
5.2. La matriz densidad
La matriz densidad, p, es un operador cuántico autoadjunto que juega
aquí un papel similar al de la distribución de probabilidad de los capítulos
anteriores. Su nombre deriva de que se pueden construir representaciones ex­
plícitas de este operador en forma de matriz.
Dado un operador A, correspondiente a un determinado observable, y la
función de onda (^| del sistema, podemos calcular su valor esperado en la
forma usual:
= (5.1)
Sin embargo no es fácil conocer exactamente la función de onda de un sistema
de N partículas. Un método alternativo de calcular este valor esperado es
introducir la matriz densidad p, de manera que:

{Á) = ^i>Pi\Áp\>pi}^Tr{Áp), (5.2)

donde ((^¿| es cualquier base del sistema. El valor esperado de un observable


es el primer momento estadístico. El segundo momento estadístico y las fluc­
tuaciones ae hallan de forma similar.

0.2.1. P ro p ied a d es d e la m a triz d en sid a d


Dudo que p es un operador autoadjunto, existe una base diagonal |i) con
ftutovftlores reales ljí que permite escribir la siguiente representación explícita
do la matriz densidad:
p = J2u;i\i){i\. (5.3)
i
Mediante el uso de esta representación podemos encontrar dos propiedades
que ayudan a la interpretación de lji:

(i) Si consideramos el caso particular A = I, tenemos que su valor medio


es:
(/) = l= T r(/p )= T r(p ) =

E E I*) (*l = E OI \j) = E wj- (5.4)


i i j 3

(ii) Si ahora consideramos otro operador, A = |i') {i'\, obtenemos:

(Á ) =T t [Áp) = T t ( |i') (¿'I \i) (í|] = T r {uJi, \i') (i'l) =


V i /

E OII®') ( * ' l I » ' ) (*1 j) = ‘^i'· (5-5)


Por o tr A parte, usando ©1 p r o c e d i m ie n t o u su a l (5.1) para u n a f u n c ió n
de on d a cualquiera, podemos d e m o s t r a r q u e e l v a lo r e s p e r a d o d e e s t e
o p e r a d o r o e siempre p o s it iv o :

~ ('0K )(*'|V ') = ΙΟΊν»)!^ > 0 , (5.6)

que al aplicarlo a (5.5) implica que:

Ui > 0. (5.7)

Las propiedades (5.4) y (5.7) nos muestran que el coeficiente Ui puede inter­
pretarse como la probabilidad de que el sistema esté en el estado (i).

5.2.2. E sta d o estacionario


Dado que sólo estamos interesados en los sistemas en equilibrio, indepen­
dientes del tiempo, su matriz densidad no puede ser una variable dinámica.
Sin embargo, necesariamente ha de depender de las propiedades microscópicas
del sistema. Hemos de suponer por tanto que esa dependencia vendrá a través
de algún observable que sea una constante del movimiento. Dicho requisito lo
cumple siempre el hamiltoniano del sistema, Ti. Vamos a suponer pues que en
el estado estacionario:
p = f{ñ ), (5.8)
qué no evolucionaxá en el tiempo porque conmuta con el hamiltoniano por
construcción ([GP89], pág. 107, voi. I):

n ,p ]= 0 . (5.9)

De esta forma, p tiene una representación diagonal en la base en que el hamil­


toniano también es diagonal. La hipótesis (5.8) sirve para construir las corre­
spondientes colectividades cuánticas de la física estadística.

5.3. Las colectividades cuánticas


Puesto que las diferentes colectividades ya han sido introducidas en los
capítulos anteriores, basta explicitar aquí su versión cuántica.

5.3.1. La co lectivid a d m icrocanónica


De la definición (5.3) y de considerar que en la colectividad microcanónica
todos los estados |i) son igualmente probables (postulado de equiprobabilidad
a priori), tal y como ya se explicó en el capítulo 2, sededuce que las ωι de un
sistema aislado han de ser iguales. Si tenemos Q microestados, la condición de
normalización (5.4) conduce a:

Sin embargo el postulado de equiprobabilidad a priori no es suficiente para


construir esta colectividad, en su versión cuántica, para cualquier base |a).
Hemos de añadir un segundo postulado, el de las fases aleatorias a priori,
para garantizar que los promedios de los elementos no diagonales de la matriz
densidad sean nulos en cualquier representación |a) ([Pat96], cap. 5, págs.
108-109).

5.3.2. La c o lectivid a d canónica


En este caso se propone que la matriz densidad en la representación diag­
onal de energía viene dada por:

P= K) (*l. (5-11)

donde E,¿ es el valor propio de la energía correspondiente al estado |i). De la


condición de normalización:

1 = T r {p) = T r (5.12)

ZN = Y ,e - ^ ^ % (5.13)
i
donde el índice i recorre los posibles estados del sistema. Siguiendo el proced­
imiento habitual, identificamos la función de partición canónica precisamente
con la función que escribimos como:

Z N ÍV ,T )= T r (e -^ y (5.14)

La dependencia de Z¡^ en V proviene de la dependencia de Ei en V, que


aparece al resolver la ecuación de Schrödinger del sistema contenido en un
volumen V. Como además los estados |z) son funciones propias de H, se veri­
fica:

Z n {V, T ) = T r ( e - ^ ) = ^ (»I W= E <^l *> = E


^ ^ i i i
(5.15)
En coucluiión, la matriz densidad de la colectividad canónica se puede escribir
como:

?- |i) (ij o bien p= (5.16)

Finalmente el valor esperado de un observable A, en esta colectividad, se


calcula do la forma siguiente:

x .x T rÍA e-^)
(A> = r r ( A ? ) , ^ J p g l . (5.17)

5.3.3. La co le c tiv id a d m acrocanónica


La colectividad macrocanónica cuántica es una generalización de la colec­
tividad macrocanónica explicada en el capítulo 4.
En el caso en que Tí, iV = O, es posible encontrar una base propia de W y
Ñ (operador número de partículas, con valores propios 0 ,1 ,2 .. .)· En esa base
la m atriz densidad viene dada por:

? = ¿ E 10 <i| = E 10 « = ,
(5.18)
donde, siguiendo los mismos pasos que en la colectividad canónica, se puede
ver que:
g = (5.19)
i
Así pues la función de partición macrocanónica es:

Q(/i, V, T) = T t , (5.20)

donde la dependencia en V tiene el mismo origen que en la colectividad


canónica.
El valor esperado de un operador A se calcula en la forma:
5.4. Sistemas de partículas idénticsis y condiciones
de simetría
El formalismo cuántico ele la matriz densidad, presentado en las seccionf 3
anteriores, es muy general. Los aspectos más específicamente estadísticos, que
son los que nos interesan aquí, son la existencia de estados discretos y la forma
en que estos estados pueden ocuparse.
En esta sección pondremos de manifiesto que, en el marco de la mecánica
cuántica, las funciones de onda que representan los posibles estados de un
sistema de N partículas deben cumplir propiedades de simetría estrictas, como
consecuencia de la indistinguibilidad de las partículas. La restricción sobre los
posibles estados del sistema afecta al cálculo de la función de partición, que
corresponde a tom ar la traza sobre estos estados, y por tanto modifica las
propiedades estadísticas del sistema. Aparecen así los efectos de coherencia
cuántica.

5.4.1. Funciones d e onda


En principio las partículas que obedecen a la mecánica clásica son distin­
guibles. Si en í = O fijamos su posición y velocidad, podemos determinar su
trayectoria y conocer sus coordenadas para cualquier tiempo. La trayectoria
do cada partícula puede describirse por S {xi —Xi{t)) S (pi —Pi(t)), que se in­
terpreta como la densidad de una partícula puntual moviéndose en el espacio
fAHlco. En la práctica, sin embargo, esta pretensión no es realista cuando el
niimero de partículas es extraordinariamente grande (Ai ~ N a )·
En el caso cuántico, la función de onda determina la probabilidad de en­
contrar una partícula en un punto. Así pues, en vez de una posición bien
determinada, cada partícula se encuentra en una región del espacio más o
menos ampha. Si aliora tenemos un gran número de partículas idénticas, sus
densidades de probabihdad pueden solaparse, y por lo tanto no podremos decir
con seguridad qué partícula concreta se encuentra en una determinada región.
La formulación matemática de este hecho se establece de la siguiente for­
ma: N pai'tículas idénticas son indistinguibles cuando no existe un observable
que permita distinguirlas. En este caso, todos los observables habrán de ser
completamente simétricos simultáneamente respecto a todas las coordenadas
(posición, spiUj etc.) de las partículas. Matemáticamente se establece que to­
dos los posibles observables de partículas idénticas han de conmutar con el
operador P (permutador de partículas). Para más detalles, puede consultarse
el hbro de Galindo y Pascual [GP89].
Consideremos un sistema descrito por el hamiltoniano Tí, de manera que
Tiip = Eli;. Sea P el operador que permuta dos partículas cuando actúa sobre
•ip. Entonces:
HPil) = PHi) = PEi¡) = EPi), (5.22)

y por lo tanto Pi¡) tiene el mismo autovalor de la energía que Como resulta
que hay N\ permutaciones posibles, tenemos en principio N \ funciones de
onda P'tp con el mismo autovalor E. Este tipo de degeneración se denomina
degeneración de intercambio. En general, sin embargo, las funciones de onda
Pip no son independientes ni ortogonales.
Dado que las partículas son idénticas, debemos exigir también que las
funciones y Pij) del sistema de N partículas contengan la misma información
física. Puesto que = / , se debe verificai' que:

|P^|2 = l^|2 ^ P^ = ±V>. (5.23)

Así pues, de las iV! funciones de onda Pip (y todas sus posibles combinaciones
lineales), solamente las que verifican la ecuación (5.23) son soluciones admis­
ibles. Dichas soluciones corresponden a funciones de onda simétricas (signo
-h) o antisimétricas (signo —) bajo permutaciones. Para estas funciones ya no
existe la degeneración de intercambio.

5.4.2, T eorem a de la conexión sp in -e sta d ístic a


Hay que preguntarse en qué casos la función de onda de N partículas
habrá de ser simétrica y en qué casos antisimétrica. La respuesta la da el
teorema de la conexión spin-estadistica, que se demuestra en teoría cuántica
de campos, según el cual:

a) Los sistemas de partículas con número cuántico de spin entero (0 ,1 ,2 ...)


han de tener la fimción de onda simétrica. Como consecuencia de este
hecho, las partículas con número cuántico de spin entero obedecen a la
llamada estadística de Bose-Einstein, y se denominan bosones. Ejemplos
de bosones son los fotones (5 = 1) y los átomos de ^He (5 = 0).

b) Las partículas con número cuántico de spin semi-impar (1 /2 ,3 /2 ,...)


han de tener la función de onda antisimétrica. Como consecuencia de
este hecho, las partículas con número cuántico de spin semi-impar obede­
cen a la llamada estadística de Fermi-Dirac, y se denominan fermiones.
Ejemplos de fermiones son los electrones, los protones y los átomos de
^He (5 = 1/2).

El carácter simétrico o antisimétrico de la función de onda hace que el


cálculo de Tr{Ap) sea diferente para las dos clases de partículas. No se conocen
otros tipos de partículas.
5.4.3. P rin cìp io d e exclusión d e P au li
Veainos cómo se comportan los fermiones bajo permutaciones. Considere­
mos la función de onda de un sistema de N fermiones, · · · > · · · >Ì j »· · ·, Ì/v),
donde representa las variables del estado cuántico de la partícula i. Aplique­
mos el operador Pij (permutación de les partículas i y j) a esta función de
onda:

Pijip (· · ·, í i , . · · , íj , · · ·) =
= (5.24)

En la segunda igualdad hemos usado que la función de onda de un sistema de


N fermiones es antisimétrica bajo permutaciones de partículas.
Cuando la única solución posible de esta última igualdad es '0 = 0.
Este resultado lleva al principio de exclusión de Pauli: dos fermiones no pueden
ocupar simultáneamente el mismo estado cuántico (misma posición, spin. .. ).

5.4.4. E je m p lo s
Construyamos explícitamente las funciones de onda con simetría bien defini­
da en dos casos sencillos, correspondientes a dos y tres partículas. El caso
general de N partículas hbres se hará a continuación de estos ejemplos.

(i) Supongamos el caso más simple, N = 2. Sea *0(1,2) una función de on­
da de dos partículas. Hemos demostrado antes que la función de onda
-0(2,1) = ^*0(1,2) también ha de ser solución del mismo problema. Los
números 1 y 2 indican los índices de las partículas 1 y 2 respectivamente.
Supondremos que las funciones de onda 'ip{l,2) y V^(2,1) están normal­
izadas y son ortogonales. Estas funciones no tienen las propiedades de
simetría requeridas para garantizar la indistinguibiHdad de las partículas.
Sin embargo, a partir de ellas podemos construir dos nuevas funciones
de onda del sistema que sí cumplen la propiedad P'0 = ±'tp:

M h 2 ) = ^ m ,2 )+ i,(2 ,l)] , (5.25)

V'a (1,2) = ^ [ V '( 1 , 2 ) - ^ ( 2 ,1 ) ] . (5.26)

Es fácil ver que Pips = *05 y P'^A =

(ii) Cuando iV = 3, las funciones de onda posibles del sistema, que supon­
dremos normalizadas y ortogonales, son ■0(1,2,3), ^(1,3,2), V^(2,1,3),
^ (2 ,3| l)i V^(3,1,2), ^(3,2,1). A partir de ellas podemos construir dos y
sólo don nuovoB funciones de onda con las simetrías adecuadas:

M h 2.3) = ; ^ [^(1,2,3) + xP{l, 3,2) + i>{2,1,3)+


V>(2,3,1) + i>{3,1,2) + ^(3,2,1)], (5.27)

^ m(1, 2,3) = [^(1,2,3) - V-(l, 3,2) + ^-(2,3,1)-


^{2,1,3) + V>(3,1.2) - V-(3,2,1)]. (5.28)

Es fácil coinprobai’ que P'ips = Y P'^A = —'fpAi donde P perm uta


dos partículas cualesquiera.

5 .4 . 5 . Funciones d e onda d e un sistem a d e N p a rtícu la s id é n ti­


cas lib res
Partimos de un sistema de N partículas idénticas libres, de manera que el
hamiltoniano es separable en sus componentes monoparticulares:

n = Y^Hi. (5.29)
i=l
Sea una función propia del hamiltoniano monoparticular Hi, corre­
spondiente a la partícula i, que se encuentra en un estado monoparticular de
energía e»:
Uiife, =£i<Pei^ (5.30)
Se puede demostrar que la función de onda construida como producto de N
funciones de onda monoparticulares:

. . .M = <^.i(6)¥>«(6) · · · (5-31)

es función propia del hamiltoniano completo H, con valor propio €i-\------ beN-
Los autovalores £i (nivel de energía en que se encuentra cada una de las N
partículas) pueden estar repetidos ya que varias partículas pueden encontrarse
en estados monoparticulares de igual energía. En otras palabras, cada nivel de
energía monoparticular puede estar poblado por más de una partícula.
E sta función de onda no es adecuada para describir el sistema de N partícu­
las idénticas, dado que no es ni simétrica ni antisimétrica frente a perm uta­
ciones de las partículas. A partir de ella, sin embargo, podemos construir una
función de onda del sistema con simetría bien definida.
■ Fermiones
La función de onda aiitisimétrica se construye en la forma:

(5.32)
Es una función propia de Tí, con valor propio E = e\ -l· £ 2 ------ h El
sumatorio tiene iV! términos, y l / y / Ñ \ es la constante de normalización
adecuada si suponemos que las funciones de onda monoparticulares
ya están ortonormalizadas. n(í?) es el número de permutaciones elemen­
tales correspondientes a la p-ésima permutación (de las N\ permuta­
ciones posibles): el signo de la contribución es -h cuando II(p) es par y
- cuando U{p) es impar.
Esta misma fmición de onda puede reescribirse también en la forma del
denonimado determinante de Slater.
<^ei(6) ··· ^ s i Í^n )
¥^£2(^1) .............................. (5.33)
\/M
¥’£n(Íi) ................ fe s i^ N )
Evidentemente cambia de signo cuando permutamos dos particu­
lam y verifica = O si hay dos filas o dos columnas iguales, como
corroBponde al hecho de que no puede haber dos fermiones en el mismo
eeitado monoparticular.
Finalmente, esta función de onda puede escribirse también en la forma:

(5.34)
donde se permutan los estados monoparticulares en vez de las partículas.
Bosones
La función de onda simétrica se construye como:

1 i
^€1 i^pi)^€2(^p2) · · · (5.35)
p
donde rii es el número de partículas en el estado monoparticular de
energía Si. Esta función de onda es también propia de H con valor propio
£■ = £1-1-£2 + -----heiv- Está correctamente normalizada y, a diferencia
de lo que sucede con los fermiones, permite tener más de una peirtícula
en un mismo estado cuántico.
5 .4. 6. E ^ je tn p lo a

Consideremos un sistema formado por dos partículas libres, a y 6, que


pueden encontrarse en dos estados monoparticulares distintos, vi?i y <^2· Al ser
el uúu .fìro de partículas tan pequeño, éste no es un sistema estadístico; sin
embargo nos servirá para Ilustrar los conceptos introducidos anteriormente.
Las funciones de onda del sistema, sin simetrizar, son:
i^i(o)v?i(6), <pi{a)ip2 {b), <p2 {a)ípi{b), ip2 Ía)<p2 {b), (5.36)
donde el subíndice se refiere al estado monoparticular en que se encuentra la
partícula y la letra entre paréntesis a la partícula considerada.

■ Partículas de Maxwell-Boltzmann
Supongamos en primer lugar que las partículas son de tipo Maxwell-
Boltzmann. Los estados del sistema se construyen considerando que las
partículas inicialmente son distinguibles. Por tanto las fimciones de onda
del sistema no están sujetas a ninguna condición de simetría, y tenemos
las cuatro posibilidades anteriores:
ißi = (^i(a)v?i(6),
'ip2 = ipi(a)(p2{b),
(5.37)
= (p2{a)ipi{b),
<04 = ^2Ía)(p2Íb).

La fimción de partición canónica en la estadística de Maxwell-Boltzmann


(M-B) viene dada por:

(5.38)

donde H = Ha + Hb· Esta expresión es la (5.14) modificada con el


prefactor l / N l , que es la corrección propuesta por Gibbs para tener
en cuenta de forma aproximada que las partículas son indistinguibles en
realidad. Algunas cuestiones relacionadas con esta corrección se discuten
en los capítulos 3 y 8, y más adelante en este mismo capítulo.
Calculamos usando las funciones (5.37):
,-ßn
= è [(♦■ + (*
-ffH (5.39)

El primer término se calcula en la forma:


-ßn
(V»! ipi) =

¥5i(a)) ( 1^ 1(6) ,-p n t ‘P i {b)) = ,


-ßei.-ßsi
(¥»1(0) (5.40)
Calculando los otros términos de forma análoga se llega al resultado
final:
—O.fíet —.9/íc-ol 41)

Es interesante observar que este resultado se puede expresar como:

(5.42)

donde Zi designa la función de partición monopju-ticular. Este tipo de


factorización solamente es válido en la estadística M-B, como se pon­
drá de manifiesto inmediatamente.

Bosones
Consideramos ahora que las partículas son indistinguibles y tienen spin
entero. Por tanto, son bosones. En este caso el teorema de la conexión
spm -estadística prescribe que las funciones de onda del sistema han de
ser totalm ente simétricas. Podemos construir estas funciones simétricas
usando la expresión general (5.35). Hay tres posibilidades:

ipi = [v?i(a)v>i(6) + (pi(6)¥)](o)] = (^i(a)¥)i(6), (5.43)


2!2!

1
[¡pi{a)¡p2{b) + <piib)ip2{a)] =
2 !1 !1 !
1
[^i(a)v?2(6) + ^í{b)‘P2Ía)], (5.44)
V2

1 1è
V'3 = [<P2{a)<P2Íb] + v’2(í»)v’2(a)] = <fi2Ía)(p2(b) ■ (5.45)
2!2!
La función de partición canónica viene dada por (5.14):

2¡b - b ^ (e"^), (5.46)

con H = Tía “HWfc, como antes. Por tanto:

= (V'i | e " ^ | i>i) + {^2 ¡ e " ^ ! 1P2 ) + (V'3 V'3) · (5.47)

Calculando los diferentes términos de forma análoga al caso M-B se llega


al resultado:
2 ' B - E _ g -2 /3 ei ^ g -/? (e i+ e 2 ) ^ ^-p(ei+£2)
2 L
Notemos que ^ [ ^ if-
Cuadro 6.1: Conf trucción de los estados de un sistema de dos partículas libres en las diferentes
•gtAdíitlca·.

M-B B -E F -D
Estados de
una partícula: Vi 'P2 tfil (fi2 Vi V’2
V»1 : 1pl ■ O O

Estados del V*2 : ® ®


sistema: V-2 : O 0 V’i : 0 0
V’3 : ® ®

V»4 : @® V’3 : 0 0

Fermiones
Si las partículas son indistinguibles y tienen spin semiimpar son fermiones.
En este caso las funciones de onda del sistema deben ser totalmente an­
tisimétricas. Usando la expresión general (5.32) podemos ver que sola­
mente existe una posibilidad:

(5.49)

y por tanto:

= (iPi V-i) = i [(¥?i(a)vJ2(í>)

-(^tpi{a)(p2Íb)\e ^\ip i{ b )^2 {o )) - (H^\{b)^{a)\e ^\(pi{a)tp2{b))

+ {ipi{b)if2{a) e ~ ^ ipi{b)tp2{a)) ■ (5.50)

Los dos términos con signo negativo son nulos por ortogonalidad de las
funciones de onda monoparticulares. El resultado final es:

= i g-/5(«i+^2) _|_ g-i&(ei+e2) (5.51)


2

Observemos que Z ^ ~ ^ ^

De las ecuaciones (6.48), (5.51) y (5.42) vemos que se cumple:


E sta relación se mantiene en el caso general de N partículas.
La tabla 5.1 muestra esquemáticamente cómo se construyen los estados
del sistema de dos partículas a partir de los estados monoparticulares en las
distintas estadísticas.

5.5. Función de pcirtición canónica de un sistema


ideal
En esta sección vamos a extender los cálculos de los ejemplos precedentes
al caso general, en que el sistema está formado por N partículas idénticas,
libres.
En la colectividad canónica la función de partición viene dada por la ex­
presión (5.14):
Z N { V ,T )= T r(e -^ y (5.53)

Para calcular esta traza debemos tomar una base de estados propios del oper­
ador H, Ytt aabemos que las correspondientes funciones de onda se construyen
como producto de funciones de onda monoparticulares. En dicha base:

IV»( í l ... M ) = ( 6 . .. Í n )) , (5.54)

donde rij es el número de partículas en el estado monoparticular j, de energía


í j , y el smnatorio sobre j es un sumatorio sobre estados monoparticulares. En
esta base, un estado del sistema queda definido por:

(i) los niveles de energía de los estados monoparticulares, cj,

(ii) los números de ocupación de los estados monoparticulares, nj.

No tiene sentido preguntarse qué partículas se encuentran en cada estado


monoparticular, puesto que, en el marco de la estadística cuántica, las partícu­
las son indistinguibles. Se verifica que:

£ = E njCj, -ÍV = E
3 3

donde E y N representan la energía y el número de partículas del estado del


sistema definido anteriormente. Así pues, la función de partición (5.53) viene
dada por:
Z n (V, T ) = T r ( ^
^ ^ {n};.
donde el símbolo {n}yv Indica que la suma recorre todos los estados distintos
del sistema de N partículas. Cada uno de dichos estados queda definido sim­
plemente dando la correspondiente secuencia de números de ocupación de los
estados monoparticulares:

{n}/v = {^0)^11^ 2»·· *^m} con no + niH------ \-7im = N'. (5.57)


Consideremos ahora las diferentes estadísticas:
■ Estadística de Bose-Einstein
Si las partículas son bosones:
• Son indistinguibles.
• Cada estado monoparticular puede estar ocupado por un número
cualquiera de partículas.
A cada secuencia de números de ocupación, {n}yv, le corresponde un
único estado distinto del sistema.
En este caso no es posible llevar a cabo la suma de la función de partición
Zyv, dada por (5.56). La dificultad estriba en que la suma se restringe a
las configuraciones de números de ocupación compatibles con nj =
N , con N fijo. Veremos en la sección siguiente que esta dificultad puede
soslayarse haciendo el cálculo de la función de partición en la colectividad
macrocanónica, en que N no está fijado.

■ Estadística de Fermi-Dirac
Si las partículas son fermiones:

• Son indistinguibles.
• Por el principio de exclusión de Pauh, cada estado monoparticular
puede estar ocupado, como máximo, por una partícula.
Como en el caso precedente, a cada secuencia de números de ocupación,
{n}AT, le corresponde un único estado distinto del sistema. Ahora, además,
las secuencias que contienen números de ocupación superiores a 1 no
están permitidas.
En este caso tampoco es posible llevar a cabo la suma de la función
de partición Z¡sr, dada por (5.56). La dificultad estriba en que la suma
se restringe a las configuraciones de números de ocupación compatibles
con Tij = N con N fijo, como antes, y ahora además los números
de ocupación solamente pueden tomar dos valores diferentes, O y 1. En
la sección siguiente veremos que ambas dificultades pueden de nuevo
evitarse si el cálculo de la función de partición se realiza en la colectividad
macrocanónica.
■ Estadística de Maxwell-Boltzmaiin
Consideremos aliora un sistema de partículas libres en la estadística
clásica. En este caso:

• Las partículas se consideran inicialmente distinguibles.


• No hay restricción sobre el número de partículas que pueden en­
contrarse en un mismo estado monoparticular.

Por el hecho de que las partículas se consideran distinguibles (se les


puede asociar una etiqueta), los estados del sistema no quedan definidos
únicamente por la secuencia de números de ocupación de los estados
monoparticulares, {n}yv. Hay que especificar también qué partículas se
encuentran en caxla estado monoparticular, tal y como se muestra en la
tabla 5.1.
Así pues, en este caso, la suma sobre estados en la expresión (5.56) no es
puramente una suma sobre secuencias de números de ocupación. P ara re­
ducirla a esta últim a debemos introducir una multiplicidad, W^distingí^})
que exprese el número de estados distintos del sistema correspondiente a
una secuencia de números de ocupación {n}tv dada. Dicho número viene
dado por:
W^distingí«} = (5-58)

Corresponde al número de permutaciones distintas de N partículas dis­


tinguibles, descontadas las permutaciones entre las no partículas del es­
tado monoparticular O, las ni del estado monoparticular 1, e tc ... Éstas se
descuentan porque la permutación entre partículas que se encuentran en
un mismo estado monoparticular no genera un nuevo estado del sistema.
Tenemos así:

Zn {V ,T )= E = (5.59)
estados

En este caso podemos sumar la función de partición Zyv- Haciendo uso


de la fórmula multinomial, resulta:
7Vr|
^ ^-0no£o^-0ni€i ^-pnm£nt

= (e-^^o + + · · ·) ^ = [^i]^ , (5.60)

que es el resultado esperado: la función de partición del sistema se ex­


presa como un producto de funciones de partición monoparticulares. El
análisis precedente demuestra que esta factorización está directamente
aaoclada a que las partículas se consideran distinguibles.
La función de partición del sistema en la estadística de Maxwell-Boltz-
niann (o estadística clásica corregida) se obtiene de la anterior si a poste­
riori se tiene en cuenta que, incluso desde un punto de vista clásico, cuan­
do laa partículas son idénticas y libres son indistinguibles. P ara tener en
cuenta la indistinguibilidad de forma exacta, la multiplicidad W¿iisting{^}
en (5.59) debería reducirse a 1 (un único estado por cada secuencia
{n}iv). Esto nos llevaría de nuevo a la estadística de Bose-Einstein. Sin
embargo, esta corrección exacta no es posible una vez sum ada la fun­
ción de partición, porque el denominador de Wdigting{n} depende de
la secuencia particular de números de ocupación considerada. Tenemos
que conformarnos con una corrección aproximada, consistente en dividir
únicamente por NI, que no depende de dicha secuencia. Esta corrección
aproximada es justam ente la receta propuesta por Gibbs.
En definitiva, la estadística de MaxweU-Boltzmann (estadística de par­
tículas distinguibles corregida con la receta de Gibbs) corresponde a
tomar, en lugar de W^distingí^}» multiplicidad:

Con ello, la función de partición canónica del sistema de N partículas


libres en la estadística de Maxwell-Boltzmann adopta la forma final:

Z M -B { N ,V ,T ) = ^ [ Z i f , (5.62)

que ya conocíamos del capítulo 3.

5.6. Función de partición macrocanónica de un sis­


tema ideal
Acabamos de ver que las restricciones sobre los estados posibles del sistema,
impuestas por la mecánica cuántica a través de las propiedades de simetría
de las funciones de onda, son de difícil implementación en la colectividad
canónica. Dichas restricciones impiden completar el cálculo de la función de
partición canónica en las dos estadísticas cuánticas (Bose-Einstein y Fermi-
Dirac). El objeto de esta sección es m ostrar que el cálculo de la función de
partición puede completarse sin dificultad en la colectividad macrocanónica.
Recordemos que en esta colectividad la función de partición es:
El cálculo de esta traza requiere también una base adecuada. En primer lug£ir,
dado que que las partículas son libres, tenemos que H = Y^í H í . Además se
cumple que Í i , N = 0 , donde N es el operador número de partículas. Por
tanto, elegimos una base que sea propia a la vez de H y de N . En esta base:
^-ß{n-^N ) (5.64)

Si las partículas son indistinguibles, un estado del sistema queda definido en


esta base dando únicamente:
(i) los niveles de energía monoparticulares,
(ii) los números de ocupación de los estados monoparticulares, nj.
Si son distinguibles, ya sabemos que debería especificarse también qué partícu­
las se encuentran en cada estado monoparticular. Dada una configuración de­
term inada de números de ocupación, {n} = {no, ni, n 2 ...}, se tiene:
E = (5.65)
J 3
donde ahora tanto la energía E como el número de partículas N del sistema
8on variables. La función de partición (5.63) se puede escribir en la forma:

C(M, V, T) = T r =

{n} {n} 3
con z = La suma para {n} recorre todos los posibles estados del sistema
de N partículas (con N variable entre O e oo) y el producto para j recorre
todos los estados monoparticulares.
■Estadística de Bose-Einstein
La función de partición macrocanónica correspondiente a un sistema
de bosones libres se obtiene de la expresión general (5.66), teniendo en
cuenta que no hay restricciones sobre los números de ocupación, que
pueden tomar los valores:
n ,= 0 ,l,2 ,3 ... (5.67)

La función de partición es:

Q b - e {i^,V ,T ) = E n =
{n} i
La segunda igualdad resulta de ordenar los términos por estados monopar-
ticulares y, para cada estado j, por los números de ocupación Uj =
0 ,1 ,2 __ La última igualdad resulta de sumar la serie geométrica. La
serie con^'org^ únicamente si < 1, lo cual implica que en un sis­
tema ideal de bosones se tiene que verificar /¿ < cj V;/. Ordenando las
energías monoparticulares en orden creciente, esta condición equivale a
fi < fo·
■ Estadística de Fermi-Dirac
La función de partición macrocanónica correspondiente a un sistema
(le fermiones libres se obtiene de la expresión general (5.66), teniendo
en cuenta que los números de ocupación pueden ^omarúnicamente dos
valores:
rij = 0 ,1. (5.69)

La función de partición es:

Q f - d ÍH, V,T) = ' £ l [ =


{n} i

n E = n [l + · (5-70)
j nj j
ya que la suma para rij contiene solamente dos términos.
Estos resultados constituyen el punto de partida del estudio de sistemas de
partículas cuánticas libres.
■ Estadística de Maxwell-Boltzmann
Empezamos por escribir la función de partición genérica (5.66) en la
forma:

Q i f i , y, T) = E = E E · (5-71)
{n} N=0 {n}N
Esta expresión es aún válida en general. El segundo sumatorio del último
miembro se extiende a todas las posibles configuraciones con N fijo, y
corresponde por tanto a la función de partición canónica Z m - b {N, V, T),
que hemos calculado en la sección anterior. Usando el resultado (5.62),
obtenemos:

KT) = f : [Z ,l" = f i (e O -Z .)" =

exp = exp ( z Z i) , (5.72)

que coincide con la ecuación (4.28) obtenida en el capítulo 4.


5.6.1. N o ta ció n uniñcada d e las tres esta d ística s
Las tres estadísticas (M-B, B -E y F-D ) se pueden escribir de forma unifi­
cada introduciendo una constante a que toma los valores a = O (M-B), a = —l
(B-E) y a = 1 (F-D). Así el logaritmo de las respectivas funciones de partición,
(5.68) y (5.70), se puede escribir en la forma:

Las estadísticas de B -E y de F-D se obtienen de forma inmediata. La es­


tadística de M-B. (5.72), se obtiene tomando el límite a 0:

In Q = i + O ~ (5.74)
^ 3 3

que se corresponde con el hecho de que en la estadística de M-B se verifica


< 1, como comprobaremos en la sección siguiente.
Usando que ln(l + x) = 1^(1 - x) = Y
X > ln (l H- x) implica e® > 1 + x, esta forma unificada de escribir las tres
estadísticas permite demostrar que, para z , T y V dados:

In Q b - e ^ Qm - b ^ Qf - D ‘ (5.75)

5.7. Estadística de los números de ocupación de los


estados monoparticulares
5.7.1. Valor m ed io d el n ú m ero d e ocupación
Calculemos el valor medio del número de partículas del sistema a partir de
la expresión (5.73):

Comparando este resultado con:

(^ )= E K ·)’ (5-77)
3

obtenemos que el valor medio del número de ocupación del estado de energía
Sj viene dado por:
Figura 5.1; Eetadística de los números de ocupación de los estados monoparticulares en
las diferentes estadísticas. A la izquierda se muestra el valor medio (rij), y a la dereclia
la varianza dividida por el valor medio, (Arij)^ / {rij). Los resultados correspondientes a la
estadística de B-E se representan con línea punteada, los correspondientes a M-B con línea
continua, y los correspondientes a F-D con línea a trazos. La h'nea vertical indica la frontera
para los bosones.

El comportamiento de {nj) en las diferentes estadísticas está representado en


la figura 5.1.
Recordemos que en la estadística de B -E se cumple que ¡i < sj, lo cual
evita que el valor medio {ri j ) pueda hacerse negativo. Por otra parte, cuando
¡1 se aproxima al valor más bajo de la energía, correspondiente al estado
fundamental, vemos que la ocupación (no) del estado fundamental se hace
muy grande, lo que puede llegar a producir en algunos casos la llamada con­
densación de Bose-Einstein, que estudiaremos en el capítulo 15.
En ambas gráficas (figura 5.1) se pone en evidencia el hecho de que las
estadísticas de B -E y F -D se aproximem a la de M-B (estadística clásica)
en el hmite P{€j — /jl) 1. Vemos también que en este hmite se cumple
(nj) < 1 Vj.

5.7.2. F lu ctuaciones d el n ú m ero d e ocupación


El anáfisis de las fluctuaciones de los números de ocupación Uj es de utili­
dad para entender algunas diferencias entre las tres estadísticas.
Partimos de la función de partición genérica (5.66):

e- E n (»«■*')"’ = H
{n} j
E
j rij
^ nj (5 ra)
De esta forma definimos una función de partición macrocanónica del estado
monoparticular j:
Comparando (5.79) con la expresión (5.73) deducimos que:

In Qj = ^ In . (5.81)

Ahora podemos calcular el valor medio y la desviación cuadrática media de


7ij de manera relativamente sencilla. Efectivamente, el valor medio es:

En, / í d \ 1

que coincide con el resultado obtenido en la ecuación (5.78). De forma análoga,


la varianza se puede expresar como:

B i — 'i
ß d e j^ z,T

Por lo tanto la amplitud de las fluctuaciones relativa al valor medio, elevada


al cuadrado, viene dada por:

de manera que el valor concreto de la fluctuación relativa depende, a través de


a, de la estadística que obedecen las partículas. En la estadística de Maxwell-
Boltzmaim (a = 0) las fluctuaciones son normales (de Poisson). En la estadísti­
ca de Bose-Einstein (a = —1) las fluctuaciones son supranormales. Finalmente,
en la estadística de Fermi-Dirac (a = 1) las fluctuaciones son infranormales.
Para poner de maniñesto estas propiedades, la figura 5.1 (derecha) presenta el
comportamiento de:
( A n ,f
(n,·)
en las diferentes estadísticas.

5.7.3. L ím ite clásico


Como se ve en la figura 5.1, las tres estadísticas coinciden cuando el valor
medio del número de ocupación de cada uno de los estados monoparticulares
es muy pequeño;
(nj) < 1. (5.86)
En ese límite puede Afirmarse que los números de ocupación serán mayoritari-
amente Uj = 0 , 1 Vj, con lo cual rij\ = 1 Vj, y la multiplicidad (5.61) se reduce
a Wm~b {^j} “ corresponde a partículas genuinamente indistinguibles.
La condición (vj) < 1 define el llamado limite clásico. Se satisface a tem per­
atura alta (cuando el número de estados monoparticulares ocupados se hace
muy grande) y sobre todo a baja densidad (cuando el número de partícu­
las a acomodar en los diferentes estados monoparticulares es relativamente
pequeño).
La estadística de Maxwell-Boltzmann, incluso en su forma general (3.24)
aplicable a partículas en interacción, se puede obtener también de forma rig­
urosa como caso límite de las estadísticas cuánticas [Hua87, Pat96]. En ese
caso el factor de Gibbs 1/iVI aparece de forma natural.

5.8. Límite continuo y gases ideales cuánticos


La tem peratura característica de traslación para las partículas libres viene
dada por la expresión:

= ( 2^ ^ )
como justificaremos en el capítulo 6. Esta tem peratura es extraordinariamente
pequeña, lo que equivale a decir que los saltos de energía entre niveles monopar­
ticulares son a su vez muy pequeños. Por ejemplo, para valores normales del
CO 2 obtenemos que Brras ~ Este resultado nos asegura que los
grados de hbertad traslacionales están completamente excitados a todas las
temperaturas, lo que permite convertir los sumatorios sobre estados con niveles
discretos de energía en integrales sobre la energía. A continuación escribimos
las expresiones más importantes.

• El logaritmo de la función de partición (5.73) se puede expresar como:

q = \n Q = - f
a JQ+
I n f l- h aze~^^) g{e)de -f - ln(l -h az),
V / a
(5.88)

donde g{e) es la degeneración correspondiente a la energía monoparticu­


lar £ (ver apéndice A). En esta expresión hemos separado explícitamente
la contribución del estado fundamental (eo = 0), para evitar que g{e) la
haga desaparecer al pasar al continuo (en tres dimensiones). Sin embar­
go, aun en el caso de que el estado fundamental se pueble masivamente,
como ocurre en la condensación de Bose-Einstein que estudiaremos en
el capítulo 15, se puede demostrar que la contribución del estado funda­
mental a In Q es despreciable en el límite termodinámico iV 00.
■ La expresión (5.76), que nos da el valor medio del número de partículaa
en el sistema, puede expresarse también en el continuo:

En esta ecuación hemos aislado de nuevo exphcitamente la contribución


del estado fundamental (^o = 0) de la correspondiente al resto de estados
excitados. E sta separación sí que es relevante para estudiar el compor­
tam iento de los bosones a bajas tem peraturas en dimensión tres, en caso
de que se produzca la condensación de Bose-Einstein.

■ De forma análoga, el valor medio de la energía en la aproximación con­


tinua se obtiene de:

(5-90)

En este caso no es necesario separar la contribución del estado funda­


mental puesto que es nula tanto en el discreto como en el continuo.

A partir de estas ecuaciones se puede demostrar que los gases ideales en


tres dimensiones verifican:
pV = -{E ), (5.91)

independientemente de la estadística utilizada. Basta con utilizar la relación


p V = k s T i i i Q y el hecho de que en tres dimensiones g{€) (apéndice
A), y hacer una integración por partes en (5.88).
La ecuación (5.88) y la relación p V = k s T l n Q determinan la presión del
gas, p{T ,V ,z). La ecuación (5.89) determina {N){T^V,z). Eliminando a; entre
p{T jVjz) y {N)(T,VyZ) podemos obtener finalmente la ecuación de estado,
f{p^T, V, {N)) = O, en las variables termodinámicas usuales.
Se presentarán aplicaciones de estos resultados al estudio del gas ideal de
bosones y de fermiones (capítulo 14) y de la condensación de Bose-Einstein
(capítulo 15).
Parte II
APLICACIONES
Capítulo 6
g a s id e a l m o n o a t ó m ic o e n l a
COLECTIVIDAD MICROCANÓNICA

6.1. Introducción
El estudio del gas ideal en la colectividad microcanónica es interesante por
varios conceptos:

■ Es uno de los pocos casos en que se puede evaluar el número de microes-


tados, n(AT, V,£·), de forma explícita.

■ Se deduce la ecuación de estado del gas ideal a partir de principios mi­


croscópicos, y a partir de ella se encuentra la relación de la constante de
Boltzmann fes con las constantes universales R (constante de los gases
ideales) y N a (número de Avogadro).

■ El gas ideal representa el comportamiento universal de todos los gases a


alta tem peratura y baja densidad.

■ El gas ideal se tom a como referencia cuando se estudia el comportamien­


to de los gases reales, tanto clásicos como cuánticos.

El estudio del gas ideal representa además, desde un punto de vista históri­
co, un hito fundamental en la concepción de la física estadística. Por primera
vez se explican las propiedades termodinámicas de un sistema macroscópi­
co (gas ideal) desde un punto de vista molecular. En primer lugar, en 1860,
Maxwell establece la distribución de velocidades de las moléculas de un gas
ideal en equilibrio. Poco después, en 1872, Boltzmann estudia las propiedades
generales de la distribución de energía entre las moléculas del gas ideal, y es­
tablece la relación entre la energía cinética media de las moléculas y la tem per­
atura. De esta relación se deriva el comportamiento de la capacidad calorífica
con la tem peratura. Los trabajos de estos dos investigadores dan forma a lo
que hoy llamamos estadística de Maxweli-Boltzmann para los sistemas clásicos,
que constituye una parte fundamental de los cimientos de la física estadística.
6.1 . 1 . P ro p ie d a d e s m acroscópicas d e un gas id ea l
Desde un punto de vista termodinámico, un gas en equilibrio termodinámi­
co a la tem peratura T se comporta idealmente cuando sus estados de equilibrio
vienen representados por la ecuación de estado:

p V = nR T , (6.1)

donde p es la presión a la que se encuentra el gas, V el volumen que ocupa,


n el número de moles que lo forman, y R L· constante de los gases ideales.
La relación entre el número de moléculas y el número de moles del gas es
N = tiN a , donde N a = 6,023 x 10^^ es el número de Avogadro.
El segundo principio de la termodinámica permite demostrar que la energía
interna de los sistemas que obedecen la ecuación de estado del gas ideal es
fanción exclusivamente de la temperatura:

U = U{T). (6 2)

La ecuación de estado de un gas ideal no contiene ningún parámetro que


diferencie el comportamiento de un gas respecto de otro, por ejemplo que
dependa de la especie atómica (masa del átomo, número atóm ico... ) que con­
stituye el gas. Este carácter universal refleja que el comportamiento ideal es
un comportamiento límite de los gases reales. Ningún gas es ideal. Sin em­
bargo, todos los gases se comportan idealmente cuando su tem peratura es
suficientemente alta y su densidad suficientemente baja.

6 .1 .2 . M o d e lo m icroscópico d e un gas ideal m on oatóm ico


En este capítulo estudiamos un gas ideal de moléculas monoatómicas. Des­
de un punto de vista microscópico, es un sistema formado por un gran número
de átomos contenidos en un volumen V. Típicamente hay del orden de 10^^
átomos en un volumen del orden de 1 htro. Suponemos que la densidad del
gas es muy baja, y por tanto son razonables las aproximaciones que siguen:
■ Los átomos que constituyen el gas son partículas puntuales. No hay
efectos de volumen excluido.

■ No hay interacción entre átomos. La energía de las partículas es única­


mente energía cinética de traslación.

6.2. Gas ideal en la colectividad microcanónica


Vamos a estudiar el gas ideal monoatómico en la colectividad microcanónica.
Por ello, suponemos el sistema aislado térmicamente, constituido por N partícu­
las de masa m encerradas en un recipiente de volumen V, y con su energía
totttl fljitdtt en el intervalo entre E y E SE. El estado macroscópico del sis­
tema e®tá definido por las variables (N ,V ,E ). Veremos que el valor de SE,
auti siendo finito, no afecta a las propiedades macroscópicas del gas.

6*2· 1. Gaa id ea l d e p a rtícu la s qu e obedecen a la m ecánica


clásica: có m p u to d el n ú m ero d e m icro esta d o s
En el cálculo que sigue suponemos (i) que las partículas se mueven de
acuerdo a la dinámica clásica, y (ii) que su estadística es también clásica,
eato es, que no son relevantes las restricciones sobre microestados impuestas
por la mecánica cuántica. Este ejemplo, por tanto, corresponde a un sistema
efltHdísti»:o clásico-continuo, según la clasificación introducida en el capítulo 3.
Puesto que las partículas tienen únicamente energía cinética, el hamiltoni-
ano clásico del sistema viene dado por;

9m-

donde pj (vector de tres componentes) es el momento lineal del átomo j , y pj


su módulo. El hamiltoniano no depende de las posiciones de las partículas, qj.
El número de microestados compatibles con el macroestado (iV, V, E) viene
dado por (2.22):

ü { N ,V , E ) = - ¡ ^ í I d^^p. (6.4)
Jv JE<Y^.vy2m<E-^6E

Este cálculo corresponde a dividir el hipervolumen accesible al sistema en el


espacio fásico, dado por las dos integrales múltiples, en volúmenes elementales
uno por microestado, tal y como se discutió en el capítulo 2.
La integral sobre las variables de posición es inmediata:

L
La integral sobre los momentos:

(6.6)
LJB<Y^.pp2m<B+SE
·

representa el volumen del casquete hiperesférico definido por:

2 m E < ' ^ P j < 2m (E + SE), (6.7)


j
en el espacio de 3N dimensiones de las variables pj (figura 6.1). Dado que
SE E, el volumen del casquete es aproximadamente el producto de
Figura 6.1: Representación esquemática de los estados permitidos de un sistema de N partícu­
las libres con energía total entre E y E'\-SE. En el caso de la izquierda las partículas obedecen
a la mecánica clásica, y los microestados forman un continuo en el espacio fásico (posiciones
y momentos). El volumen elemental de un microestado es . En la figura se represen­
tan únicamente dos de las 3N componentes de la porción del espacio fásico corrf^pondiente
a los momeutob de las partículas. En el caso de Ja derecha las partículas obedecen a la
nioí.ánií^a cuántica. Los microestados son discretos y cada uno de ellos viene dado por los
númeroH cuánticos (n i,n 2 .. .nayv), aunque en la figura se han representado únicamente los
(Ion primores. El volumen elemental de un microestado, representado por el cuadrado negio,

Area do una hiperesfera de radio R = por SR, grueso de la cáscara.


Tal y como se muestra al final de este capítulo (sección 6.3) el área de la
hiperesfera t;s:

A3N = . (6 .8 )
r{3N/2)
El grueso de la cáscara viene dado por:
1/2
m
SR = 5[2mE]^^^ ~ SE. (6.9)
2E
En definitiva, el número de microestados buscado es:

(6 . 10)
(3AY2 _ 1)! í ;·

6.2.2. G as ideal d e p a rtícu la s qu e o b edecen a la m ecánica


cuántica: có m p u to d el n ú m ero d e m icro esta d o s
Dado que el problema del movimiento de los átomos en un gas pertenece
al mundo microscópico, su descripción debe hacerse en principio en el marco
de la iiiecáilica cuintica.
En el cálculo que presentamos en esta sección (i) se considera el movimiento
de laß partículas desdo uii punto de vista cuántico, pero (ii) la estadística
He las partícula» es clásica, y»i que no se tienen en cuenta las restricciones
sobre los posibloH inicroestadoH impuestas por la simetría de la función de
ondas del sistema de N partículas. En otras palabras, se ignoran los efectos
de colieicncia cuántica entre las partículas. Esta aproximación se justifica por
la baja densidad del gaa. En la clasificación introducida en el capítulo 3, este
planteamiento corresponde a un sistema estadístico clásico-discreto.
Un gas ideal monoatómico puede considerarse como un conjunto de N
partículas libreSy no relativistas, confinadas en una caja cúbica de volumen
V^(= L^). En el marco de la mecánica cuántica, tal y como se muestra en el
apéndice A, los niveles de energía de una partícula libre están cuantizados, y
pueden tomar únicamente los valores siguientes:
^2 2
e (tIx , Uy, Tiz) — ^ 2) > ni = 1 ,2 ,3 ... (0*1^1)

Si fijamos la energía de la partícula, e, los distintos microestados en que puede


encontrarse ésta vienen dados por las posibles soluciones (n^, ny,n^) de la
ecuación anterior.
Si ahora consideramos el conjunto de las N partículas libres, y fijamos su
energía total a un valor E en el intervalo (£ , E-\-SE)^ los distintos microestados
en que puede encontrarse el sistema son las soluciones de:

E "i = E € { E , E + SE). (6.12)


i=l

Imaginemos el espa<:io 37V-dimensional de las variables {fí7:/L)ni, representado


en la figura 6.1. Los posibles microestados del sistema forman un retículo
regular (correspondiente a rii = 1, 2, 3 .. .) en la porción positiva (n,· > 0) de
dicho espacio. El número de microestados, Ü{N^ V, £*), es el número de puntos
del retículo contenidos en la porción positiva de una cáscara esférica de radio
interior R = [2mE]^^'^ y radio exterior R + 6R = [2m(E + que se
muestra esquemáticamente en la figura 6.1.
Para tamaños grandes del sistema (L grandes) el espaciado entre puntos
del retículo es pequeño. Por tanto, habida cuenta de que la dimensionalidad
del espacio (3iV) es muy elevada, el número de microestados contenidos en el
casquete es muy grande. Esto permite hacer un paso al continuo, de manera
que Í](7V, V", E) se puede calcular en muy buena aproximación como:
En esta expresión, de forma muy similar al caso clásico, el número de microes­
tados se calcula dividiendo el volumen del casquete (aproximado por A s n ^R)
por el volumen elemental de un microestado en la representación escogida,
{Jí t / L ) ^ ^ . El factor (1/2)^^ da cuenta de que sólo son admisibles los valores
rii > 0.
Dado que tanto el radio de la cáscara, [2m£?]^/^, como la dimensionalidad
del espacio de momentos, 3iV, son idénticos a los del caso clásico, las expre­
siones de A sn y SR son las mismas que allí se obtuvieron. En definitiva, el
número de microestados permitidos distintos viene dado por:

que coincide exactamente con el resultado clásico, ya que = V y 27t?í = h.


Esta coincidencia resulta de haber considerado un continuo de microesta­
dos al efectuar el cómputo de Q. Puesto que el número de microestados crece
muy rápidamente con la energía del sistema, la aproximación será correcta
siempre que la energía sea suficientemente alta. Teniendo en cuenta que la
energía de un gas ideal depende únicamente de la temperatura, esta condición
define una tem peratura característica del gas, Qrras, por debajo de la cual la
aproximación deja de ser válida. Estimemos ©Tras a partir de la diferencia de
energías entre los dos primeros niveles de una partícula:

Ae = — --" 2 ~ — kB^Tras- (6.15)

Para un litro de He (peso atómico M = 4,00 g mol“ ^) resulta Qrras — 2x 10“ ^®


K. En general, la tem peratura característica ©Troa? asociada a los grados de
libertad de traslación de las partículas, es extraordinariamente baja para todos
los gases, y ésta es la razón de que los gases diluidos tengan un comportamien­
to próximo al ideal a tem peraturas ordinarias. Volveremos sobre este punto
cuando estudiemos el gas de moléculas diatómicas (capítulo 12).
Llegados aquí, conviene recordar que en el capítulo 2 se asignó al volumen
elemental de un microestado en el espacio de fases clásico el valor de forma
arbitraria. Nuestra prim era aplicación del formalismo estadístico, discutida en
esta sección, ya muestra que la elección es perfectamente adecuada por cuanto
conduce a expresiones idénticas de fi taiito si las partículas se describen en el
marco de la mecánica clásica como en el marco de la mecánica cuántica.
De la discusión anterior podemos concluir que, en los gases ideales, los
efectos cuánticos distintivos aparecen como consecuencia de las condiciones de
simetría de la función de onda y no de la cuantización de la energía.
(j.a.3. P ro p ied a d es term o d in á m ica s d el gas ideal
Lft entropia del gas ideal se calcula a partir de 5 = Infì. Nos ponemos
en el límite iV > 1. En este límite:
(i) Podemos usar la aproximación de Stirling del factorial, de manera que
inNÍ2¿ I V l n N - N ,

(11) Se cumple que in(SE/E) es despreciable frente al resto de términos,


proporcionales a N.

El resultado ñnal es:

S( N, V, E) = N k e (in + 5 In + fj ■ (6-16)

Esta expresión de la entropía adolece de un problema grave: debido al


término en InK, no es extensiva (proporcional al tamaño del sistema). El
resultado es por tanto inaceptable desde un punto de vista termodinàmico.
Gibbs se percató de este hecho, y razonó que el origen del problema está en
haber calculado íi (el número de microestados) como si las partículas del gas
fueran distinguibles unas de otras. En realidad las partículas son idénticas, y
por tanto indistinguibles. Por este motivo, el número de microestados está con­
siderablemente sobreestimado, ya que las permutaciones entre partículas que
se encuentran en estados diferentes no llevan a nuevos microestados. La receta
propuesta por Gibbs para tom ar este hecho en consideración es dividir por iV!
el número de microestados de partículas distinguibles, atendiendo a que hay
N\ permutaciones distintas de N partículas distinguibles. Esta receta corrige
el problema de la extensividad de S, pero requiere una fundamentación más
rigurosa. Los capítulos 5 y 8 se dedican a analizar estas cuestiones en detalle.
Dividiendo Q por N \ la entropía adquiere ahora la forma:

S W V , E ) . « 3 ( t o ^ + 5 . „ | ^ + 5 ), (6.17)

que se conoce como la fórmula de Sackur-Tetrode para la entropía de un gas


ideal monoatómico. Puesto que tanto V como E son magnitudes extensivas,
la entropía (6.17) es también extensiva.
El resto de magnitudes termodinámicas se obtienen como derivadas de la
entropía. Así, la tem peratura a la que se encuentra el sistema se obtiene de:

de donde resulta que


E = ^N kaT. (6.19)
Este resultado muestra que la energía interna del gas depende exclusivamente
de la tem peratura, como corresponde a un gas ideal (ecuación (6.2)). Inmedi­
atamente se deduce que la capacidad calorífica de un gas ideal monoatómico
viene dada por:
Cv = ^ N k B (6.20)

que es un valor constante (independiente de la tem peratura).


De forma similar, la ecuación de estado resulta de:

E stá claro que la ecuación de estado depende únicamente de la forma en que


Q. varía con V. Para sistemas formado por partículas libres la dependencia
será siempre del tipo , por lo que todos estos sistemas obedecerán a la
ecuación pV = N k s T . Comparando este resultado con la ecuación de estado
del gas ideal, ecuación (6.1), se identifica la constante de Boltzmann con:

Igualmente, el potencial químico del gas se obtiene de su deñnición:

do Ift que, haciendo uso de (6.19), obtenemos:


/ 1/2
fjL = k B T ln con A= — ^ (6,24)
2'KrnkQT j

En la expresión del potencial químico hemos introducido A, la longitud de


onda térmica de de Broglie, cuyo significado físico se discutió en el capítulo 3.
Es interesante observar que las magnitudes intensiva^ T y p no se ven
afectadas por la corrección l / N \ , dado que ésta introduce únicamente depen­
dencias en N . Por el contrario, el potencial químico /x resulta modificado.
Finalmente, si substituimos (6.19) en la expresión de S ( N , V, E) obtenemos
la entropía en función de la temperatura:

S{N , V, T) = NkB (in I + 5 In . (6.25)

En el hmite T — O vemos que 5 —> —oo. Este comportamiento de la entropía


es inaceptable. Este hecho refleja que nuestra aproximación no es válida a tem­
peraturas extremadamente bajas. A dichas temperaturas se tiene que utihzar
la física estadística cuántica, como haremos en el capítulo 14.
6.3. Complemento: volumen y superficie de una hi-
peresfera de radio r en n dimensiones
Nos proponernos calcular el volumen y la superficie de una hiperesfera de
radio r en n diinunsiones, definida por la ecuación en coordenadas cartcoianas:

x ¡ + x l + --- + x l = r ‘^. (6.26)

Para ello, empezamos razonando que por argumentos dimensionales:

Vn = CnT^, (6.27)
donile Cn, constante, contiene las contribuciones angulares. Para determinar
Cn definimos la integral siguiente:

J = r ■■■ í°° dxid.x2 ■■■ (6.28)


J—oo J-oo
Esta integral se puede calcular en coordenadas cartesianas, como el producto
de n integrales idénticas:

I = f i r (6-29}
i=i

y también en coordenadas polares:

1 = ¡ J " e - ’''c „ n r " - i d r = |c ^ r ( n / 2 ) . (6.30)

En esta última ecuación hemos usado que el diferencial de volumen en polares,


de acuerdo con (6.27), es dVn = Cnnr^~^dr. Igualando los dos resultados de
I deducimos que:
2

y por tanto:
2 7t"/2

La superficie de la hiperesfera, An^ se obtiene sencillamente de considerar


que dVn = Andr^ y por tanto:

HV

Es fácil comprobar que e n n = 2 y n = 3 dimensiones se recuperan los


resultados conocidos A 2 = 2Trr, V'2 = Trr^, As = 47rr2 y V3 = (4/ 3)7rr^.
6.4. Ejercicios
■ Considerar un mol de Ar contenido en un recipiente de volumen V, a
presión p = 1 atm y tem peratura T = 300 K (ambiente). Evaluar la
longitud de onda térmica de de Broglie de este sistema, A, y comparar
el resultado con la distancia media interatómica.

■ Calcular 7 = Cp/Cy de un gas ideal monoatómico, haciendo uso de las


expresiones termodinámicas del apéndice B.

■ Sean Vn y An gì volmnen y la superficie de una hiperesfera de radio r en


n dimensiones, y Gn el volumen de una cáscara hiperesférica de grueso
SR. Demostrar que In K , InAn y InG^ son prácticamente iguales en el
límite de n muy grande.
Capítulo 7
d e f e c t o s p u n t u a l e s e n s ó l id o s

7.1. Introducción
Como aplicación sencilla de la colectividad microcanónica, presentamos
aquí un estudio detallado de los llamados defectos de Schottky y Frenkel en
sólidos reticulares.
Los sólidos reticulares vienen modelizados por una red regular en cuyos
vértices están situados N átomos. Sin embargo esta situación es ideal y única­
mente se da a tem peratura cero. A tem peratura finita existen, en equilibrio,
una serie de defectos cristalinos que pueden ser puntuales, lineales o superfi­
ciales. En este capítulo vamos a estudiar los defectos puntuales. Existen dos
tipos: los defectos de Schottky o vacantes y los defectos de Frenkel o intersti­
cios. Ambos juegan un papel importante tanto en la conductividad eléctrica
y térmica como en las propiedades ópticas de los cristales.
. Consideremos en primer lugar las vacantes de Schottky. Debido a las fluc-
tuaxiiones térmicas, algunos átomos abandonan su posición en la red (dejando
en su lugar un agujero o vacante) y emigran a la superficie. Ello hace que el
sóhdo aumente de volumen, en el sentido de que ahora tenemos N átomos y n
vacantes, y por lo tanto un total de iV H- n vértices (figura 7.1). Cada vacante
conlleva un coste energético e que es del orden de la energía de cohesión de
los átomos en el retículo 1 eV).
En el caso de los intersticios de Frenkel los átomos emigran a posiciones
intersticiales de la red. Podemos interpretarlo como si tuviéramos dos sub-
redes interpenetradas (una puede ser dual de la otra) de tal forma que, cuando
un átomo abandona su lugar en la red original, se va a un vértice de la red
dual (figura 7.2), con un coste energético e. Supongamos que a tem peratura
cero tenemos N átomos en una red original de N vértices, y otros N ' — N
vértices en la red dual, vacíos. A tem peratura finita se tienen n vacantes en la
red original y por lo tanto n átomos intercalados en la red dual.
Queremos remarcar que la presencia de ambos tipos de defectos es un
fenómeno de equilibrio y es consecuencia de la tem peratura absoluta (no nula)
a la que so oncuontra el cristal.
A contlntiiujlón «studiamos ambos sistemas en la colectividad microcanónica.
• •
m • •
«

m • •
• •

m •
• •

iS © •
• •
Figura 7.1: Representación bidimensional de un sólido reticular con defectos de Scliottky a
temperatura finita T ^ 0. Hay TV = 16 partículas, n = 9 vacantes y por lo tanto AT+ n = 25
vértices. La línea a trazos indica las dinieiisiones del sistema a T = 0. El cuadrado peciueño
sombrc^ado corresponde a la celda unidad.

V ••i-
·[· • •

•i··**·


V • 1
r· 1

Figura 7.2: Representación bidimensional de un sólido reticular con defectos de Frenkel. La


red duaJ esta marcada con líneas a trazos. Hay TV = 25 partículas de las que 7i = 6 están en
la red dual.
De acuerdo con la deecrlpclón anterior y la clasificación del capítulo 3 debemos
considerarlos como aistemas estadísticos clásico-discretos.

7.2. Vacantes de Schottky


Dado que vamos a realizar los cálculos en la colectividad microcanónica,
empezaremos por suponer que el sistema está aislado, con N átomos y n
defectos. La energía queda fijada y es únicamente la energía de los defectos:

Ε{η) = ηε. (7.1)

Este valor determina el estado macroscópico del sistema. Sin embargo hay
un gran número de estados microscópicos compatibles con esta energía. Este
numero corresponde al número de combinaciones posibles en que pueden colo­
carse n vacantes en un retículo de N -{-n vértices:

Ü ÍE in ),N ).ü í^ ^ (T.2)

Por lo tanto la entropía es:

S{E{n), N ) = k e In [{N + n) ln{N + n) - n ] n n - N l a N ] ,


(7.3)
donde en la últim a igualdad hemos usado la aproximación de Stirling para los
factoriales.
Ahora, siguiendo la metódica habitual de la colectividad microcanónica,
podemos obtener la tem peratura absoluta del sistema aislado:

T [dEJtf ε [dnjff ε π ' ^ ^^

de donde podemos despejar fácilmente n y así obtener laconcentración de


vacantes en equilibrio a la tem peratura T, y su comportamiento a bajas tem­
peraturas { k s T < ε):

n(T) = ----- ^ ^ A T ex p (--^ ). (7.5)

Como veremos más adelante, este tratam iento del sólido no tiene mucho sen­
tido a tem peraturas muy elevadas.
La capacidad calorífica se obtiene fácilmente si usamos (7.1) y (7.5):

- (i)„ = (iS íp “ <"■*>


donde en el último cálculo hemos considerado x » 1, o sea bajas temperaturas.
La nueva variable es x = = © s/T , que nos define la temperatura
característica ©5 = zjkB de Schottky. Un estudio de los comportamientos
límites de la expresión general muestra que C (T) tiende a cero para T bajas
y a una constante para T altas. Si suponemos que e ~ 1 eV, obtenemos que
©5 ~ 10^ K, valor que podría ser del orden del punto de fusión del sólido, y por
lo tanto no tiene mucho sentido fisico el estudio de temperaturas altas en este
modelo. Así pues todas nuestras expresiones anáhticas se han de interpretar
en el límite de tem peraturas bajas o, más precisamente, de x grandes.
Si asociamos a cada vértice del retículo un elemento de volumen el
volumen total e s V = (AT -h n)6. Podemos entonces calcular la presión, a partir
de las ecuaciones de la colectividad microcanónica. Tenemos que:
m (dS\ T (d S \ Te(dS\ e
[dVjN ^ 5\dn)N ~ S 6' ^
Aunque este resultado (presión constante) parece un poco sorprendente, es el
que cabe esperai*. El hecho de que pS = e nos dice que añadir una vacante
siempre cuesta la misma energía, independientemente del estado del sistema.
Aún podemos calcular una propiedad más: el coeficiente de dilatación
térmica, ¡3. A partir de la dependencia del volumen en la temperatura:

V = (^·^-n(T))<5 = JV(S(l + e-®5/^), (7.8)

podemos obtener dicho coeficiente:


- 1 /d V \ 1 1 2 -I
v (a T j/s r“ ese* + l ^ ^ ^^
El comportamiento es análogo al de la capacidad calorífica para x:$> l.
Para finalizar vamos a obtener el potencial químico del sistema, a partir
de su definición en esta colectividad:

M= - T = -k a T ln = k e T in il - e~% (7.10)

que en el límite de bajas temperaturas es

fM c ^ -k e T e -^, (7.11)
donde hemos usado el resultado (7.3).

7.3. Intersticios de Frenkel


Tal y como explicamos en la introducción, la principal característica de
estos defectos es que emigran a la red dual. Suponemos que la red dual tiene
el mismo número de vértices que la red original, = N (figura 7.2).
La energía Interna es la misma del caso anterior (ecuación (7.1)), pero
aliortt cambian sustancialmente los estados microscópicos compatibles con esta
energía. Hay que tener en cuenta no sólo la distribución de las n vacantes sobre
iV v($rtices de la red original, sino también la distribución de los n átomos
quo han emigrado a la red dual y se distribuyen sobre sus N ' == N vértices.
Dado que los números involucrados N y n son iguales en ambas redes, el
iiiiinero de estados microscópicos es el mismo en cada caso. El número total
de microestados será el producto de ambos:

La entropía del sistema es pues:


= n .( (N in )r

JV!
S { E i n ) ,N ) = kBln
n! {N —n)!.
~ 2kB [ N L · N - n l n n - {N - n) ln(N - n )]. (7.13)

De aquí obtenemos la tem peratura tal y como hicimos en (7.4):


1 ídS\
f = (áE)„ =
que sólo tiene sentido si n < iV.
íU)„
1 íd S \
=—
2ks, N -n

El número de defectos de Frenkel en función de la tem peratura es pues:

n (r ) = w [ l + « p ( ¿ y ) ] “ ‘ = « e x p ( - ¿ j ) , (7.15)

si e f 2 k s T 1. Esta expresión es muy similar a la del caso Schottky (7.5), si


bien los defectos de Frenkel son más fáciles de generar térmicamente pues la
energía efectiva del factor de Boltzmann queda reducida en un factor dos.
El estudio puede continuarse siguiendo las hneas del ejemplo anterior, pero
se deja como ejerció para el lector.

7.4. Ejercicios
■ Encontrar analíticamente la capacidad calorífica de los defectos de Frenkel,
y representarla en un gráfico en función de la tem peratura.

■ Hacer el estudio de los defectos de Schottky en la colectividad canónica.

■ Hacer el estudio de los defectos de Frenkel en la colectividad canónica.


Ayuda: aproximar el sumatorio de la función de partición canónica por
el sumando mayor.
■ En el problema de los defectos de Frenkel, considerar que cada subred
es una componente termodinámica diferente. Demostrar que están en
equilibrio.
Capítulo 8
MEZCLA IDEAL DE GASES PERFECTOS.
PARADOJA DE GIBBS

8.1. Introducción
La energía de un sistema ideal, formado por N partículas no interactuantes,
es separable en suma de hamiltonianos monoparticulares. Desde el punto de
vista de la estadística clásica, esto permite que la función de partición canónica
del sistema factorice en la forma:

Z { N ,V ,T ) = [ Z i i V , T ) f , (8.1)

donde Zi{Vj T) es la función de partición canónica de cada una de las partículas


individuales.
Es im portante darse cuenta de que para llegar a este resultado se ha
supuesto implícitamente que las partículas son distinguibles unas de otras. En
efecto, al factorizar la función de partición en funciones de partición monopar­
ticulares se está suponiendo que los microestados del sistema de N partícu­
las son el resultado de todas las permutaciones posibles de los microestados
monoparticulares accesibles a cada partícula, después de haberlas etiquetado
una a una desde la 1 hasta la N . Si las partículas son distinguibles^ cada una
de las permutaciones lleva efectivamente a un microestado distinto del sistema
de N partículas, hasta obtenerlos todos. Por el contrario, si las partículas son
indistinguibles (pierden su etiqueta) muchas de las permutaciones propuestas
llevan a un mismo microestado del sistema de N partículas, de manera que la
inmensa mayoría de estos aparecen repetidos un gran miinero de veces. Puesto
que la función de partición es una suma sobre los microestados del sistema, no
pueden admitirse repeticiones de microestados. Por tanto, si las partículas son
indistinguibles la función de partición del sistema no puede expresarse como
producto de funciones de partición monoparticulares.
En un gas ideal monoatómico las partículas son idénticas. Puesto que
además son libres de moverse en todo el recipiente que las contiene, son in­
distinguibles, En consecuencia, tal y como acabamos de discutir, un cálculo de
la función de partición que considere las partículas distinguibles sobreestima
enormemente el número de posibles microestados del sistema. Gibbs propu­
so corregir el problema a base de dividir por N\ el número de microestados
correspondiente a N partículas distinguibles. La función de partición en la
estadística clásica tom a entonces la forma:

Z { N ,V ,T ) = ^ [ Z i { V , T ) f . (8.2)

La fundamentación de la corrección propuesta por Gibbs se discutió en


el capítulo 5, y sus implicaciones prácticas se analizaron en el capítulo 6.
En este capítulo nos proponemos estudiar otro aspecto relacionado con la
indistinguibilidad de las partículas y la corrección de Gibbs, desde el punto de
vista de la colectividad canónica.

8.2. Gas ideal en la colectividad canónica


Consideremos un gas ideal formado por N moléculas monoatómicas libres
contenidas en un volumen V" a la tem peratura T. La energía del sistema es
puramente cinética:
N 2 N
« = = (8-3)
i=l t=l
Puesto que la energía es separable, la función de partición canónica factoriza
en la forma (8.2). Para calcular la función de partición monoparticular Zi
distinguiremos dos casos:

8.2.1. P a rtícu la s libres que obedecen a la m ecánica clásica


En este caso las variables q¿ y p¿ son variablescanónicasclásicas, que
definen el espacio de fases del sistema. Por tanto,estudiamos un sistema es­
tadístico clásico-continuo. Dado el hamiltoniano (8.3), la función de partición
canónica monoparticular viene dada por:

Z i(V ,T ) = X I (fq r dp^ r dpy r (8.4)


fl JV J —oo J -o o J -o o
La integral de las posiciones da V. La integral de los momentos se calcula como
producto de tres integrales gaussianas, una por componente. El resultado final

"Á5· <«■*>
donde A es la longitud de onda térmica de las partículas del sistema, que se
introdujo en el capítulo 3.
8,2»2, P artícu la s lib res qu e o b ed ecen a la m ecánica cu án tica
El hamiltoniano del sistema viene dado de nuevo por la ecuación (8.3).
La solución de la ecuación de Schrödinger de cada una de las partículas, con
hamiltoniano muestra que los valores posibles de la energía están cuan­
tizados, de forma que tratamos un sistema estadístico clásico-discreto. Los
valorea posibles de la energía son:

ff (ti®,Tiy,n*) — “2^ ^ , con k — — {nx^ny^fiz), rix — 1 , 2 , 3 . . .


(8 .6 )
La función de partición canónica monoparticular viene dada por:

Z i{V ,T ) = Y ^ í l{ s ) e - ^ ^ , (8.7)
£

donde Cí{e) es el número de estados monoparticulares con energía e. La suma


se extiende a todos los valores de la energía, desde el más bajo correspondiente
al estado fundamental hasta infinito. Aunque la suma es muy difícil de calcular
de forma exacta, cuando el recipiente que contiene el gas tiene dimensiones
macroscópicas (L grande) los niveles de energía se hacen muy próximos y se
puede hacer un paso al continuo, de manera que la suma se sustituye por
una integral. Este paso nos conduce de forma natural a la estadística clásica-
continua. Tenemos aliora:

Z i { V , T ) = r d eg{e)e-^^. (8.8)
^0

En el paso al continuo la degeneración íi(e:), correspondiente al nivel de energía


se substituye por la densidad de estados monoparticulares g[e)^ correspon­
diente al intervalo de energías entre e y e -l· ck. En el apéndice A se demuestra
que la densidad de estados viene dada por:

g { e ) d e = ^‘ { 2 m f ' ^ e ^ l ^ d e . (8.9)

Finalmente:

Z i(V ,T) = r "

que coincide exactamente con el resultado (8.5), por las mismas razones que
discutimos en el capítulo 6.
8.2.3. P ro p ie d a d e s term o d in á m ica s
En definitiva, la función de partición canónica de un gas ideal monoatómico
en la estadística de Maxweli-Boltzmann viene dada por:
JV
Z ( N ,V , T ) = ^ Í Z i ( V , T ) ] ^ = ^ (8 .11)
Las propiedades termodinámicas dcl gas ideal se obtienen de forma inmedi­
ata. La energía libre de Helmhoitz es:

F{N, V, T) = - k ß T In Z{N, V, T) = N k ß T (8 .12)


donde hemos usado la aproximación de Stirling A^! ^ N \ i \ N —N . La ecuación
de estado es:

Finalmente, la energía interna del gas es:

como correaponde a la equipartición de la energía en 3A/' grados de libertad


cuadráticos.

8.3. Entropía de mezcla y paradoja de Gibbs


Estudiamos ahora la mezcla de dos gases ideales, 1 y 2, que se encuentran
inicialmente a la misma tem peratura T. Como se muestra en la figura 8.1, los
dos gases están inicialmente separados y su número de partículas, volumen y
tem peratura es {N \,V \,T ) y {N2 , V2 , T) respectivamente. La mezcla se efectúa
de forma aislada del exterior, eliminando la pared que separa los gases, de
manera que el estado final de cada gas es (A^i, Ví -f- V2 ,T ) y (7^2, Ví -f- V2 ,T )
respectivamente.

8.3.1. E stu d io term odin àm ico


Consideremos en primer lugar el proceso de mezcla desde el punto de vista
de la termodinámica. Cada gas experimenta una expansión desde un volumen
inicial o Vi a un volumen final Ví + V2. La mezcla se realiza de forma aislada
del exterior, y por tanto no hay intercambio de calor ni se realiza globalmente
ningún trabajo. De acuerdo con el primer principio de la termodinámica, en
consecuencia, la energía interna del sistema global no se modifica:

A U = AUj-l· AU 2 = 0. (8.15)
Figura 8.1: Mezcla de dos gases ideales a la misma temperatura T. A la izquierda se miicstra
la configuración inicial, con los dos gases separados, y a la derecha la configuración final
dcbpués de la mezcla.

La energía interna de los gases ideales depende únicamente de la tem peratura,


de manera que:
A U = m C yAT + ri2C,AT = 0. (8.16)
Puesto que los dostérminos tienen el mismo signo, la únicamanera de satis­
facer la igualdad es que A T = 0. En conclusión, la tem peratura final después
de la mezcla coincide con la tem peratura inicial.
El cambio de entropía del Universo debido al proceso de mezcla es:
= A S i +2 + A56, (8.17)
donde AíSh-2 es el cambio de entropía del sistema formado por los dos gases,
y A5b es el cambio de entropía del ambiente. Puesto que no hay intercambio
de calor con el ambiente, ASb = 0.
■ Si los gases son distintos (1 ^ 2), el proceso de mezcla es irreversible:

ASu > 0 A5i+2 > 0. (8.18)

■ Si los gasesson iguales (1 = 2), pero inicialmente tienen distinta densi­


dad, el proceso es igualmente irreversible. En este caso la irreversibilidad
proviene de la igualación de densidades. Tenemos:
ASu > O (8.19)

Sin embargo, si los gases son iguales (1 = 2) y tienen la misma densidad


inicialmente, N i/V i = ÍV2/V2) ííl proceso es reversible: quitar o poner la
pared de separación no produce ningún efecto en el sistema:
ASu = 0 A 5 i +2 = 0. (8.20)
Estos son los resultados que nos proporciona la termodinámica referentes
a la mezcla de gases ideales.
Consideremos aliora el proceso de mezcla desde el punto de vista de la
física estadística. Supongamos inicialmente que los gases son distintos (1 / 2 ) .
Antes de la mezcla:
1 ■ Vi ] Ni 1 ■ V2 ] N2
Zi = Zìi Z2i =
ATi! .A 3(m i,r)J
(8 .21)
N2\ .A3(m2,T)J
Después de la mezcla:

1 V Ni 1 V 1N2
Z f = Z i f · Z2f = (8.22)
ATi! [A 3(m i,r). N 21 [A3(m2,T)J
c o n F = V i + V 2·
El c a m b i o d e e n t r o p í a es:

o
A5i+2 = S f - Si = k B · ^

Obsérvese que no depende de la corrección 1/N\ a la función de partición.


Además es siempre positivo, como se ve haciendo:

A5i+2 = kB [{Ni + ÍV2) hi y - ATi In - ÍV2 hi V2 ] =


V V
kB N i \ n - - \ - N 2 Í n - > 0 , (8.24)
Vi V2
ya que V > Vi^ V > V2·
Si tomamos este resultado y lo aplicamos a gases iguales (1 = 2), no cam­
bia nada. Resulta A5i+2 > O siempre, con independencia de si las densidades
iniciales son iguales o distintas. Este resultado no tiene sentido si las densi­
dades iniciales son iguales: ya hemos visto que en ese caso no hay ninguna
irreversibilidad asociada a la mezcla. E sta aparente dificultad se conoce como
paradoja de Gibbs.
Vamos a resolver la paradoja repitiendo el cálculo de A5n-2 desde el prin­
cipio, en el caso de gases iguales (1 = 2). Antes de la mezcla, como antes:

V"i ]
Ni 1 V2 ■JV'2
Zi = Zìi · Z 21 = 7 (8.25)
Ni\ LA3(m,T)J ^■2! [A3(m,T)j
donde simplemente hemos tenido en cuenta que m i = 7712 = m. Después de la
mezcla, en cambio, tenemos N i -f N 2 átomos idénticos (de masa m) contenidos
en el volumen V = Ví H- V2:

1 N1 +N2
(8.26)
(ÍVi + 7V2)! [A3(m,T)J
que diflare del oa«o ea que los gases son distintos, ya que en general (JVi + JV2)!
iVil^al· Aií tenemos:
Q
áSi+3 ■ i / - 5 < - k a · ^ = fcsln

que af depende de la corrección 1/7V! a la función de partición. Usando la


aproximación de Stirling de In N \ obtenemos ahora;
Nx N2
A5i+a ka N i in + N2\n
N 1 + N 2 V1 N 1 + N 2 V2 Ì
Ni ÍV2
kB N i \ u ^ + N 2 Í n ^ - b k n i N i l n + AT2 111 . (8.28)
Vi V2 N i-h N 2 N i -\-N2Í
El primer término es el mismo que obtuvimos para gases distintos. Es siempre
positivo, ya que V > Ví, F > V2. El segundo término es nuevo y es siempre
negativo, ya que N i < N i + ÍV2, N 2 < Ni-\- N 2 .
Cuando las densidades iniciales son distintas:
Ni , N 2 N1 + N2
A 5 i +2 > 0. (8.29)
Vi ^ V 2 ^ V
El proceso de igualax^ión de densidades es irreversible, como cabía esper­
ar.

■ Cuando las densidades iniciales son iguales (y por tanto iguales a la


densidad final):
Ni N2 N i -f N 2
(8.30)
Vi V2 V
El proceso es efectivamente reversible. La paradoja de Gibbs desaparece.
En conclusión: la corrección l / N \ a la función de partición, asociaxla al
carácter indistinguible de las partículas idénticas de un gas, no solamente
permite que los potenciales termodinámicos sean extensivos, como vimos en el
capítulo 6, sino que además resuelve la paradoja de Gibbs. En realidad ambas
cuestiones están relacionadas: el requerimiento de que se verifique A5i+2 = O
en el proceso de mezcla de dos gases iguales, cuyas temperaturas y densidades
iniciales son iguales, equivale a exigir que la entropía del sistema sea igual a
la suma de la entropía de las partes que lo forman.

8.4. Ejercicios
■ Calcular la entropía del gas ideal en la colectividad canónica y demostrar
que coincide con la expresión (6.25) obtenida en el capítulo 6.
■ Comprobar que si un sistema de partículas clásicas idénticas tiene como
función de partición monoparticular Z\ = V f {T) , donde f { T ) es una
función genérica de la temperatura, entonces la ecuación de estado del
sistema es la del gas ideal. Calcular la forma general de Cy y demostrar
que Cp — Cy = NkB, con independencia de f {T) .
Capítulo 9
PARAMAGNETISMO CLÁSICO Y CUÁNTICO

9.1. Introducción
Es bien conocido experimentalmente que la m ateria presenta propiedades
magnéticas. El comportamiento concreto puede ser básicamente de tres tipos:

■ Paramagnetismo
Una sustancia paramagnètica tiene imanación nula para campo magnético
externo nulo. Si el campo es no nulo, entonces se im anta en la misma
dirección del campo. Así pues, la susceptibilidad magnética es positiva.
Pueden consideraise dos clases de paramagnetismo: de Langevin o de
Pauli. El paramagnetismo de Pauli es debido al gas de electrones libres
de un metal. Requiere un tratamiento basado en las estadísticas cuánti­
cas ([Pat96], pág. 202). El paramagnetismo de Langevin se debe a la
interacción de los momentos magnéticos intrínsecos de las moléculas de
un sólido con un campo magnético externo, y se estudia utilizando la
estadística clásica, tanto discreta como continua.

■ Diamagnetismo
Este caso es muy similar al anterior, excepto que la susceptibilidad
magnética es negativa. La explicación del diamagnetismo es debida a
Landau. El diamagnetismo tiene su origen en las órbitas circulares cuan-
tizadas que describen los electrones libres de un metal. Requiere también
el uso de la estadística cuántica ([Pat96], pág. 206).

■ Ferromagnetismo
Es la propiedad que tiene una sustancia de presentar imanación espontánea
a campo externo nulo por debajo de cierta tem peratura crítica, Te. lla­
mada tem peratura de Curie. Esta propiedad es debida a la interacción
entre los momentos magnéticos intrínsecos de las moléculas de un sólido.

En eatc capítulo estudiaremos el paramagnetismo de Langevin, que corre­


sponde al nivel de este curso.
9.1.1. A s p e c to s m acroscópicos d el pa ra m a g n etism o
Una sustancia paramagnetica presenta imanación M no nula en presencia
de un campo magnético externo, H. Para simplificar la descripción consider­
aremos únicamente la componente de M en la dirección del campo. El valor
de la imanación va de cero para campo nulo a un valor máximo de saturación,
Mo, para campo externo tendiendo a infinito.
Las variables termodinámicas del sistema son: el módulo de la imanación,
M , y el del campo externo, H (pues al tener la misma dirección y sentido no
hace falta considerar su carácter vectorial), y la temperatura, T. M es una
magnitud extensiva y puede definirse la densidad de imanación por unidad de
masa o volumen. La ecuación de estado, /(M , JÍ,T ) = O, suele expresarse en
la forma más habitual:
M = M{ H, T ) . (9.1)
La ecuación de estado de un paramagneto ideal es la llamada ley de Curie:

M = C j, (9.2)

donde C es la constante de Curie, que depende de las propiedades microscópi­


cas de cada material. Veremos luego que esta ley sólo es válida a campos
pequeños, para los cuales la imanación es pequeña en comparación con la
imanación de saturación, M/Mq 1.
En términos del potencial termodinàmico F '{H ,T ) (apéndice B) pueden
calcularse, respectivamente, la ecuación de estado, la susceptibilidad magnética
isoterma y la capacidad calorífica a campo externo contante:

.f r· mn-,
"'-(áHJr'
De la ley de Curie (9.2) podemos ver que x t = Cj T. Este resultado está bien
contrastado experimentalmente en el dominio M / M q 1. Por su parte las
medidas de C h presentan un máximo en función de la temperatura, con un
comportamiento C h ~ para tem peraturas altas.
Nuestro objetivo en este capítulo es ver cómo dependen estas propiedades
de los aspectos microscópicos de los materiales, en el mayor rango posible de
tem peraturas y campos externos.

9.1.2. E lem en to s m icroscópicos del param agn etism o


Desde el punto de vista microscópico, las moléculas de un material para­
magnètico tienen momento magnético intrínseco no nulo, |x, cuyo módulo se
mide en unidades del magnetón de Bohr, fiB = e?i/2meC = 9,273 x lO“ ^^
JT■‘ ^ donde T ea la unidad de campo magnético en el sistema internacional
(teslft)· Limitándonos a sólidos paramagnéticos no metálicos podemos consid­
erar que dichajs moléculas se encuentran localizadas en los nudos de una cierta
red regular.
Este momento magnético microscópico interacciona con el campo externo
H con el hamiltoniano (apéndice A):
W = -/X . H . (9.4)
Dado el origen microscópico de esta interacción debemos empezar por su estu­
dio cuántico. Debido a que las moléculas están separadas y fijas en el espacio,
podemos suponer sin pérdida de generalidad que las funciones de onda no se
superponen apenas, y por ello no hemos de preocuparnos de la coherencia
cuántica entre partículas indistinguibles. Sin embargo no podemos prescindir
de la cuantización de la energía, que proviene de la cuantización de /x. Este
tratamiento del paramagnetismo corresponde al tratamiento de un sistema
estadístico clásico-discreto, introducido en la sección 3.7.
En efecto, de la mecánica cuántica sabemos que los valores posibles de /lí
en la dirección del campo H son (apéndice A):
= con m = —5, —s + 1 , . . . , s —1,5. (9.5)
Por tanto, los valores posibles de la energía de una molécula paramagnètica
son:
Em = - 9 l H m. (9.6)
La degeneración es g{s) = 25+1, donde s es el número cuántico de fi (obviamos
aquí la degeneración en el plano ortogonal a H o ángulo </>). La variable es e\
factor de Landé que está tabulado para cada átomo o molécula. En particular
si el momento magnético sólo es debido a un electrón, tenemos que 5 = 1/2 y
gi = 2. Para estimar el orden de magnitud de estas energías supongamos que
i í ~ 1 T. Entonces ^ b H 9,3 x 10“ ^ J. Ello nos lleva a una estimación de la
tem peratura característica © = ^ b H / ^ b — 1 K. L o s efectos paramagnéticos
se deberán observar desde muy bajas temperaturas.
Si por otra parte tomamos la aproximación clásica de que el momento
angular /x es un vector continuo, entonces el hamiltoniano es:
n = = COS0, (9.7)
con (ffy (/>) como grados de hbertad si el vector fi se mueve en tres dimensiones,
y únicamente 6 si es en dos. El paramagnetismo clásico se obtiene del para-
magnetismo cuántico tomando los límites g¿ ^ 0, s oo, con g i t ^ s s = /x.
El tratamiento del paramagnetismo clásico corresponde al de un sistema es­
tadístico clásico-continuo, introducido en la sección 3.7.
Con estos ingredientes microscópicos vamos a determinar las propiedades
macroscópicas del paramagnetismo.
9.2. Paramagnetismo cuántico
Trabajaremos en la colectividad canónica. Puesto que las moléculas son
independientes entre sí, basta encontrar la fmición de partición canónica de
una sola. Tfeniendo en cuenta (9.6), obtenemos:

senil (1 -i- ¿)x·


(9.8)
senh(§)

Este resultado se ha obtenido sumando la serie geométrica finita de 2s -f 1


términos y razón La variable adimensional .7; = 0 g L ¡ j . B H s puede tam ­
bién expi-esarse, con más contenido físico, en la forma x - Gp/T, donde
©p = 9LfJ>BHs/kB nos define la tem peratura característica o tem peratura
de Schottky del material paramagnètico.
El potencial termodinàmico F' = -/c ^ T ln Z{N, H, T) , para N moléculas,
se obtiene a partir de Z{N, H, T) = Z ^ { H , T) haciendo:

F \H ,T ) = -kBTXnZ^ =

- N k B T In senh —hi scnh


(s) (9.9)

La Imanación media es:

(9.10)

dondo A/o es la imanación de saturación y Bs{x) es la función de


Drillouim

(9.11)
è) ^ ¿ (s) ·
que tiene las propiedades asintóticas:

B ,( x 00) = 1; Bs{x ^ |x + · (9.12)

En la figura 9.1 aparecen varias curvas de imanación para diferentes valores


de 8. Podemo^jyer claramente que el comportamiento es bastante lineal para x
pequeñas (T altas) y se satura para x grandes (T bajas). Ademas apreciamos
que, para 5 mayor, con qls constante, las curvas se suavizan hasta tender al
límite clásico que discutiremos en la siguiente sección.
Si consideramos el régimen lineal, de acuerdo con (9.12) tenemos que:

N g ln % s{s + 1 ) H
M = (9.13)
3kB T ’
M/M„

Figura 9.1: Imanación normalizada o función de Brillouin (bnea a trazos) para dos valores
distintos de s, pero tales que gcs = 1 en ambos casos. La línea continua es la imanación
normalizada correspondiente al paramagnetismo clásico, dada por la función de Langevin.

de donde podemos obtener fácilmente la constante de Curie y la susceptibilidad


a campo nulo de forma exacta en función de los parámetros microscópicos.
También podemos calcular el valor medio de la energía magnética de la
siguiente forma:

14)

que nos muestra que la energía del paramagneto es debida exclusivamente a


la presencia del campo externo. Finalmente podemos obtener la capacidad
calorífica a campo constante:

C h {H, T) = = N k e x ^B '.ix ), (9.15)

que depende de la derivada de la función de Brillouin. El mismo resultado se


puede obtener usando (9.3).
El comportamiento típico puede verse en la figura 9.2 para = 2 y
s = 1/2. Hay un máximo en x 1, es decir alrededor de la tem peratura
característica del material, T 0p. Tiene interés discutir el comportamiento
de C h a tem peraturas altas, T > ©p. De las propiedades asintóticas de B{x)
C h/ n r ,

Figura 9.2: Capacidad calorífica Ch para = 2 y s = 1/2 según la ecuación (9.15) (línea a
trazos), y (9.20) (línea continua), correspondientes al caso clásico-discreto y clásico-continuo
respectivamente.

se obtiene un comportamiento de la forma:

C „ {H ,T ) = N k B ( ^ y (9.16)

cuya dependencia en la tem peratura es la que cabe esperar en un paramagneto


ideal.
Este comportamiento cuadrático en 1/T permite utilizar las sales param-
agnéticas como termómetros a bajas tem peraturas (por encima de 1 K).

9.3. Paramagnetismo clásico


Teniendo en cuenta el hamiltoniano clásico (9.7), tenemos que la función
de partición canónica de una molécula es:

Z i ( H , T ) = T ’" # r de sene = 4x^2^, (9.17)


Jo Jo X
con X = La imanación media nos da:

i)
V
M{ H , T ) = Nfj.(c o th x -
xJ
= MoL{x). (9.18)
Así queda definida ia función de Langevin, L{x), y la imanación de saturax:ión,
^/o ■ La función L{x) tiene los siguientes comportamientos asintóticos:

L ( x —►oo) = l; L ( x < C l ) = ^H--------- .(9.


o
En la figura 9.1 podemos comparar este comportamiento con el caso discreto.
La capacidad calorífica tiene im comportamiento imprevisto:

= (9.20)

Al representarla en la figura 9.2 podemos ver que a x grandes {T bajas) se


satura a un valor constante Ch = N k s - Esto es típico de las estadísticas
clásico-continuas, y nos indica que en ese régimen se cumple el teorema de
equipartición de la energía. Sin embargo para tem peraturas altas (x pequeñas)
la capacidad calorífica tiende a cero, debido a que la energía del sistema
está acotada superiormente. La expresión explícita de este comportamiento
límite es:
C /í(^ ,r ) = iJVA;b ( ! ? ) % . . . , (9.21)

que exhibe el comportamiento cufiidrático en l / T observado experimental­


mente, pero con un coeficiente diferente del caso cuántico (9.16) y una tem­
peratura característica clásica 0p = fiH/kB.
Puede demostrarse que el paramagnetismo clásico se obtiene a partir del
cuántico en el siguiente hmite:

5 oo, O, con f i s 9LS = fi. (9.22)

En este límite la función de Brillouin tiende a la función de Langevin.

9.4. Desimanación adiabática


Un proceso de desimanación adiabática de un material paramagnètico da
lugar a un descenso de tem peratura. Este fenómeno es de gran utilidad para
la obtención de bajas temperaturas. El proceso experimental consiste en los
siguientes pasos:

■ A tem peratura constante. Ti, lo más baja posible, se aumenta el campo


magnético externo de Hi a. Hf .

■ Se aísla térmicamente el sistema y se procede a reducir el campo a su


valor inicial, Hi, en condiciones adiabáticas.
T/0,
Figura 9.3: Entropia de un sistema paramagnètico (9.24) para los campos Hi y Hf = 4H¿.
Lofi flochHfl señalan el camino seguido en el proceso de desimanación adiabática.

Como rofiviltaclo de este proceso, el sistema desciende su temperatura hasta


uii vtilor Tf < T {. Mediante este método se han alcanzado temperaturas muy
bajas, dol orden de la milésima de K. Los detalles experimentales se encuentran
en [ZD81], capítulo 18.
Vamos a calcular la entropía del sistema, ya que es el potencial termodinámi­
co que no varía durante el proceso de desimanación adiabática. Consideraremos
un modelo particular con s = l / 2 y ^ ¿ = 2. Para este caso tenemos que la
función de partición es:

Z n {H, T) = (2 cosh x f - , x = pfiBH. (9.23)

El cálculo de la entropía a partir de T) es:

S{H, T ) = - ^ = NkB (In (2 cosh x·) - x tanh x] (9.24)

Puede comprobarse que tiene los siguientes comportamientos hmite:

S{H, T 0) = O, S{H, T oo) = ATifcB In 2, (9.25)

como era de esperar. La entropía es una función monótona creciente de la


tem peratura. En la figura 9.3 podemos ver su comportamiento para dos cam­
pos diferentes. A mayor campo mayor es la tem peratura característica (0¿ =
fiBHilkB < Q f fÁBHf/kfí)y y por ello el régimen de saturación se alcanza
a temperaturas mayores.
Para calcular explícitamente el descenso de te m p e ra tu ra obtenido en la
desimanación adiabática, procederemos de la m anera siguiente. E n dicho pro­
ceso la entropía no ha cambiado, y por tanto:

S{H f,T i) = S { H i,T f), (9.26)

Usando la ecuación (9.24) podemos en principio despejar la tem p eratu ra final,


T/, en función del resto de parámetros.
En la figura está marcado el camino seguido d u ran te el proceso de des­
imanación adiabática. Se aprecia claramente que el punto final del proceso
tiene una tem peratura bastante menor que la inicial.

9.5. Ejercicios
■ Hacer un estudio detallado del caso s = 1/2 y g i = 2.

■ Basándose únicamente en el teorema de equipartición de la energía, en­


contrar C h para el paramagnetismo clásico (9.17) a tem p eratu ras bajas.

■ Calcular analíticamente el descenso de tem p eratu ra del proceso de desi­


manación adiabática de la figura 9.3.

• Estudiar el proceso de desimanación adiabática para el param agnetism o


clásico (9.17).
Capítulo 10
VIBRACIONES EN SÓLIDOS

10.1. Introducción
Este capítulo está dedicado al estudio estadístico de las contribuciones
debidas a las vibraciones de los átomos en los sólidos cristalinos, en la aprox­
imación de sólido ideal. Estas contribuciones son dominantes en los cristales
üo metálicos. En los cristales metálicos hay que considerar también las con­
tribuciones de los electrones libres, que son particularmente relevantes a bajas
temperaturas y que se estudian en el capítulo 14.
Nuestro sistema modelo consiste en un cristal perfecto en que los átomos
se sitúan en los vértices de una red periódica, e interactúan únicamente a
primeros vecinos. En la aproximación de sólido ideal el potencial de interac­
ción es armónico, esto es, cu€ulrático en la distancia entre dos átomos. Esta
aproximación permite reducir un problema con interacción a un problema de
mpdos normales, en que los constituyentes del sistema no interactúan y por
tanto resoluble analíticamente con las técnicas desarrolladas en este curso.
Nos proponemos calcular la función de partición del sistema y a partir de ella
obtener, en particular, la contribución de las vibraciones atómicas a la energía
del sistema y a su capacidad calorífica.
Las vibraciones en los sólidos ideales pueden estudiarse desde dos puntos
de vista distintos, con idéntico resultado. Desde el primer punto de vista las
vibraciones se tratan como un conjunto de osciladores armónicos unidimen­
sionales distinguibles (modos normales) y constituyen un ejemplo de problema
con grados de libertad clásico-discretos. Desde el segundo punto de vista las
vibraciones se tratan como un gas ideal de fonones —cuasipartículas bosónicas
idénticas que corresponden a los quanta de energía de los modos normales. Des­
de este punto de vista las vibraciones constituyen un ejemplo de problema con
grados de libertad cuántico-continuos. En este capítulo nos centramos en el
primero de los tratamientos.

10.2. Resultados experimentales


Existen dos resultados experimentales bien establecidos:
■ Es conocido desde 1819 que ios sólidos cristalinos tienen una capacidad
calorífica:
C yc^m ks, (10.1)

en un amplio rango de temperaturas, moderadas y altas. Este resultado,


que se conoce como ley de Dulong y Petit, se puede entender fácilmente
a partir del teorema de equipartición de la energía (ecuación (3.41)).

■ A muy bajas temperaturas el calor específico tiende a cero, y lo hace en


la forma potencial:
C „ (T )~ a r^ , (10.2)

donde a es una constante que depende del material y d es la dimensión


de la red. Este comportamiento a tem peraturas bajas ha de estar rela­
cionado necesaiiamente con las propiedades cuánticas del sistema y, por
tanto, dependerá de las hipótesis del modelo microscópico que se utilicen
para describir las vibraciones de los átomos en el sólido.

10.3. Sólido ideal y modos normales


Contíideremos el sólidu ideal, formado por N átomos idénticos situados en
Ion vértlcea de una red cristalina perfecta, que interaccionan a primeros vecinos
a travÓB do un potencial armónico. En estas circunstancias la mecánica clásica
[SymflS] asegura que es posible encontrar un cambio de variables a un nuevo
conjunto de 3 N coordenadas (P j,Q j), llamadas normales, para los cuales el
hamiltoniano del sistema de N partículas interactuantes adopta la forma:

ZN / p 2 £^2q2\
W ({P .Q }) = E ^ + ^ · (10-3)

que corresponde a un conjunto de 37V osciladores armónicos unidimensionales


desacoplados, llamados modos normales. Es importante destacar que cada uno
de los 3 N modos normales corresponde a un modo de vibración colectivo de
los N átomos del cristal. La energía de un modo normal de frecuencia Uj es:

e{ujj,n) = n = 0 ,1 ,2 ,3 ... (10.4)

y por tanto la correspondiente función de partición canónica es:

oo ^ - 0 h u jjf2
Z {^ó,T ) = £ ^ n^ , (10.5)
n=0 n=0 i e J
ya que el aumatorlo w la Buma de una serie geométrica. Los modos normales
se distinguen por su frecuencia y por tanto la función de partición canónica
del sistema do 3/V modos normales independientes viene dada por:

3N
Z { N ,V ,T ) = Y [ Z { w j ,T ) . (10.6)
j= l

La, dependencia en el volumen se debe al hecho de que, en general, las freruen-


cias (jJj dependen del volumen del sistema, como se pondrá de manifiesto más
adelante de forma explícita. De la ecuación anterior resulta:

3^ roo
In Z{N, = In Z{ujj, T) - / In Z{ uj, T) g{uj) cL·. (10.7)
j= i -^0

Hemos supuesto que los valores de luj son tan próximos que podemos sustituir
el sumatorio por una integral. Para ello es necesario introducir la densidad
de modos normales o función de distribución de las frecuencias, ^(a;), tal que
y{uj) düj representa el número de osciladores de frecuencia u: en el intervalo
(o;,a; -f- duj). La integral se extiende a todas las firecuencias posibles entre O e
00, pero en general la densidad de modos es nula fuera de un cierto intervalo
(í^mfrD^max)· En todo caso se debe cumplir la condición de normalización:

g{ij)düj = ZN. (10.8)

La energía media se obtiene de:

C(JV,V ,T ) = - (10.9)

El primer sumando no es más que la energía del estado fundamental.


Finalmente, la capacidad calorífica a volumen constante viene dada por:

V, T) = ^ = k, f (í« « )> i.. (10.10)

El problema queda reducido por tanto a calcularg{uj). En elapéndice A


se detalla dicho cálculo para los modelos de Einstein yDebye y para una
cadena lineal armónica. Estos modelos proporcionan una descripción progre­
sivamente más detallada del comportamiento real de las vibraciones atómicas
en un cristal.
10.4. Modelo de Einstein
El modelo de Einstein (1907) parte de una cruda aproximación a la dis-
tribución en frecuencias de los modos normales. Consiste en suponer que to­
dos los modos oscilan con la misma frecuencia (de Einstein), ujej por lo que
g{u)) = 3NÓ{uj —(jJe ) í donde 6 representa la distribución en delta de Dirac.
El coeficiente 3N garantiza la normalización (10.8). Esta suposición es equiv­
alente a considerar que cada átomo está sujeto a un potencial aimónico local
de frecuencia uje·
Es útil introducir la denominada tem peratura de Einstein, &e =
que es una propiedad característica de cada sólido.
De la ecuación (10.9) obtenemos que la energía interna asociada a los
grados de libertad de vibración de los átomos en el sólido deEinstein es:

U{N,V,T) = 3NÍkJE(^\ + - ^ y ( 10.11)

donde la variable adimensional x = 0£;/T .


La capacidad calorífica a volumen constante se calcula a partir de la
ecuación (10.10):
Cy{N, V,T) = 3ArfcBxV x - - ; Ñ2 · (10-12)

Vamos a estudiar el comportamiento límite de Cy a tem peraturas altas y bajas.

■ T > ©E (tem peraturas altas). Corresponde a tomar el límite x — O


en (10.12), a base de desarrollar las exponenciales en serie de Taylor y
retener únicamente los primeros términos. Se obtiene el comportamiento
clásico de Dulong y Petit:

C7v C^3ÍVA:5. (10.13)

mT Q e (tem peraturas bajas). Corresponde a tomar x —►oo, despre­


ciando el 1 en el denominador de (10.12). Se obtiene que la capacidad
calorífica se comporta en la forma:

a ^ ZNkax'^e-^, (10.14)

que tiende a cero de forma exponencial.

Es im portante destacar que Cy tiende a cero en el límite de temperaturas


bajas porque los niveles de energía de los modos normales están cuantiza­
dos. Este es el éxito principal del modelo de Einstein. Una teoría en que los
osciladores se trataran clásicamente sería incapaz de reproducir este compor­
tamiento y llevaría indefectiblemente al resultado de Dulong y Petit en todo el
CJSHK^

Figura 10.1: Capacidad calorífica para los modelos de Einstein (10.12) (línea a trazos) y
Debye (10.18) (línea continua). La segunda figura es una ampliación de la primera en la
zuna de temperaturas bajas. La línea punteada es el comportamiento asintotico cuántico
(10.22). La temperatura característica 0 corresponde a 9 e y © d en cada caso.

rango de temperaturas, manifiestamente incompatible con los resultados ex­


perimentales. Recordemos sin embargo que los datos experimentales a bajas
temperaturas muestran que la capacidad calorífica no va a cero con la tem per­
atura de forma exponencial, sino de forma potencial, lo cual pone en evidencia
que la hipótesis de Einstein es excesivamente simple.
En la figura 10.1 se muestra el comportamiento de la capacidad calorífica
predicho por Einstein. Puesto que el resultado (10.12) sólo tiene un parámetro
libre, ©£;, dicho resultado se suele ajustar a los datos experimentales de una
sustancia en concreto para determinar su tem peratura de Einstein. Si esto se
hace para el diamante se obtiene 1320 K, lo que indica que a temper­
aturas ordinarias no se va a observar todavía el comportamiento clásico de
Dulong y Petit. Por el contrario, para el aluminio se obtiene 0 ^ ~ 240 K y
por tanto el aJimiinio ya obedece a la ley clásica a tem peratura ambiente.

10.5. Modelo de Debye


En el modelo de Debye (1912) el sóhdo se aproxima por un medio continuo,
elástico 6 isótropo, para el cual los modos normales de vibración son ondas
elásticas estacionarias dentro del volumen V del sólido. En esta aproximación,
de acuerdo con los resultados del apéndice A (ecuación (A.82)), la densidad
de modos normales en tres dimensiones es:

( 9N
SI o < o; < LJo
si UJ > ÜJ£)·
La frecuencia de Debye viene dada por la relación:

(. 0, 16)

Puede observarse que depende del volumen. La velocidad media c (y por tan­
to la frecuencia de Debye) es un parámetro ajustable que depende de cada
material.
A partir de la ecuación (10.9) obtenemos que la energía interna vibracional
en el sólido de Debye es:

u { N , v„ T ) = m r u jD . (1017)
donde hemos introducido las variables adimensionales x = pTiuj, y = pTiup =
Q d /T . E sta últim a define una tem peratura Qp, característica del material,
llamada tem peratura de Debye. Ahora vemos que la dependencia en el volumen
de U{N, VyT) proviene exclusivamente de que lüd depende del volumen.
De forma análoga, a partir de la ecuación (10.10), se determina la capacidad
calorífica a volumen constante:

Cy{N, V,T) = 3NkBD{y), (10.18)

donde D{y) es la llamada función de Debye, que se define como:

Q ry

Al igual que ocurre con la energía interna, depende del volumen exclusi­
vamente a través de ljd· La dependencia es muy débil, por lo que el compor­
tamiento de Cv y de Cp (que es más fácilmente accesible desde el punto de
vista experimental) son cualitativamente similares. El comportamiento de la
capacidad calorífica Cv viene determinado únicamente por la función D{y),
cuyos límites asintóticos estudiamos a continuación.

■ T > ©D (tem peraturas altas). En este límite a; — O, y —►O, y por tanto


podemos desarrollar por Taylor el integrando y quedarnos con el orden
más bajo:
£)('(/-+ 0) ~ r x^d x = l. ( 10.20)
2/·^ Jo
Al sustituir este resultado en (10.18) obtenemos el resultado clásico de
Dulong y Petit, Cy ^ 3NkB-
■T< (temperaturas bajas). En este límite y —► oo y podemos exten­
der el límite superior de la integral a oo. La integral resultante está tab­
ulada y vale:
foo 4^4

f
JJoo (e ^ -l)2
; d x = — --.
15
(10.21)

Por tanto la capacidad calorífica en este límite se comporta como:

127t4 Í T y
, (10.22)
que se conoce como la ley de Debye, y que está en excelente acuerdo
con los experimentos.

En la figura 10.1 puede verse el comportamiento de la capacidad calorífica


predicho por Debye y su comparación con la predicción de Einstein. Cualita­
tivamente son muy similares. Sin embargo a tem peraturas bajas, como hemos
visto, son cuantitativamente diferentes. Siempre encontramos que ©£? < 0£),
debido precisamente a la diferencia de comportamiento a bajas temperaturas.
En la figura podemos teimbién apreciar que para T ©£> la capacidad calorífi­
ca coincide prácticamente con el valor clásico. El comportamiento potí^ncial
(10.22) se observa por debajo de T < 0,1©/). Ajustando los result.ados ex­
perimentales a la predicción teórica (10.18) en todo el rango de tem peraturas
disponible puede encontrarse la tem peratura de Debye de un material deter­
minado. Para el diamante se encuentra que ©£> — 1860 K y para el aluminio
0£> = 398 K. Un ajuste más fino, por intervalos de temperatura, revela una
pequeña dependencia de ©£> con T. Esto nos indica que existen aspectos mi­
croscópicos del sólido que no se han tenido en cuenta en este modelo. Por
ejemplo, que el potencial de interacción no es exactamente armónico.
Hay que destacar el carácter universal de los resultados anteriores. A cada
material le corresponde una tem peratura característica Q d distinta, pero la
dependencia funcional en la variable adimensional T/0£> es la misma para
todos.

10.6. Cadena lineal armónica


El modelo de Debye ignora completamente el carácter discreto de los sóli­
dos a escala atómica, por lo cual, presumiblemente, describe de forma inade­
cuada los modos de longitud de onda más pequeña. En esta sección consider­
amos un modelo microscópico sencillo que tiene en cuenta de forma explícita
la estructura atómica del sólido. El anáfisis de este modelo en tres dimen­
siones es relativamente complicado [AM76], por lo que nos limitamos aquí a
la versión unidimensional, que comparamos con las correspondientes versiones
unidimensionales de los modelos de Einstein y Debye.
El modelo consiste en una cadena lineal de N átomos iguales, de longitud
total L, con condiciones de contorno periódicas. Suponemos (i) que los áto­
mos de la cadena interaccionan a primeros vecinos mediante un potencial de
interacción armónico, y (ii) que los desplazamientos atómicos tienen lugar en
la propia dirección de la cadena, por lo que únicamente se propagan modos de
vibración longitudinales. Tanto la relación de dispersión como la densidad de
modos normales de vibración de la cadena están calculados en el apéndice A.
La densidad de modos normales es (A.98):
2N l . ^

Í »

O si CJ > UJ-maxi
(10.23)

donde u^nax es la frecuencia máxima de vibració


/4 a \
(^max = ( - ) , (10.24)

con a la constante de interacción entre átomos primeros vecinos y m la masa


de un átomo de la cadena.
La capacidad calorífica a volumen constante (el volumen en una dimensión
debe entenderse como la longitud total de la cadena) se obtiene de la ecuación
(10.10). Tenemos:

c . ( N , L, T ) =

Estudiamos a continuación su comportamiento a altas y bajas tem peraturas.

■ T altas. En este límite ^ ►0. Podemos desarrollar las exponenciales en


serie de Taylor y retener únicamente los primeros órdenes. Así:
2N f^max l

donde hemos utilizado que la integral de la densidad de modos normales


es igual a N . Recuperamos por tanto el resultado clásico de Dulong y
Petit, como cabía esperar.

■ T bajas. En este límite P oo. Conviene introducir la variable adimen-


sional X = ¡3hu}, de manera que:
2N kB r - “» 2 1 J
/ ^ z-------- 79---------------------n ^ d x . (10.27)
^ Xm ax Jo (e® -- 1)2
(e^ 1 ^ (1
a _- ( i / 2 ; ^ ) 2 ) V 2
Dado que Xmaa = P ^ m a x ooj podemos sustituir el límite superi­
or por 00. La segunda fracción del integrando es igual a 1 en todo el
intervalo de integración excepto en el entorno de Xmaxj pero allí su con­
tribución queda suprimida por la primera fracción del integrando, que
decae exponencialmente. Así pues la integral se reduce en este Hmite a:

L'O ="'7 (e®


7 — 7^
—1} ^
(10.28)

y por tanto:
= = (10.29)
^ ^max ^ •^max
El resultado a destacar es que la capacidad calorífica depende linealmente
de r a bajas temperaturas, como cabía esperar en una dimensión.

Vamos a comparar el comportamiento de la capacidad calorífica de la ca­


dena lineal con el de los modelos de Debye y Einstein en una dimensión.
Para el modelo de Debye unidimensional la densidad de modos (constante)
viene dada por (A.87):
N
si O < UJ < L ü D
g{uj) = { CJD (1Q3Q)
[ i si (Jj > (jJDi
donde:
uiD = (10.31)
La capacidad calorífica es, por tanto:

C,{N , L ,T ) = k B ^

donde la variable adimensional es cc = jSfíuj^ como es habitual. El compor­


tamiento asintótico es el siguiente:

■ T altas. Este límite corresponde a tom ar x —►0. Podemos desarrollai*


las exponenciales en serie de Taylor y retener únicamente los primeros
órdenes. Así:
Cy - kB — / dx = N k s . (10.33)
XD Jo
Obtenemos de nuevo el resultado clásico de Dulong y Petit.

■ T bajas. En este límite x d 0 0 y por tanto el límite superior de la

integral es 00. La integral resultante es (10.28), y por tanto:


que coincide exactamente con el resultado obtenido para la cadena lineal
en el límite de bajas temperaturas, ya que lud = (tt/2) üj^ax (ecuación
(A.99)).

P ara el modelo de Einstein unidimensional la densidad de modos es una


distribución en delta de Dirac:

g{(jü) = NS{uj —(jJe )^ (10.35)

en que el prefactor asegura que el número total de modos es N. Por tanto, la


capacidad calorífica (10.10) es directamente:

C„{N, L, T) = N k B x l (10-36)
- 1)

donde xe = PTlüje·

■ T altas. En este límite►0. Como es habitual, desairollamos las


exponenciales en serie de Taylor y retenemos únicamente los primeros
órdenes. Así:
Cy ~ NkB. (10.37)
También con este modelo obtenemos el resultado clásico de Dulong y
Petit.

■ r baja». En este límite—►oo y por tanto el 1 del denominador es


despreciable frente a la exponencial. En definitiva:

(10.38)

quo va a cero cuando T -> O, pero lo hace de forma exponencial, al igual


que en tres dimensiones.

En conclusión, los tres modelos de sóHdo unidimensional estudiados re­


producen correctamente el comportamiento clásico de Dulong y Petit a altas
tem peraturas. No es difícil darse cuenta de que este comportamiento está di­
rectamente asociado al hecho de que el número total de modos normales de
vibración está fijado a iV, con independencia del modelo considerado. A ba­
jas tem peraturas la predicción del modelo de Einstein es incompatible con las
observaciones experimentales, mientras que el modelo de Debye y la cadena
lineal reproducen correctamente el comportamiento hneal en T, con idéntico
prefactor. E sta coincidencia debe atribuirse al hecho de que el comportamiento
de la capacidad calorífica a baja tem peratura está dominado por el valor de
la densidad de modos normales a bajas frecuencias, que es idéntico en ambos
modelos.
10.7. Ejercicios
■ En este capítulo hemos introducido el modelo de Einstein como un mod­
elo p aia el cual la densidad de modos normales de vibración es una
distribución on delta de Dirac centrada en la frecuencia lúe. Sin embar­
go, el modelo de Einstein puede interpretarse también como un modelo
de sólido formado por átomos no interactuantes, en que cada átomo
está sometido a un potencial armónico local y oscila respecto de su
posición de equilibrio con uje· Comprobar que ambos puntos de vista
conducen a idéntico resultado.

■ Paitiendo dcl hamiltoniano (10.3) y considerando los modos normales


como osciladores clásicos, resolver los modelos de Einsieiu y Debye en la
estadística clásico-continua.

■ Encontrar la siguiente corrección a los resultados (10.20) y (10.22).

■ Estudiar una cadena lineal armónica formada por dos tipos de átomos
distintos, de masas m y M , alternados. Como ayuda, se puede consultar
[AM76].

■ Estudiar un modelo de sóhdo unidimensional consistente en una cadena


lineal en que cada átomo está sometido a un potencial armónico local,
caracterizado por una frecuencia de oscilación lje ^Y además interacciona
con sus vecinos más próximos a través de un potencial de interacción
armónico.
que coincide exactamente con el resultado obtenido para la cadena lineal
en el límite de bajas temperaturas, ya que ujd = (tt/2) Urnax (ecuación
(A.99)).

Para el modelo de Einstein unidimensional la densidad de modos es una


distribución en delta de Dirac:

g{uj) = NS{u) - lúe), (10.35)

en que el prefactor asegura que el número total de modos es N. Por tanto, la


capacidad calorífica (10.10) es directamente:

C ^ i N ,L ,T ) = N k B x l ■ (10-36)

donde xe = PTu je ·

■ T altas. En este límite x e 0. Como es habitual,desairollamos las


exponenciales en serie de Taylor y retenemos únicamente los primeros
órdenes. Así:
Cy - NkB. (10.37)
También con este modelo obtenemos el resultado clásico de Dulong y
Petit.

■ T bajos. En este límite x e oo y por tanto el 1 del denominador es


deapreciable frente a la exponencial. En definitiva:

C ^^N kBX% e~^^, (10.38)

que va a cero cuando T —>O, pero lo hace de forma exponencial, al igual


que en tres dimensiones.

En conclusión, los tres modelos de sólido unidimensional estudiados re­


producen correctamente el comportamiento clásico de Dulong y Petit a altas
tem peraturas. No es difícil darse cuenta de que este comportamiento está di­
rectamente asociado al hecho de que el número total de modos normales de
vibración está fijado a N , con independencia del modelo considerado. A ba­
jas tem peraturas la predicción del modelo de Einstein es incompatible con las
observaciones experimentales, mientras que el modelo de Debye y la cadena
lineal reproducen correctamente el comportamiento lineal en T, con idéntico
prefactor. E sta coincidencia debe atribuirse al hecho de que el comportamiento
de la capacidad calorífica a baja tem peratura está dominado por el valor de
la densidad de modos normales a bajas frecuencias, que es idéntico en ambos
modelos.
10.7. Ejercicios
■ En este capítulo hemos introducido el modelo de Einstein como un mod­
elo paia el cual la densidad de modos normales de vibración es una
distribución en delta do Dirac centrada en la frecuencia Sin embar­
go, el modelo de Einstein puede interpretarse también como un modelo
de sólido formado por átomos no interactuantes, en que cada átomo
está sometido a un potencial armónico local y oscila respecto de su
posición de equilibrio con u;e . Comprobar que ambos puntos de vista
conducen a idéntico resultado.

■ Partiendo del hamiltoniano (10.3) y considerando los modos normales


como osciladores clásicos, resolver los modelos de Einsieiu y Debye en la
estadística clásico-continua.

■ Encontrar la siguiente corrección a los resultados (10.20) y (10.22).

■ Estudiar una cadena lineal armónica formada por dos tipos de átomos
distintos, de masas m y M , alternados. Como ayuda, se puede consultar
[AM76].

■ Estudiar un modelo de sóhdo unidimensional consistente en una cadena


lineal en que cada átomo está sometido a un potencial armónico local,
caracterizado por una frecuencia de oscilación uje^Y además interacciona
con sus vecinos más próximos a través de un potencial de interacción
armónico.
Capítulo 11
EQUILIBRIO SÓLIDO-VAPOR

11.1. Introducción y resultados genéricos


Vamos a presentar aquí una aplicación característica de la colectividad
macrocanónica como es la descripción del equilibrio termodinàmico entre dos
fases de una misma sustancia.
Nuestro sistema está encerrado en un volumen V, aislado mecánicamente
del exterior, y en contacto con un baño térmico a tem peratura T. Dentro
de este recipiente tenemos N moléculas de una determinada sustancia que
se encuentra separada en dos fases: sólido y vapor, N = Ng -i- Ny. Como la
tem peratura es constante en todo el sistema la única condición de equilibrio
termodinàmico es la igualdad de los potenciales químicos:

fMs(T,N,) = M T , N y , V ) . (11.1)

Para simpliñcar vamos a suponer que tanto el vapor como el sólido son
sistemas ideales, con las siguientes funciones de partición canónicas, respecti­
vamente:

Z siN s,T ) = [Z¡{T)]^’ , (11.2)

donde y Z} son las correspondientes funciones de partición canónicas


monoparticulares. Del resultado anterior podemos obtener las correspondi­
entes funciones de partición macrocanónicas, de acuerdo con (4.7):

C ,(T , V, z,) = f ; K , V) =
Ny=Q

Q,(T, z,) = J ^ z ^ ’Z,{T, Ns) =


N^=0

con Zi = A partir de estas expresiones contruimos el potencial macro-


canónico, 5 = —k s T In Q, y obtenemos los correspondientes potenciales quími­
cos en la forma habitual (4.22), o sea encontrando primero el valor medio de
Ni, a partir de y luego despejando fii'.

Hs = k s T I n ~

En la últim a igualdad hemos supuesto que iV^ > 1.


Igualando estas últimas expresiones obtenemos:

Nv{T,V) = ^ ^ ^ , (11.6)

que nos da el número de átomos en la fase vapor en equilibrio con la fase sólida.
Esperamos que esta cantidad sea una función creciente de la tem peratura, pues
al aum entar ésta la fase sólida irá desapareciendo, hasta una tem peratura
en la que todas las moléculas están en estado de vapor. Dicha tem peratura
cumplirá la condición:

N = N.,{Tc,V) = (11.7)

Lo contrario le sucede a la fase sólida, para la cual:

N,{T, V ) : = N - N ,{T, V) = (11-8)

A T ,(T ,F )= 0 , T> Tc. (11.9)

Por otra parte la presión que tiene este sistema es la que ejerce la fase
vapor sobre las paredes, y como hemos supuesto que es un gas ideal, tenemos
que:
kaT k B T Z liT ,V )
P = -Y~Nv =

donde también hemos supuesto que el volumen ocupado por el sólido es de­
spreciable frente al volumen ocupado por el vapor, y por lo tanto, O,
Vv — V^. El problema está así resuelto de forma genérica.Sólo queda escoger
los modelos particulares de sólido y vapor para calcular susfunciones de par­
tición canónicas monoparticulares y Z¡ .
A continuación vamos a estudiar algunos posibles modelos de equilibrio
sólido-vapor, haciendo hincapié en las dificultades que conlleva la elección de
un modelo físicamente razonable.
11.2. Modelo A (sólido de Einstein y gas ideal)
Como aplicación práctica de los desairollos anteriores vamos a modelizar
la faso vapor como un gas ideal y la fase sólida como un sólido cristalino
de Einstein (capítulo 10). Etíta modelización aparece tratada en varios textos
[Kub65, Pat9()].
Cada partícula dol vapor obedece al siguiente hamiltoniano:

w ({p.q}) = ¿ + eo. (11.11)

donde se ha incluido una energía de sublimación microscópica eq a


poner de maniñesto que los átomos en el sólido tienen una energía de cohesión.
Veremos más adelante el papel que juega eq.
Pasamos a calcular las cantidades y Z j para estos dos modelos. Para
el vapor usamos:

donde 0q = so/kB y © t = /{2'KmkBV^^^), que es la tem peratura carac­


terística de traslación.
La función de partición monoparticular de la fase sólida es la de un os­
cilador armónico cuántico de frecuencia (jJe en un espacio de tres dimensiones:

Z i i T ,V ) = [26601. ( ^ ) ] · ’ (11.13)

con Q e = fujEtkB· El sumatorio es la suma de una serie geométrica. Ahora


podemos ver cómo se comporta Ny{T, V) en función de la tem peratura. Usando
(ll.G) y los resultados anteriores:

(11.14)

Veamos si esta expresión tiene sentido en los límites de baja y alta temper­
atura:

■ A tem peraturas bajas (T menor que cualquiera de las tem peraturas car­
acterísticas del problema), tenemos que senh(0£;/2T) ~ exp[QE/2T], y
por tanto (11.14) se comporta como:
Ny{T, V) ~ T^l^e-^eo-3eE/2)/T^
que nos d a dos comportamientos distintos dependiendo de si 3©£;/2 ea
mayor o menor que ©o- Como en este límite esperamos que Ny{T, V') ~ O
(sólo fase sólida) hemos de concluir necesariamente que:

©o > £0 > 1 ^ · (11.16)

O sea que la energía de cohesión ha de ser mayor que la energía del


estado fundamental de cada partícula del sólido. Locontrario implicaría
la situación, absurda desde el punto de vista físico, de que el vapor fuera
más estable que el sóhdo a tem peraturas bajas.

■ A tem peraturas mudio más altas que cualquiera de las tem peraturas
características del problema, senh(©£7/2T) ~ ©£;/2T, 1, y
entonces Ny { T , V ) se comporta como:

iV „ (T ,K )~ T " 3 /2 -^ 0 . (11.17)

Este resultado es físicamente inaceptable pues el sistema físico debe


acabar en fase vapor aumentando adecuadamente la tem peratura. El
resultado no tiene posibilidad alguna de arreglo mediante alguna su­
posición auxiliar. La clave física está en que a temperaturas altas el
sólido de Einstein almacena más energía {Cy ^ 3NgkB) que el vapor
{Cy - 3Nyks/2),

Concluimos que el modelo A es totalmente inapropiado para describir el


equilibrio sólido-vapor y por lo tanto hay que escoger otra modelización. La
sustitución del sólido de Einstein por el sólido de Debye no arregla las cosas.
Estas dificultades has sido pasadas por alto en los Hbros de física estadística
[Kub65, Pat96].

11.3. Modelo B (sólido con vacantes y g£is ideal)


La fase vapor es el mismo gas ideal que antes (con eq = 0)^ y el sólido
lo modelizamos como un sólido con vacantes de Schottky. A T = O todas las
moléculas están en la fase sólida. Al ir aumentando la tem peratura algunas
de ellas pasan a la fase de vapor dejando una vacante en su lugar. Crear una
vacante cuesta una energía s. Así pues, a una determinada tem peratura finita
tenemos que el número de vacantes es igual al número de moléculas en la
fase vapor. Este tipo de sólido no es fácil de estudiar en las colectividades
canónica y macrocanónica, y por ello vamos a usar los resultados obtenidos
en el capítulo 7 para la colectividad microcanónica.
Figura 11.1: Fracción de átomos en la fase sólida en función de la temperatura, para el
modelo B.

Sabiendo que el potencial químico de los átomos del sólido es (11.5) y el del
vapor (11.4), y usando la condición de equilibrio qmmico (11.1), obtenemos
que:
N y{T, V) = Z l{ T , V ){\ - (1 - (11.18)
con ©5 = e / k s · E sta función tiene el límite correcto a bajas tem peraturas,
Ny{T —►0) ^ 0. A altas tem peraturas es una función creciente, Ny{T —►
oo) ~ Podemos ahora proceder con el análisis de la sección primera:
debe existir una tem peratura Te tal que Ny[Tc, V) = N , es decir:
( T c / O r f / ^ (1 - 6"®^/^-=) = N, (11.19)
a paxtir de la cual únicamente tenemos vapor. Para un mol de átomos, N =
Na., con 0j> = 3 X 10“ *® K y ©s = 276,4 K, obtenemos que Te = 300 K.
La presión del sistema es:
kaT, .3/2
V
(11.20)
V V©T>

keT
P= N; T> Tc. (11.21)
También podemos obtener la fracción relativa de fase sólida:
N s{T,V) , N^{T
N ^ { T,V
,v ) , /r y i_ e -e s /T
N N \T j 1 _ e-es/Tc > r < T c ; (11.22)

M Z l-n .
N
Este comportamiento puede verse en ia figura 11.1, que es coherente con lo
que podemos esperar de este tipo de sistemas.

11.4. Ejercicios
■ Encontrar la expresión del calor latente de subhmación, y repre-
sentai’ gráficamente p{T) para el modelo de la figura 11.1.
Capítulo 12
GAS DE MOLÉCULAS DIATÓMICAS

12.1. Introducción
En el capítulo 6 estudiamos los grados de libertad traslacionales del movimien­
to de las moléculas de un gas, y su contribución a las propiedades termodinámi­
cas de dicho sistema. Los grados de libertad traslacionales están siempre pre­
sentes en un gas de moléculas.
El objeto de este capítulo es estudiar otros grados de Ubertad, asociados a
la estructura electrónica y nuclear de las moléculas del gas, y a los movimientos
de vibración y rotación de dichas moléculas. Genéricamente podemos suponer
que el hamiltoniano del sistema es separable en la forma:

n = HTras^HinU (12.1)

donde el subíndice Tras se refiere a los grados de libertad de traslación de


las moléculas, y el subíndice int hace referencia a esos grados de libertad adi­
cionales que nos interesa estudiar en este capítulo. Éste problema es un ejemplo
típico de la situación descrita en el capítulo 3, en que cada uno de los grados
de libertad considerados se corresponde con una tem peratura característica,
la cual indica el rango de tem peraturas en que empieza a ser relevante la
contribución de dicho grado de libertad.
Por simplicidad, restringiremos nuestro estudio a gases de moléculas for­
madas únicamente por dos átomos, tales como H2, O2 y CO. Además supon­
dremos que:

■ Las moléculas no interactúan (gas ideal).

■ Las tem peraturas son suficientemente altas y las densidades suficiente­


mente bajas como para que sean despreciables las correlaciones cuánticas
entre las moléculas del gas, de manera que se cumple la condición del
límite clásico (3.21):

/ 1.2 \ 3/2
>?n =
2'irmkBT j
donde n = N / V . No es difícil comprobar que, a su vez, esta condición
equivale a:

donde = (12.3)

Por tanto el sistema debe encontrarse a tem peraturas mucho más altas
que las impuestas simplemente por la condición:

T » 0Tras, (12.4)
que permite tra ta r los grados de libertad traslacionales en la aproxi­
mación continua.
En este caso los grados de libertad traslacionales del gas se pueden estudiar
con la estadística clásica de Maxwell-Boltzmann en la aproximación continua.
Tenemos:

Z { T V ,N ) = j^^ [Z ,{T ,V )f,

Z i(T , V) = Zi,Tras{T, V) ■Zi,int{T) = { ( 1 2 . 5 )

Vemos que la función de partición monomoleculai* se escribe como producto de


la función de partición traslacional de la molécula por la función de partición
de los grados de libertad internos de la molécula. Esta última se puede expresar
en la forma:
= (12.6)
t
donde £i es la energía asociada a un estado interno de la molécula y es la
degeneración de dicho estado.
La contribución de un grado de libertad interno a las propiedades ter­
modinámicas del gas se puede calcular directamente de la función de partición
ZiMtiT)·.
Finí = —N k a T l n Z i ,int 7 (12.7)
Mint = ^l,in£j (12.8)

Sint — ~~NkQ , (12-9)

Uint = NkBT^(J^L·Zl > ( 12. 10)

El objetivo de este capítulo es calcular Zi^int{T) en el caso de una molécula


formada por dos átomos. Los grados de libertad internos a considerar son:
(1) lo« grado« do libertad electrónicos de la molécula,

(ii) loa grados de libertad de los núcleos atómicos de la molécula,

(iii) loB grados de libertad de vibración de la molécula,

(iv) los grados de libertad de rotación de la molécula.

Aunque, estrictamente, estos grados dé libertad están acoplados (interaccionan


mùtuamente), si la interacción es suficientemente débil los podemos considerar
de forma independiente, por lo que Zi^int factoriza:

ZuntiT) = · Z i ,„ „ c ( T ) · · Z,^rot{T). ( 1 2 .1 2 )

En esta aproximación, cada grado de libertad contribuye de forma aditiva a las


propiedades termodinámicas del gas, como ya explicamos de forma genérica
en el capítulo 3.

12.2. Grados de libertad electrónicos


Supondremos que el sistema se encuentra en el rango de tem peraturas
aproximado 10® K T <C 10"* K. El límite inferior viene impuesto por la
condición (12.3) (límite clásico). El límite superior viene impuesto por la condi­
ción de que la energía térmica sea mucho menor que la energía necesaria
para disociar la molécula, de manera que la probabihdad de que la molécula
se divida sea extremadamente baja.
En este rango de tem peraturas prácticamente todas las moléculas diatómi­
cas se encuentran en el estado electrónico más bajo (o fundamental). Una
excepción es la molécula de O2 (ver [Pat96], capítulo 6.6).

■ En la mayoría de moléculas diatómicas la degeneración del estado elec­


trónico fundamental es g^i = 1 (el estado fundamental no está degener­
ado). En consecuencia, el estado electrónico de estas moléculas no con­
tribuye a las propiedades termodinámicas del gas.

■ Unas pocas moléculas, en su estado electrónico fundamental, tienen:

(i) Momento angular orbital A ^ O


Hay un desdoblamiento del nivel correspondiente al estado funda­
mental (doblete A) pero la separación entre niveles es despreciable
comparada con fc^T. Basta considerar la degeneración correspon­
diente a las dos posibles orientaciones del momento angular orbital
respecto del eje de la molécula, gei = 2.
(ii) Momento angular de spin 5 ^ 0
Como en el caso anterior, hay un desdoblamiento de niveles asociado
a la cuantización del spin, pero es despreciable desde el punto de
vista termodinámico. La degeneración asociada aJ spin es g^i =
25 + 1.
En estos dos casos, al ser independiente de la temperatura, la multi­
plicidad del estado electrónico fundamental contribuye solamente a la
entropía y al potencial químico del gas, pero no contribuye ni a la en­
ergía interna ni a la capacidad calorífica.
Cuando simultáneamente A 7 ^ 0 y 5 7 ^ 0 1 a situación es más complicada.
Aparece luia estructura fina con una separación entre niveles del mismo
orden que k s T , que por tanto requiere un tratamiento más detallado.
En este caso los grados de hbertad electrónicos contribuyen a todas las
propiedades termodinámicas.

12.3. Molécula AB: grados de libertad del núcleo


Tanto en esta sección como en la sección 12,6 supondremos que las molécu-
lus del gas son hetcronucleans (es decir, tipo AB), de manera que los estados
ciol núcleo y loa de rotación de la molécula se pueden estudiar separadamente.
Cuando laa moléculas son homonucleares (tipo AA) dichos estados se acoplan
hiovitftblemente, tal y como veremos en la última sección de este capítulo.
Consideremos un núcleo de spin Sn· Los estados del núcleo poseen una
dogeneración 2Sn + 1 asociada a las 2Sn + 1 posibles orientaciones del spin. En
el caso de una molécula diatómica, que posee dos núcleos A y B, la función de
partición nuclear viene dada por:
^i,nnc = 9 o{A)go{B) = {2Sa + 1)(25b + 1), (12.13)
de acuerdo con (12.6), donde S a ^ S b son el spin del núcleo A y B respectiva­
mente.
Dado que Z\^nuc no depende de T, hay una contribución finita de los grados
de libertad nucleares al potencial químico y a la entropía del gas, pero la
contribución a la energía interna y a la capacidad calorífica es nula.

12.4. Hamiltoniano de los grados de libertad vibra­


cionales y rotacionales de una molécula di­
atómica
Consideremos una molécula diatómica como la de la figura 12.1, formada
por dos átomos, de masa ttia y ras, ligados por un potencial de interacción U
l'igura 12.1: Izquierda: molécula diatómica formada por dos átomos A y B. Derecha: repre­
sentación de la inolócula como un rotor rígido lineal con dos grados de libertad de rotación.

que depende únicamente de la separación interatómica. Su hamiltoniano puede


separarse en dos partes: una correspondiente al movimiento de traslación del
centro de masas de la molécula y la segunda al movimiento de los átomos
relativo al centro de masas. Los detalles de esta separación se encuentran en el
apéndice A. La parte del hamiltoniano que nos interesa aquí es la correspon­
diente al movimiento relativo (A. 19):

(12.14)

En este hamiltoniano se ha separado la energía cinética del movimiento en


la dirección radial (i.e. de vibración de la molécula) de la energía cinética de
rotación. Sin embargo, la rotación y la vibración siguen estando acopladas, ya
que el término que contiene L depende también de la separación interatómica
r. Esto hace que si los átomos se acercan, por ejemplo, la molécula gire más
rápido.
Para desacoplar los dos tipos de movimiento, supondremos que:
(i) la am plitud de vibración es pequeña, y

(ii) la vibración es mucho más rápida que la rotación.


Con ello podemos estudiar la rotación a r fija, que tomaremos igual a ro, la
distancia de separación de los dos núcleos cuando se encuentran en la posición
de equilibrio en su movimiento de vibración. Esto equivale a considerar r —ro
tq. Esta aproximación se conoce con el nombre de aproximación de rotor rígido
(figura 12.1). Así:
L2 PÌ (12.15)

Tirot '^vib
La porte vibracional describe un movimiento de vibración unidimensional a lo
largo del eje de la molécula. En el supuesto de que el movimiento de vibrax:ión
de los átomos en la molécula es de pequeña amplitud, la oscilación se puede
considerar armónica:

U{r] = U{ro) + i ( r - r o r + ... (12.16)


2 dr^
r= ro

La derivada segunda del potencial en la posición de equilibrio determina la


frecuencia lj de las vibraciones:

(fu
= (12.17)
r=ro

La constante C/(ro) representa el nivel de referencia de la energía, pero no


afecta al movimiento. Tenemos así:

n ^ b = ^ + \^u J ^ {T -ro f, (12.18)

que es el hamiltoniano de un oscilador armónico unidimensional de masa /i


y frecuencia u). Describe el movimiento de los núcleos a lo largo del eje de la
molécula.

12.5. Grados de libertad vibracionales


Consideramos ahora la contribución de los grados de Ubertad vibracionales
en la aproximación de rotor rígido.
La tem peratura característica de vibración de una molécula diatómica se
define como:
fíL·)
©V = (12.19)

y es generalmente del orden de ©v — 10^ K (ver tabla 12.1). Por consigu­


iente, por debajo de 10^ K los grados de libertad vibracionales prácticamente
no contribuyen a las propiedades termodinámicas del gas, mientras que por
encima de 10*^ K su contribución se satura y puede calcularse directamente a
partir del teorema de equipartición de la energía.
El comportamiento más interesante se da a temperaturas alrededor de 0,^.
En ese rango de tem peraturas el movimiento de vibración de los átomos en la
molécula es de pequeña ampHtud, por lo que la oscilación se puede considerar
armónica, lo que corresponde al hamiltoniano (12.18). Los niveles de energía
de vibración son entonces:

e(w) = ( n + ^ ^ h u ) , n = 0 ,1 ,2 ,... (12.20)


T/0V T/Gv

Figura 12.2: Contribución de los grados de libertad vibracionales a la energía interna y a la


rapacidad calorífica de un gas ideal de moléculas diatómicas. La línea a trsLzos representa la
contribución en el límite clásico.

La función de partición vibracional de una molécula es:

(12.21)
71=0

Para el gas de N moléculas:

Z^6(r,AT) = [Z i,„,6(r)]^, (12.22)

de manera que, usando (12.10) y (12.11):

U ^{T ,N ) = N k e Q . (i + , (12.23)

/0 .2 _e„/T
(12.24)

El comportamiento de la energía interna y de la capacidad calorífica de origen


vibracional se muestra en la figura 12.2.

■ A tem peraturas T 6^ los grados de libertad vibracionales están con­


gelados. La contribución a la energía interna es únicamente la energía
del nivel fundamental de los N osciladores cuánticos (energía del punto
cero), mientras que la contribución a la capacidad calorífica es nula.

■ A tem peraturas intermedias, alrededor de ©v, los grados de libertad


vibracionales están excitados solo parcialmente. Su contribución a las
propiedades termodinámicas viene dada por las expresiones (12.23) y
(12.24).
■ A tem peraturas T » 0^ el sistema se comporta clásicamente. La con­
tribución a la energía interna es íVAj^T, que corresponde ai resultado
predicho por el teorema de equipartición para N osciladores clásicos
unidimensionales. La contribución a la capacidad calorífica, en conse­
cuencia, se hace indepenciiente de la temperatura.

Hay que mencionar que a tem peraturas extremadamente altas se pueden


llegar a excitar vibraciones de número cuántico n muy grande y por tanto
de gran amplitud. Pueden aparecer entonces efectos de anarinonicidad y de
acoplamiento de los modos vibracionales y rotacionales de la molécula. Puesto
que la tem peratura es alta, las correcciones correspondientes pueden calcularse
clásicamente.

12.6. Molécula AB: grados de libertad rotacionales


Consideremos ahora los estados de rotación de una molécula heteronucle-
ar. Como ya hemos discutido anteriormente, suponemos que los estados de
rotación están desacoplados de los estados de vibración, y la molécula se com­
porta como un rotor rígido Hneal (figura 12.1). Posee dos grados de libertad
de rotación, uno por cada uno de los dos ejes perpendiculares al eje de la
molécula.
Lft rotación viene descrita por el término Hrot del hamiltoniano (12.15):

Tirot — con I = fiTQ, (12.25)

/ es el momento de inercia de la molécula respecto de los ejes principales de


rotación. Los autovalores del operador determinan los niveles de energía de
rotación de la molécula y su degeneración:

Erot = l{l + l ) Y j , 91 = 21 + 1, con Z= 0 , l , 2 . . . (12.26)

Podemos entonces construir ia función de partición de los grados de libertad


de rotación:

Z i M T ) = Y.{21 + l)ex p · (12.27)

La tem peratura característica de rotación se define como:


Los valorea de ro y ©r de un cierto número de moléculas diatómicas se mues­
tran en la tabla 12.1.
La suma de ia función de partición (12.27) requiere métodos m atemáticos
diferentes, dependiendo del rango de tem peraturas considerado.
■ En el límite de temperaturas altas, T > ©r, podemos considerar un
continuo de estados rotacionales.
En primera aproximación:

Z i,„ e (r) ~ 1 ^ (2 1 + 1) exp |- / ( Z + } di =

= (12.29)

donde hemos usado el cambio de variables x = l{l 1). Por tanto, de


(12.10) y (12.11):
Cy^rot ^ N kB· (12.30)
Es el resultado que cabía esperar, a partir del teorema de equipartición,
para un rotor rígido con dos grados de libertad de rotación.
Podemos mejorar esta aproximación utilizando la fórmula de Euler-
McLaurin:

fc=0 ^

- ¿ [ / '( 0 ) - /'(n )] + ^ [ / ' " ( 0 ) - /"'(n)] + · · · (12.31)

En nuestro caso:
/(0 ) = 1, /(oo) = 0,
= /'(c « ) = 0,

/'"(0 ) = - i 2 | f + r ( o o ) = 0,

Llegamos así a la llamada fórmula de Mulholland:

(12.32)
A primer orden se recupera el resultado clásico (12.29). La contribución
de Zi^rot a la energía interna viene dada por:

(12.33)
U.rot v,rot
NkgGr Nko

T/0.

Figura 12.3: Contribución de los gi-ados de libertaxJ rotacionaks a la energía interna a la


capacidad calorífica de un gas ideal de moléculas diatómicas. La línea a trazos representa la
contribución en el límite clásico.

La contribución a la capacidad calorífica es:

Notemos que a tem peraturas altas Cy^rot disminuye al aumentar T, y


por tanto alcanza el valor límite N k s desde valores superiores, como se
m uestra en la figura 12.3.
■ Para tem peraturas bajas, T ^ 0 r, es una buena aproximación quedarse
únicamente con los primeros términos del sumatorio (12.27):
Z i.r o t ( r ) = 1 + 3 e - 2 ® ’·/'^ + 5 e - 6 © r /T . ( i 2 .3 5 )

La capacidad calorífica a volumen constante, usando (12.10) y (12.11),


viene dada por:

a .ro t ^ 12Nkg ^ + ·· · (12.36)

La capacidad calorífica tiende a cero de forma exponencial en el Hmite


T —►O, como ocurre siempre que el espectro de niveles de energía es
discreto.
La figura 12.3 muestra el comportamiento de Urot{T) y Cv,rot{T) en todo
el rango de tem peraturas.

12.7. Gas ideal de moléculas AB: comportamiento


asintótico de la capacidad calorífica
El comportamiento asintótico de la capacidad calorífica de un gas ideal
de moléculas diatómicas heteronucleares, en ciertos rangos de temperatura, es
OuAclro 12.1: l^imparaturaa cai’acterísticas de vibración y de rotación de algunas moléculas
diatónilcai, y diatancla de separación de los núcleos en equilibrio.

e „ (K ) e .( K ) ro (A)
H2 6210 85.4 0.740
r>2 4300 42.7
N2 3340 2.86 1.095
O2 2230 2.07 1.204
CO 3070 2.77 1.128
NO 2690 2.42 1.150
HCl 4140 15.2 1.275
HBr 3700 12.1 1.414
HI 3200 9.0 1.604
Ch 810 0.346 1.989
Bri 470 0.116 . 2.284
h 310 0.054 2.667

muy simple. En estos intervalos los grados de libertad internos de las moléculas
verifican la estadística clásica-continua. Se cumple el esquema siguiente:

5
7 -3

7 7
Cy -N kB ,

9
Cy ^NkB. ¡N ks. 7 -7

Entre estas zonas asintóticas el comportamiento de Cy y Cp es monótono.


El coeficiente adiabático 7 se define como el cociente de capacidades calorífi­
cas Cp/Cy. Dado que el gas es ideal, se cumple la relación de Mayer, Cp =
Cy -h NkB> Para la mayoría de gases diatómicos la tem peratura ambiente
(T 300 K) se encuentra aproximadamente en el centro del intervalo entre
©r y ©ü> tal y como se puede comprobar en la tabla 12.1, por lo que es ha­
bitual obtener 7 = 7/6 experimentalmente a tem peratura ambiente. Los gases
^2 y (formados por los isótopos H y D) representan la excepción
más importante, ya que para ellos ©^ es cercano a tem peratura ambiente.
12.8. Molécula homonuclear, AA: acoplamiento en­
tre los grados de libertad del núcleo y los gra­
dos de libertad rotacionales
12.8.1. A n álisis clásico (T » Qr)
Supongamos que T ^ Qr y consideremos el problema de la rotación de la
molécula desde el punto de vista clásico. Tal y como se muestra en la figura
12.1, la rotación se describe en términos de las coordenadas angulares 6, (¡>
(ángulos de Euler) y de sus momentos conjugados po, p^f^. El ángulo O toma
valores en el intervalo [O, tt], mientras que el ángulo 0 toma valores en [O, (j)^nax\‘
Si los dos núcleos de la molécula son distintos (molécula heteroiiuclear AB),
todos los valores de </) entre O y 27T corresponden a estados rotacionales dis­
tintos, y por tanto se tom a (!>max = 27t. Por el contrario, si los dos núcleos de
la molécula son idénticos (molécula homonuclear AA), a partir de <^ = tt los
estados rotacionales se repiten, y por tanto <t>max = tt.
Como se muestra en el apéndice A, el hamiltoniano Hroi de (12.15) corre­
sponde clásicamente a:

(12.37)

Lii función de partición clásica asociada a los grados de libertad de rotación


en por tanto:
1 /-TT fcpmax roo roo

^ (27r/fcBT)*/2 (27r/fcBT)^/2 2 = (12.38)

En el caso de moléculas tipo AB recuperamos el resultado previsto:

Z iM T ) = (12.39)

En el caso de moléculas tipo AA aparece un 2 extra:

2 i .,o t ( T ) = ( 1 2 .4 0 )

ya que hay exactamente lamitad de estadosrotacionales distintos. Puesto


que el factor 2 de diferencia no afecta a la capacidad calorífica, concluimos
que clásicamente la capacidad calorífica de un gas de moléculas diatómicas no
depende de si éstas son heteronucleares u homonucleares.
12.8.2. A n álisis cuántico (T > 0^)
Si el gas 80 encuentra a tem peraturas no excesivamente superiores a 0^
entra en juego el hecho de que, en un tratam iento mecánico-cuántico, los nive­
les de energía de rotación de las moléculas son discretos. En la sección 12.6
hemos analizado esta cuestión en detalle para un gas de moléculas diatómicas
heteronucleares.
Consideremos ahora moléculas homonucleares, tipo AA. Como sabemos, la
función de onda total de una molécula tiene que ser simétrica o antisimétrica re­
specto al intercambio de dos partículas idénticas. Esto produce un acoplamien­
to entre los estados nucleares y rotacionales, ya que:

■ La función de onda nuclear de la molécula se construye como combi­


nación lineal de las funciones de spin de los núcleos. Si el spin del núcleo
es S a , hay (25a H- 1)^ combinaciones lineales posibles, de las cuales:

{S a + 1)(25a + 1) son simétricas,


S a { 2 S a -H 1) son antisimétricas,

respecto a un intercambio de los núcleos.

■ La función de onda rotacional de la molécula es:

simétrica para l par,


antisimétrica para l impar.

La fimción de onda total, producto de las funciones de onda nuclear y rota­


cional, se construye en la forma siguiente:

(i) Función de onda total antisimétrica


Corresponde al caso en que los núcleos son fermiones { S a = 1/2, 3 /2 ...;
por ejemplo: H 2 )·
Se construye como producto de una función de onda simétrica y una
antisimétrica. La función de partición correspondiente es:

Z Í ^ - r o t i T ) = Sa (2Sa + 1) Z i M l Par) +
(5a + 1) {2S a + 1) Zi,rot{l impar). (12.41)

(ii) Función de onda total simétrica


Corresponde al caso en que los núcleos son bosones { S a = 0,1,2...; por
ejemplo: D 2 )·
Se construye como producto de dos funciones de onda simétricas o de
dos funciones de onda antisimétricas. La función de partición correspon­
diente es:

Z^.L·-rot{T) = {Sa + 1) (25^ + 1) Zi,.<,*(/ par) +


Sa (25a + 1) •^i,roí(í impar). (12.42)

En las ecuaciones anteriores:

^i,rot(/par) = £ (2Z + l)e x p (-Z (i + l ) ^ | , (12.43)


/=0.2... ^ ^ ^

Zi,rot(l impar) = (2¿ + 1)exp í-l{l + 1 )^ 1 · (12.44)


í=i,3... ^
Dada la estructura de la función de partición, es natural considerar el gas
como una mezcla de dos componentes, orto- y para-. Cada componente viene
descrita por un término de la función de partición. El nombre orto- se reserva a
la componente de mayor peso estadístico. Tenemos así que las concentraciones
relativas en equilibrio son:

Fermiones: ^ . (S a D ja p ..)
Tapara
(12.45)
Bosones: ^ = (S a + 1 ) Z , M I p^ v)
npara Sa 2^1,rot(í impar)

■ A tem peraturas altas Zi^rotQ· impar)/Zi,rot(í par) —^ 1 y por tanto:

^orto {S a + 1) = 3 en el caso de H 2 (5a = 1 /2 ). , .


npara Sa = 2 en el caso de {Sa = 1) ·

■ A tem peraturas bajas es suficiente retener los primeros términos de


Zi,rot{l par) y Zi^rot{l impar), y obtenemos:

T«Or (12.47)
par)

con lo cual, cuando T —>0:

• Si las moléculas son fermiones se verifica ri(„.io/npara 0; todas las


moléculas son de tipo para-
• Si las moléculas son bosones se verifica nariol'^'para oo; todas las
moléculas son de tipo orto-.
■ A tem peraturas intermedias las propiedades termodinámicas del gas
tienen que calcularse con las funciones de partición completas y las rela­
ciones Harto/ripara dadas en (12.45).
Resulta sin embargo que los resultados teóricos no son compatibles con
los resultados experimentales. El motivo es que experimentalmente se
suelen preparar las muestras a tem peratura ambiente, T > ©r, y por
tanto:
^ (S a_+JO (12.48)
ripara Sa
Al bajar la temperatura, en contra de lo que cabría esperar, esta relación
ae mantiene fijada porque la transición de una molécula de la forma orto-
a para-, o viceversa, requiere la inversión del spin de uno de sus núcleos,
y el periodo medio de este proceso es del orden de un año, extraordinari­
amente grande comparado con el tiempo que suele invertirse en preparar
la muestra y realizar el experimento.
En consecuencia, las muestras experimentales son mezclas de dos com­
ponentes que no se encuentran en equilibrio. Por el contrario, su concen­
tración relativa está fijada de antemano. Si definimos:

C{1 par/impar) = N k s ^ { t ^ A in p ar/im p ar)|. (12.49)

tenemos entonces que las capacidades caloríficas medidas experimental­


mente vendrán dadas por las expresiones siguientes:
• Si las moléculas son fermiones:

• Si las moléculas son bosones:

C „^-rot = P ") + “ P“ )· (12.51)

Estos resultados fueron propuestos por Dennison en 1927 y están en


excelente acuerdo con las observaciones experimentales.

12.9. Ejercicios
■ Considérese un sistema de N moléculas diatómicas AB que se encuentra
a tem peratura suficientemente alta como para que los grados de libertad
traslacionales y rotacionales se puedan tratar en la estadística clásico-
continua. Encontrar la energía media y la capacidad calorífica a volumen
constante asociadas a dichos grados de libertad.
■ Un gas ideal está formado por moléculas monoatómicas extensas. Cada
molécula tiene masa M y momentos de inercia (/i, / 2, / 3) respecto a sus
tres ejes principales. El hamiltoniano de traslación de la molécula y de
rotación alrededor de dichos ejes es:

Tí = - M + - (-^1^1 + ■*" -^3^3) ·

(i) Expresar Tí en forma canónica, usandi:) que el momento Uneal en


la dirección x es px = M x , e\ momento angular alrededor del eje 1 es
li = l i é y expresiones análogas para las direcciones y, z y los ejes 2, 3.
(ii) Demostrar que la función de partición canónica clásica de una molécu­
la se puede escribir en la forma (12.5), con:

/ T \3/2

(iii) Verificar que a tem peraturas altas Cy = S N k s , de acuerdo con el


teorema de equipartición.

■ Considerar un gas ideal de moléculas diatómicas homonucleares. De­


mostrar que si T ©7. se cumple:
T
Zi,T0t{l par) ~ Zi^rotQ impar) ~ — ,
y p o r ta n to :

Z l^ -ro t - (25a + I)"*

que es el resultado clásico. Este resultado demuestra que a altas tem­


peraturas las propiedades termodinámicas del gas no dependen de la
estadística que siguen los mídeos.
Capítulo 13
RADIACIÓN TÉRMICA: GAS DE FOTONES

13.1. Introducción
En este capítulo nos proponemos estudiar las propiedades de equilibrio de
la radiaxíióii electromagnética en función de la temperatura. El cuerpo negro
consiste en una cavidad de volumen V que contiene únicamente radiación
electromagnética emitida y absorbida por las paredes de la cavidad, y que
se encuentra en equilibrio termodinàmico a la tem peratura T de las paredes.
Mediante una pequeña abertura en la cavidad se observa el flujo saliente de
radiación, lo que permite deducir las propiedades de ésta dentro de la cavidad.
Se trata de un problema que ha tenido un enorme impacto en la física del
siglo XX. Los resultados experimentales indicaban claramente que el problema
no podía entenderse con los conceptos de la física clásica de finales del XIX.
Para explicar el espectro frecuencial de la radiación del cuerpo negro observado
experimentalmente, Planck se vio forzado a introducir en 1900 la hipótesis del
quantum de energía, que él mismo calificó de desesperada. Esta hipótesis con­
stituye el punto de partida de la mecánica cuántica. Por otro lado, el trabajo
de Bose de 1924, en que la radiación en la cavidad se estudia como un gas de
fotones, y la reformulación y generalización que de este trabajo hizo Einstein
en 1924 y 1925, llevaron a la primera estadística genuinamente cuántica, que
hoy conocemos como estadística de Bose-Einstein,
De la misma forma que en el caso de las vibrí^ciones de un sóhdo, este prob­
lema admite dos tratamientos alternativos: considerar la radiación como un
conjunto de osciladores con energía cuantizada que obedecen a la estadística
clásica de partículas distinguibles (sistema clásico-discreto) ^ o bien considerar
que ia radiación es un gas ideal de partículas idénticas (fotones) que obedece a
la estadística de Bose-Einstein (sistema cuántico-continuo). Ambos tratam ien­
tos se presentan a continuación, empezando por el segundo de ellos.
13.2. Distribución de la energía del espectro de ra­
diación
Vamos a considerar la radiación electromagnética en la cavidad como uu
gas ideal de fotones en equilibrio a la tem peratura T. Las paredes de la cavidad
constituyen el foco térmico que fija la tem peratura del sistema.
Los fotones son cuasipartículas idénticas de spin 1 (bosones), masa en re­
poso nula, y por tanto relación energía-momento ultrarrelativista. El momento
lineal y la energía de los estados permitidos de un fotón en la cavidad vienen
dados por (apéndice A):

p = ^k con k = y(n a;,n y ,n 2), n¿ = 1 ,2 ,3 ... (13.1)


e = cp = fíLJ con cj = kc, (13.2)

donde c es la velocidad de la luz en el vacío y L el tamaño lateral de la cavidad


(V = L^).
El hecho de que el vector de ondas k tome valores discretos es consecuen­
cia de las condiciones de contorno impuestas sobre la función de onda en las
paredes de la cavidad. Sin embargo, cuando el volumen de la cavidad es sufi­
cientemente grande la discretización es inapreciable y se puede considerar un
continuo de estados permitidos. En ese hmite la densidad de estados permiti­
dos en el intervalo de frecuencias entre u j y u + c L · viene dada por (A.66):

g{üj) düj = u? düj. (13.3)

El número total de fotones no está fijado, ya que constantemente tienen


lugar procesos de absorción y emisión de fotones en las paredes de la cavidad. Si
consideramos una cavidad aislada, el potencial termodinámico correspondiente
(la entropía S) será función únicamente de la energía y del volumen de la
cavidad, y por tanto:

< -)
En conclusión, el potencial químico de la cavidad es nulo. Remarcamos que
este resultado es consecuencia de que el número de fotones no se conserva a
pesar de que la cavidad está cerrada.
Desde el punto de vista estadístico, la cuestión es determinar cómo se dis­
tribuyen los quanta de energía, o fotones, en los niveles de energía permitidos,
e = ^ , y así poder calcular la distribución en frecuencias de la energía de la
radiación contenida en la cavidad.
La energía por unidad de volumen contenida en el intervalo de frecuencias
(uj^uj -H <L·) le puedo expresar como:

u{uj^T)(L· = ^{n{oj)) hujg{uj) du), (13.5)

dondü (n(u;)) os el valor medio del número de ocupación del estado de energía
e o hUy y g{u) du; es el número de estados permitidos en el intervalo (o;, Lü-\-duj).
Para calcular el valor medio del número de ocupación de un estado debemos
utilizar la estadística cuántica. Puesto que los fotones son bosones la estadística
a utilizar es la de Bose-Einstein. El valor medio del número de ocupación de
un estado de energía £· = /io; en la estadística de Bose-Einstein (a = - 1 ) viene
dado por la ecuación (5.78), con la condición adicional de que /j, = O {y por
tanto 2 = 1). Así pues:

("(“ » = (« ·« )
Utilizando la densidad de estados (13.3) obtenemos por tanto:

u iw ,T )dw = ^
que es la fórmula de Planck de la distribución en frecuencias de la densidad de
energía del cuerpo negro. Esta distribución se conoce como densidad espectral
del cuerpo negro.
La figura 13.1 muestra la densidad espectral del cuerpo negro en función
de la variable adimensional característica de este problema, x = que
compara la energía del fotón con la energía térmica. En la misma figura se
muestran también las primeras aproximaciones a este problema, conocidas
como distribuciones de Rayleigh-Jeans y Wien.
La primera predice un comportamiento del tipo:

u = ^kBTg{<jj) ~ (13.8)

que reproduce adecuadamente los resultados experimentales en el límite x < 1


(longitudes de onda largas), pero tiene el problema de que diverge para x
grandes. El razonamiento fisico que lleva a esta aproximación se propone como
ejercicio al final del capítulo. La aproximación de Wien postula una expresión
de la densidad espectral de la forma:

ti = ~ e-®, (13.9)

que resulta ser correcta en el límite x > 1 (longitudes de onda cortas) pero
no en el límite opuesto, si bien no presenta divergencias. El contexto físico de
esta aproximación se propone también como ejercicio al final del capítulo.
Figura 13.1; Espectro de radizición del cuerpo negro en coordenadas reducidas y = u
vs. X = (5hu. La distribución de Planck, —1), que reproduce fielmente los resulta­
dos experimentales, se nmestra en línea continua. También se muestran las aproximaciones
clásicas debidas a Rayleigh-Jeans (línea a trazos) y Wien (línea punteada).

Analicemofí ahora algunas predicciones de la ley de Planck que pueden con-


traatarse con experimentos. En primer lugar, podemos observar que la posición
dol miiximo de la curva de densidad espectral (13.7), en la variable reducida x,
adopta el valor universal Xmax = 2,8214... En consecuencia la densidad de en­
ergía máxima corresponde a frecuencias progresivamente mayores (longitudes
de onda más cortas) a medida que aumenta la temperatura. Se tiene:
_ U)2
(13.10)
T i^ T 2
donde íD1, 0)2 . .. son las frecuencias correspondientes a los máximos de los
espectros a las tem peraturas Ti, T2 ... respectivamente. Este comportamiento,
conocido como la ley del desplazamiento de Wien, se pone de manifiesto en la
figura 13.2, que presenta la densidad espectral a diferentes temperaturas.
La densidad de energía total en la cavidad se obtiene integrando la densidad
espectral en todo el rango de frecuencias:

dx. (13.11)
e^ -l

La integral definida vale F(4)C(4) = Tr^/15, (donde C(z) es la función zeta de


Riemann) de manera que:
Figura 13.2: Densidad espectral de energía, en función de la frecuencia de la ra­
diación, u = a diferentes temperaturas. La zona sombreada cubre la parte visible del
espectro.

que es la ley de Stefan-Boltzmann. Esta ley suele expresarse en la forma:


, (7
«(T) = 4 - T ^ (13.13)
c
donde a viene dada por:
2 irSfcß'
cr = = 5,6697 X 10“ ®J s - i m - 2 K - \ (13.14)
15 c2/)3
y se denomina constante de Stefan-Boltzmann.
Los resultados (13.10) y (13.13) eran conocidos experimentalmente antes de
la formulación de Planck. El hecho de que la hipótesis cuántica los exphcara
satisfactoriamente contribuyó decisivamente al establecimiento de la nueva
física que se originaba con dicha hipótesis.

13.3. Presión de radiación


Vamos a calcular la presión que la radiación (gas de fotones) ejerce sobre
las paredes de la cavidad. Para ello, consideramos la función de partición
macrocanónica del gas ideal en la estadística de Bose-Einstein (a = -1 ) , dada
por la ecuación (5.88), con la condición adicional /i = O (y por tanto 2 = 1).
Tenemos:

p ^ = ] n Q { V , T ) = - T h i h - e - M g(uj) du.
KßT Jo L J
Considerando que g{uj) de acuerdo con la ecuación (13.3), e integrando
por partes, se llega a:

VjkBTf V (k B T )^ n^
^ 37rV/i3 Jo e^-1 15
y por tanto:
P = ^ w (T ). (13.17)

Este resultado es diferente del resultado p = {2/3)u (ecuación (5.91)), corre­


spondiente a un gas de partículas libres no relativistas. La diferencia proviene
de cómo se expresa la densidad de estados en función de la energía en uno y
otro caso.
Si sustituimos las constantes por sus valores en la expresión (13.12) de
u{T) obtenemos p = 2,4 x 10“ ^^ con p en atm y T en K. Notemos que la
presión es función exclusivamente de la temperatura, y por tanto las isotermas
del gas de fotones en el diagrama p — V son líneas horizontales.

13.4· Otras propiedades termodinámicas


La energía libre de Helmholtz se obtiene directamente de imponer que
= O en la expresión termodinámica:

F = N n - v V = -\vu {T ). (13.18)
O
De la definición F = U —T S se obtiene entonces la entropía del gas de fotones:

Finalmente, la capacidad calorífica a volumen constante viene dada por:

El valor medio del número de fotones en equilibrio en la cavidad se puede


calcular a partir del valor medio del número de ocupación de los estados, dado
por la ecuación genérica (5.78). Tenemos:

{N) = E ({n,)],^i = 9 i^) =

Tr2c3/33ft3 I (13-21)

donde C(3) = 1,202...


De forma anàloga aunque más laboriosa podemos obtener la varianza de
S a partir de la expresión generai (5.83):

(A //)* = E [(n?) - (ni)'


Z=i
i
xV

con C(2) = 7T^/6. En la primera igualdad hemos tenido en cuenta la inde­


pendencia estadística de la variables n^, en la forma {ninj) = (ni)(nj), para

Por tanto, las fluctuaciones relativas al valor medio son:


(AJNT)2_C(2)
(^> "C (3)^'’
tal y como demostramos de forma genérica para los bosones en (5.85).

13.5. Deducción de la densidad espectral por el méto­


do de Planck
En esta sección calcularemos la densidad espectral de la radiación por el
método que usó Planck en 1900, que corresponde al primero de los tratam ien­
tos mencionados en la introducción. Aunque el razonamiento utiliza algunas
hipótesis de difícil justificación, conduce al resultado correcto. Es interesante
tratarlo aquí por su importancia histórica, y porque nos va a permitir destacar
las im portantes diferencias conceptuales entre la formulación de Planck, que
corresponde a la estadística clásica, y la formulación de Bose y Einstein, que
corresponde a la estadística cuántica.
Planck considera la radiación desde el punto de vista clásico, como un con­
junto de ondas electromagnéticas estacionarias (ver el apéndice A). Al imponer
condiciones de contorno sobre las ondas en la cavidad aparece un conjunto de
modos normales de radiación, de frecuencia lj. Cada modo normal puede en­
tenderse como un oscilador armónico unidimensional en equihbrio térmico con
un baño a tem peratura T.
La hipótesis de Planck es considerar que cada modo normal tiene su energía
discret izada en paquetes de energía fíuj, de manera que los valores posibles de
la energía del modo de frecuencia uj son:

e = nhüü con n = 0 ,1 ,2 ... (13.24)

donde tí es una constante universal (que hoy en día reconocemos como la


constante de Planck /i, dividida por 27t). Desde una perspectiva actual vemos
que Planck asigna a cada modo de radiación la energía correspondiente a un
oscilador cuántico unidimensional, pero sin la energía del estado fundamental
(energía del punto cero).
Los modos de vibración u osciladores son distinguibles -cada modo viene
caracterizado por su frecuencia u j - y por tanto obedecen a la estadística
de Maxwell-Boltzmann (sistema clásico-discreto). En este caso necesitamos
únicamente la función de partición canónica de un modo, dada por:

Z,{V, T) = f ; = T -3 ^ , (13.25)
n=0

y por tanto el valor medio de la energía de dicho modo es:

= = (13,26)

Aunque el conjunto de modos de vibración es discreto, tiende a un con­


tinuo si la cavidad es suficientemente grande. Al coiisiderai' la distribución en
frecuencias de los modos de vibración debemos introducir la función g{uj)^ que
representa la densidad de modos de vibración permitidos entre u j y u j + dÁjj.
Como se muestra en el apéndice A, la función g{uj) viene dada clásicamente
por la expreaión de Rayleigh, idéntica a (13.3).
En definitiva, la densidad de energía espectral viene dada por:

u{u, T ) d u = ^ {€{uj, T)) g{uj) duj. (13.27)

Substituyendo las expresiones correspondientes a (e(o;, T)) y a g{uj) se obtiene


la fórmula de Planck de la densidad de energía espectral del cuerpo negro
(ecuación (13.7)).
Aunque conducen al mismo resultado, el tratamiento de la radiación des­
de el punto de vista clásico (de Planck) o desde el punto de vista cuántico
(de Bose-Einstein) presenta diferencias conceptuales muy importantes. Des­
de el punto de vista clásico la radiación es un conjunto de modos normales
(osciladores) de vibración del campo electromagnético, distinguibles, mientras
que desde el punto de vista cuántico la radiación es un gas ideal de quanta
de energía (partículas) denominados fotones, indistinguibles. Desde un pun­
to de vista clásico, hablamos de un modo de vibración (oscilador de Planck)
de frecuencia u que se encuentra en un estado n, con energía nñuj. Desde
un punto de vista cuántico decimos que el estado monoparticular de energía
ñuj está ocupado por n fotones. Finalmente, desde un punto de vista clásico
calculamos el espectro a partir del valor medio de la energía de un oscilador
de Planck, (e), mientras que desde un punto de vista cuántico partimos de
(n(o;)), el valor medio del número de ocupación del estado de energía huj.
13.6. Ejercicios
■ Con objeto de hacerse una idea de los órdenes de magnitud típicos,
calcular el número medio de fotones, la energía total y la presión de la
radiación contenida cn una cavidad de 1 m^ en equihbrio a T = 300 K.

■ Deducir la relación de Rayleigh-Jeans del espectro de radiación del cuer­


po negro partiendo de una descripción ondulatoria de la radiación y
asignando a coda oscilador de frecuencia cu una energía media k^T, de
acuerdo con el teorema de equipartición. Justificar la validez del resul­
tado en el límite de longitudes de onda largas.

■ Deducir la relación de Wien del espectro de radiación del cuerpo negro


pai'tiendo de una descripción ondulatoria de la radiación y asignando
arbitrariamente a cada oscilador de firecuencia cu un valor medio de la
energía (e(cjjT)) = donde e{u)) es una función lineal de u;
y la exponencial es el factor de Boltzmann, Demostrar que el resultado
coincide con el resultado de Planck en el límite de longitudes de onda
cortas.

■ Estudiar la contribución de las vibraciones atómicas de un sólido a su


energía interna (capítulo 10) considerando dichas vibraciones como un
gas de fonones {quanta de energía de las ondas sonoras en el sóhdo) en
equihbrio a la tem peratura T. Consultar [Pat96], capítulo 7.
Capítulo 14
GASES IDEALES CUÁNTICOS EN DIMENSIÓN
DOS

14.1. Introducción
Los gases ideales cuánticos constituyen los sistemas más sencillos que ev­
idencian la naturaleza cuántica -bosónica o fermiónica- de las partículas que
los forman. Como el tratamiento de ambos es muy similar, vamos a presentar
el estudio en forma conjunta, aunque resaltaremos las diferencias más impor­
tantes en cada caso. Un ejemplo de gas de bosones es el helio (^He) y un
ejemplo de gas de fermiones es el gas de electrones libres en un metal.
A fin de tener en cuenta los efectos cuánticos partiremos de las expresiones
generales deducidas en el capítulo 5 (ecuaciones (5.89) y (5.90)):

r e f e r í
donde a = - 1 para los bosones y a = 1 para los fermiones. g{e) es la densidad
de estados de una partícula libre. El sumando extra que aparece en la expre­
sión para (N) es la contribución del estado fundamental, eq O, que se ha
ehminado de la integral al tom ar 0”^ como límite inferior. Esta contribución
sólo es relevante en dimensión tres, tal y como veremos en el siguiente capítu­
lo. El sumando extra no aparece en la expresión de la energía media porque
suponemos que eo — O Y pov ello no hay posibilidad de contribución del estado
fundamental.
El estudio puede hacerse con bastante generalidad en cualquier dimensión.
Sin embargo en d = 2 es fácil obtener resultados exactos y aproximaciones con
sentido físico que son de utihdad para entender el comportamiento en d = 3.
La función ^(e) correspondiente a dimensión dos viene dada por la ecuación
(A.35):
, . 2m7rA , ,
9 { ¿ ) = 9 s ^ ^ = 9, (14.3)
donde gs es la degeneración del spin de las partículas y es el área
ocupada por el sistema. El hecho de que g{s) resulte ser constante simphfica
mucho los cálculos. En dimensión dos no es necesario separar el sumando del
estado fundament?i dado que p(0) / 0 .

14.2. Gas ideal de bosones


Las ecuaciones anteriores, (14.1) y (14.2), con a = -1 , se reducen a:

(W)(T, A ,,) = 9 / “ <fe, (14.4)

(£)(T , A , z ) = 9 1 ° ° p i j n r r (“ ■=)
que son el punto de partida para el estudio del gas ideal de bosones en d = 2.

14.2.1. P o ten cia l quím ico d e los bosones


Empezaremos por resolver la primera integral, mediante el cambio de vari­
ables y =

m r .A z ) = £ |„(1 - . ) , (14.6)

de dondo despejamos z:
z b - e ÍT, a , {N)) = 1 - (14.7)
Por consiguiente el potencial químico de los bosones es exactamente:

fis-E = k e T in (l - . (14.8)
Es im portante estudiar el comportamiento de ;r:
■ A bajas tem peraturas hacemos f3 muy grande y por tanto:
z b - e { T , a , (N)) = 1 - ^ 1, (14.9)
que nos dice que z 1 en un entorno de T > 0.
■A altas tem peraturas ¡3 es muy pequeña y desarrollando la exponencial
nos queda:
z b - b { T , A , ( N ) ) c ^ ^ , (14.10)
9
que tiende a cero y que es el valor correspondiente al gas ideal clásico en
dos dimensiones.
El comportamiento de z b ~e frente a la tem peratura puede verse en la
figura 14.1. La cantidad adimensional que determina los dos límites es (3{N)/g,
r/0

Figura 14.1: Variable z para bosones libres (hnea punteada), fermiones libres (línea a trazos),
y gas ideal clásico (línea continua). 0 = {N)l{kBg)·

14.2.2. C o m p o rta m ien to a sin tó tico d e la energía


Aunque el cálculo de la energía puede hacerse exactamente, y más adelante
lo presentaremos, preferimos ahora entender cómo puede extraerse información
en los límites de altas y bajas tem peraturas. Como ya hemos probado que z
está acotada entre O y 1, podemos pensar en un desarrollo de Taylor de (14.5)
en estos dos hmites, que nos permite estudiar el comportamiento asintótico de
la energía.

■ En el límite de bajas tem peraturas podemos sustituir 2; = 1, desprecian­


do términos de orden El resultado, con el cambio de variable
X = /3e, es:

{E ){ T ,A ,z = 1) = ^ í

Hemos demostrado que la energía media es cuadrática en la tem peratura,


y por lo tanto que la capacidad calorífica es lineal en la tem peratura.
En dimensión tres hubiéramos obtenido un desarrollo infinito en k s T ,
además de las correcciones exponenciales [Pat96].

■ Para el límite de altas tem peraturas no podemos poner simplemente que


z = 0. Debemos quedarnos con el primer orden en 2;. Así reescribimos
(14.5):

{E){T,A,zc.O)=gzJ"-^^Je
~ gz ee-0^de = g = (N)kBT, (14.12)

donde hemos usado el valor (14.10) de z, que corresponde a este límite.


Podemos ver que obtenemos el valor clásico correspondiente a partículas
libres en dos dimensiones.

14.2.3. Solución exacta d e la energía


La expresión correspondiente a z ya se calculó exactamente en (14.7). Si
ahora hacemos de nuevo el cambio de variables y = la energía media
queda:
( E > ( r , ^ , « ) - ^ j í ‘ ¡ ^ < í y = ;^ Í2 W . (1413)

L 2 {z) es la función dilogaritmo, cuyo desarrollo de Taylor es:


oo
= kl < 1· (14.14)
71»
n = l1

Los resultados asintóticos anteriores se recuperan fácilmente haciendo uso de


dicho desarrollo y de que ^ 2(1) = tt^/6. En conclusión, los resultados (14.7) y
(14.13) resuelven exactamente el gas ideal de Bose-Einstein en dimensión dos.

14.3. Gas ideal de fermiones


14.3.1. P o ten cia l quím ico d e los ferm iones
Igual que en la sección anterior, empezaremos por resolver la integral de
(N) para a = 1, usando (14.1) y (14.3), mediante el cambio de variables
y = e-^-:

=Ií - ^ -
De aquí obtenemos el valor exacto de z:
1 1

z f . d ÍT, >1, {N)) = - 1, (14.16)

y por tanto el potencial químico es:

(mf- d = k e T h i ( e ^ W / 9 _ . ( 14.17 )

Estos resultados pueden compararse con los correspondientes a bosones, (14.7)


y (14.8).
Los límites de altas y bajas tem peraturas son:
■ A bajai tem paraturas {P muy grande) domina la exponencial:

z f - d ÍT, a , {N)) ~ (14.18)

qu6 es fuertemente creciente. El potencial químico es:

^i f - d {T 0) = Um k B T ] n z ^ = fi{0). (14.19)
T—^0 Q

Hemos despreciado correcciones del tipo que son exponencial­


mente decrecientes. La cantidad /x(0) se denomina energía del nivel de
Fermi,

■ A tem peraturas altas ¡3 es muy pequeña y podemos desarrollar la expo­


nencial y quedarnos con el primer término:

zf- d { T ,A ,{N })~^. (14.20)

Este resultado coincide con el del gas ideal clásico.

El comportamiento de zf - d {T) se presenta en la figura 14.1, donde se compara


con el gas de bosones y el gas ideal clásico.

14.3.2. C o m p o rta m ien to a sin tó tico d e la energía


El cálculo de la energía media es diferente del caso de bosones y lleva un
poco más de trabajo. Antes de presentar la solución exacta, de interpretación
poco transparente, veamos cómo puede cídcularse aproximadamente. Primero
hay quediscutir el comportamiento del valor medio del número de ocupación
del estado de energía e en función de la tem peratura, dado por (5.82) con
« = l:

que suele llamarse distribución de Fermi-Dirac.


En r = O esta distribución es:
1
= 0(^c(O)-e), (14.22)
T=0

donde 6(/J>(0) —e) es la función escalón, que vale 1 para energías por debajo
de /i(0) y O para energías mayores que ^(0). Este comportamiento nos da un
significado físico para la energía del nivel de Fermi, /x(0). A T = O todos los
estados por debajo de /z(0) están ocupados y todos los estados por encima de
/i(0) están desocupados.
\
\
\
\
\
\
0.5
\
\
\
\
\
\s
_
^i(0)
e

Figura 14.2: Representación del valor medio del número de ocupación (o distribución de
Fermi) pai'a T = O (línea a trazos) y T > O (línea continua), ecuación (14.21).

Para tem peraturas finitas el escalón se suaviza (figura 14.2). La idea básica
del cálculo a tem peraturas bajas es hacer un desarrollo alrededor del caso T =
0. Mediante manipulaciones en la integral (14.2), ahora con a = 1, podemos
escribir el valor medio de la energía en la forma:

rde (14.23)
’ +r - o + r ÍSPÍITT'
Hasta aquí no hemos hecho aproximación alguna. Obsérvese que el primer
término es la energía media a T = 0. Si hacemos ahora el cambio —/?(e—/x) = x
en la integral del medio, su límite inferior lo aproximamos por j3¡i oo, y
hacemos el cambio P{e — ¡jl) = x en la última integral, obtenemos:
2 í°° X /
{E)(T,A,z)=g

2 6(3'^
donde hemos hecho uso de la hitegral tabulada:

f X
1+
,
---------d x = — .

La aproximación /3^ —^ oo nos sitúa en el límite de bajas temperaturas. Con


7T^
12

esta expresión para la energía, y el valor de /i obtenido en (14.17) resolvemos


(14.25)

el problema, pero despreciando correcciones exponenciales.


Esta técnica puede usarse en dimensión tres, y es la base del llamado
desarrollo de Sommerfeld en potencias de k s T [Pat96].
Los límites de (E) a bajas y altas tem peraturas pueden obtenerse fácil­
mente:

■ La energía media a bajas tem peraturas se obtiene sustituyendo /x = /¿(0)


en (14.24):
{E){T, A, (N)) = ^ + (14.26)

Si comparamos esta expresión con (14.11) correspondiente al gas de


bosones, encontramos que el segundo término es el mismo. Sin embargo
ahora tenemos una energía no nula a T = O, correspondiente al estado
fundamental de los fermiones. Debido al principio de exclusión de Pauli,
en el estado fundamental del gas de Fermi los fermiones ocupan estados
monoparticulares de energía creciente, desde O hasta la energía del nivel
de Fermi /x(0).
Dada la dependencia cuadrática de la energía en la tem peratura podemos
constatar que la capacidad calorífica a área constante es lineal en T. Se
puede demostrar que este comportamiento Uneal es independiente de la
dimensión del sistema. Dicha dependencia se observa experimentalmente
en metales y domina, a muy baja tem peratura, sobre el comportamiento
debido a las vibraciones de la red.

■ En el hmite de altas tem peraturas z es muy pequeño y podemos repetir


el cálculo de la sección anterior, que llevó a (14.12):

~ gz ee-^^de = g = (N)kBT. (14.27)

Obtenemos el resultado correspondiente al gas ideal clásico en d = 2.

14.3.3. C álculo ex a cto d e la energía


La expresión para z ya la calculamos exactamente en (14.16). Pai a calcular
la energía media partimos de la ecuación (14.23) y hacemos el cambio de
variables y =

(14.28)

donde la función L 2 [z) ya fue definida en (14.14) para un dominio l^l < 1.
Sin embargo, como que ahora O < z < oo, necesitamos extender L 2 {z) a este
nuevo dominio. P ara ello hay que usar la siguiente fórmula de prolongEición:

L2Í-Z) = -L2 ( - i ) - \ ln2(^) - > 1. (14.29)

Mediante esta expresión es fácil recuperar los resultados asintóticos ya obtenidos.

14.4. Ecuaciones de estado


A partir de la expresión general (4.22) de la colectividad macrocanónica, y
su aplicación a las estadísticas cuánticas, (5.88), particularizadas a dimensión
dos, podemos escribir:

= In Q = i ^ In ( l -h a z 9 {e)de, (14.30)

y mediante una integración por partes, obtenemos que la ecuación de estado


en función de la energía media, en d = 2, tiene la siguiente forma:

pA = {E) , (14.31)

donde p es ahora la correspondiente presión bidimensional.


Para entender mejor el comportamiento de los gases cuánticos vamos a rep­
resentar la misma isoterma para cada uno de ellos. El problema está en que
tenemos demasiados parámetros y para ehminarlos hay que escoger algún pun­
to de referencia que nos perm ita usar variables adimensionales. El número de
partículas de referencia será el numero de Avogadro y como energía de ref­
erencia tomaremos la correspondiente al estado fundamental de los fermiones.
Esto permite definir una tem peratura T r y una presión pR de referencia:

Con estas definiciones la ecuación de estado de im gas ideal clásico bidimen­


sional, pA = (JV)A:flT, queda:

IIaí-b^^ = T, (14.33)
donde II = p / p r , t = T / T r , uj = u'/v/j, con v' = A !{N ) y u« = A/N a-
Usando esta misma prescripción la ecuación de estado del gas de bosones
es: 2
nB -£ = y ¿ 2 ( l - e - 2 / ~ ) , (14.34)
y la del gas de fermiones es:
co

Figura 14.3: Isotermas (r = 2) de los gases ideales cuánticos y su comparación con el gas
ideal clásico (línea continua), en (¿ = 2.

En la figura 14.3 podemos ver la misma isoterma (r = 2) para cada uno


de estos tres gases ideales. La isoterma clásica queda entre las dos cuánticas, y
puede verse claramente que coinciden para uj grandes, lo que equivale a densi­
dades muy pequeñas. Además vemos que los fermiones a alta densidad sopor-
tán presiones muy elevadas debido al principio de exclusión de Pauli, mientras
que los bosones tienen una presión mucho más peqüeña que el gas ideal clásico.
Las isotermas a otras tem peraturas mostrarían un comportamiento cualitati­
vo muy semejante. En dimensión tres el comportamiento de los bosones es
cualitativamente diferente, y se estudiará en el capítulo siguiente.

14.5. Ejercicios

■ Demostrar que en d = 3 todos los gases ideales cumplen p V = (2/3)(£?),


independientemente de su estadística. Encontrar la expresión correspon­
diente para d = 1 y d = 2.

■ Estudiar un gas de fermiones ultrarrelativistas (por ejemplo neutrinos)


cuyas energías monoparticulares verifican e = cp, donde c es la velocidad
de la luz en el vacío y p es el módulo del momento lineal.
■ Demostrar que un gas ideal en d = 3 verifica:

< O en la estadística de B-E


N K bT
V - = O en la estadística de M-B
> 0 en la estadística de F-D.

Ayuda: expresar el gran potencial en función de (rij).

■ Comprobar los resultados asintóticos (14.26) y (14.27) a partir de la


solución exacta (14.28).
Capítulo 15
CONDENSACIÓN DE BOSE-EINSTEIN

15.1. ¿Qué es y cómo aparece la condensación?


Este ea un fenómeno macroscópico muy interesante, debido únicamente a
ia coherencia cuántica entre bosones. El hecho de que a tem peraturas bajas
los bosones tiendan a ocupar el estado fundamental provoca su condensación,
no ya en el espacio de posiciones, como un líquido normal, sino en el de mo­
mentos. La velocidad de las partículas se reduce enormemente y a la vez se
hace imposible localizarlas. Este resultado fue predicho por Einstein en 1925,
y desde entonces se le consideraba una curiosidad académica, inobservable de­
bido a la tem peratura extraordinariamente baja a la que debía aparecer. Las
nuevas técnicas de obtención de bajas tem peraturas, mediante enfriamiento de
átomos con láser, han permitido alcanzar tem peraturas tan bajas (del orden
de 10"^ K) que la condensación de Bose-Einstein ha podido observarse por
primera vez en 1995.
A continuación exponemos los elementos básicos que permiten entender
este fenómeno y el porqué de su aparición en tres dimensiones.
Partiremos de las expresiones generales deducidas en el capítulo 5 (ecua­
ciones (5.89) y (5.90)), con a = -1 :

( g ) ( T , V , . ) = j r ^ - , ^ - l P(,)Jc. (15.2)
La función g{£) correspondiente a dimensión tres es (A.32):

9Í£) == (15 3)

donde gs es la degeneración del spin de las partículas bosónicas y es el


volumen del sistema.
Empecemos por el estudio de la ecuación (15.1) para (N). El segundo
sumando es elvalor medio del número de bosones en el estado fundamental
(^ 0 = 0 );
de donde podemos despejar

z= (15.5)
l + {NoY

Aquí podemos ver que z 1 siempre que tengamos una cantidad macroscópi­
ca de bosones en el estado fundamental, aunque ésta sea una fracción muy
pequeña del número de Avogrado N a ^incluso inobservable experimentalmente.
El número medio de bosones en los estados excitados será en consecuencia:

(N,) = (N) - {No) = g{e) ds, (15.6)

donde hemos eliminado el 0"^ del límite inferior de la integral porque g{€) hace
que el integrando sea nulo en £■= 0. Haciendo el cambio /3e = x resulta :

V 2 ^1/2 Y
" Á 3ÍÍ7 2 io J3 93/2Í^), (15.7)

donde la función gs/ 2 {z) queda definida por la propia integral. E sta función es
un caso particular de las funciones de Bose-Einstein, definidas por:

La variable A es la longitud de onda térmica de De Broglie ya bien conocida:

A=
1.2_ y\ 1/2 (15.9)
^gs2'KmkBT J

P ara la energía media, dada por (15.2), tenemos análogamente:

{E) = ^ k B T ^ g , / 2 Í z ) , (15.10)

y por lo tanto, usando (5.91), la ecuación de estado es:

P _ 95/2Íz)
kB T A3 · ^ ^^

Estos resultados completan el estudio de los bosones, pero es necesario un


análisis detallado para ver qué fenómenos físicos interesantes se deducen de
ellos.
Para z = 1 podemos calcular numéricamente ^'3/2(1) = 2,612... Además
la función ^3/ 2(2^) es monótona creciente en el dominio de z, O < 2: < 1, por
lo que éste es el valor máximo que puede alcanzar. Por tanto tenemos que
A una tem peratura dada, T, el nùmero de bosones en los estados excitados
eñtá. acotado luperiormente :

(N,{T,Z)) < {iVe(T,z = 1)> = J 5 3 /2 (1 ). (15.12)

Si el número de bosones en el sistema a tem peratura T supera esta cota,


condensan bosones en el estado fundamental ya que no son aceptados en los
estados excitados.
Alternativamente, podemos suponer que el número de bosones en el sistema
está fijado al valor y que la tem peratura disminuye gradualmente, hasta
que a una tem peratura Te se alcanza la cota anterior:

N = {N ,{T ,,z = l)). (15.13)

Por debajo de Te el número de bosones en el sistema es mayor que el número


máximo de bosones que pueden encontrarse en estados excitados:

N > { N , { T , z = l)), T< Tc. (15.14)

La diferencia, que es mayor a medida que la tem peratura disminuye, condensa


al estado fundamental.
Teniendo en cuenta que el número de bosones en estados excitados viene
dado por (15.7), la condición (15.13) puede reescribirse en la forma:

N _ ff3 /2 (l)
K “ A3(Te) ’ ^

que define una tem peratura Te para cada densidad N / V del gas. La presión
del gas en estas condiciones se obtiene de (15.11) con z = 1:

= (15.16)

Esta ecuación define, en el diagrama p-T , la llamada curua de coexistencia del


vapor y el condensalo. Del mismo modo, combinando (15.15) y (15.16), queda
definida la curva de saturación del vapor en el diagrama p-v (con v = V/iV),
por debajo de la cual existe fase condensada en equihbrio con fase vapor (zona
de coexistencia) y por encima de ella únicamente vapor.

15-2. Coexistencia de fases e isotermas


Es difícil hacerse una idea de lo que representan las expresiones anteriores
sin representarlas gráficamente, pero ello no es simple debido a la presencia
de m ultitud de parámetros. La idea básica es encontrar unas expresiones adi­
mensionales de p, V y T . Ello se consigue fijando un punto de la ecuación
de estado, {pr, vr, T r ), que nos permita definir unas variables adimensionales
(n ,a ;,r) = ( p / p r , v / v r , T / T r ) , Como la ecuación de estado de este problema
no tiene un punto privilegiado tendremos que hacer una elección arbitraria.
Tomaremos como punto de referencia un punto de la curva (15.15). Fijai’emos
el volumen total V = V r y el número total de partículas a un mol, N =
La tem peratura de referencia T r quedará fijada por dicha ecuación. Así pues:
3/2
/l2 1
= Vr =
Na ^gs2TrmkBTRj ^3/ 2(1) ' (15.17)

Esta expresión nos permite despejai' las constantes que queremos evitar:

Es de utilidad expresar en estas nuevas variables:

/ ,.2 \ 3/2
(15.19)

y así la expresión (15.15) adopta una forma adimensional simple:

= -r-3/2 (15.20)

El valor de pn se obtiene de la ecuación (15.16), imponiendo que % = T r , o


sea r = 1:

93/2 W

Dividiendo (15.16) por pR obtenemos la versión adimensional de la curva de


coexistencia:
Uc = (15.22)
Ehminando Tc de estas dos últimas ecuaciones obtenemos la expresión de la
curva de saturación del vapor en las variables II y w:

Hco;®/^ = 1, (15.23)

que podemos ver representada en la figura 15.1. Las ecuaciones anteriores


definen el comportamiento del sistema en variables adimensionales. A contin­
uación estudiamos dicho comportamiento tanto fuera como dentro de la zona
de coexistencia.
CD

Figura 15.1: Diagrama de fases del gas de Bose. La hnea a trazos es la curva de saturación
del vapor. Las líneas gruesas corresponden a dos isotermas distintas del gas ideeü de bosones
y la línea fína a la isoterma r = 1 del gas ideal clásico. La línea vertical corresponde al corte
representado en la figura siguiente.

Zona de la fase vapor. Por encima de la curva de saturación del vapor


tenemos únicamente fase vapor. Si dividimos la ecuación (15.11) por
dada por (15.21), y la ecuación (15.7) para v = V/{Ne) = V / N por
(15.17), obtenemos:

u - ^-3/2g3/2(l) (15.24)
55/2 (1 )’ 5 3 /2 (^ )’

que eliminando 2; nos permite determinar la ecuación de estado de la


fase vapor.
Estas ecuaciones son universales, pues bastaría la tabulación numérica
de las fimciones ^3/2(2^) y ^5/ 2(2) sobre el intervalo O < z < Ì para
obtener cualquier isoterma. Dos de esas isotermas aparecen dibujadas
en la figura 15.1.
Tiene cierto interés comparar estos resultados con h\s isotermas del gas
ideal clásico en esta representación. Consideremos la isoterma clásica
para una tem peratura T = T r , o sea r = 1. La ecuación de estado del
gas ideal clásico, jru = ksTR, se divide por pR y se obtiene:

^3/ 2(1)
^5/ 2(1)
isoterma que podemos ver representada en la misma figura 15.1. Se apre­
cia que esta isoterma está muy por encima de la isoterma r = 1 del gas ele
Bose. Debido a los efectos de coherencia cuántica los bosones se atraen,
y eso hace que la presión se reduzca drásticamente.

■ Zona condensado-vapor. Corresponde al interior de la zona de coexis­


tencia. Alh 2 = 1, y por tanto la presión es la correspondiente al punto
de corte de la isoterma del gas con la curva de saturación del vapor. Por
tanto, en toda la zona de coexistencia:

n = (15.26)

E sta presión es independiente de a; y por ello la isoterma es horizontal


en esta zona, tal y como aparece en la figura 15.1.

La transición entre la fase condensado de Bose-Einstein y la fase vapor


es de p rim e r orden y no acaba en ningún punto crítico. A la izquierda de la
curva de saturación del vapor aparece la fase condensada de B-E. Esta ha de
tener necesariamente volumen específico nulo, (jjq = O, pues la isoterma acaba
en ese punto. Puesto que la transición es de primer orden podemos calcular
su calor latente usando la ecuación de Clausius-Clapeyron escrita en variables
adimensionales:
7 ^ = - 7 —^----- X· (15-27)
áre Tc{u)c - ^0)
Usando las expresiones anteriores, con cjq = O, obtenemos que el calor latente
es:
I= L ·, e = epRVR = k B T c ^ ^ ^ = i m - - - k B T c . (15.28)
2 ^3/2(1)
en las variables adimensionales y en las variables naturales, respectivamente.
En vez de usar la representación de las isotermas podríamos fijar iV y
y , y variar la tem peratura, para ver cómo evoluciona la fracción condensada
{Nq)/N. Suponiendo que N = Na y V = V r , este proceso corresponde a
movernos sobre la línea vertical de la figura 15.1. Como dicha línea pasa por
el punto de referencia, tenemos que Tc = T r . El número relativo de bosones
en el estado fundamental se puede expresar como:

{No) ^ 1 M , _ {N,{T,Z
(Ne{T,Z = 1))
l)) _ , /^T^3/2 ,/^Γ^3/2
Na Na {N¿To,z = l)) \T j
{No) = O, r > Tc. (15.29)
Na
Vemos en la figura 15.2 que a medida que la tem peratura disminuye por
Figura 15.2: Fracción relativa de bosones en el estado ^ondensado como función de la tem­
peratura.

debajo de Te aum enta rápidamente la fracción de bosones condensados en el


estado fundamental.
En dimensión dos no hay posibihdad de condensación pues se puede de­
m ostrar que la cantidad (Ne) no está acotada, y los bosones se concentran en
el estado fundamental únicamente a T = 0.
Recientemente la condensación de Bose-Einstein se ha podido observar
experimentalmente. Unos 10*^ átomos de ^'^Rb se han podido confinar en una
cavidad magneto-óptica y enfriar hasta unos 20 nK, mediante un proceso de
evaporación. El fenómeno de la condensación se observa claramente en la fun­
ción de distribución de las velocidades de los bosones. Si no hay partículas en el
estado fundamental la distribución es una gaussiana (distribución de Maxwell).
Al enfriarse por debajo de T ^ muchos bosones pasan al estado fundamental
de velocidad nula (e = 0) y la distribución de velocidades exhibe un máximo
en i; = O, mucho más pronunciado que el de una distribución gaussiana.

15.3. Ejercicios
■ Comprobar que {Ne{T, z)) no está acotado en d = 2.
Parte III
APÉNDICES
Apéndice A
COMPENDIO DE FUNDAMENTOS FISICOS

Vamos a repasar aquí la física de algunos sistemas simples. En el marco de


la física estadística, estos sistemas serán los constituyentes elementales de los
sistemoB macroscópicos objeto de estudio en este curso.

A .l. Mecánica clásica


Los elementos de mecánica clásica que se necesitan en física estadística
son principalmente dos: el hamiltoniano del sistema y las variables canónicas
conjugadas que lo describen. El hamiltoniano es una función continua de estas
variables, que están definidas en un cierto dominio.
Si bien pueden sacarse resultados formales de la dinámica hamiltoniana
de N partículas que son útiles en la construcción formal de la mecánica es­
tadística, como por ejemplo el teorema de Liouville, estos resultados tienen
poco Ínteres práctico y por tanto no entraremos en ellos.
Por el contrario, sí que es necesario conocer las variables de cada sistema,
su dominio de definición y el hamiltoniano. Pasamos a exponer algunos casos
de interés que luego se utihzarán.

A .1.1. P artícu la s lib res


Las variables canónicas conjugadas de una partícula hbre de masa m en un
espacio de tres dimensiones son (p®, x), (Py,y) y (pz,^)y donde p = (px^Py^Pz)
y q = (x, y, z) son las representaciones cartesianas de los vectores momento
lineal y posición de la partícula, respectivamente. El hamiltoniano se escribe
como:
W(P> ¿
Para una partícula relativista tendríamos:

W(p.q) = ^Jm^é + c^ijpl+p^+pl). (A-.2)


Los momentos toman valores en el dominio (—00, 00), y las posiciones en el
dominio (0,L), correspondiente al volumen V = donde se encuentran con­
tenidas las partículas.
El elemento de volumen correspondiente a un estado (p, q) de una partícula
se obtiene de dividir el elemento de volumen en el espacio fásico, S p S q , por
el volumen elemental de un estado, Esta elección está justificada en el
capítulo 2. Así, si consideramos la energía de la partícula entre e y s + ck, el
número de estados compatibles es:

g{p)d^p = (A.3)

donde hemos integrado d?q sobre todo su dominio en el espacio de las fases, que
nos da el volumen V del sistema. Si además pasamos a coordenadas polares e
integramos la parte angular, obtenemos que el número de estados con módulo
del momento lineal entre py p H- dp, para una partícula libre,viene dado por:

g{j))dp = ^iTtp^dp. (A.4)

La generalización de este resultado a dos y una dimensiones, respectivamente,


es:
L
9ÍP)dp = ■j^2-Kpdp, g(p)dp = - 2 d p . (A.5)

En todos los casos, la variable p recorre el dominio (O, oo). La función g{p) se
conoco como densidad de estados.

A . 1.2. O scilador arm ónico


Las vai’iables canónicas conjugadas de un oscilador aiinónico en tres di­
mensiones son las mismas que en el caso anterior. El hamiltoniano es:

donde u; es la frecuencia del oscilador. Tanto momentos como posiciones toman


valores en el dominio (-o o , oo).
En este caso momentos y posiciones juegan el mismo papel, y basta tener en
cuenta únicamente el elemento de volumen del espacio fásico de una partícula
para obtener que el número de estados con q € (q, q + dq) y p G (p, p + dp)
es:
íí(p, q)d^g S p - ^ d ^ q d^p. (A.7)

La particularización de estos dos primeros ejemplos a una y dos dimensiones


no presenta dificultades.
A . 1-3. P én d u lo esférico
Consideramos una pai tícula de masa m en el extremo de una varilla sin
masa y de longitud que gira alrededor del otro extremo, qué está fijo. Las
variables son aliora los momentos angulares y sus ángulos respectiv^oá: (pojO)
y (P(pi^)· El hamiltoniano es [Sym65]:

W{P(9, P<A. ¿ (pe + -m gcos0, (A.8)

donde I es el momento de inercia I = El dominio de cada uno de los


momentos es ( - 00, 00), el del ángulo 6 es (0,7t) y el del ángulo (j) es (0,27t).
El número de estados microscópicos contenidos en un elemento de volumen
del espacio fásico de la partícula viene dado por:

g{Pe,P<f>y O, (f)) dpe dp^ dd # = ^ d p e dp^ sinO dO dcf>. (A.9)

A .1.4. S istem a d e dos p a rtícu la s en interacción


Una molécula diatómica es un ejemplo típico de sistema de dos partículas
en interacción. E stá formada por dos átomos, de masa ttia y ligados
por un potencial de interacción V. Supondremos que V depende únicamente
de la separación interatómica, con lo cual el hamiltoniano que describe el
movimiento del sistema tendrá la forma:

Como es habitual en el problema de dos cuerpos en interacción, efectuamos


un cambio de coordenadas para separar el movimiento de traslación del centro
de masas de la molécula del movimiento de los átomos respecto al centro de
masas:

coordenada del centro de masas: R = , (A. 11)


rriA + mB
coordenada relativa: r = T A - r^· (A.12)

En este sistema de coordenadas:

H = Í M R 2 + i/.f2 + y (r ), (A.13)

'^T ra s '^re l
donde:

M = niA -H niB es la masa total de la molécula, (A.14)


/jl = ------------- recibe el nombre de masa reducida. (A. 151
rriA + TnB
En el hamiltoniano de la molécula, el término Hrras es la energía cinética de
traslación del centro de masas. Los términos Hrei dan cuenta de la energía
asociada a los grados de libertad internos (de rotación y vibración).
Si escribimos el vector momento lineal en coordenadas esféricas, tenemos:

f , r ^ p = p ,é r + ^ é e + ^ é ^ = +3 +
con lo cual: ^

Ahora bien, el momento angular se define como L = r x p, y por tanto se


cumple que:
2
= (r X p)^ = r2p2 - (r · p)^ =Pe + (A.18)
sin u
con lo cual: ^ ^

Esta expresión del hamiltoniano Hrei es igualmente válida cuando el movimien­


to de las partículas se describe en el marco de la mecánica cuántica.
La densidad de estados a considerar para el hamiltoniano Tírei es la gen­
eralización de (A.9) con r variable:

9ÍJPr,'PeiP<í>\'^^ (t>) dpr dpedp^dr dd d<¡) = ^ dprdpedp^r^ sixíOdr dO d(¡>.


(A.20)

A .2· Mecánica cuántica


Al nivel de fundamentación de este libro, basta que el lector esté familiar­
izado con el hecho de que la energía de una partícula o subsistema elemental
está cuantizada. La forma de esta cuantización la proporciona la mecánica
cuántica. Aquí pondremos algunos ejemplos, de particular utilidad en física
estadística. P ara otros casos habrá que consultar un Ubro de mecánica cuánti­
ca [Ind88, GP89].
Apendle« A. Oütiip«ndlo dt fundamentos físicos 191
r
A .3.1. P artícu la Ubre en una caja cúbica d e lado L
El hainlltonliino cuántico de una partícula libre de masa m encerrada en
una caja en trea dimensiones es análogo aJ hamiltoniano clásico (A.l):

n = (A.21)
2m ^ 2m ' '
Las soluciones de la ecuación de Schrödinger correspondiente son ondas planas:

4- = (A.22)

que se propagan en la dirección definida por el vector de ondas k. La parte esta­


cionaria V^(r) es solución de una ecuación de ondas independiente del tiempo
de la forma:
- | ^ V V = eV’· (A.23)

La energía e y el momento lineal p de la partícula vienen dados por:

(A.24)
p = ftk, (A.25)

de manera que:

' = lír · (*·“ )


La solución exphcita de la función de onda es:

V>(r) = AsmkxX · sinkyy · sinkzZ. (A.27)

Al imponer sobre la función de ondas ^ las condiciones de contorno correspon­


dientes a una caja cúbica de tamaño lateral (O, L) se encuentra que solamente
ciertos valores discretos de k son admisibles. Ello conlleva la cuantización de
los niveles de energía traslacionales de la partícula:
^21^2
e{nx,riy,nz) = k = ^ (ria:,nj„n^), rii = 1 , 2 , 3 . . . (A.28)

Los niveles de energía traslacionales están degenerados, ya que diferentes es­


tados (definidos por los números cuánticos (nx,ny,n¿;)) poseen una misma
energía. Para calcular ladegeneración de cada nivelobservemosque, para
tamaños grandes delsistema, los valores posibles de las componentes del vec­
tor de ondas k (estados permitidos para la partícula) son muy numerosos en
un intervalo de energía dado. Este hecho permite hacer un paso al continuo
pai’a calcular la degeneración del nivel e (número de estados distintos con en­
ergía e). En el continuo la degeneración se denota por g{e)de, y la función g{e)
se conoce como densidad de estados traslacionales.
A la vista de la ecuación (A.28), el volumen del espacio k ocupado por
cada estado permitido es (tt/L)^, por io que el número de estados k distintos
entre k y k + íZk puede escribirse como:

(A.29)

donde d^k = dkxdkydkz es el elemento de volumen en el espacio k, y el


dominio de cada componente ki se extiende ahora a (—00, 00) en vez de (O, oo)
de la Ec. (A.28). Este aumento del dominio del espacio k se compensa con el
factor (1/2)^.
Incidentalmente, de este resultado se comprueba que el número de estados
con momento lineal p entre p y p + dp viene dado por:

al igual que obtuv^imos para una partícula libre clásica, ecuación (A.3).
El número de estados con módulo del vector de ondas entre k y k + dk se
obtiene de (A.29) considerando d^k en coordenadas esféricas e integrando las
partes angulares. Así:

g{k)dk = ink'^dk. (A.31)

Usando la ecuación (A.28) para efectuar un cambio devariables, es fácil ver


que la densidad deestados traslacionales correspondiente ala energía e viene
dada por:

í L \ ^ , 2me 1 , 2nL^ , 3/0 ./o,


«W * ‘^ = - 55- (2” ·) ' ' ' (A 32)

En elcaso de una partícula confinada a moverse endos dimensiones ten­


dríamos, de forma análoga:

g{k)d^k= (^^y (A.33)

g{k)dk = 2irkdk, (A.34)

y por tanto:
r2
Finalmente, para una partícula confinada a moverse en una dimensión ten­
dríamos:
(A.36)

g{k)dk = 2dk, (A.37)

y por tanto:
g{e)(ÍE = Y (2m)^/^ (A.38)
íl
En estas expresiones tanto k como e recorren el dominio (O, oo). Es destaca-
ble que la densidad de estados depende fuertemente de la dimensionalidad del
sistema. La densidad de estados va como como una constante, y como
en tres, dos y una dimensiones respectivamente. Este hecho tiene una
profunda repercusión en las propiedades macroscópicas de los sistemas con­
stituidos por partículas libres, propiedades que resultan también fuertemente
dependientes de la dimensionalidad del sistema.
Conviene recalcar de nuevo que las densidades deestados de una partícula
hbre, g(p) y g{e), son exactamente iguales en mecánica clásicay en mecánica
cuántica.

A .2.2. P artícu la lib re u ltra rrela tivista


Consideremos ahora el caso de una pai tícula Hbre ultrarrelativista, descrita
por el hamiltoniano (A.2) en el hmite cp » mc^. La masa en reposo de la
partícula es despreciable, y la energía y el momento lineal vienen dados por:

£ = cp = fmj con uj = ck (A.39)


p = ñk con k = y (nx,ny,Ti;í), rii = 1 , 2 , 3 . . . (A.40)

La densidad de estados en el espacio de momentos es idéntica al caso de una
partícula libre con masa (ecuaciones (A.31), (A.34) y (A.37)).
Sin embargo, dado que ahora:

£ = chk, (A.41)

la densidad de estados en energías, en tres dimensiones, viene dada por:

en dos dimensiones por:


y en una dimensión por:
2L
9Í^)d£ = - ^ d e . (A.44)

Vemos que, a diferencia del caso de la partícula libre con masa, la dependencia
en e de g{e) va como como c, y como una constante, en tres, dos y una
dimensiones respectivamente.

A .2.3. O scilado r arm ónico trid im en sio n a l


El hamiltoniano es el mismo que en el caso clásico (A.6), pero los valores
posibles de la energía están cuantizados:

s{rix, Uy, Uz) = hüj , n, = 0 , 1 , 2 .. . (A.45)

Las expresiones correspondientes a una y dos dimensiones se obtienen sin


dificultad de la anterior.
La degeneración es fácil de calcular en función de la dimensión. Dado que la
energía es sólo función de iV = n i -h n^, tenemos los siguientes resultados:

1-d g{N) = 1 (A.46)


2-d g{N) = N - h l (A.47)
3-d 9{N) = ^ { N + 1){N + 2) (A.48)

Supongamos ahora un sistema de M osciladores armónicos unidimension­


ales. La energía del sistema será:

fujJ
E = ñüij{ni-\-n2-\------- l· tim) H- (A.49)

La correspondiente degeneración no es más que el número total de conjuntos


de M números naturales que sumen n i + n 2 + . . . H- tim = N, ya que la energía
puede escribirse como E = {N + M/2)huj. Este problema está resuelto en el
apéndice de probabilidad, y el resultado es:

(iV + M - 1 ) ! E M
w (A f-i)i ■ “ “ <*■“ >

Las ecuaciones (A.47) y (A.48) se pueden obtener como casos paiticulares de


este resultado, considerando M = 2 para un oscilador en 2-d, y M = 3 para
un oscilador en 3-d.
A .3 . E le c t r o m a g n e t is m o

A .3.1. P artícu la con m o m en to d ip o la r en p resen cia d e un


cam po ex tern o
Supongamos una partícula con momento dipolar magnético ^ en presencia
de un campo magnético H . El hamiltoniano de interacción, tanto clásico como
cuántico, es:
n = -fjiK , (A.51)

Clásicamente se interpreta como:

n{e,(t>)==-fiHcose, (A.52)

donde el ángulo 0 se define en el dominio (0,7t), como en el caso del péndulo


esférico. El elemento de volumen del espacio fásico es:

Qmeded(¡>. (A.53)

Cuánticamente tenemos que la energía queda discretizada en un número


finito de niveles:

s{s) = fjLBH ttI j con m = —s, —5 -f 1, · · ·, s —2, s —1 ,5. (A.54)

ql, esel factor de Landé, es el magnetón de Bohr, y la variable m puede


ser un número natural o semi-impar. La degeneración es fácil de obtener:

p(5) = 2 5 + 1. (A.55)

El problema de una partícula con momento dipolar eléctrico, que se orienta


en presencia de un campo eléctrico externo, es completamente análogo.

A .3.2. O ndas electro m a g n ética s en una cavidad. F otones


Consideramos ahora una cavidad de volumen V = que contiene ra­
diación electromagnética en equilibrio a una determinada tem peratura.
Desde un punto de vista clásico se considera la radiación como un conjunto
de ondas electromagnéticas estacionarias. La ecuación de ondas para el campo
electromagnético es:
= ’ "E, (A.56)

y sus soluciones son ondas planas del tipo:

E = = Eo(r)e-*‘^‘, (A.57)
donde A es constante y el vector k indica la dirección de propagación de la
onda electromagnética asociada. La relación de dispersión es:

LJ = kc, (A.58)

donde c es la velocidad de la luz en el vacío. La parte estacionaria de la onda


satisface:
V^Eo + fc^Eo = O, (A.59)
que es análoga a la ecuación (A.23) para la partícula libre. Por tanto, así como
para la partícula libre ha.y un número discreto de estados permitidos, deduci­
mos que las ondas electromagnéticas estacionarias en la cavidad corresponden
a números de onda k dados por:

k = ~ {p>x·) n.^), Tij = 1 , 2 , 3. . . (A.60)

La dependencia en 1/L hace que para una cavidad de volumen grande (macroscópi­
co) los valores permitidos de k se puedan tratar como un continuo. Dado que
las ondas estacionarias permitidas en el espacio k se corresponden exactamente
con los estados permitidos de una partícula Ubre, tenemos por comparación
con (A.31):
g{k) dk = 2 (A.61)

El factor 2 se debe al hecho de que para cada dirección de propagación k


do las ondas electromagnéticas hay dos modos de vibración independientes,
correspondientes a dos estados de polarización transversal. Las ondas elec­
tromagnéticas no admiten estados de polarización longitudinal. Teniendo en
cuenta la relación de dispersión (A-58), el número de modos de vibración per­
mitidos entre cj y u d u viene dado por:
^3
g{ij) duj = u? du, (A.62)

que se conoce como relación de Rayleigh.


Desde un punto de vista cuántico, la radiación electromagnética en la cavi­
dad es un gas de quanta de energía denominados fotones. Este punto de vista es
debido originalmente a Bose (1924). Los fotones son cuasipartículas idénticas,
de spin 1, relación energía-momento hneal ultrarrelativista y masa en reposo
nula. La energía y el momento lineal de un fotón vienen dados por:

£ = cp = hüj con u = ck (A.63)


p = ñk con k = y (nx ,ny ,n¿ ), ni = 1 , 2 , 3. . . (A.64)
L
El número de estados permitidos en el espacio k es el mismo que obtuvimos
para una poi'tícula libre. Por tanto, en el continuo, la densidad de estados
permitidos para el fotón es directamente, por comparación con (A.31):
/ r \ 3
g(k)dk = 2 [ — \ dk. (A.65)
VZTT/
Desde el punto de vista cuántico, el factor 2 extra da cuenta de los dos posibles
estados de polarización del spin del fotón. Finalmente, teniendo en cuent i la
relación de dispersión uj ^ ck, obtenemos que el número de estados permitidos
para un fotón con frecuencia angular entre uj y uj duj viene dado por:

g{uj) duj — duj. (A.66)

Nótese que las ecuaciones (A.65) y (A.66) corresponden exactamente a los


resultados clásicos (A.61) y (A.62), si bien su interpretación es diferente.

A.4· Vibraciones atómicas en sólidos. Fonones


Consideremos ahora las vibraciones de los átomob en un sólido cristalino
ideal. En un sólido ideal la interacción entre los átomos se limita a los primeros
vecinos y el potencial de interacción es armónico (cuadrático en los desplaza­
mientos). Por tanto el comportamiento vibracional de un sólido ideal formado
por N átomos, en tres dimensiones, corresponde al de un conjunto de 3iV
osciladores armónicos unidimensionales, acoplados a primeros vecinos.
En mecánica clásica [Sym65] se demuestra que el hamiltoniano de un sis­
tema de estas características puede reescribirse en términos de un conjunto de
coordenadas generalizadas (Pj, Qj), con j = 1, · . . , 3iV, en la forma:
3N / p2 ^ ,2 ^ 2 \

W(P.Q) = ¿ ( ^ + - ^ · (A.67)
j= l V ^ ^ /

Este hamiltoniano describe un sistema de 3N oscil£idores armónicos unidimen­


sionales desacoplados, llamados modos normales. Los modos normales no están
asociados a átomos individuales, sino que son modos colectivos de vibración
del sólido. Si consideramos cada modo normal como un oscilador cuántico, los
valores permitidos de la energía del modo de frecuencia u j j son:

€{ujj, n) = Tíujj n = 0 , 1 , 2 , 3. .. (A.68)

En un sistema macroscópico el número de átomos del cristal es muy grande


y, en consecuencia, las frecuencias de los modos normales son muy próximas.
En la práctica se puede considerar que las frecuencias se distribuyen en un
continuo. El número de modos normales correspondientes a una determinada
frecuencia uj viene dado por y(u;) da;, donde g{uj) se conoce como la densidad de
modos normales. Puesto que el número total de modos normales de vibración
en tres dimensiones es 3AT, se debe cumplir que:
•oo
^ g{u)) du = 3iV. (A.69)
L
En dos dimensiones la integral es igual a 2 N y en una dimensión a N . La
forma funcional de g{u)) depende de los detalles del modelo de sólido ideal que
se considere.

A .4.1. M o d e lo d e E in stein
La hipótesis más sencilla, debida a Einstein (1907), es suponer que todos los
modos normales oscilan con la misma frecuencia, uje· La densidad de estados
en tres dimensiones es simplemente:

g{(jj) = 3N5{uj - u e )j (A.70)

siendo 6 la distribución en delta de Dirac. El prefactor SN garantiza que se


cumple (A.69). En dos y una dimensiones los correspondientes prefactores son
2N y N respectivamente.

A .4.2. M o d e lo d e D eb ye
En el modelo de Debye (1912) el sólido ideal se aproxima por un medio
elástico continuo eisótropo. Denominamosu(r, t) aldesplazamiento respecto
de su posición de equihbrio de un punto del medio elástico considerado. De
forma general podemos escribir el desplazamiento en la forma:

u = u t + ui con V · u t = O, V x ui = 0. (A.71)

La teoría de la elasticidad muestra que los desplazamientos Ut y ui satisfacen


las ecuaciones de ondas:

V»«. - (A.T2)

V’ u, = (A 73)

Las soluciones son ondas planas de la forma:

u t( r ,í) = con w = fctCf, (A.74)


ui(r,í) = con u = k¡ci, (A.75)
donda A t y A | Bon constantes, ct y c/ son las velocidades de propagación de
las onda» elásticas (transversales y longitudinales), y dependen de la densidad
p y de la» propiedades elásticas del medio:

P
« = i ± PJ í í , (A.76)

donde ^ es el módulo de cizalla y 6 el módulo volúmico (el inverso de la


compresibilidad) del medio. Obsérvese que las velocidades de propagación son
independientes del número de ondas k, lo que indica que el medio es no dis­
persivo.
La condición V · ut = O implica kt · Ut = O, y por tanto ut representa
una onda sonora que vibra transversalmente (modo de vibración polarizado
transversalmente). Por contra, V x ui = O implica ki x ui = O, y por tanto ui
representa una onda sonora que vibra longitudinalmente (modo de vibración
polarizado longitudinalmente). Dada una dirección de propagación k, en tres
dimensiones hay dos modos de vibración transversales y uno longitudinal,
independientes.
La densidad de modos normales se obtiene de considerar que las ondas
sonoras están confinadas en el sóhdo, de tamaño V = y por tanto los
números de onda permitidos están cuantizados. Por analogía con el proble­
ma de una partícula hbre en una caja en tres dimensiones (ecuación (A.31))
tenemos que para cada modo:

g(k) dk = 47t2 k^ dk. (A.77)

Puesto que hay dos modos transversales para cada dirección de propagación
k, el número de modos transversales con frecuencia entre cj y cj + du; es:

gt{w) dw = 2 47t k^ dkt = dw, (A.78)

donde hemos usado la relación de dispersión uj = kfCt. Análogamente, el


número de modos longitudinales es:

ffi(w) dw = 47t k f dki = duj, (A.79)

donde ahora hemos usado la relación de dispersión u = k[Ci.


El número total de modos normales de vibración en el rango de frecuencias
entre u; y a; -f- dcj es finalmente:

g{ío) dw = [gí(u;) + 5¡(w)] dw = dw, (A.80)


donde la velocidad media c queda definida como:

1 = 1 + ^· (A.81)

Puesto que el número total de modos es 3N, hay una frecuencia máxima por
encima de la cual la densidad de modos es nula. Esta frecuencia máxima se
conof:e como frecuencia de Debye, u q , y se determina a partir de la condición
(A.69). El resultado es que:

/ \
=
í u;3,
si O< < UJ
= —
ÍÜD, 36 ' j t ' ^ c ^ N
(A. 82)
(o si UJ > UJd ,

La extensión de estas expresiones a una y dos dimensiones es inmediata.


En dos dimensiones hay un modo longitudinal y un modo transversal para
cada dirección de propagación k. El número total de modos de vibración en el
rango de frecuencias entre o; y a; + dcj es:
t2
g{ij) du) = [gt(w) + gi { üj ) ] dw = du = - ^ u jd iü , (A.83)
27rrr^27rc2

donde la velocidad media c queda definida ahora como:

De la condición de que el número total de modos normales en dos dimensiones


es igual a 2 AT resulta ahora:
4_/y
! ^ J 0< w < o;d 2 4;rÿJV oc\
g ( i n) - { <^D - — · (A.85)
( O si UJ > ujOi

En una dimensión, dada una dirección de propagación k, existe únicamente


un modo de vibración longitudinal. Por tanto:

g{uj) duj = ^ duj, (A.86)


TTC

donde la velocidad c corresponde a la velocidad de propagación de las ondas


longitudinales, c¿. En una dimensión el número total de modos es igual a N .
De imponer esta condición a g{uj) resulta:
( N
si O <uj <UJD TTcA/'
g{<^)={ OJD = (A.87)
lo si U J > UJD,
A .4.3, C adena lineai arm onica
El modelo de Debye trata el sòlido como un medio continuo y por tanto
ignora completamente el carácter discreto del solido a escala atomica. En esta
sección vamos a considerar un modelo microocópico sencillo que tiene en cueni a
explicitirniente la estructura atómica del sólido. Por simplicidad, limitamos el
estudio al caso unidimensional. El análisis del caso tridimensional se puede
encontrar en [AM76].
El modelo consiste en una cadena lineal de N átomos iguales. Suponemos
(i) que los átomos experimentan una interacción armónica a primeros vecinos,
y (ii) que los desplazamientos atómicos tienen lugar en la propia dirección de
la cadena, de manera que solamente se propagan modos de vibración longi­
tudinales. Además suponemos condiciones de contorno periódicas, de manera
que los desplazamientos atómicos verifican que Uj =Uj^M.
El hamiltoniano de la cadena es:

H ({p,u}) = f ; (A.88)
j=l
m es la masa de un átomo de la cadena y a la constante de acoplamiento entre
átomos primeros vecinos. Las ecuaciones del movimiento de los átomos de la
cadena son:

m ü j = a ( u j + i H- u j - i - 2uj), j = 1,2, (A.89)

Piara resolver este sistema de ecuaciones acopladas buscamos soluciones que


correspondan a modos normales de oscilación de la cadena. En cada modo
normal de oscilación todos los átomos oscilan con un movimiento armónico
simple de la misma frecuencia o;, y con un defasaje que depende de la posición
de cada átomo en la cadena:

Uj(x, t) = Uj{x) (A.90)


= (A.91)

a j es la posición de equilibrio del átomo f en la cadena y a el espaciado


inter atómico. La longitud total de la cadena es L = Na. Sustituyendo en las
ecuaciones del movimiento obtenemos la relación de dispersión de los modos
normales de oscilación de la cadena:

m u = -Q (e’*=“ + e-'* “ - 2) = 4a sin^ ( y ) . (A.92)

Podemos ver que las frecuencias posibles de los modos normales están acotadas
entre:
/4a\V2
^min = 0) ^max — ' (A.93)
Figura A.l: a) Relación de dispersión de los modos normales de la cadena lineal armónica
(línea continua) y del modelo de Debye unidimensional (línea a trazos), b) Densidad de
modos normales de la cadena lineal armónica (ecuación (A .98), Lnea continua gruesa) y del
modelo de Debye unidimensional (ecuación (A.86), línea continua fina). La línea a trazos
indica el valor límite de las dos funciones.

El comportamiento de la relación de dispersión uj{k) está representado en


la figura A.La. La relación no es simplemente lineal, y por tanto las ondas
se propagan en un medio dispersivo. Sin embargo, en el límite 1A;| —►O, que
corresponde a distancias grandes comparadas con el espaciado interatómico,
la relación entre uj y k es lineal:
1/2
ak. (A.94)

Vemos pues que a distancias grandes recuperamos el comportamiento del mod­


elo de Debye, ya que a estas escalas la cadena se ve como un medio elástico
continuo. La pendiente de uj{k) en el límite |/¡;| —►O corresponde a la velocidad
de las ondas sonoras en el medio. En el límite \k\ —►7r/a, por el contrario, a;(A;)
deja de ser lineal, poniéndose de manifiesto el carácter discreto de la cadena.
Cuando imponemos condiciones de contorno periódicas, Uj = i¿;+Ar, obten­
emos que = 1. En consecuencia, del conjunto continuo de ondas planas
(A.91) se seleccionan los valores de k compatibles con las condiciones de con-

27T N
= — n, n = ± l,±2,...,diy. (A.95)

Así pues \k n \ <


= Ti'/ú, donde k j^ a x corresponde a U m a x · En el intervalo
km ax
k e se encuentran todas las frecuencias posibles de ios modos
(-7 r/a ,7 r/a )
normales de oscilación de la cadena.
Cuando el tam año L (= Na) de la cadena se hace suficientemente grande,
la ecuación (A.95) muestra que la separación entre los valores de k permitidos
se hace despreciable y tenemos un continuo de modos normales. La separación
eet 2Tr/(iVû) y por tanto la densidad de modosnormales viene dada por:

g{k)dk = ^ d k . (A.96)
2TT
Para hacer el cambio a la variable lj debemos usar la relación de dispersión
u;(A:), dada por (A.92), y tener en cuenta que la inversa de uj{k) es bivaluada.
Así:
g{u)) düü = 2g{k) du (A.97)

de donde resulta:

/ \
<7(w) = {
J “
W
7 “^;------ — Í77T72 0 < u j< u jjn,ax
Wmax=í— J ·
O UJ>CJmcuc,
(A.98)
El comportamiento de esta función se muestra en la figura A .l.b. Es intere­
sante compararlo con el correspondiente al modelo de Debye unidimensional,
constante, dado por la ecuaición (A.87). Se cumple que:

U)D = (A.99)

Para obtener este resultado hemos usado que L = N a e impuesto que la


velocidad de las ondas elásticas en el modelo de Debye, c, coincida con la
de la cadena lineal, (a/m )^/^a (ecuación (A.94)), puesto que ambos modelos
representan el mismo sistema físico.

Las vibraciones atómicas en un sóhdo ideal pueden estudiarse también desde


un punto de vista completamente diferente, introduciendo unas nuevas cuasi­
partículas denominadas fonones. Los fonones son cuasipartículas idénticas de
spin 1, relación energía-momento lineal ultrarrelativista y masa en reposo nu­
la. La energía y el momento lineal de un fonón (en tres dimensiones) vienen
dados por:

£ = ñuj con uj = ijj{k) (A.100)


p = Tik con k = —(nx,nj/,n2) , rii = 1 , 2 ,3 . .. (A.lOl)

El estado cuántico de cada modo normal de frecuencia a;, definido por el
número cuántico n en la ecuación (A.68), puede asociarse a un número n de
fonones, de energía Tujj. Las vibraciones en el sólido corresponden entonces a
un gas ideal de fonones.
El estudio de las vibraciones de un sólido como un gas de fonones es análo­
go al estudio de la radiación electromagnética en una cavidad como un gas de
fotones, que presentamos en la sección (A.3.2). Sin embargo hay algunas difer­
encias fundamentales que conviene tener presente: en primer lugar, el número
de modos normales de vibración de un sólido en tres dimensiones es SAT, mien­
tras que ol de la radiación electromagnética es infinito. En segundo lugar, por
cada «^stado traslacional permitido k hay tres estados de polarización posil:)Ies
del fonón (dos transversales y uno longitudinal), mientras que en el caso del
fotón solamente existen los dos estados de polarización transversales (^en tres
dimensiones). Finalmente, la relación de dispersión de los fonones depende del
modelo de sólido considerado, como acabamos de ver, mientras que los fotones
verifican exactamente que uf = ck.
Apéndice B

RESUMEN DE TERMODINÁMICA

El objeto de la termodinámica es el estudio de ios fenómenos térmicos.


Las leyes de la termodinámica se formulan como generalizaciones del com­
portamiento observable de la materia a escala macroscópica. Estas leyes, o
principios de la termodinámica, deben entenderse como un conjunto reducido
de axiomas de un modelo matemático abstracto, en el marco del cual pueden
deducirse de forma completamente rigurosa un gran número de consecuen­
cias nuevas sobre el comportamiento de los sistemas macroscópicos. Aunque
la termodinámica ignora la estructura microscópica de la materia, a escala
macroscópica es una disciplina de la física de aplicación muy general y po­
tente.

En este apéndice presentamos un breve resumen de la termodinámica de


sistemas en equilibrio. En primer lugar repasamos las definiciones y conceptos
más importantes, y enunciamos los principios básicos de esta disciplina tal y
como suelen presentarse en el primer ciclo de una licenciatura en Física.. A
continuación, recordamos las principales definiciones de funciones respuesta
en sistemas hidrostáticos y magnéticos. Estas funciones permiten en muchos
casos una comparación directa entre los resultados de la física estadística y las
observaciones experimentales. Seguidamente repasamos con un poco de detalle
tres situaciones en que puede encontrarse un sistema termodinàmico en equi­
hbrio (aislado, en equilibrio con un baño térmico, y en equihbrio con un baño
térmico y de partículas), que son particularmente útiles en física estadística
por corresponderse, respectivamente, con las condiciones en que se encuen­
tra un sistema en las tres colectividades de Gibbs más importantes (nücro-
canónica, canónica, y macrocanónica). Finalmente, repasamos las condiciones
de equilibrio de sistemas pluricomponentes que pueden encontrarse en fases
diferentes.

El objetivo es proporcionar las herramientas termodinámicas que más se


utilizan en el curso. Para una revisión más completa, remitimos al lector a un
texto específico de termodinámica del equilibrio [ZD81].
B .l. Conceptos básicos y definiciones
Llamamos sistema a aquella porción macroscópica del Universo que es
objeto de estudio, y llamamos ambiente al resto del Universo o, más específi­
camente, al resto del Universo que es susceptible de interactuar con el sistema.
Los parámetros termodinámicos (por ejemplo p, V, T, i í , etc.) son can­
tidades macroscópicas definidas experimentalmente y que pueden medirse en
un sistema.
El estado termodinámico de un sistema queda especificado por el conjun­
to de valores de los parámetros termodinámicos necesarios para describir el
sistema.
Un sistema se encuentra en equilibrio term.odinámico cuando no existen
flujos en el interior del sistema y el estado termodinámico del sistema no
cambia en el tiempo.
Una ecuación de estado es una relación funcional entre los parámetros
termodinámicos de un sistema en equilibrio. Si los parámetros termodinámicos
que describen el sistema son {xj}, la ecuación de estado adopta la forma:

f ( { x i } ) = 0, (B.l)

que reduce en una el número de variables independientes. En un espacio de


coordenadas {x¿}, el estado de equilibrio del sistema está representado por un
punto. La ecuación de estado define, en este espacio, una superficie denominada
superficie de estado, que es el lugar geométrico de los puntos que representan
los estados de equilibrio del sistema.
Una magnitud termodinámica es extensiva si es proporcional a la cantidad
de materia que contiene el sistema, y es intensiva si es independiente de dicha
cantidad.
La superficie de separación entre sistema y ambiente recibe ei nombre
genérico de pared. Las propiedades de una pared se definen en función del tipo
de interacción que la pared permite entre sistema y ambiente. Para un sis­
tema hidrostático, definido por los parámetros presión, temperatura, volumen
y número de partículas, tenemos que:

(i) Una pared es móvil si permite que el sistema experimente cambios de


volumen. En caso contrario la pared es rígida.

(ii) Una pared es diaterma (o conductora del calor) si permite el paso de en­
ergía térmica en forma de calor. En caso contrario la pared es adiabática.

(iii) Una pared es permeable cuando permite el paso de materia. En caso


contrario es impermeable. Se definen también paredes semipermeables,
que únicamente permiten el paflo de determinado tipo de partículas de
forma selectiva.
A cada tipo de interacción entre sistema y ambiente, corresponde un tipo
dfl equilibrio:

(i) Un flistema se encuentra en equilibrio mecánico cuando la presión es


uniforme en el sistema y no cambia en el tiempo. Si el sistema está en
contacto con el ambiente a través de paredes móviles, la presión del
sistema y la del ambiente son iguales cuando el sistema se encuentra en
equilibrio mecánico.
(ii) Un sistema se encuentra en equilibrio térmico cuando la tem peratura del
sistema es uniforme y no cambia en el tiempo. Si el sistema se encuen­
tra en contacto térmico con el ambiente, por estar rodeado de paredes
diatermanas (conductoras del calor), la tem peratura del sistema y la del
ambiente coinciden cuando el sistema se encuentra en equilibrio térmico.

(iii) Un sistema se encuentra en equilibrio químico cuando el potencial quími­


co de cada tipo de partículas presentes en el sistema es miiforme y no
cambia en el tiempo. Si el sistema puede intercambiar m ateria con el am­
biente, por estar rodeado de paredes permeables, el potencial químico
del sistema y el del ambiente son iguales cuando el sistema se encuentra
en equilibrio químico. Esto es válido para cada tipo de partículas que
pueden transportarse a través de las paredes, para cada una de las cuales
se define su correspondiente potencial químico.

Cuando un sistema hidrostático se encuentra simultáneamente en equilib­


rio mecánico, térmico y químico, el sistema se encuentra en equilibrio ter­
modinàmico.
El sistema hidrostático más simple es el gas ideal o gas perfecto. Corre­
sponde a una idealización del comportamiento de los gases en el límite de
densidades suficientemente bajas. Experimentalmente se observa que en este
límite todos los gases obedecen a una misma ecuación de estado, de la forma:

pV = NkßT, (B.2)

donde p es la presión, V el volumen, N el número de moléculas, kß es la


constante de Boltzmann y T es la tem peratura en grados Kelvin.

B.2. Principios de la termodinámica


La tciriuodlnámica clásica de equihbrio se fundamenta en cuatro principios
báMlaoN;

■ Principio cero
Dos sistemas en equilibrio térmico con un tercero están en equilibrio
térmico mutuo. Este enunciado permite definir el concepto de temper­
atura, r , como la propiedad que tienen en común todos los sistemas que
se encuentran en equilibrio térmico entre sí.

■ Primer principio
Existe una función de estado, denominada energía interna del sistema,
U, tal que su variación (en un proceso que lleva al sistema de un estado
de equilibrio inicial a un nuevo estado de equilibrio final) viene dada por
la relación:
AU = Q + V/, (B.3)
donde Q es la cantidad de calor absorbida por el sistema y el trabajo
hecho sobre el sistema.

■ Segundo principio
En cualquier proceso cíchco se satisface la desigualdad de Clausius:
'dQ
< o, (B.4)
donde T es la tem peratura de las fuentes con las cuales el sistema m-
tercambia calor a lo largo del ciclo. La igualdad se aplica cuando la
transformación cíclica es reversible —en ese caso la tem peratura de las
fuentes y la del sistema han de coincidir en todo momento.
Como consecuencia de la desigualdad de Clausius, existe una función de
estado denominada entropía del sistema, S, definida por:

(B.5)

El miembro de la derecha es una integral de línea que representa un


camino reversible arbitrario desde un estado de referencia de equilibrio,
O, hasta un estado final de equilibrio, A. A lo largo de este camino
el sistema se pone en contacto térmico con una sucesión de fuentes a
tem peratura T, con cada una de las cuales intercambia la cantidad de
calor dQn de forma reversible.
La desigualdad de Clausius y la definición de entropía permiten enun­
ciar que para un sistema aislado la variación de entropía en un proceso
arbitrario verifica:
A S > O, (B.6)
expresión en que la entropía se mantiene constante si todos los procesos
involucrados son reversibles y aumenta si alguno de ellos es irreversible.
Este enunciado del segundo principio se conoce como principio del au­
mento de la entropía, y es equivalente a los enunciados de imposibilidad
debidos a Kelvin y Clausius.

■ Terccr principio
La entropía de un sistema no puede reducirse a su entropía en el cero
absoluto de tem peratura mediante una serie finita de procesos. Puede
demostrarse que este enunciado es equivalente a afirmar que no se puede
llegar al cero absoluto mediante una serie finita de procesos. Una con­
secuencia del tercer principio es que la capacidad calorífica a volumen
constante se hace nula al aproximarse al cero absoluto. Como se muestra
en el presente curso, la física estadística permite entender el origen mi­
croscópico de este comportamiento en una amplia variedad de sistemas.

B.3. Funciones respuesta


Las funciones respuesta de un sistema termodinámico describen cómo re­
sponde un sistema cuando cambia un parámetro de control externo. Para un
sistema descrito por las variables p, V, T (sistema hidrostático), donde N se
mantiene constante, las ñinciones respuesta más importantes son las capaci­
dades caloríficas a presión y volumen constante:

. ( 'í g ') - r r s ì

las compresibihdades isoterma y adiabática:

y el coeficiente de dilatación térmica:

Algunas relaciones importantes entre funciones respuesta son:


1 ^dV\ fd S\ _ l{dV/dT)j, f d S \
vissjplapjr v{ds/dT)j,[dp)T Cp^ ' ^ ^
Para un sistema magnético, descrito por las variables H (cainpo magnético
aplicado), M (imanación) y T (temperatura), se definen C m y C h , por ana­
logía con (B.7) y (B.8), como las capacidades caloríficas a M y i f constantes.
El análogo de las compresibilidades viene dado por las susceptibilidades isoter­
ma y adiabática:

En este caso las funciones respuesta verifican:

C H {X T -X s) = T ( ^ y ^ , (B.16)

Xt { C „ - C m ) = t [ ^ ) \ (B.17)

B.4. Sistema aislado


Un sistema termodinàmico rodeado por paredes rígidas, adiabáticas e im­
permeables es un sistema aislado del resto del Universo. El estado de un sis­
tem a hidrostático aislado queda caracterizado por su energía interna, U, el
volumen que ocupa, F , y el número de moléculas que contiene de cada es­
pecie, Nj.
De combinar el primer y segundo principio obtenemos:

T d S = d U + p d V ~ Y l fijdNj, (B.18)
3

y por tanto un potencial termodinàmico adecuado para la descripción de un


sistema aislado es la entropía 5, con las variables extensivas del sistema,
([/, V, Nj), como variables naturales.
Haciendo uso de la extensividad de la entropía, la ecuación anterior lleva
a la identidad fundamental de la termodinámica (ecuación de Euler) para un
sistema hidrostático:
TS = U+ pV-J2 (B19)
3

Finalmente, diferenciando esta ecuación y restándole la ecuación (B.18)


llegamos a una relación entre los diferenciales de las variables intensivas del
síntoma, conocida como ecuación de Gibbs-Duhem:

SdT -V d p + J2 = O· (B-20)
i
El conocimiento de la entropía de un sistema aislado en equilibrio, 5(í/, V, Nj),
permite determinar la tem peratura y la presión del sistema, y el potencial
químico de cada especie atómica. De la ecuación (B.18) resulta:

1 - (B.21)
T \d U J v ,N , '

P (d S \
(B.22)
T \d v)u ,N , ’

(B.23)

Eliminando U entre las dos primeras ecuaciones se obtiene la ecuación de


estado del sistema:
f( p , T , V ,N j ) = Q, (B.24)
La capacidad calorífica Cy, definida por la ecuación (B.7) con Nj constantes,
se obtiene directamente como una derivada de la entropía. La compresibilidad
isoterma «t» definida por la ecuación (B.9) con Nj constantes, se obtiene
derivando la propia ecuación de estado.
Las ecuaciones equivalentes para un sistema magnético se obtienen de las
anteriores sustituyendo p (presión) por —H (campo magnético aplicado cam­
biado de signo), V (volumen) por M (imanación), y haciendo uso de las rela­
ciones (B.14) a (B.17).

B.5· Sistema en equilibrio con un baño térmico


Consideremos un sistema termodinámico hidrostático rodeado por pare­
des rígidas, impermeables, y conductoras del calor. El sistema se encuentra en
equihbrio con un baño térmico a la tem peratura T, de manera que su tem­
peratura está fijada a este valor. Por el contrario, su energía interna U no
está fijada a priori. En consecuencia, el estado de equilibrio termodinámico
del sistema viene caracterizado por las variables (T, V, Nj).
El potencial termodinámico adecuado para la descripción de un sistema en
equilibrio con un baño térmico es la energía hbre de Helmholtz, F, definida a
partir de U por la transformación de Legendre:
En algunos textos de física estadística este potencial termodinàmico se denota
también por A. En términos de la energía libre de Helmholtz, la ecuación
(B.18) tom a la forma:

dF = - S d T - p d V + Y ^ fijdNj. (B.26)
3

Esta relación muestra que efectivamente F tiene como variables naturales


{T ,V,N i).
A pcixtir de F(T , V, Nj ) pueden determinarse la presión y la entropía del
sistema, y el potencial químico de cada especie atómica. De (B.26) resulta:

(B.27)
- ( M L ·,

(B.28)

í dF\ .
H = (B.29)

La primera relación determ ina la ecuaciór de estado del sistema, /(p , T, V, Nj) =
O, y de ella puede obtenerse la compresibilidad isoterma usando la ecuación
(D.ü) con Nj constantes. La energía interna U{Tj V, Nj) se obtiene a partir de
U * F -f- T 5 y de la relación (B.28) para 5, de manera que:

(B.30)
— K i),
De aquí se determina la capacidad calorífica a volumen constante:

r - - - T (B.31)

La energía libre de Gibbs, G{T,p, Nj), se define a partir de F por la trans­


formación de Legendre:
G = F + pV (B.32)
y por tanto:
(B.33)
J t ,nj
Además se cumple que:
líj = í^ ) ·

Análogamente, la capacidad calorífica a presión constante viene dada por:

\ / p,Nj

A partir de la identidad fundamental (B.19) y de las definiciones de F y


G se demuestra que:
G= (B.38)
j
Las ecuaciones equivalentes para un sistema m a tè tic o se obtienen susti­
tuyendo p por —H y V por M , al igual que para un sistema aislado.

B.6. Sistema en equilibrio con un baño térmico y


de partículas
Consideremos un sistema termodinámico hidrostático rodeado por paredes
rígidas, conductoras del calor y permeables al paso de partículas. Como en la
sección anterior, el sistema se encuentra en equilibrio con un baño térmico a la
tem peratura T, de manera que su tem peratura está fijada a este valor. Ahora
el sistema se encuentra también en equilibrio con un baño (o reservoir) de
partículas, cuyo potencial químico para cada especie j es fjLj, de manera que el
potencial químico del sistema para cada especie j está fijado a este valor. En
consecuencia, el estado de equilibrio termodinámico del sistema está definido
por las variables (T, V, ¡jíj). En este caso, ni la energía interna U ni el número
de moléculas Nj de cada especie están fijados a priori.
El potencial termodinámico adecuado para la descripción de un sistema
que se encuentra en equilibrio simultáneamente con un baño térmico y con un
reservoir de partículas se denomina gran potencial, H, y se define a partir de
U - T S por la transformación de Legendre:

E = U -TS-^fLjN j. (B.39)
3

Teniendo en cuenta las ecuaciones (B.25), (B.32) y (B.38) se deduce que el


gran potencial de un sistema hidrostático es:
De las expresiones anteriores es fácil ver que:

dE = —S d T —pdV — ^ Njdfjbj (B.41)


3

y por tanto H tiene efectivamente a (T, V, iij) como variables naturales.


La presión y la entropía del sistema, y el número de partículas de cada
especie atómica, vienen dadas en términos de H(T, V, fij) por:

La ecuación de estado del sistema, f (j p, T, V, Nj ) = O, se obtiene eliminando


los potenciales químicos /Xj entre la primera y la segunda relación. De ella se
obtiene la compresibilidad isoterma mediante la ecuación (B.9) con Nj con­
stantes. Análogamente la entropía 5 se obtiene como función de T, K y Nj
eliminando los potenciales qmmicos ^ij entre la segunda y la tercera relación,
y de ella puede calcularse directamente la capacidad calorífica a volumen con­
stante haciendo uso de la ecuación (B.7) con Nj constantes.
Utilizando las ecuaciones (B.25), (B.39) y (B.43) se obtiene la energía libre
de Helmhoitz del sistema, F(T , V,fj.j):

■ (B ·« )

Finalmente, puesto que U = F -{-TS y S viene dado por la ecuación (B.44).


se obtiene para la energía interna, Í/(T, V,/Xj)·

Basta sustituir p por —H y V por M para obtener las expresiones ade­


cuadas a un sistema magnético.
Apéndlo· B. RMuniin de termodinámica 215

B.7. Magnitudes termodinámicas de un sistema mag­


nético
HemoB venido insistiendo en el hecho de que las relaciones termodinámicas
de un sistema magnético son análogas a las de un sistema hidrostático, cam­
biando p por —í f y V por M . Nos ponemos en el caso más simple, en que H
y M pueden tratarse como magnitudes escalares.
Aún así conviene hacer algunas precisiones, ya que por desgracia no hay
un consenso general en física estadística sobre el nombre que debe darse a los
potenciales termodinámicos de un sistema magnético. El origen de la confusión
reside en el hecho de que el hamiltoniano microscópico que describe este tipo
de sistemas no corresponde en la mayoría de los casos a la energía del sistema
aislado, sino que suele incluir la interacción de éste con el campo magnético
externo:
n = H aislado - M H. (B.47)
En esta situación, el valor medio estadístico de H no se corresponde con la
energía interna U, como sería habitual, sino con el equivalente del potencial
entalpia para sistemas magnéticos, que convendremos en denominar U':
U' = U - M - H . (B.48)
Para un sistema con un número de partículas fijado, las variables naturales
de U son (5,M ) y las de [/' son {S,H). Con estas ideas claras, las relaciones
termodinámicas para sistemas magnéticos se deducen sin dificultad de las cor­
respondientes a sistemas hidrostáticos usando la analogía mencionada. Por
ejemplo:

Las relaciones (B.16) y (B.17) constituyen otro ejemplo.


La energía libre de Helmholtz y la de Gibbs se definen en la forma usual:
F = U-TS, (B.51)
F' = U' - TS. (B.52)
P ara un sistema con un número de partículas fijado, las variables naturales
de F son (T, M) y las de F ' son {T,H). Hemos usado el nombre F' en lugar
de G para incidir en el hedió de que la energía libre de Gibbs se deriva del
potencial U'. Análogamente al caso hidrostático, se cumple que:
( d^F\
= -r ^ . (B.53)
/M
Ch = - T . (B.54)
\ / H
El problema estriba en que muchos textos utilizan los nombres U y F para
referirse a los potenciales c^ue aquí hemos denominado U' y F ', con la confusión
consiguiente.

B.8. Condiciones de equilibrio de sistemas hetero­


géneos y pluricomponentes
En las secciones anteriores se ha supuesto imphcitamente que el sistema
se presentaba en una única fase (sistema homogéneo) y que, aunque podía
contener diferentes especies moleculares (sistema pluricomponente), no se p ro
ducían reacciones químicas entre dichas especies. Por su utilidad en el presente
curso, consideraremos ahora situaciones algo más comphcadas.

B .8.1. E qu ilibrio d e fases


Las condiciones de equilibrio de un sistema heterogéneo pluricomponente
son relevantes en el estudio de las transiciones de fase.
Denotemos con un superíndice a, desde 1 hasta / , las diferentes fases
presentes en el sistema. Teniendo en cuenta la extensividad de la energía libre
de Gibbs, la variación de la función de Gibbs total del sistema vendrá dada
por:
/ / / \
d O = j2 ^ . (B.55)
a=l a=l \

Dado que la entropía y el volumen son a su vez extensivos, el resultado anterior


equivale a:

dG = - S d T + V d p + ' ¿ ^ . (B.56)
a=l j
Si el sistema se encuentra en equilibrio y p y T no varían, como sucede en una
transición de fase, la condición de equilibrio dG = O se traduce en:

(B.57)
a=i j
Puesto que globalmente el sistema está cerrado y no se suponen reacciones
químicas, = O para cada una de las especies j, y por tanto la
condición de equilibrio entre fases se reduce a:
que expresa el hecho de que en equilibrio el potencial químico de cada especie
es el mismo en todas las fases del sistema.

B .8.2. E qu ilibrio quím ico


Consideremos ahora un sistema cerrado, a tem peratura T y presión p, que
contiene varias especies moleculares (A, B, C, 1, 2, etc.). Para simplificaj
supondremos que el sistema es homógenco, es decir que todas las especies
moleculares se presentan en la misma fase (sólido, líquido o gas). Si algunas
de las especies moleculares (o todas ellas) pueden convertirse unas en otras,
estamos en presencia de una reacción química.
El equilibrio químico es un estado dinámico de un sistema pluriconipo-
nente, que se alcanza cuando el ritmo de producción de cada especie química
iguala el ritmo de desaparición de esa misma especie en la reacción.
Supongamos una reacción química en que únicamente intervienen las es­
pecies Ay B y C:
va A + ub B ^ vcCy (B.59)

donde Z//1, ub y i'c son números enteros pequeños, La energía hbre de Gibbs
del sistema es, de acuerdo a la ecuación (B.38):

G= + N b /j>b H" NciJ>c N ifii -h N2fJ>2 + · · · (B.60)

Consideremos ahora un proceso infinitesimal en que ua^^ moléculas de y


UBd^ moléculas de B se convierten en ucd^ moléculas de C. El proceso es in­
finitesimal y por tanto no cambian apreciablemente las propiedades intensivas
(en particular, los potenciales químicos de las diferentes especies) del sistema.
Así pues:

dG = fiAdNA + n e d N e + (icdN c = { - vaha ~ t'BtiB + (B.61)

La condición de equihbrio de un sistema cerrado que se encuentra a. p y T


constantes es dG = 0. Dado que es arbitrario, llegamos a la conclusión de
que:
i/AfiA -H (B.62)

que constituye la condición de equilibrio químico de la reacción considerada.


Los potenciales químicos que aparecen en esta expresión se refieren a los valores
una vez alcanzado el equihbrio químico. Aunque hemos obtenido la condición
de equilibrio de una reacción química particular, el resultado es fácilmente
generalizable a otras situaciones.
B.9. Límite termodinàmico
El límite termodinàmico corresponde al límite en que el número de partícu­
las del sistema se hace extraordinariamente grande, iV —►oo, de manera que
el sistema se puede considerar macroscópico a todos los efectos. En un sistema
macroscópico (en tres dimensiones) los efectos de superficie son despreciables
frente a los efectos de volumen.
Las magnitudes extensivas tales como U, · · son proporcionales a
iV, y por tanto tienden a infinito en el límite termodinàmico de la misma forma
que N . Las magnitudes intensivas tales como p,T, por el contrario,
no se ven afectadas.
En el límite termodinamico las magnitudes extensivas pueden reemplazarse
por las correspondientes densidades, obtenidas como;
V S U Cy

También pueden definirse las densidades porunidad devolumen (dividiendo


por V en lugarde iV),de masa (dividiendo por la masa M del sistema en
lugar de iV), etc. Las densidades son intensivas y no se ven afectadas al tomar
el límite termodinàmico.
Por ejemplo, la ecuación de estado de un sistema hidrostático, /(p , T, V, N ) =
O, pasa a expresarse como:
^(P, T, í; ) = 0 . (B.64)
Lo mismo ocurre para las otras relaciones termodinámicas. Por ejemplo, la
entropía expresada en función de sus variables naturales, 5(í/,iV, V"), pasa a
ser:
s = s(u,v), (B.65)
en las correspondientes variables intensivas.
A p é n d ic e C
E L E M E N T O S D E T E O R ÍA D E L A
P R O B A B IL ID A D

C .l. P e r m u t a c io n e s y c o m b in a c io n e s

En el cálculo de probabilidades es frecuente tener que calcular ei número


de elementos de un determinado conjunto que obedecen a unas determinadas
reglas de construcción.
Recordemos las operaciones de cómputo más básicas y algunos ejemplos.

■ Una permutación es la disposición de un conjunto de N objetos atendi­


endo simplemente a su orden secuencia!.
Dados N objetos distintos podemos construir NI permutaciones distintas
que contengan todos los objetos.
Ejemplo 1: con las cinco vocales {a,e,i,o,u} podemos formar 5! = 120
palabras, del tipo aeoui, eioua, etc.
Si queremos formar subconjuntos de menos objetos, R < N , podemos
hacerlo de N \ /{ N — R)\ maneras.
Ejemplo 2: si en el ejemplo anterior tomamos jR = 3 obtenemos 60
palabras del tipo: aeo, iou, etc. Obsérvese que no se repiten las letras.

■ Una combinación es la disposición de un conjunto de objetos sin que


importe su orden. La situación más representativa es una mezcla de
pinturas.
Obviamente, dados N objetos distintos solamente podemos construir una
combinación que contenga todos los objetos, ya que el orden no importa.
El número de subconjuntos de R unidades {R < N ) que pueden for­
marse a partir de un conjunto de N unidades, si no im porta el orden, es
N \/{N -R )\R \
Ejemplo 3: tomando R = 3 vocales del conjunto de N = 5 vocales
obtenemos 10 subconjuntos, del tipo: aeo, iou, etc. Ahora eoa no es un
elemento diferente de aeo.
Hi /»2 ...

Figura C.l: Un elemento del conjunto de N bolas en M cajas.

Consideremos a continuación dos situaciones de particular utilidad en este


curso.

■ Problema 1: supongamos un conjunto de N unidades distmtas, a repartir


entre M cajas. Queremos colocar ni unidades en la primera caja, ri2
unidades en la segunda caja, etc., sin que importe el orden dentro de cada
caja. Los valores n i, ri2 . .. están prefijados y cumplen ni-|-n2H----- l-n^/ =
N.
Hay A/!/ni!n2! . . . riA/! maneras diferentes de repartir las unidades de
este modo. La razón es que hay N\ permutaciones posibles de las N
unidades, pero las ni! permutaciones de los elementos de la caja 1, las
n 2Í permutaciones de los elementos de la caja 2, etc., no aportan reed-
izaciones nuevas.

■ Problema 2: vamos a resolver un problema más comphcado. Fijamos la


suma N de M números naturales:

iV = n i + n2 + · · · -f riA/ (C .l)

Nos preguntamos de cuántas formas diferentes se puede hacer esto. Ob­


servemos la diferencia con el caso anterior: ahora n i, n 2, . . . , n^/ no están
prefijados. En la práctica estamos considerando N bolas iguales y M ca­
jas, y nos preguntamos de cuántas formas se pueden repartir las bolas
en las cajas. Una disposición particular se muestra en la figura C.L
Vemos que en realidad tenemos N bolas y M —1 barras, o sea N + M —
1 objetos. La solución es el número de permutaciones de todos estos
objetos, descontando las permutaciones entre barras y entre bolas, que
no dan configuraciones diferentes. Así pues la solución as:
iN + M - l ) \

Como comentario final hay que señalar los diferentes conceptos que se
utihzan en este tipo de problemas combinatorios:

■ El conjunto de los objetos o unidades básicas: bolas (idénticas), letras


(distintas), etc.
■ El tipo de elementos o subconjuntos que queremos construir con estos
ingredientes: palabras, llenar cajas, etc.
■ La incógnita fundamental: de cuántas maneras puede construirse un de­
terminado tipo de elemento a partir de los ingredientes bolsicos y de las
condiciones del caso.

C.2. Funciones de distribución


Una variable aleatoria (o estocástica) X es una variable que tom a como
valores, {xi}, todos los resultados posibles de un experimento u observación.
La función de distribución o probabilidad, P { X = Xi) = f{xi), asigna un valor
real a cada punto del espacio muestra

C.2.1. Variables aleatorias d iscreta s


Supongamos que el conjunto de valores {x¿} es discreto. Entonces /(x¿) ha
de satisfacer las condiciones:

f{x i)> 0 ; E ( C - 3 )
i
donde la sum a es sobre todos los valores {x¿}. A partir de esta función se
puede definir el momento enésimo de X:

(a:” > = E x " / ( x , ) . (C.4)


i
Los momentos sonmuy útiles en fisica estadística pues se identifican con ob­
servables experimentales. Los más importantes son los de orden más bajo. En
particular, se definen:

(i) El valor medio, o valor esperado de X:


{x) = ' £ x i f ( x i ) . (C.5)
i
(ii) La varianza de X:
( A x ) 2 s (( x - ( x ))2> = < x2 ) - ( x ) 2 , (C.6)

a partir de la cual se define la desviación típica de X como:

<7:, = V^<X2) - (X)2. (C.7)


La desviación típica nos da una medida de la anchura de la distribución
f{xi). Si la desviación típica es pequeña, /(x i) es una función muy picada
ahrededor de (x).
C .2.2. V ariables aleatorias continuas
Supongamos aliora que las variables {xi} pueden tomar un conjunto con­
tinuo de valores (por ejemplo, en el intervalo de la recta real [a, ó]). Entonces
f {x) es una función continua (quizás a trozos), que se conoce como densidad
de probabilidad^ y que ha de satisfacer las condiciones:
fb
f { x) > 0 ; J dx / ( i ) = 1. (C.8)

Los momentos se definen de forma análoga:

(i" ) = j dxx^f{x). (C.9)

C .2.3. P ro b a b ilid a d conjunta y p ro b a b ilid a d m arginal


Sean X e Y dos conjuntos de variables aleatorias discretas que toman los
valores X = ( x i , X2 · · ·} e "K = {2/1, 2/2 · · ·}· Entonces /(x-,, yj) es la probabili­
dad conjunta de las variables X e Y.
De la probabihdad conjunta podemos obtener la probabilidad de una sola
variable (probabilidad marginal) simplemente sumando la otra variable sobre
todo su dominio.
Análogamente, si las variables son continuas, /(x,2/) es la densidad de
probabihdad conjunta, definida sobre el dominio que corresponda.
En el caso continuo, la densidad de probabilidad mai*ginal de una vari­
able se obtiene integrando la densidad de probabilidad conjunta sobre todo el
dominio de la otra variable:

f { x) = j dy f{ x ,y )\ f {y) = J d x f { x , y ) . (C.IO)

C.3. Ejemplos de distribuciones


C .3.1. D istrib u ció n exponencial
U na densidad de probabilidad que aparece frecuentemente en física es­
tadística es la densidad de probabilidad exponencial:

f {x) = (C .ll)

donde x tom a valores en el intervalo [0,00) de la recta real y A es una constante


a determinar por normalización.
P ara hacer cálculos explícitos es conveniente recordar la siguiente integral:

°° dx a > O, n > - 1 . (C.12)


í
La oondlción de normalización da:

1 = /° ° d a /(x ) = - (C .13)
Jo Oí

y por lo tanto;
f ( x) = (C.14)
Loíi primeros momentos de esta distribución dan como resultado:

(x) = / dx xf { x) = a
Jo
fJo
dx xe““® = —,

(C.15)

(x^) = f dx x^/(x) = a f dx x^e“ “® = (C.16)


Jo Jo
Destaquemos que todas las propiedades dependen únicamente del primer mo­
mento. La desviación típica es:

CT = ^ ( x 2 ) - {x)2 = i . (C .17)

Un método alternativo paxa calcular momentos, que es particularmente útil


a lo largo de todo el libro, es el método de la función de partición. Empecemos
por definir la siguiente cantidad:

Z{a)= r dxe-^y (C.18)


Jo
que a paxtir de ahora llamaremos función de partición. El primer momento
puede obtenerse simplemente a partir de una derivada:

< ->
Análogamente se obtiene la varianza como una segunda derivada:

da^ ~ d a \ Z d a ) ~ Z da^ Z '^ d a d a ~


2
dx xé~
= (x2> - (x)2 = ^2. (C.20)
S^dxe-°“ /o°° dx e - “»

Por lo tanto, toda la información relevante se puede obtener de las derivadas


de Z{a). Basta con calcular esta función:

Z(a) = e“ “ = (C.21)
Jo Oí

para obtener:
(x ).-¿ l„ Z (< ,)-i (a 2 3 )

(C.24)
Este método simplifica mucho los cálculos, y es la forma habitual de operar
en física estadística.

C .3.2. D istrib u ció n binom ial


Consideremos un experimento que tiene únicamente dos posibles resulta­
dos elementales, y que repetiremos un número N de veces. La distribución de
probabilidad dvo que un determinado resultado (de los dos posibles) aparezca n
veces recibe el nombre de distribución binomial. Para concretar, supongamos
que los dos únicos resultados elementales posibles son -hl, con probabihdad
elemental p, y —1, con probabihdad q = l — p. Consideremos ahora una se­
cuencia de N experimentos estadísticamente independientes. La probabilidad
de que el número de resultados -j-1 en esta secuencia sea n (con n < N ) y e\
de —1 sea por lo tanto TV —n se calcula así:

(i) Como que los N resultados son estadísticamente independientes, una


secuencia dada (permutación) formada por n valores H-1 y iV —n valores
- 1 tiene una probabihdad de aparecer proporcional a:

(C.25)

(ii) Se tra ta de obtener n resultados +1, sin importar el orden. Hay:

N\
(C.26)
n\{N-n)\

secuencias posibles (permutaciones) que contienen n resultados -hl i iV —


n resultados —1.

Por lo tanto, la probabilidad que buscamos es:

que es la denominada distribución de probabilidad binomial. Resulta además


que esta distribución está ya normalizada, pues usando el teorema del binomio:

^ ^ A/’I
^ P ^ in ) = E = ( P + { 1 - P ) f = 1. (C.28)
n=0 n=0
Apéndice C. Elementos de teoría de la probabilidad

Los momentos de la distribución:


N
N\

se pueden calcular de la forma siguiente:

< c ..,
n=0 '

sustituyendo q por l —p después de hacer las derivadas. Así:

(n) = Np-, (n^) = Np { Np + 1 - p). (C.31)

En consecuencia la varianza es:

<^Í¡ = {n^) - { n f = N p {l - p). (C.32)

C .3.3. D istrib u cio n es norm al y gaussiana


En el límite en que tanto el número de experimentos N como el producto
JYp son muy grandes, se puede demostrar que la distribución binomial para la
variable aleatoria n tiende a una distribución gaussiana, centrada en (n) = N p
y con desviación típica (Tj\/ = y/N p (l —p), de la forma:
,21
1
PN(n) = exp (C.33)

Para una variable aleatoria continua, x, que sigue una distribución gaus­
siana, la densidad de probabihdad viene dada por:

1 (x - u f
/(a.·) = exp (C.34)
r-\/2ñ· 2ct2

donde el dominio de x es toda la recta real. Las constantes /i y cr corresponden


al valor medio y a la desviación típica, como luego veremos. La distribución
gaussiana es simétrica alrededor de ¡j l .
Un caso particular de distribución gaussiana es la distribución normal:

_
"2
que corresponde a una gaussiana con ^ = OyíT = l. El factor l / \ / 2 ^ asegura
la normalización. Los momentos impares de esta distribución son nulos por
simetría, y los momentos pares vienen dados por:
oo 1 2”/·^ /n 1\
dx .t” —= exp
oo ' 2
(C.36)
Así pues tenemos que:

(x)=0; (x2) = 1; a = (x2) _ (x)2 = 1. (C.37)


Los momentos pueden calcularse también a partir de una función de par­
tición, Z(a):
/ ex
dx exp - a x (C.38)
-c
Podemos verificar fácilmente que:
1
(x^) = - - l n Z ( a ) = - , (C.39)

que se corresponde con el resultado (x^) = 1 de la distribución normal cuando


se impone que q = 1/2.
Consideremos ahora que X es una variable aleatoria que sigue una dis­
tribución normal. Entonces el cambio:

Y = fjL-\-aX (C.40)
define una variable gaussiana de valor medio y desviación típica a. Para
comprobarlo no hay más que hacer este cambio de variables en la distribución
normal, para obtener:

1
/(y ) = exp (C.41)
2<t2

Este resultado es útil para calcular los momentos de la distribución gaussiana,


aprovechando que ya conocemos los momentos de la distribución normal:

(l/) = M = M. (C.42)
(í/^) = ((m + + a^x^) = (C.43)
(2/^) = ((a* + + 3/i^ax + 3/xa^i^ + cr^i^) = (C.44)

Así comprobamos que la distribución gaussiana, tal y como fue definida, tiene
efectivamente valor medio ¡j, y desviación típica a. Además la distribución
gaussiana viene determ inada completamente por sus dos primeros momentos.
C .3.4. D istribu ción d e P oisson
En oí límite on que el número de experimentos N es muy grande (iV —►oo),
pero la probabilitad p es muy pequeña (p 0), de tal forma que el producto
N p * a ae mantiene finito, se puede demostrar que la distribución binomial
para la variable aleatoria n tiende a una distribución de Poisson:

P{n) = (C.45)

que está normalizada:


£ ^ e - “ = e“e - “ = 1. (C.46)
n=0
Los momentos de la distribución se pueden calcular por un método similar al
que hemos usado para la distribución binomial. En efecto:

De donde obtenemos que:

(n) = a; (n^) = -h a; <j = ^/a. (C.48)

La distribución de Poisson está determinada completamente por un único


parámetro, su primer momento, (n) = a.
BIBLIOGRAFIA

[AM76] N. W. Ashcroft, N. D. Mermin, Solid State Physics. Ed. Saunders


College, Philadelphia, 1976.

[FR96] C. Fernández Tejero, J. M. Rodriguez Parrondo, 100 Problemas de


Fisica Estadística. Alianza Editorial, Madrid, 1996.

[GP89] A. Gahndo, P. Pascual, Mecánica Cuántica, Vols. I y II. Eudema,


Madrid, 1989.

[Hua87] K. Huang, Statistical Mechanics. John Wiley, New York, 1987.

[Kub65] R. Kubo, Statistical Mechanics. Interscierice Publishers, New York,


1965.

[Pat 96] R. K. Pathria, Statistical Mechanics (segunda edición).


Butterworth-Heinemann, Oxford, 1996.

[PB89] M. Plischke, B. Bergersen, Equilibrium Statistical Physics. Prentice


Hall, New York, 1989.

[Sym65] K. R. Symon, Mecánica. Ed. Aguilar, Madrid, 1965.

[Ind88]F. J. Indurain, Mecánica Cuántica. Alianza Universidad, Madrid,


1988.

[ZD81] M. W. Zemansky, R. H. Dittmann, Calor y Termodinámica (sexta


edición). McGraw-Hill, Madrid, 1981.
ÍNDICE ALFABÉTICO

Bose-Einstein teoría, 27
estadística, 77, 80 condensación de Bose-Einstein, 83,
bosones 177
función de onda, 72 calor latente, 182
curva de coexistencia, 179
cadena lineal armónica, 129, 201 fase condensada, 182
colectividad canónica, 39 fase vapor, 180
bajas y altas temperaturas, 44 isotermas, 179
cuántica, 66 constante
ecuaciones termodinámicas, 42 de Boltzmann, 35
energía media, 42 de Planck, 38
fluctuaciones de la energía, 42 de Stefan-Boltzmann, 161
función de partición, 41 cuerpo negro, 157
sistemas ideales, 51 densidad espectral, 159
colectividad macrocanónica, 55
cuántica, 67 Debye
ecuaciones termodinámicas, 60 sólido de, 127, 198
energía media, 59 defectos en sólidos
fluctuaciones de la energía, 59 intersticios de Frenkel, 99, 102
fluctuaciones del número de partícu­ vacantes de Schottky, 99, 101
las, 58 densidad de estados
función de partición, 57 de la cadena lineal, 203
número medio de partículas, 58 del movimiento relativo, 190
sistema ideal, 62 fotones, 197
colectividad microcanónica, 27 ondas electromagnéticas, 196
cuántica, 65 péndulo esférico, 189
ecuaciones termodinámicas, 36 partícula hbre, 188, 192
macroestados, 27 partícula hbre ultrarrelativista,
microestados, 27 194
colectividades sóhdo de Debye, 199
equivalencia con la macrocanónica, sólido de Einstein, 198
61 deternúnante de Slater, 72
equivalencia microcanónica-canónica, distribución, 221
43 distribución de energía
de Plaiick, 159 Fermi-Dirac
de Rayleigh-Jeans, 159 estadística, 77, 81
de Wien, 159 fermiones
distribución de Fermi-Direic, 171 deternúnante de Slater, 72
distribución de probabihdad función de onda, 72
binomial, 224 fluctuaciones del número de ocupación,
de Poisson, 227 83
exponencial, 222 fonones, 197, 203
gaussiana, 225 gas de, 123
fotones
Einstein en una cavidad, 195
sólido de, 126, 198 fluctuaciones, 163
electromagnetismo, 195 gas de, 157
energía frecuencia
continua, 48 de Debye, 128, 200
de Fermi, 171 de Einstein, 126, 198
discreta, 48 fugacidad, 57
energía hbre función de onda, 68
de Helmholtz, 42 condiciones de simetría, 68
entropía de bosones libres, 72
de Boltzmann, 34 de fermiones hbres, 72
termodinámica, 208 degeneración de intercambio, 69
y desorden, 35 ejemplos, 70
equihbrio químico, 217 función de partición
equihbrio sóhdo-vapor, 135 canónica, 41
sólido con vacantes, 138 canónica cuántica, 66, 76
sólido de Einstein, 137 método de la, 223
equilibrio termodinámico, 31 macrocanónica, 57
en la canónica, 40 macrocanónica cuántica, 67, 79
en la macrocanónica, 56
en la microcanónica, 31 gas ideal
equipartición de la energía, 51 clásico, 89
estadística cuántico, 85
Bose-Einstein, 77, 80 de bosones, 168
Fermi-Dirac, 77, 81 de fermiones, 170
Maxwell-Boltzmann, 49, 78, 81 de fonones, 123, 203
estadística cuántica, 63 de fotones, 164
colectividad canónica, 66 de moléculas diatómicas, 141
colectividad macrocanónica, 67 gas ideal clásico
colectividad microcanónica, 65 ecuación de estado, 96, 108
de números de ocupación, 82 entropía, 95
matriz densidad, 64 mezcla ideal, 105
número de microestados, 91,105 discretos, 36
paradoja de Gibbs, 110 moléculas diatómicas
receta de Gibbs, 79, 95, 105 gas de, 141
gases ideales cuánticos grados de libertad electrónicos,
ecuación de estado, 174 143
grados de libertad, 45 grados de libertad nucleares, 144
clasificax:ión, 46 grados de hbertad rotacionales,
gran potencial, 60 148
grados de hbertad vibracionales,
hamiltoniano 146
de dos partículas, 189 molécula homonuclear, 152
de la cadena lineal, 201
momento dipolar magnético, 195
de partícula hbre, 187, 191
de partícula libre relativista, 187 oscilador armónico
de un dipolo magnético, 195 clásico, 188
del oscilador armónico, 188 cuántico, 194
del péndulo esférico, 189
del rotor rígido, 145 péndulo esférico, 189
en coordenadas relativas, 190 paradoja de Gibbs, 110
rotacional, 148 partícula hbre
vibracional, 146 clásica, 187
hiperesfera cuántica, 191
superficie, 97 relativista, 187
volumen, 97 ultrarrelativista, 193
límite postulados, 29
clásico, 84 compatibihdad con la termodinámi­
continuo, 85 ca, 30
termodinàmico, 218 equiprobabilidad a priori, 30, 66
ley número de microestados, 30
de Dulong y Petit, 124 presión de radiación, 161
de Stefan-Boltzmann, 161 principio de exclusión de Pauli, 70
de Wien, 160 probabilidad
longitud de onda térmica, 47 en la canónica, 41
en la macrocanónica, 57
macroestados, 27 en la microcanónica, 30
matriz densidad, 64 teoría, 219
Maxweli-Boltzmann
estadística, 49, 78, 81 radiación térmica, 157
mezcla ideal de gases, 105 receta de Gibbs, 79, 95, 105
microestados, 27 relación de dispersión
cálculo, 36 de la cadena hneal, 202
continuos, 36 del sóhdo de Debye, 199
sólido
de Debye, 127, 198
de Einstein, 126, 198
sistemas estadísticos
clasificación, 48
estadística clásica, 47
estadística cuántica, 47, 63
sistemas normales, 35

tem peratura característica, 45


de Debye, 128
de Einstein, 126
de Schottky, 102, 116
de traslación, 142
paramagnetica, 115
rotacional, 148
vibracional, 146
teoría ergòdica, 29
teorema s^jzn-^estadística, 69
termodinámica
baño térmico, 211
baño térmico y de partículas,
213
equihbrio químico, 217
funciones respuesta, 209
principios, 207
resumen, 205
sistema aislado, 210
sistema magnético, 215
sistemas heterogéneos, 216

valor medio del número de ocupación,


82
vibraciones en sólidos, 197
fonones, 123
modos normales, 124