Está en la página 1de 230

Física Estadística

Facultad de Ciencias, UNAM - Semestre 2015-2

Dr. Rafael Ángel Barrio Paredes


Profesor T.C., SNI III
Instituto de Física,UNAM
e-mail: barrio@sica.unam.mx

1
Índice general

1. Revisión de termodinámica 9
1.1. Sistemas termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.1.1. Energía Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2. Postulados de la termodinámica . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.1. Equilibrio termodinámico . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.2. Paredes y restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2.3. El postulado de máxima entropía . . . . . . . . . . . . . . . . . . . . 12

1.2.4. Parámetros intensivos . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2.5. Equilibrio térmico y temperatura . . . . . . . . . . . . . . . . . . . . 14

2. Introducción a la física estadística 15


2.1. La ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.2. La relación de Gibbs-Duhem . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3. El principio de mínima energía . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.4. Transformaciones de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.5. Transformada inversa de Legendre . . . . . . . . . . . . . . . . . . . . . . . . 20

2.5.1. Generalización a más variables . . . . . . . . . . . . . . . . . . . . . . 20

2.6. Potenciales termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.6.1. Energía libre de Helmholtz . . . . . . . . . . . . . . . . . . . . . . . . 21

2.6.2. Entalpía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.6.3. La función de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.7. Relaciones de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.7.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3. Revisión de Mecánica Cuántica 27


3.1. Proceso de medición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.1.1. Ecuación de eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.1.2. Observables conmutables . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.2. Postulados de la mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . 29

3.2.1. Espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.2.2. Transformaciones unitarias . . . . . . . . . . . . . . . . . . . . . . . . 30

3
3.2.3. Transformaciones unitarias innitesimales . . . . . . . . . . . . . . . 31

3.2.4. Transformaciones unitarias nitas . . . . . . . . . . . . . . . . . . . . 31

3.3. Esquemas de la Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . . . . 32

3.3.1. Esquema de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.3.2. Esquema de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.3.3. Esquema de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4. La hipótesis cuántica: posición y momento . . . . . . . . . . . . . . . . . . . 33

3.4.1. Paréntesis de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.2. Álgebra de conmutadores . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.4.3. Evolución temporal y valores de expectación . . . . . . . . . . . . . . 35

3.5. Relaciones de incertidumbre entre dos operadores . . . . . . . . . . . . . . . 37

3.6. Función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.6.1. Función de Green en matemáticas . . . . . . . . . . . . . . . . . . . . 38

3.7. Formalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.7.1. Función de Green independiente del tiempo . . . . . . . . . . . . . . 39

3.7.2. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.8. Función de Green en Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . 42

3.8.1. Solución de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . 42

4. Probabilidad 45
4.1. Teorema del límite central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4.1.1. El caminante al azar . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5. Teorema del límite central 55

6. Ensamble y espacio fase 59


6.1. Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6.2. Matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6.2.1. Funciones de Green en la física estadística . . . . . . . . . . . . . . . 61

7. Ensambles 65
7.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7.2. Colectividad microcanónica . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

7.2.1. Conexión con la Termodinámica . . . . . . . . . . . . . . . . . . . . . 67

7.3. Algunos comentarios acerca del postulado básico . . . . . . . . . . . . . . . . 68

7.3.1. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

7.3.2. Ensamble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

7.3.3. Mixing (Sinaí, Krylov) . . . . . . . . . . . . . . . . . . . . . . . . . . 69

8. Bases de la mecánica estadística 71


9. Gases cuánticos 73
9.1. Simetría de la función de onda . . . . . . . . . . . . . . . . . . . . . . . . . . 73

9.2. Estadística de Fermi-Dirac y Bose-Einstein . . . . . . . . . . . . . . . . . . . 74

9.2.1. Números de ocupación . . . . . . . . . . . . . . . . . . . . . . . . . . 74

9.2.2. La representación de ocupación . . . . . . . . . . . . . . . . . . . . . 76

9.2.3. Límites: Aproximación clásica . . . . . . . . . . . . . . . . . . . . . . 78

10.Gas de electrones libres 81


10.1. Modelo de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

10.1.1. Derivación de la densidad de estados . . . . . . . . . . . . . . . . . . 82

11.Física Estadística Cuántica 85


11.1. La matriz densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

11.1.1. Propiedades de la matriz densidad . . . . . . . . . . . . . . . . . . . 86

11.2. Ensamble microcanónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

11.3. Ensamble canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

11.3.1. Aplicaciones: Paramagneto a la Brillouin . . . . . . . . . . . . . . . 89

11.4. Ensamble gran canónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

12.Teoría cuántica de gases ideales 95


12.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

12.2. Gas ideal de fotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

12.3. Capacidad caloríca de los sólidos . . . . . . . . . . . . . . . . . . . . . . . . 100

12.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

12.3.2. Teoría de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

12.3.3. Teoría de Debye . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

13.Condensación de un gas ideal de bosones 107


13.0.4. Demostración de que existe una discontinuidad: Transición de fase . . 110

14.Modelos de la conductividad eléctrica 113


14.1. Paul Karl Ludwig Drude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

14.2. Modelo Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

14.2.1. A temperatura cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

14.2.2. A temperatura diferente de cero (300K) . . . . . . . . . . . . . . . . . 117

15.Magnetismo 121
15.1. Magnetismo de los átomos y electrones libres . . . . . . . . . . . . . . . . . . 122

15.1.1. Momento angular total de los átomos . . . . . . . . . . . . . . . . . . 123

15.2. Suceptibilidades atómicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

15.2.1. Capas electrónicas llenas . . . . . . . . . . . . . . . . . . . . . . . . . 126


15.2.2. Capa electrónica semi-llena . . . . . . . . . . . . . . . . . . . . . . . 126

15.2.3. Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . . . . . . . 128

15.3. Teorema de Van Leeuwen. Diamagnetismo de Landau . . . . . . . . . . . . . 129

16.Interacciones magnéticas 133


16.1. Interacciones magnéticas dipolo-dipolo . . . . . . . . . . . . . . . . . . . . . 133

16.2. Interacción de intercambio y el modelo de Heisenberg . . . . . . . . . . . . . 134

16.2.1. Ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 134

16.2.2. Aproximación de Heitler-London . . . . . . . . . . . . . . . . . . . . 136

16.2.3. Teorema de Mermin y Wagner . . . . . . . . . . . . . . . . . . . . . . 143

17.Hamiltonianos modelo 145


17.1. Caso particular: Hamiltoniano de Heisenberg . . . . . . . . . . . . . . . . . . 145

17.1.1. Aproximación de Bethe-Peierls . . . . . . . . . . . . . . . . . . . . . 145

17.1.2. Red de Bethe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

17.1.3. El hamiltoniano más simple en la red de Bethe . . . . . . . . . . . . . 149

17.2. Solución exacta del hamiltoniano de Ising en una dimensión . . . . . . . . . 152

17.2.1. Eigenvalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

18.Transiciones de fase 155


18.1. Transiciones de fase de primer orden . . . . . . . . . . . . . . . . . . . . . . 155

18.1.1. Calor latente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

18.1.2. Fronteras en las fases . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

18.1.3. Ecuación de Clausis-Clapeyron . . . . . . . . . . . . . . . . . . . . . 158

18.1.4. Isotermas inestables y ecuación de van der Waals . . . . . . . . . . . 160

18.1.5. Sistemas multicomponentes . . . . . . . . . . . . . . . . . . . . . . . 162

18.1.6. Transiciones de fase entre las fases sólida y líquida . . . . . . . . . . . 164

18.1.7. La regla de las fases de Gibbs . . . . . . . . . . . . . . . . . . . . . . 165

18.1.8. Diagramas de fases para sistemas binarios . . . . . . . . . . . . . . . 166

18.1.9. Diagramas de fase eutécticos: Aleaciones . . . . . . . . . . . . . . . . 167

18.2. Teoría de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

18.2.1. Repaso de fenómenos críticos . . . . . . . . . . . . . . . . . . . . . . 168

18.2.2. Transiciones de fase de segundo orden . . . . . . . . . . . . . . . . . . 170

19.Sistemas fuera de equilibrio 175


19.1. No equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

19.2. Regreso al equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

19.3. Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

19.3.1. Relaciones de Onsager . . . . . . . . . . . . . . . . . . . . . . . . . . 177


20.Sistemas fuera de equilibrio II 181
20.1. Ejemplo: Resonancia magnética . . . . . . . . . . . . . . . . . . . . . . . . . 181

20.1.1. Knight shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

20.1.2. Chemical shift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

21.Transporte y la ecuación de Boltzmann 187


21.1. Conservación de la masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

21.1.1. Ecuación de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . 187

21.1.2. La derivada total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

21.2. Conservación del momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

21.2.1. Ecuación de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

21.2.2. Ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

21.2.3. Ecuación de Navier-Stokes . . . . . . . . . . . . . . . . . . . . . . . . 190

21.3. Transporte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

22.Teoría del transporte de Boltzmann 195


22.1. Aproximación del tiempo de relajación . . . . . . . . . . . . . . . . . . . . . 195

22.1.1. Ejemplo 1: Conductividad . . . . . . . . . . . . . . . . . . . . . . . . 195

22.1.2. Ejemplo 2: Viscosidad . . . . . . . . . . . . . . . . . . . . . . . . . . 198

23.Movimiento Browniano y la ecuación de Langevin 201


23.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

23.2. Desplazamiento cuadrático medio . . . . . . . . . . . . . . . . . . . . . . . . 203

24.Ecuación de Fokker-Planck 205

A. Sistema en no-equilibrio 209

B. Teorema de uctuación disipación 213

C. Relaciones de reciprocidad de Onsager 215

D. Teoría cinética 219


D.1. El teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

D.2. El operador de colisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

D.3. Estadística de partículas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

D.3.1. Momentos de la distribución de partículas . . . . . . . . . . . . . . . 221

D.3.2. Invariantes colisionales . . . . . . . . . . . . . . . . . . . . . . . . . . 222

D.3.3. Flujo de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

D.3.4. Flujo de impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

D.3.5. Flujo de energía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224


D.4. Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

D.4.1. El teorema H de Boltzmann . . . . . . . . . . . . . . . . . . . . . . 225

D.4.2. La Maxwelliana local . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

Bibliografía 227
Clase 1
Revisión de termodinámica
En mecánica, el estado de un sistema está completamente especicado a un instante
de tiempo dado si la posición y la velocidad de cada partícula (elemento de masa) del que
compone al sistema son conocidas. Para un sistema compuesto de un número N de partículas
esto requiere el conocimiento de 6N variables. Los sistemas termodinámicos se componen de
un número muy grande de partículas (átomos o moléculas), por lo que para especicar el
6
estado del mismo se requieren conocer 6N variables, donde N ∼ 10 (número de Avogadro).
Más aún, resulta innecesaria dicha descripción, ya que las cantidades con las que se trabajan
en termodinámica son propiedades promedio del sistema, es decir, un conocimiento detallado
del movimiento de cada partícula es irrelevante.

La termodinámica es el estudio de las consecuencias macroscópicas de promediar las


coordenadas microscópicas, que debido a la tosquedad de las observaciones macroscópicas,
no aparecen explícitamente en la descripción del sistema.

Una de las consecuencias de estos modos atómicos escondidos es el de actuar como


repositorios de energía. Por ejemplo, la energía que se transere por medio de un modo
mecánico se llama trabajo mecánico (-P dV ), la energía transferida a través de un modo
eléctrico se llama trabajo eléctrico. Una transferencia de energía a través de los modos
atómicos escondidos se llama calor.

1.1. Sistemas termodinámicos


Consideremos un ejemplo de un sistema muy simple: homogéneo, isotrópico, sin cargas
y químicamente estable sin efectos de supercie, sobre el que no inuyen campos eléctricos,
magnéticos y la fuerza de gravedad, etc.

¾ cuáles son las coordenadas o promedios importantes?



1. V (volumen)
Coordenadas extensivas:
2. N1 , N2 , N3 (número de partículas)

La geometría del sistema en consideración está caracterizada no solamente por su volumen,


sino también por su forma. Sin embargo, la mayoría de las propiedades termodinámicas
generalmente son independientes de la forma, y por lo tanto el volumen es el único dato

9
geométrico relevante. Sólo en casos en los que la razón entre la supercie y el volumen es
muy grande (por ejemplo una substancia fínamente granulada), es necesario considerar la
supercie.

1.1.1. Energía Interna

La termodinámica también puede ser denida como el estudio de la energía, las transfor-
maciones de la energía y sus relaciones con la materia. La energía se ve como la habilidad de
causar cambios. Es denotada generalmente con la letra U , y es una cantidad extensiva que es
la manifestación de la ley de conservación de energía, también conocida como primera ley de
la termodinámica, que simplemente establece que durante una interacción, la energía puede
cambiar de una forma a otra, pero su cantidad total permanece constante.

U =W +Q (1.1)

1.2. Postulados de la termodinámica


1.2.1. Equilibrio termodinámico

Los estados de equilibrio tienen la propiedad de no variar siempre y cuando las condiciones
externas permanezcan sin cambio. Así, por ejemplo, un gas encerrado en un contenedor de
volumen constante está en equilibrio cuando su presión es constante y su temperatura es
igual a la del medio que lo rodea.

El problema fundamental de la termodinámica es la determinación de los estados de equi-


librio alcanzado después de un proceso efectuado sobre un sistema cerrado. Por conveniencia,
Callen [1] formula los postulados sólo para sistemas simples, denidos como aquéllos que son
macroscópicamente homgéneos, isotrópicos y sin carga, que son lo sucientemente grandes
de tal forma que los efectos de supercie pueden ser despreciados y que no actúan sobre ellos
campos eléctricos, magnéticos o gravitacionales.

Postulado I: Existen estados de equilibrio macroscópicos, caracterizados com-


pletamente por la energía interna U , el volumen V y el número de moles Ni de las
componentes químicas. Como suponemos que estos estados están caracterizados
completamente por los parámetros extensivos, la energía interna U , el volumen
V y el número de moles Nr de las componentes químicas.
La composición química se reere al número de cada tipo de partícula considerada impor-
tante para el sistema. Un sistema compuesto se puede formar a partir de múltiples subsistemas
α, cada uno de los cuales tienen estados de equilibrio caracterizados por sus propios valores de
(α) (α)
U (α) , V (α) y N1 , · · · Nr . El sistema compuesto es cerrado si su energía total U = U (α) , su
(α) (α)
volumen V = V y su número total de moles Nr = Nr están restringidos. Las restricciones
internas pueden prevenir el ujo de energía, volumen o materia entre los subsistemas.
1.2.2. Paredes y restricciones

La descripción de un sistema termodinámico requiere de la especicación de las paredes


que lo separan de los alrededores y que denen las condiciones a la frontera. Convencio-
nalmente se reeren a las paredes que son impermeables al ujo de calor como adiabáticas,
mientras que una pared que permite el ujo de calor se llama diatérmica. Si la pared no
permite el ujo del calor ni trabajo se dice que es restrictiva con respecto a la energía. Un
sistema encerrado por una pared restrictiva con respecto a la energía, volumen y los números
de moles se conoce como cerrada. La existencia de estas paredes demuestra que la energía es
macroscópicamente controlable.

En termodinámica estamos interesados en la medición de las diferencias de energía, las


cuales son las que tienen signicado físico. Es posible medir la diferencia de energía entre dos
estados si es posible llegar de uno a otro por medio de algún proceso mecánico, si el sistema
está encerrado por una pared impermeable adiabática. Las paredes adiabáticas, tienen la
propiedad de que el trabajo hecho al llevar un sistema encerrado adiabáticamente entre dos
estados, digamos a y b, está determinado totalmente por las propiedades de los estados
inicial y nal, independientemente de todas las condiciones externas. El trabajo hecho es la
diferencia entre la energía interna de los dos estados, dW = Ua − Ub .
El experimento de Joule demostró que para un sistema encerrado en paredes adia-
báticas impermeables, cualesquiera dos estados de equilibrio termodinámico con el mismo
conjunto de números de moles N1 , N2 , · · · , Nr pueden unirse por medio de un proceso me-
cánico. Joule descubrió que si dos estados A y B están especicados, puede no ser posible
encontrar un proceso mecánico (consistente con una pared adiabática impermeable) que lleve
al sistema de AaB y viceversa, pero que siempre es posible encontrar el proceso que lleve
al sistema de A → B o bien, de B → A. Esto tiene un signicado profundo, ya que esta
asimetría entre dos estados dados esta asociada con el concepto de irreversibilidad.

Calor
El ujo de calor hacia un sistema durante cualquier proceso (a número de moles cons-
tante) es simplemente la diferencia en la energía interna entre los estados iniciales y nales,
disminuida por el trabajo hecho durante el proceso. Para el trabajo mecánico, cuya expresión
cuantitativa es δWM = −P dV , el trabajo cuasiestático se dene por la ecuación,

δQ = dU − δWM Primera ley (1.2)

Un proceso cuasiestático entre dos estados de equilibrio A y B es aquél en el que se cambian


las condiciones del sistema lentamente que éste tiene tiempo de ajustarse a si mismo gra-
dualmente a las condiciones nuevas (estado de equilibrio). Por ejemplo, se puede efectuar un
expansión reversible de un gas encerrándolo en un contenedor con un pistón móvil y movién-
do el pistón lentamente como se muestra en la gura 1.1. Si movemos el pistón rápidamente,
se generarán corrientes en la masa gaseosa en expansión y los estados intermedios no serán
de equilibrio. Nótese que en la ecuación 1.2 se ha usado una δ para indicar una diferencial
imperfecta o inexacta.
Figura 1.1: Expansión de un gas usando un pistón.

1.2.3. El postulado de máxima entropía

Postulado II: Existe una función (llamada entropía) de los parámetros exten-
sivos de cualquier sistema [cerrado] compuesto, denida para todos los estados
de equilibrio y que tiene la siguiente propiedad: Los valores asumidos por los
parámetros extensivos en ausencia de una restricción externa son aquéllos que
maximizan la entropía sobre la variedad de los estados de equilibrio restringidos.

S = S(U, V, Ni ) relación fundamental. (1.3)

Postulado III: La entropía de un sistema compuesto es aditiva sobre los sub-


sistemas constituyentes. La entropía es continua y diferenciable y es una función
monótona creciente con la energía.
Así la entropía total de un sistema compuesto es,

X
S= S α, (1.4)
α

es decir, la entropía es extensiva. Es lineal,

 
∂S
S(λU, λV, λNi ) = λS(U, V, Ni ), > 0. (1.5)
∂U V,Ni

La condición de diferenciabilidad requiere la existencia de la primer derivada parcial


(∂S/∂X ) con respecto a cada uno de los parámetros extensivos X de los que la entropía
depende. Se mostrará más tarde que la estabilidad termodinámica también requiere que
(∂ 2 S/∂X 2 ≤ 0) para cada X . La segunda frase en el postulado implica que U es una función
bien comportada de S, V N1 , · · · , Nr . Este postulado sugiere que la función entropía puede
y
ser invertida con la energía de tal forma que la función S = S(U, V, Ni ) puede resolverse
unívocamente para U = U (S, V, Ni ). Estas ecuaciones son formas alternativas de la relación
fundamental.
Postulado IV: La entropía de cualquier sistema [es no negativa] y se hace cero
en el estado para el que (∂U/∂S)V,N1 ,··· ,Nr = 0 (esto es, a temperatura cero).
Esto es una reexpresión de la tercera ley o postulado de Nernst.

1.2.4. Parámetros intensivos

Consideremos la ecuación U = U (S, V, Ni ) y calculemos la primera diferencial,

    X  ∂U 
∂U ∂U
dU = dS + dV + dNr . (1.6)
∂S V,N1 ,··· ∂V S,N1 ,··· r
∂Nr V,Nk

Las derivadas parciales son los parámetros intensivos y la siguiente notación es usada con-
vencionalmente,

 
∂U
=T temperatura
∂S V,N1 ,···

 
∂U
− =P presión
∂V S,N1 ,···

 
∂U
= µr potencial químico
∂Nr V,Nk

Reescribiendo,

X
dU = T dS − P dV + µr dNr . (1.7)
r

En el caso de número de moles constantes, encontramos que,

δQ = T dS. (1.8)

Es decir, un ujo cuasi-estático de calor hacia el sistema resulta en un incremento de


la entropía. La temperatura, presión y potenciales químicos son funciones implícitas de los
parámetros extensivos (ya que son derivadas de una función de los parámetros extensivos).
Con esto obtenemos,

T = T (S, V, Nr ), P = P (S, V, Nr ), etc. (1.9)

Tales expresiones que relacionan los parámetros intensivos con los parámetros extensivos
independientes se llaman ecuaciones de estado. Todo el análisis previo, al efectuarse con
S = S(U, V, Nr ) resulta en un conjunto diferente de parámetros intensivos (llamados los
parámetros intensivos entrópicos):

∂S 1 −Pk
Fk ≡ , F0 = Fk = . (1.10)
∂Xk T T
1.2.5. Equilibrio térmico y temperatura

Considere un sistema cerrado compuesto que consiste de dos sistemas simples separados
por una pared que es rígida e impermeable a la materia pero que permite el ujo de calor.
1 2
Los volúmenes de los sistemas están jos pero las energías U y U son libres de variar, pero
sujetas a la restricción,

U 1 + U 2 = constante. (1.11)

En el equilibrio, dS = 0 y

dS 1 dS 2
   
1
dS = dU + dU 2 , (1.12)
dU 1 V,N dU 2 V,N

o bien,

1 1 1
dS = 1
dU + 2
dU 2 . (1.13)
T T
Pero dU 1 = −dU 2 , es decir,

 
1 1
dS = − dU 1 = 0, (1.14)
T1 T2
las temperaturas son iguales T 1 = T 2 . El análisis puede extenderse para mostrar que el calor
uye de regiones de alta temperatura a regiones de baja temperatura.
Clase 2
Introducción a la física estadística
La física estadística surge de la necesidad de reconocer que los sistemas físicos macro-
cópicos en general están constituidos por partículas pequeñísimas (cuánticas) en números
formidablemente grandes. Esta tarea, en apariencia simple, no es fácil y ni siquiera está com-
pleta hoy en día. En efecto, no sabemos aún cómo es posible que las ecuaciones de movimiento
(todas: clásicas y cuánticas) sean simétricas ante un cambio de signo en el tiempo (reversibles
o simetría de Kramer) y el mundo microscópico sea irreversible.

Muchas grandes mentes han aventurado respuestas, como Einstein, Gell-Mann, Feynman,
etc, quienes han sugerido que esto tiene que ver con: propiedades de los grandes números,
pérdida de información en colisiones instantáneas, improbabilidades de todo tipo. Sin embar-
go, la pregunta sigue en el aire. Afortudamente en el mundo microscópico, se necesita muy
24
poco para denir un sistema, no necesitamos las 6N ∼ 10 coordenadas para decir cómo
éste comporta. Para conocer un sistema físico hay que medirlo, pero entonces las escalas de
medida cuentan. Las medidas macroscópicas son insensibles al movimiento y al cambio de
las coordenadas microscópicas tanto en el espacio como en el tiempo, (que son del orden de
T ∼ 10−15 seg, L ∼ 1 = 10−10 m).

proceso estocastico
CLAVE medida
pocas coordenadas

2.1. La ecuación de Euler


Podemos tomar ventaja de que la ecuación fundamental es de primer orden y homogénea,

15
U (λS, λX1 , · · · , λXk ) = λU (S, X1 , · · · , Xk ) (2.1)

y diferenciable con respecto a λ,

r
∂U ∂(λS) X ∂U ∂(λXj )
+ = U (S, Xi , · · · , Xr ) (2.2)
∂(λS) ∂λ j=1
∂(λXj ) ∂λ

que es válida para cualquier valor de λ en particular λ = 1, entonces,

r
∂U X ∂U ∂U
S+ =U = Pj (2.3)
∂S j=1
∂Xj ∂Xj

es decir,

r
X
U = TS + Pj X j ecuación de Euler (2.4)
j=1

en un sistema simple,

r
X
U = TS − PV + µi Ni . (2.5)
i=1

2.2. La relación de Gibbs-Duhem


1
Nuevamente aprovechamos las propiedades de las funciones de primer orden, si λ= Nr
,

 
S V N1 Nr U
U , , ,··· , = (S, V, N1 , · · · , Nr ) (2.6)
Nr Nr Nr Nr Nr | {z }
Nr + 2 variables
 
 S V N1 
U (S, V, N1 , · · · , Nr ) = Nr U 
 Nr , Nr , Nr , · · · , 1
 (2.7)
| {z }
Nr + 1 variables

S V
U (S, V, N ) = N u(s, v, 1) = N u(s, v), con s= , v= (2.8)
N N
esto quiere decir que en realidad hay r+2 parámetros extesivos y hay r+2 ecuaciones de
1
estado, pero como λ = ,
Nr

µr = µr (s, v, n1 , · · · , nr , 1) (2.9)

las r + 2 ecuaciones de estado son función de r + 1 variables, por lo tanto, existe una relación
entre los parámetros intensivos. De la relación de Euler, diferenciando,
r
X
dU = T dS + SdT − P dV − V dP + (µj dNj = Nj dµj ), (2.10)
j=1

pero sabemos que,

r
X
dU = T dS = P dV + µr dNr (2.11)
j=1

de aquí,

r
X
0 = SdT − V dP + Nj dµj , (2.12)
j=1

la cual es la relación de Gibbs-Duhem. Si sólo hay una sustancia química,

dµ = −sdT + vdP, (2.13)

un sistema de r componentes tiene r+1 grados de libertad termodinámicos.

La ecuación de Gibbs-Duhem, muestra que tres variables intensivas no son independientes,


si conocemos dos de ellas, el valor de la tercer puede determinarse usando la ecuación 2.12.

2.3. El principio de mínima energía


El principio de máxima entropía caracteriza el estado de equilibrio de cualquier parámetro
(no restringido extensivo) como el que tiene la máxima entropía para una energía total dada.
De forma similar, el principio de mínima energía caracteriza el estado de equilibrio como el
que tiene la mínima energía para una entropía total dada.

Recordemos que la segunda ley de la termodinámica indica que existe una función S de
la energía del sistema S(U, V, N ) que es una función creciente monótona de la energía interna
U. Esta función alcanza un extremo (máximo) en el equilibrio. Si usamos

1 P µ
dS = dU + dV − dN (2.14)
T T N
como la relacion fundamental, vemos que dS = 0 para la energía interna constante una vez
que el sistema alcanza el equilibrio.

Consideremos la gura 2.3 del lado izquierdo, para U constante, el equilibrio se alcanza
cuando S es máxima con respecto a la variable Xj . Si comenzamos con un sistema para el
cual la variable Xj no tiene el valor que corresponde al equilibrio, el sistema restrigido a estar
a un valor constante de U evolucionará y S aumentará y Xj variará durante este proceso. El
proceso se detiene cuando S alcanza un máximo:

 
dS
= 0, Equilibrio. (2.15)
dXj U

Cerca del punto de equilibrio, tendremos,


∂ 2S
 
< 0. (2.16)
∂X 2 U

Figura 2.1: Entropía y energía.

Otra manera de visualizar esto es tomando la relación fundamental dU = T dS − P dV +


µdN . En este caso restringimos al sistema a tener una entropía constante. Esto se represenda
en la gura 2.3 del lado derecho. A entropía constante, el equilibrio se alcanza cuando U
tiene un mínimo con respecto a otras variables (no restringidas) Xj . Entonces el sistema
evolucionará hacia la minimización de la energía, ajustando Xj .

2.4. Transformaciones de Legendre


El arte de los cálculos termodinámicos se basa principalmente en la elección de la formu-
lación teórica particular que haga el problema simple.

Ya que los parámetros intensivos se miden y controlan más fácilmente que los paráme-
tros extensivos, se puede pensar en los pámetros intensivos como variables independientes y
los parámetros extensivos como las cantidades derivadas. Una desventaja de usar U (S, V, N )
como un potencial termodinámico es que la variable natural S es muy difícil de controlar en
el laboratorio. Para propósitos prácticos es más fácil trabajar con otros potenciales termo-
dinámicos que pueden denirse haciendo uso de la transformada de Legendre. Esto lleva a
reformular a la termodinámica en otras representaciones, además de la entropía y la energía.

Considere una función, Y = Y (X0 , X1 , · · · , Xt ) = Y (X), que representa una curva en el


espacio X, Y , donde

∂Y
P ≡ (2.17)
∂X
es la pendiente de la curva, véase la gura 2.6.

La idea es escribir a P como variable, i.e. Y = Y (P ), sin embargo, es claro que la


∂Y
descripción de Y a través de la pendiente
∂X
no permite reconstruir la ecuación fundamental,
ya que Y = Y (P ) es una ecuación diferencial de primer orden y la integración resulta en
Y = Y (X) conocida hasta una constante de integración, por lo tanto, se pierde información.
La solución del problema está en que una curva dada puede ser representada por:

1. Una familia de líneas tangentes, descrita por dos números Y = P X + Ψ.


2. El locus de puntos que satisfagan Y = Y (X), de igual manera descrito por dos números.

Tomando a la familia de líneas tangentes, Y = Y (P ), seleccionamos las variables (P, Ψ), tal
que,

Ψ = Ψ(P ) → Y = Y (X),
donde Ψ es la transformada de Legendre de Y. Debemos entonces conocer las intersecciones
para todas las tangentes, hágase referencia a la gura 2.4, donde la pendiente,

Y −Ψ
P = → Ψ = Y − P X, (2.18)
X −0
como Y = Y (x) y P = P (X),
Ψ = Y (X) − P (X)X (2.19)

La ecuación 2.19 es la denición de transformada de Legendre de Y (X). Nótese que hemos


eliminado X y Y, lo cual es posible si P depende de X, es decir,

d2 Y
6= 0 (estabilidad). (2.20)
dX 2

2.5. Transformada inversa de Legendre


Diferenciando la ecuación 2.19, obtenemos la expresión,

dΨ = −P dX − XdP + dY = −XdP, (2.21)

es decir,


−X = (2.22)
dP
ahora se eliminan Ψ y P para dar Y (X) = Y .

Y = Y (X) Ψ = Ψ(P )
dY
P = dX −X = dΨdP
Eliminar X y Y Eliminar P y Ψ
Ψ = Ψ(P ) Y = Y (X)

2.5.1. Generalización a más variables

Partiendo de Y = Y (X0 , X1 , X2 , · · · Xj ),

∂Y
PJ = (2.23)
∂Xj
r
X
Ψ=Y − Pj X j (2.24)
j=1

r
X ∂Ψ
dΨ = − Xj dPj → −Xj = (2.25)
j=1
dPj

Ejemplo: La lagrangiana

L = L(q1 , q2 , · · · , qn , v1 , v2 , · · · , vn ) (2.26)

∂L
el momento se puede denir como
∂vk
Pk =
, si se desea trabajar con los momentos en vez de
las velocidades se toma la transformación parcial con respecto a las velocidades, entonces se
dene la transformada (primera cantidad de Jacobi) como,
n
X
−H =L− Pk vk (2.27)
k=1

∂H
y entonces H = H(P1 , P2 , ·, Pn , q1 , q2 , · · · , qn ) y
∂Pk
= vk .

2.6. Potenciales termodinámicos


Los potenciales termodinámicos son funciones de estado que junto con las correspondien-
tes ecuaciones de estado, describen el comportamiento en el equilibrio de un sistema como
función de las llamadas variables naturales, las cuales son el conjunto de variables apropia-
das que permiten calcular otras funciones de estado por medio de la diferenciación parcial de
los potenciales termodinámicos.

Un potencial termodinámico para un sistema con un número de partículas variable debe


depender de µ, N así como de una variable térmica [S(extensiva) o T(intensiva)] y una variable
mecánica [V(extensiva) o P(intensiva)].

Existen cuatro posibles combinaciones de estas variables,

2.6.1. Energía libre de Helmholtz

Partiendo de U = U (S, V, N ), si reemplazamos la variable independiente S por T. De-


nimos la energía libre F = U [T ] = F (T, V, N ):

 
∂U
F =U −S = U − T SF = F (T, V, N ) Energía libre
∂S V,N

En la expresión,

dF = dU − d(T S) = dU − SdT − T dS
sustituimos dU y obtenemos,
r
X
dF = −SdT − P dV + µj dNj . (2.28)
j=1

Las variables naturales de la energía libre son T, V, N . Las variables dependientes se


obtienen a partir de las primeras derivadas,

   
∂F ∂F
−S = P =−
∂T V,N ∂V T

las cuales son las ecuaciones de estado.

2.6.2. Entalpía

La entalpía H = H(S, P, N ), se obtiene cuando sustituimos la variable V por P en


U (S, V, N ):

H = U + PV
La diferencial total de H,
 
∂U
H =U −V (2.29)
∂V S,N
| {z }
-P

r
X
dH = dU + d(P V ) = dU + V dP + P dV = T dS − P dV + µr dNr + V dP + P dV
j1

r
X
dH = T dS + V dP + µr dNr . (2.30)
j1

Las variables naturales de la entalpía son S, P, N . A partir de las primeras derivadas


obtenemos,

   
∂H ∂H
T = V = (2.31)
∂S P,N ∂P S,N

2.6.3. La función de Gibbs

Obtenemos esta función si reemplazamos S por T y V por P,

G = G(T, P, N ) (2.32)

   
∂U ∂U
G=U −S −V
∂S V,N ∂V S,N
G = U − T S + P V. (2.33)

T = ∂U
∂S
−S = ∂G
∂T
G = U − TS + PV
∂U
−P = ∂V V = ∂G
∂P
U = G + TS − PV

La diferencial total,

X
dG = SdT + V dP + µk Nk . (2.34)
k

A partir de las primeras derivadas de G, obtenemos,

   
∂G ∂G
S=− V = (2.35)
∂T P,N ∂P T,N

La funciones de Massieu son las posibles transformadas de Legendre de la entropía así como
los potenciales termodinámicos son de la energía.

2.7. Relaciones de Maxwell


Estas relaciones conectan dos derivadas de variables termodinámicas y emergen debido a
la equivalencia de las segundas derivadas del potencial bajo un cambio de orden de operación,
i.e.,

∂ 2F ∂ 2F
= ,
∂X∂Y ∂Y ∂X
donde F es un potencial termodinámico y X y Y son dos de sus variables naturales indepen-
dientes.

Si consideramos las segundas derivadas,

∂ 2U ∂ 2U
=
∂S∂V ∂V ∂S
∂ ∂U
= − ∂P ∂T ∂ ∂U
   
∂S ∂V S,N ∂S V,N
= ∂V S,N
= ∂V ∂S V,N

donde el texto realzado en rojo corresponde a la relación de Maxwell.

Para un sistema simple, hay tres relaciones de Maxwell con respecto a U. Existen 6
transformadas parciales de Legendre → 21 relaciones de Maxwell. Se puede identicar dichas
relaciones usando el siguiente cuadro termodinámico:

dU = T dS − P dV
dF = −SdT − P dV
dH = T dS + V dP
dG = V dP − SdT
etc.
P G T

H F

S U V

2.7.1. Aplicaciones

Las relaciones de Maxwell son importantes porque muestran que las derivadas de los pará-
metros termodinámicos no son completamente independientes. Además proveen un método
para expresar derivadas que involucran cantidades difíciles de medir con aquéllas que son
fácilmente medibles en un experimento.

Por ejemplo, ¾cómo mediríamos la entropía o el potencial químico en el laboratorio? Es-


tas cantidades no son accesibles directamente de forma experimental. Lo que podemos medir
típicamente son cantidades mecánicas como la presión, volumen, densidad y propiedades tér-
micas como la temperatura y el ujo de calor (vía cambios de temperatura). Sin embargo,
existen algunas propiedades materiales fácilmente medibles que dependen de las derivadas
de las variables termodinámicas. Debido a que estas cantidades miden el cambio en un pará-
metro del sistema en respuesta a una perturbación innitesimal, se conocen como funciones
respuesta:

1. Calor especíco a volumen constante:

   
∂U ∂S
CV ≡ =T (2.36)
∂T V,N ∂T V,N

2. Calor especíco a presión constante:

   
∂H ∂S
CP ≡ =T (2.37)
∂T P,N ∂T P,N

3. Expansión térmica,

 
1 ∂V
αP = (2.38)
V ∂T P,N

4. Compresibilidad isotérmica,

 
1 ∂V
κT = − (2.39)
V ∂P T,N

Estas funciones respuesta se denen de tal forma que sean positivas para los sistemas
normales, tales como los gases ideales y los líquidos simples. Sin embargo, en ocasiones
hay excepciones como el caso de la expansión térmica del agua debajo de los 4o C, la cual es
negativa.

Por lo tanto, las relaciones de Maxwell nos permiten expresar cantidades inaccesibles expe-
∂S ∂V
 
rimentalmente en terminos de cantidades medibles, como por ejemplo,
∂P T,N
= − ∂T P,N
.
Clase 3
Revisión de Mecánica Cuántica

3.1. Proceso de medición


La teoría cuántica, basada en la ecuación de Schrödinger no puede describir el proceso
una medición. La evolución de la función de onda descrita por la ecuación de Schrödinger
tiene dos características fundamentales: es un proceso reversibe, de tal forma que siempre
se puede deshacer el proceso y regresar al estado inicial desde el estado nal, y tiene una
evolución determinista en el que el estado nal esta determinado únicamente por los estados
iniciales si el Hamiltoniano que describe al sistema es conocido. Por otro lado, el proceso de
medición es irreversibe y no determinista. Una vez que se efectúa la medición y se extrae
la información, es imposible regresar al estado inicial. Antes de que la medición se complete,
no se puede predecir cuál será el resultado de la medición y cual será el estado posterior a la
medición del sistema.

3.1.1. Ecuación de eigenvalores

Sea Ô un operador que opera sobre funciones de la variable x. Denotamos las eigen-
funciones del operador Ô con sj (x) o colectivamente con {sj (x)}, j = 1, 2, 3, · · · y a
con

los eigenvalores con λj , o de manera colectiva como {λj }. Si conocemos Ô , por denición

obtenemos las eigenfunciones y eigenvalores (sj (x), λj ) de Ô resolviendo la ecuación,

Ôs(x) = λs(x). (3.1)

En notación de Dirac, un vector de estado |ψi es un eigenvector (eigenket o eigenestado)


de un operador Ô si la aplicación de Ô a |ψi da,

Ô|ψi = λ|ψi, (3.2)

donde λ es un número complejo. La ecuación 3.2 es conocida como la ecuación de eigenvalores


o problema de eigenvalores del operador Ô . Su solución da los eigenvalores y eigenvectores
de Ô . Para sistemas físicos, λ es real y el operador Ô tiene la propiedad de ser hermitiano,

(ÔT ) = Ô = Ô† . (3.3)

27
El problema central en mecánica cuántica es la determinación de la función de onda
Ψ(r, t) que en general es una función de la posición y del tiempo, para cualquier sistema de
interés. En algunos problemas, podemos enfocarnos en la solución del problema en términos
de la parte independiente del tiempo de Ψ(r, t), que se denota con ψ(r). El estado particular
descrito por ψ(r) se conoce como estado estacionario.

Para un sistema físico, las condiciones a la frontera del mismo son sucientes para de-
terminar la función de onda y sus eigenvalores asociados. Para hamiltoniano de la forma
H =T +V, la ecuación de Schrödinger, resulta en,

H|Ψn i = En |Ψn i, o bien (H − E)|Ψn i = 0. (3.4)

La solución de este problema resulta en,

|H − E|G = 1. (3.5)

donde G es la función de Green del problema y H es un operador hermitiano,

(Ψ∗ H ∗ )T = En Ψ∗T (3.6)

hΨn0 |H T = hΨn0 |H = hφn |En0 (3.7)

hΨn0 |H|Ψn i = En0 hΨn0 |Ψn i, (3.8)

si el vector de estado está normalizado


P hΨn0 |Ψn i = δnn0 y cumple con la condición de cerradura

n |Ψn ihΨn | = 1, obtenemos,

En = hΨn |H|Ψn i, (3.9)

el valor esperado. Las observables macrocópicas y sus eigenestados asociados forman un


conjunto completo.

3.1.2. Observables conmutables

Supongamos que Â|an i = an |an i y B̂|bn i = bn |bn i, entonces,

B̂(Â|an i) = an B̂|an i = an bn |an i, (3.10a)

Â(B̂|bn i) = bn Â|an i = an bn |an i, (3.10b)

a partir de las dos ecuaciones anteriores obtenemos,

(B̂ Â − ÂB̂)|an i = 0, (3.11a)

[A, B] = 0. (3.11b)
Como caso particular, si B̂ = Ĥ y encontramos los operadores  que cumplen con la
expresión (3.11b), entonces tenemos la máxima información del sistema o las constantes de
movimiento.

3.2. Postulados de la mecánica cuántica


Estos postulados nos permiten entender las siguientes preguntas:

Cómo se describe matemáticamente un estado cuántico a un tiempo dado t.

Cómo calcular las cantidades físicas a partir de estos estados cuánticos.

Conociendo el estado del sistema a un tiempo t, cómo encontrar su estado a cualquier


0
tiempo posterior t , i.e., cómo describir la evolución temporal del sistema.

Postulado 1: El estado de un sistema


El estado de cualquier sistema físico se especifíca a cada t por un vector de estado |ψ(t)i
en un espacio de Hilbert (véase más abajo). |ψ(t)i contiene toda la información sobre el
sistema. Cualquier superposición de vectores de estado también es un vector de estado.

Postulado 2: Observables y operadores


A cada cantidad física medible O, conocida como observable o variable dinámica, le co-
rresponde un operador lineal hermitiano Ô cuyos eigenvectores forman una base completa.

Postulado 3: Mediciones y eigenvalores de los operadores


La medición de la observable O es la acción de Ô sobre |ψ(t)i. El resultado de la medición
es un eigenvalor λn de Ô. El estado del sistema inmediatamente después de la medición es la
proyección de |ψ(t)i sobre el eigenvector |ψn i asociado a λn :

|ψ(t)idespués = |ψn ihψn |ψ(t)i. (3.12)

Postulado 4: Resultados probabilistas de las mediciones


• Espectro discreto: Cuando se mide la observable O de un sistema en el estado |ψi, la
probabilidad de obtener un eigenvalor no degenerado λn de Ô es,

|hψn |ψi|2
Pn (λn ) = . (3.13)
hψ|ψi
Postulado 5: La evolución temporal de un sistema
La evolución temporal de un vector de estado |ψ(t)i de un sistema esta gobernado por la
ecuación de Schrödinger dependiente del tiempo,

∂|ψ(t)i
i~ = Ĥ|ψ(t)i, (3.14)
∂t

donde Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema.


3.2.1. Espacios de Hilbert

Un espacio de Hilbert tiene la propiedad de ser un espacio completo lineal con un producto
escalar denido. Este espacio es el de funciones cuadráticamente integrables.

Propiedades del producto escalar

(ψ, φ) = (φ, ψ)∗

El producto escalar es lineal en φ y antilineal en Ψ,

(ψ, λ1 φ + λ2 φ2 ) = λ1 (ψ, φ1 ) + λ2 (ψ, φ2 )

(λ1 ψ + λ2 ψ2 , φ) = λ∗1 (ψ1 , φ) + λ∗2 (ψ2 , φ)

La norma (Ψ, Ψ) ≥ 0.

A partir de estas propiedades se inere la desigualdad de Schwartz,

|(ψ, φ)|2 ≤ (ψ, ψ)(φ, φ). (3.15)

3.2.2. Transformaciones unitarias

Cuando un operador unitario Û es aplicado a los vectores de estado y los operadores,


éstos se transforman de la siguiente manera,

|ψ 0 i = Û |ψi, hψ 0 | = hψ|Û † , Ô0 = Û ÔÛ † , (3.16)

|ψi = Û † |ψ 0 i, hψ| = hψ 0 |Û , Ô = Û † Ô0 Û . (3.17)

Propiedades
Si un operador Ô es hermitiano, su operador transformado, también es hermitiano,


Ô0 = (Û ÔÛ † )† = Û Ô† Û † ≡ Û ÔÛ † = Ô0 (3.18)

Los eigenvalores de Ô y Ô0 son los mismos.

Un transformación unitaria no cambia la física del sistema estudiado, únicamente trans-


forma de una descripción a otra, físicamente equivalente. Y veremos su utilidad más
adelante al hablar sobre los diferentes marcos de descripción de la Mecánica Cuántica.
3.2.3. Transformaciones unitarias innitesimales

Consideremos un operador unitario Û que depende de un parámetro initesimalmente


pequeño  que varía ligeramente del operador unitario Iˆ,

Û (Ĝ) = Iˆ + iĜ, (3.19)

donde Ĝ se conoce como el generador de la transformación innitesimal. Podemos ver que


Û es un transformación unitaria sólo si  es real y Ĝ es hermitiano,

Û Û† = (Iˆ + iĜ)(Iˆ − iĜ† ) ≈ Iˆ + i(Ĝ − Ĝ† ) (3.20)

donde hemos despreciado términos cuadráticos en .


La transformación de los vectores de estado |si es,

|ψ 0 i = (Iˆ + iĜ)|ψi = |ψi + δ|ψi, (3.21)

donde δ|ψi = iĜ.


La transformación de un operador Ô está dada por,

Ô0 = (Iˆ + iĜ)(Iˆ − iĜ) ≈ Ô + i[Ĝ, Ô]. (3.22)

Si Ĝ conmuta con Ô, la transformación unitaria no cambiará Ô, es decir, Ô0 = Ô:

[Ĝ, Ô] = 0, → Ô0 = (Iˆ + iĜ)Ô(Iˆ − iĜ) = Ô. (3.23)

3.2.4. Transformaciones unitarias nitas

Podemos construir una transformación unitaria nita a partir de la ecuación 3.19 efec-
tuando una sucesión de transformaciones innitesimales en pasos de ; la aplicación de un
serie de transformaciones unitarias sucesivas es equivalente a la aplicación de una transforma-
ción unitaria única. Sea  = α/N , donde N es un entero y α es un parámetro nito, podemos
aplicar la misma transformación N veces y en el límite N → +∞ obtenemos,

N 
Y α   α N
Ûα (Ĝ) = lı́m 1 + i Ĝ = lı́m 1 + i Ĝ = eiαĜ , (3.24)
N →∞
k=1
N N →∞ N

donde Ĝ es el generador de la transformación nita y α es un parámetro.

El operador Û es unitario, sólo cuando el parámetro α es real y Ĝ es es hermitiano, i. e.,

 †  −1
eiαĜ = e−iαĜ = eiαĜ . (3.25)
3.3. Esquemas de la Mecánica Cuántica
Existen muchas representaciones de las funciones de onda y operadores en mecánica cuán-
tica. La conexión entre estas representaciones se hace en términos de las transformaciones
unitarias que repasamos en la sección anterior. Cada clase de representación diere de las
otras en términos de cómo se trata la evolución temporal del sistema. Los esquemas frecuen-
temente usandos en mecánica cuantica son los siguientes:

3.3.1. Esquema de Schrödinger

Es útil cuando se describen fenónomenos con Hamiltonianos independientes del tiempo.


En este marco los vectores de estado dependen explícitamente del tiempo, pero los operadores
no,

d
i~ |ψ(t)i = Ĥ|ψ(t)i (3.26)
dt
donde |ψ(t)i denota el estado del sistema en este esquema. La evolución temporal de un

estado |ψ(t)i puede expresarse en términos del propagador de evolución temporal, ˆ(U )(t, t0 )
de la siguiente manera,

|ψ(t)i = ˆ(U )(t, t0 )|ψ(t0 )i, (3.27)

con ˆ(U )(t, t0 ) = ei(t−t0 )Ĥ/~ .

3.3.2. Esquema de Heisenberg

Su utilidad surge para sistemas cuyos Hamiltonianos tienen una dependencia temporal
explícita en el tiempo. La dependencia temporal de los vectores de estado está completamente
congelada. Este esquema se obtiene a partir del esquema de Schrödinger aplicando Û sobre
|ψ(t)i,

|ψ(t)iH = Û † (t)|ψ(t)i = |ψ(0)i. (3.28)

itĤ itĤ
Podemos reescribir Û † = Û † (t, t0 = 0) = e ~ y |ψ(t)i = Û (t)|ψ(0)i, Û (t) = e ~ . Entonces
podemos reescribir la ecuación 3.28 como,

itĤ
|ψ(t)iH = e ~ |ψ(t)i. (3.29)

Un cálculo sencillo nos permite obtener el valor de expectación del operador  en el estado
|ψ(t)i que evoluciona en el tiempo, considerando que d|ψ(t)iH /dt = 0:

itĤ −itĤ
hψ(t)|Â|ψ(t)i =iψ(0)|e ~ Âe ~ |ψ(0)i =iψ(0)|ÂH (t)|ψ(0)i = hψ|ÂH (t)|ψiH . (3.30)

donde,
itĤ −itĤ
ÂH (t) = Û † (t)ÂÛ (t) = e ~ Âe ~ . (3.31)
Es decir, el valor de expectación de un operador es el mismo en el marco de Schrödinger
y Heisenberg.

3.3.3. Esquema de Dirac

El marco de interacción o esquema de Dirac, es útil para describir fenómenos cuánticos


con Hamiltonianos que dependen explícitamente del tiempo y además podemos separar de la
siguiente manera Ĥ = Ĥ0 + V̂ , donde Ĥ0 es independiente del tiempo y V̂ puede depender
del tiempo. Aquí ambos, vectores de estado y operadores evolucionan en el tiempo, por lo
tanto es necesario encontrar las ecuaciones de movimiento de los vectores de estado y los
operadores.

Los vectores de estado se denen como,

|ψ(t)iI = eiĤ0 t/~ |ψ(t)i, (3.32)

y su evolución temporal está dada por la ecuación,

d|ψ(t)iI
i~ = V̂I (t)|ψ(t)iI , (3.33)
dt
con,

V̂I (t) = eiĤ0 t/~ V̂ e−iĤ0 t/~ . (3.34)

Se puede ver que esta es la ecuación de Schrödinger en el esquema de interacción y muestra


que la evolución temporal del vector de estado está gobernada por la interacción V̂I .
La representación de interacción para un operador ÂI está dada por la ecuación 3.34.
∂ Â
Calculando la derivada temporal de ÂI y considerando = 0, se puede demostrar que la
∂t
evolucion de ÂI esta gobernada únicamente por Ĥ0 ,

dÂI 1 h i
= ÂI , Ĥ0 . (3.35)
dt i~

3.4. La hipótesis cuántica: posición y momento


Recordemos que q y p conmutan en mecánica clásica (paréntisis de Poisson). Suponga
que son variables cuantizadas, esto es, veremos a las variables clásicas como operadores, lo
primero en cuántica es calcular [q, p].
Antes de describir la evolución de una variable dinámica dentro del contexto de la mecá-
nica clásica y hacer generalización a la mecánica cuántica, conviene hacer un repaso de los
paréntesis de Poisson.

3.4.1. Paréntesis de Poisson

El paréntesis de Poisson de dos variables dinámicas u y v se dene en términos de las


coordenadas generalizadas qi y los momentos pi del sistema,
X  ∂u ∂v ∂u ∂v

{u, v} = − . (3.36)
j
∂qj ∂pj ∂pj ∂qj

Como las variables qi son independientes de pi , tenemos,

∂qj ∂pj
= 0, = 0, (3.37)
∂pk ∂qk
entonces podemos mostrar que,

{qj , qk } = {pj , pk } = 0, {qj , pk } = δjk . (3.38)

Usando la ecuación 3.36 podemos inferir fácilmente las siguientes propiedades de los
paréntesis de Poisson:

1. Antisimetría: {A, B} = −{B, A},

2. Linealidad:

{A, αB + βC + γD + · · · } = α{A, B} + β{A, C} + γ{A, D} + · · ·

3. Complejo conjugado: {A, B}∗ = {A∗ , B ∗ }

4. Distributividad:

{A, BC} = {A, B}C + B{A, C}, {AB, C} = A{B, C} + {A, C}B

5. Identidad de Jacobi,

{A, {B, C}} + {B, {C, A}} + {C, {A, B}} = 0. (3.39)

Estas propiedades son similares a las propiedades de los operadores mecánico cuanti-
cos, las cuales expondremos más adelante. Recordemos las ecuaciones de movimiento en la
formulación hamiltoniana [2],

dqi ∂H
= (3.40)
dt ∂pi
dpi ∂H
=− . (3.41)
dt ∂qi

La evolución de una variable dinámica u = u(q, p, t) es entonces,

 
du ∂u ∂u ∂qi ∂u ∂pi
= + + (3.42)
dt ∂t ∂qi ∂t ∂pi ∂t
Sustituyendo las ecuaciones de Hamilton (6.1),
 
du ∂u ∂u ∂H ∂u ∂H
= + − . (3.43)
dt ∂t ∂qi ∂pi ∂pi ∂qi
La evolución temporal total de una variable dinámica u está dada por la siguiente ecuación
de movimiento,

du ∂u
= {u, H} + . (3.44)
dt ∂t
Donde hemos sustituido la denición de paréntesis de Poisson, dada por la ecuación 3.36.
Notemos que si u no depende explícitamente del tiempo, su evolución temporal está dada
simplemtene por du/dt = {u, H}. Si du/dt = 0 ó {u, H} = 0, se dice que u es una constante
de movimiento.

3.4.2. Álgebra de conmutadores

El conmutador de dos operadores  y B̂ está denido como,

[Â, B̂] = ÂB̂ − B̂ Â, (3.45)

y el anti-conmutador,

{Â, B̂} = ÂB̂ + B̂ Â. (3.46)

Dos operadores conmutan si [Â, B̂] = 0. Para los operadores de posición q̂i y momento
p̂j = i~ dqdj ,

[q̂j , p̂j ] = i~δij . (3.47)

Hay una analogía entre el álgebra de conmutadores de operadores y el álgebra de los


paréntesis de Poisson de la mecánica clásica. Esta analogía permite ligar a la mecánica clásica
con la mecánica cuántica.

3.4.3. Evolución temporal y valores de expectación

Queremos estudiar en esta sección la dependencia temporal de los valores de expectación


de un operador lineal. Si el estado |ψ(t)i está normalizado, el valor de expectación está dado
por,

hÂi = hψ(t)|Â|ψ(t)i. (3.48)

Si recordamos que la evolución de un vector de estado |ψ(t)i de un sistema está gobernado


por la ecuación de Schrödinger dependiente del tiempo,

∂|ψ(t)i
i~ = Ĥ|ψ(t)i, (3.49)
∂t
con Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema, podemos
escribir dhÂi/dt de la siguiente manera,

* +
d 1 ∂ Â
hÂi = h[Â, Ĥ]i + . (3.50)
dt i~ ∂t

Notemos que si la observable  no depende explícitamente del tiempo, el termino ∂ Â/∂t


es cero, y la razón de cambio del valor de expectación de  está dado por el conmutador.
Además si la observable A conmuta con el hamiltoniano, la cantidad dhÂi/dt es cero, entonces
el valor de expectación hÂi será constante en el tiempo. Si  es independiente del tiempo y
conmuta con el hamiltoniano, decimos que la observable A es una constante de movimiento,
esto es, el valor de expectación de un operador que no depende del tiempo y conmuta con el
hamiltoniano es una constante en el tiempo:

∂ Â
[Ĥ, Â] = 0 → = 0, → hÂi = constante. (3.51)
∂t
Se puede demostrar que la energía, el momento lineal y el momento angular de un sistema
aislado son cantidades consevadas: dhĤi/dt = 0, dhP̂ i/dt = 0 y dhL̂i/dt = 0. Esto implica que
los valores de expectación de Ĥ , P̂ y L̂ son constantes. Recordemos de la mecánica clásica que
la conservación de la energía, el momento lineal y el momento angular son consecuencias de las
siguientes simetrías, respectivamente, homogeneidad del tiempo, homogeneidad del espacio e
isotropía del espacio. Estas simetrías están asociadas con invariancias en la traslación en el
tiempo, traslación en el espacio y rotaciones espaciales.

Retomemos el esquema de Heisenberg, visto anteriormente. Supongamos que el operador


 no depende explícitamente del tiempo, (i.e., ∂ Â/∂t = 0) y ya que Û (t) es un operador
unitario, tenemos de la ecuación 3.31,

dÂH (t) ∂ Û † (t) ∂ Û (t) 1 1


= ÂÛ (t) + Û † (t)Â = − Û † Ĥ Û Û † ÂÛ + Û † ÂÛ Û † Ĥ Û
dt dt ∂t i~ i~

Finalmente,

dÂH (t) 1 h i
= ÂH , Û † Ĥ Û . (3.52)
dt i~
Como los operadores Û (t) y Ĥ conmutan, tehemos Û † (t)Ĥ Û (t) = Ĥ , por lo tanto, podemos
reescribir la ecuación anterior como,

dÂH (t) 1 h i
= ÂH , Ĥ . (3.53)
dt i~
Esta es la ecuación de movimiento de Heisenberg, la cual generalmente es muy difícil de
resolver. Note que la estructura de la ecuación 3.53 es similar a la ecuación clásica 3.44
cuando  no depende explícitamente del tiempo, i. e. dA/dt = {A, H}, donde {A, H} es el
paréntesis de Poisson.
3.5. Relaciones de incertidumbre entre dos operadores
Sean hÂi y hB̂i con respecto a un vector de estado normalizado |ψi. Esto es, hÂi = hψ|Â|ψi
y hB̂i = hψ|B̂|ψi. Las incertidumbres ∆A y ∆B se denen,
q q
∆A = hÂ2 i − hÂi2 , ∆B = hB̂ 2 i − hB̂i2 , (3.54)

donde hÂ2 i = hψ|Â2 |ψi y similarmente para B̂ . Supongamos que la acción de los operadores
∆ y ∆B̂ ,

∆ =  − hÂi, ∆B̂ = B̂ − hB̂i (3.55)

sobre cualquier estado |ψi está dado por,

∆Â|ψi = |χi, ∆B̂|ψi = |φi (3.56)

La desigualdad de Schwartz para los estados |χi y |φi está dada por,

hχ|χihφ|φi ≥ |hχ|φi|2 . (3.57)

Como  y B̂ son hermitiano, ∆ y ∆B̂ también son hermitianos, de tal forma que ∆† =
 − hÂi = ∆ y similarmente para ∆B̂ † = ∆B̂ . Usando la hermiticidad de ∆ y ∆B̂ ,

podemos demostrar que,

∆† = ∆ → hχ|χi = hψ|∆† ∆Â|ψi = hψ|(∆Â)2 |ψi = h(∆Â)2 i (3.58)

y de manera similar hφ|φi = h(∆B̂)2 i. Entonces la ecuación 3.57 se convierte en,

h(∆Â)2 ih(∆B̂)2 i ≥ |h∆Â∆B̂i|2 . (3.59)

El último término puede reescribirse como,

1 1 1 1
∆Â∆B̂ = [∆Â, ∆B̂] + {∆Â, ∆B̂} = [Â, B̂] + {∆Â, ∆B̂}, (3.60)
2 2 2 2
donde hemos usado el hecho de que el conmutador [∆Â, ∆B̂] es igual a [Â, B̂]. Como [Â, B̂]
es anti-hermitiano y su valor de expectación es real y además el valor de expectación de un
operador anti-hermitiano es imaginario, el valor de expectación de h∆Â∆B̂i de la ecuación
3.60 es igual a la suma de un parte real h{∆Â, ∆B̂}i y una parte imaginaria h[Â, B̂]i, entonces,

1 1
|h∆Â∆B̂i|2 = |h[Â, B̂]i|2 + |h{∆Â, ∆B̂}i|2 . (3.61)
4 4
Notemos que el último término es un número positivo y real, por lo tanto podemos inferir,

1
|h∆Â∆B̂i|2 ≥ |h[Â, B̂]i|2 . (3.62)
4
Comparando las ecuaciones 3.59 y 3.62 concluimos que,
1
h(∆Â)2 ih(∆B̂)2 i ≥ |h[Â, B̂]i|2 . (3.63)
4
2 2
Usando las ecuaciones 3.55 tenemos h(∆Â) i = h i − hÂi2 y combinando esto con la
2 2
ecuación 3.54 obtenemos h(∆Â) i = (∆A) . Finalmente,

1
∆A∆B ≥ |h[Â, B̂]i|. (3.64)
2
Esta relación de incertidumbre es muy importante en mecánica cuántica. Su aplicación a
los operadores de posición y momento conduce a las relaciones de incertidumbre de Heisen-
berg.

3.6. Función de Green


3.6.1. Función de Green en matemáticas

Consideremos una ecuación diferencial inhomogénea, para entender mejor el concepto y


por simplicidad trataremos el caso en una dimensión,

D̂x y(x) = f (x), (3.65)

donde D̂x es un operador diferencial lineal que depende de la variable x.


Supongamos que dicho operador es el del oscilador armónico amortiguado,

d2 d
D̂x = 2
+ γ + ω2. (3.66)
dx dx
Cuya solución es de la forma,

y(x) = ycomplemetaria + yparticular , (3.67)

donde ycomplementaria es la solución de la ecuación homogénea D̂x yhomogénea (x) = 0 y yparticular (x)
es cualquier solución especial de la ecuación inhomogénea. Para obtener dicha solución espe-
cial de la ecuación inhomogénea para cualquier inhomogeneidad f (x), necesitamos primero
encontrar la solución a la siguiente ecuación,

D̂x G(x, x0 ) = δ(x − x0 ), (3.68)

0
la cual dene la función de Green G(x, x ) que corresponde al operador D̂x . Una vez que
0
encontramos G(x, x ) cualquier solución especial puede construirse por medio de,

Z
yparticular (x) = dx0 G(x, x0 )f (x0 ). (3.69)
3.7. Formalismo
3.7.1. Función de Green independiente del tiempo

Una función de Green es la solución de una ecuación diferencial homogénea de la forma,

[z − L(r)]G(r, r0 ; z) = δ(r − r0 ), z∈C (3.70)

0
sujeta a ciertas condiciones a la frontera para las dos coordenadas de posición r y r sobre
0
una supercie S en el dominio Ω de r y r . Suponemos que z es una variable compleja con
λ≡ Re{z} y s≡ Im{z}, L(r) es un operador diferencial lineal, Hermitiano e independiente
del tiempo que posee un conjunto completo de eigenfunciones {ψn (r)}, es decir,

L(r)ψn (r) = λn ψ(r). (3.71)

donde {ψn (r)} satisface las mismas condiciones a la frontera que G(r, r0 ; z)
Recordemos que ψn forma una base ortonormal y completa:

Z X
ψn∗ (r)ψm (r)dr = δnm y

ψn (r)ψm (r) = δ(r − r0 ). (3.72)
n n

Donde δ(r − r0 ) es la función delta de Dirac, que satisface:

(
0 si (r − r0 ) 6= a
δ(r − r0 ) =
∞ si (r − r0 ) = a.

Es importante notar que la función delta de Dirac actuando sobre una función f (r)
satisface la siguiente propiedad,

Z
δ(r − r0 )f (r0 )dr0 = f (r) para cualquier r0 ⊂ Ω. (3.73)

Trabajar con las funciones de Green se facilita si trabajamos en la notación de Dirac,


donde se dene el ket |ri como el eigenvector del operador de posición, escribimos,

ψn (r) = hr|ni (3.74a)

δ(r − r )L(r) ≡ hr|L|r0 i


0
(3.74b)

G(r, r0 ; z) ≡ hr|G(z)|r0 i (3.74c)

hr|r0 i = δ(r − r0 ) (3.74d)


Z
dr|rihr| = 1 (3.74e)
Usando esta notación, podemos escribir las ecuaciones 3.70, 3.71 y 3.72 como,

(z − L)G(z) = 1 (3.75a)

L|ψn i = λn |ψn i (3.75b)

hψn |ψm i ≡ δnm (3.75c)


X
|ψn ihψn | = 1 (3.75d)
n

Usando las ecuaciones anteriores, podemos calcular el elemento de matriz hr|, |r0 i de la ecua-
ción 3.75(a),

hr|(z − L)G(z)|r0 i = hr|1|r0 i = hr|r0 i = δ(r − r0 ) (3.76)

El lado izquierdo esta dado por,

hr|(z − L)G(z)|r0 i ≡ hr|zG(z)|r0 i − hr|LG(z)|r0 i. (3.77)

Usando la ecuación 3.74(c) podemos reescribir lo anterior como,

hr|(z − L)G(z)|r0 i ≡ zG(r, r0 ; z) − hr|LG(z)|r0 i, (3.78)

y considerando además que estamos trabajando sobre una base completa, podemos usar la
ecuación 3.74(e) y obtenemos,

Z
0 0
hr|(z − L)G(z)|r i = zG(r, r ; z) − dshr|L|sihs|G(z)|r0 i = zG(r, r0 ; z) − L(r)hr|G(z)|r0 i.
(3.79)

Usando la ecuación 3.74(c) podemos reescribir toda la ecuación como,

zG(r, r0 ; z) − L(r)G(r, r0 ; z) = δ(r − r0 ). (3.80)

Finalmente, factorizando obtenemos le ecuación 3.70.

El hecho de que podamos expresar la función de Green independiente del tiempo en


0
notación de Dirac signica que la función de Green de las coordenadas de posición r y r está
2
denida en el espación de Hilbert. Esto quiere decir que el espacio L es un espacio de Hilbert
y ya no estamos restringidos a trabajar únicamente con la posición, sino que podemos aplicar
2 2
una transformada de Fourier de r ⊂ L a k ⊂ L y trabajar en el espacio de momentos.

Si todos los eigenvalores de z−L son distintos de cero, entonces podemos resolver la
ecuación 3.75(a) como,

1
G(z) = . (3.81)
z−L
Multiplicando la ecuación 3.81 por la ecuación 3.75(d) obtenemos,
1 X
G(z) = |ψn ihψn |. (3.82)
z−L n
1
donde es una constante. Usando la ecuación 3.75(b) para sustituir los eigenvalores del
z−L
operador L, obtenemos,

X 1 X |ψn ihψn |
G(z) = |ψn ihψn | = , z 6= λn (3.83)
n
z−L n
z − λn

De esta última ecuación podemos ver que G(z) está en función de un numero nito de
0
polos que corresponde a los eigenvalores discretos de L. Si queremos denir G(r, r ; z) en
z = λ, como G(r, r0 ; z) tiene un polo en λ, tendremos que denir G(r, r0 ; λ) a través de un
proceso límite.

3.7.2. Denición

Denotemos con G+ a la función de Green denida sobre el plano Im(z) > 0 y G− la


correspondiente en Im(z) < 0. Denimos G en z = λ como,

G± (r, r0 ; λ) ≡ lı́m+ G(r, r0 ; λ ± is), donde z = λ + is. (3.84)


s→0

Teorema
Sea z una variable compleja compuesta de una parte real λ y una parte imaginaria s. Sea
L(r) un operador diferencial lineal, Hermitiano e independiente del tiempo con un conjunto
completo de eigenfunciones ψn , y sea u(r) una función desconocida sobre la que L está
operando. Suponga que f (r) es una función arbitraria inhomogénea que nos da la siguiente
ecuación diferencial,

[z − L(r)]u(r) = f (r) (3.85)

La solución de esta ecuación diferencial u(r) está dada por,

(R
G(r, r0 ; z)f (r0 )dr0 si z=6 λn
u(r) = R ±
G (r, r0 ; λ)f (r0 )dr0 + ψ(r) si z = λ.

Demostración
Demostraremos únicamente el caso donde z 6= λn . Si u(r) actúa sobre la solución pro-
puesta,

Z
[z − L(r)]u(r) = [z − L(r)] G(r, r0 ; z)f (r0 )dr0 . (3.86)

Como estamos tratando con operadores lineales,


Z Z
0 0 0
[z − L(r)]u(r) = [z − L(r)] G(r, r ; z)f (r )dr = [z − L(r)]G(r, r0 ; z)f (r0 )dr0 , (3.87)

y usando la ecuación 3.70,

Z Z
0 0 0
[z − L(r)]G(r, r ; z)f (r )dr = δ(r − r0 )f (r0 )dr0 (3.88)

Y usando la ecuación 3.73 obtenemos el resultado deseado.

Corolario
La solución u(r) no existe cuando z coincide con un eigenvalor discreto de L, a menos
que todas las eigenfunciones asociadas con λn sean ortogonales a f (r). Véase [3] para la
demostración.

3.8. Función de Green en Mecánica Cuántica


Para resolver algunos de los problemas a la frontera que surgen en la mecánica cuántica
(por ejemplo en teoría de perturbaciones) se emplea el método de la función de Green. Por
lo tanto la ecuación diferencial a resolver es la ecuación de Schrödinger.

3.8.1. Solución de la ecuación de Schrödinger

La ecuación de Schrödinger,

Hψ = Eψ, (3.89)

puede escribirse de manera equivalente como,

[E − H(r)]ψ(r) = 0, (3.90)

donde H es el operador Hamiltoniano y E denota los eigenvalores de la energía corres-


pondientes. Usando el formalismo presentado anteriormente, resolvemos la ecuación 3.90,
identicando,

1. L(r) → H(r)

2. λ→E

3. λ + is = z → z = E + is

4. λn → En

5. ψn (r) → ψn (r).
Por lo tanto, denimos la función de Green de la ecuación de Schrödinger como,

[E − H(r)]G(r, r0 ; E) = δ(r − r0 ). (3.91)

Siguiendo el método de la demostración, obtenemos el siguiente resultado,

(R
G(r, r0 ; z)f (r0 )dr0 si z=6 λn
ψ(r) = R ±
G (r, r0 ; λ)f (r0 )dr0 + ψ(r) si z = λ.

donde,

X ψn (r)ψ ∗ (r0 )
G(r, r0 ; z) = (3.92)
n
z − En

y f (r) = 0.
Clase 4
Probabilidad
En termodinámica la cantidad fundamental es la entropía S, que surge como resultado
de todas las coordenadas ignoradas. Se podría decir que es una medida de la ignoracia. La
razón es que la diferencia de escalas de tiempo entre las medidas (mediciones) y los movi-
mientos atómicos es enorme, por lo tanto en un sistema macroscópico de muchas partículas
las mediciones escalares no se enteran de la dinámica atómica y entonces la medida es un
promedio. Cada vez que se mide se obtiene un número diferente. ¾Cuál es el mejor número?
el promedio, denido según la expresión,

N
1 X
x= xi
N i

este número es el primer resultado de la ignorancia. ¾Cuál es la precisión de esta medida?

Barras de error Desviación cuadrática


⇒ media
Fluctuaciones no medibles

por lo tanto, no pasa de ser una adivinanza o concepto estadístico.

En [4], Henri Poincaré cita a Joseph Bertrand (Calculus of Probabilities): la probabilidad
es lo opuesto a la certeza, por lo tanto es, resultado de lo que ignoramos y consecuentemente
parecería ser lo que no podemos calcular. Entonces aquí hay, cuando menos, una contradicción
aparante y una sobre la que ya se ha escrito mucho .
1

Ni
P =
NT

Este número es un hecho matemático pero su interpretación puede ser deformada por
el vulgo ⇒ siempre usaremos la denición matemática de Poicaré en su interpretación de
cómo está la entropía relacionada con la estadística. Partimos de la ecuación diferencial que
conocemos, el gas ideal monoatómico para N = cte,
1 Probability is the opposite of certainty; it is thus what we are ignorant of, and consequently it would seem
to be what we cannot calculate. There is here at least an apparent contradiction, and one on which much has
already been written.

45
" !# " !#
U 3/2 V U 3/2 V
S = S0 + N R ln ∼ N ln η (4.1)
U0 V0 N N
 3/2  
N N U (∆p)2 V
donde se ha renombrado η≡ U0 V0
y
N
= 2m
,
N
= (∆x)3 .

(∆p∆x)3
 
S ∼ ln η (4.2)
uw
(2m)3/2 3
con u≡ η
y w ≡ (∆x0 ∆p0 ) es una unidad de volumen en el espacio fase que corresponde
a una partícula. Por lo tanto, podemos reescribir,

S ≈ ln Γ (4.3)

∆x∆p 3N

con Γ≡ w
.

Este volumen es el que dejan libres las restricciones (constantes de movimiento). Por
ejemplo, una mosca se mueve en un cuarto en 3D, pero y ¾si la mosca no vuela?. Siempre hay
una probabilidad de que la mosca no vuele y es por esto que para seguir adelante debemos
de hablar de la probabilidad y siempre usaremos el concepto matemático. Entonces tenemos
que desarrollar un método para calcular cantidades de la forma,

Ni
Pi = , (4.4)
NT
donde P representa la probabilidad, Ni la clase y NT la muestra. Este método se llama
estadística. Lo primero que tenemos que hacer es encontrar Ni , esto lo hacemos con la ayuda
de la función,

x0 6= xs

0 si
δ(x − xs ) =
1 si x 0 = xs

si xs es una variable continua, esta función se llama delta de Dirac. Entonces contar signica,

X
f (x0 ) = δ(x − xs ). (4.5)
s

Ejemplo: Las clases pueden ser cualquier variable de estado: edades, calicaciones, llamadas
telefónicas. Sea un conjunto de N variables aleatorias, x1 , x2 , · · · , xN podemos obtener su
función distribución de probabilidad, por ejemplo la mostrada en la gura 4, a partir de un
proceso estadístico. El número total de eventos N asociada a dicha distribución está dado
por,

X Z ∞
0
N= f (x ) = f (x0 )dx0 . (4.6)
x0 −∞

De la misma forma, el número de eventos dentro de un rango,


0.2

f (x)
0.1

0
-10 -5 0 5 10

Z x2
N (x1 < x < x2 ) = f (x)dx. (4.7)
x1

El siguiente paso es investigar las propiedades de la función distribución de probabilidad


f. La denición del promedio de cualquier cantidad,

Z
hxi = dx0 ρ(x)x0 caso continuo (4.8)

1 X X f (x)x
hxi = x(s) = caso discreto, (4.9)
N s x
N

donde,
f (x) f (x)
ρ(x) = R = . (4.10)
f (x)dx N
se conoce como peso estadístico yhxi es el centro de masa (centroide) de la distribución (pri-
mer momento de ρ). Similarmente, podemos denir los momentos de orden n de ρ, denotados
n
con µ de acuerdo a la siguiente expresión,

Z
n
µ = ρ(x)xn dx. (4.11)

esto implica que µ0 = 0 (centroide), µ1 = hxi y µ2 = hx2 i. El segundo momento alrededor de


la media se llama desviación cuadrática media y está denida como,

Z
σ= dx0 (x0 hxi)2 ρ(x0 ) = h∆x2 i = h(x−x)2 i = hx2 i−h2xhxii+hhxi2 i = hx2 i−hxi2 , (4.12)

que sigue de que el promedio es una operación lineal.

NOTA: ρ es la densidad de probabilidad y es un concepto equivalente a Ni /N , pero


en estadística no se necesiuta esta última y no tiene signicado de probabilidad (problema
ergódico).

En general el promedio de cualquier función g es,

Z
hg(x)i = dx g(x)ρ(x0 ), (4.13)
f (x0 ) es el promedio de la función δ(x0 − x),
Z
0
hδ(x − xs )i = dx ρ(x)δ(x − x0 ) = ρ(x0 ). (4.14)

Extensión: Escojamos un grupo R (subclase de la muestra) y denimos la función de


conteo,


1 si s∈R
θR (s) =
0 si s 6∈ R

Entonces,

X NR
N= θR (s) y P (R) = = hθR i,
s
N

es la distribución de probabilidad de la clase R.


NOTA: En general un método para conocer una función de distribución es calcular todos
sus momentos, bautizamos los momentos como funciones de correlación, denidas para la
distancia k de acuerdo a,

N 00
1 X
Ck = 00 x(s)x(s + k) − hxi2 , donde N 00 = N − k (4.15)
N s=1

después hablaremos de la utilidad de las funciones de correlación porque son medibles, por
ejemplo, en un experimento de dispersión. Por lo pronto, nótese que si,

Ck = 0 ⇒ hxs xs+k i = hxi2 ⇒ hxs ihxs+k i,

los eventos no están correlacionados, es decir, son estadísticamente independientes. Este orden
es un nuevo concepto estadístico que determinará la distancia entre dos eventos (o muestra
estadística). Las funciones de correlación son básicas en la física porque todas las cantidades
medibles son funciones de correlación.

A continuación damos la denición más general de probabilidad, por lo tanto la que


hemos obtenidos con la estadística tiene que ser un caso especial de la siguiente denición.
Para tener una probabilidad se necesita,

Un grupo de muestreo (E)

Denir clases (etiquetas, nombres, propiedades) R

Pesos estadísticos para cada clase P (R).

Las condiciones que se deben satisfacer son,

1. E 6= φ
2. R⊂E y,


 R1 y R2
si son clases
R1 ∩ R2 es clase
R1 ∪ R2 es clase

si R es clase, Rc es clase.

3. P (R) ≥ 0,

⇒ P (R1 ∪ R2 ) = P (R1 ) + P (R2 ) − P (R1 ∩ R2 )

P (E) = 1

Si todo esto se cumple P es una probabilidad.

Ejemplo: Consideremos un dado. Cuando lanzamos un dado, existen 6 maneras distintas en


las que el dado puede caer, por lo tanto, espacio muestral está dado por,

E = {1, 2, 3, 4, 5, 6}

Ri = i, i∈E

Cada una de las caras del dado, tiene una probabilidad asociada de,

1 1
P (i) = , P (1 ∪ 2) = P (1) + P (2) = , P (1 ∩ 2) = 0
6 3
Consideremos los subespacios,

R1 = {1, 2, 3} R2 = {4, 5, 6}

por lo tanto,

1
P (R1 ) = P (R2 ) = P (1) + P (2) + P (3) = P (4) + P (5) + P (6) =
2
Con esto,

1
P (E1 , E2 ) = Pi (E1 ) + Pi (E2 ) ⇒ 2Pi (Ei ) =
6

Pi (E1 ∩ E2 ) = Pi (E1 )Pi (E2 ),

P (R1 ∩ R2 ) = P (R1 )P (R2 )


4.1. Teorema del límite central
Consideremos un conjunto de N variables aleatorias x1 , x2 , · · · , xN , estadísticamente in-
dependientes,
N
1 X
x= xi , (4.16)
N i=1

si p(x) no depende de i, entonces la distribución de probabilidad f (x) = cte. El valor medio


está dado por la expresión,

PN
f (xi )xi
hxi = Pi=1
N
, (4.17)
i=1 f (xi )

y en general para cualquier función g(x) se dene como,

PN
i=1 f (xi )g(xi )
hg(x)i = P N
. (4.18)
i=1 f (xi )

Recordemos que la densidad de probabilidad cumple,

f (xi ) X
ρ(xi ) = PN ⇒ ρ(xi ) = 1, (4.19)
i=1 f (xi ) i

y además que,

hf + gi = hf i + hgi

hcf i = chf i,

podemos escribir,

∆x = x − hxi ⇒ h∆xi = 0.

N
X
2
h(∆x) i = ρ(xi )(xi − hxi)2 ≥ 0 ⇒ hx2 i ≥ hxi2 .
i=1

4.1.1. El caminante al azar

En esta sección seguiremos el procedimiento desarrollado en la referencia [5]. Tenemos un


caminante que comienza su trayectoria en el origen. Cada paso que toma tiene un longitud
`, sin embargo las direcciones que toma a paso (izquierda o derecha) son completamente
independientes entre sí, es decir, a cada paso la probabilidad de ir hacia la derecha es p,
mientras que la probabilidad de ir a la izquierda es q = 1 − p. En el caso más simple p = q,
pero en general p 6= q .
Entonces se puede considerar que cada paso esta caracterizado por su probabilidad respec-
tiva, independientemente de la historia. La probabilidad de cualquier secuencia de n1 pasos a
la derecha y n2 pasos a la izquierda, se obtiene, por lo tanto, de multiplicar las probabilidades
respectivas,

pp · · · pqq · · · q = pn1 q n2 (4.20)

Pero hay varias maneras posibles de tomar N pasos de tal forma que n1 de ellos sean a la
derecha y n2 a la izquierda, y este número de posibilidades está dado por el factor,

N!
. (4.21)
n1 !n2 !
Por lo tanto, la probabilidad WN (n1 ) de tomar n1 pasos de un total N a la derecha y
n2 = N − n1 a la izquierda, en cualquier orden se obtiene multiplicando la ecuación 4.20 por
4.21 que da las secuencias posibles de estos pasos,

N ! n1 n2
WN (n1 ) = p q (4.22)
n1 !n2 !
Esta distribución de probabilidad se llama distribución binomial. Recordando que la ex-
pansión binomial está dada por la fórmula,

N
X N!
(p + q) =N
pn q N −n , (4.23)
n=0
n!(N − n)!

notemos que si conocemos que el caminante ha efectuado n1 pasos a la derecga de un total


N , entonces el desplazamiento neto a partir del origen está determinado. La probabilidad
PN (m) de que el caminante se encuentre en la posición m después de N pasos es la misma
que WN (n1 ),

PN (m) = WN (n1 ).

Recordando que N = n1 + n2 y m = n1 − n2 , podemos encontrar,

1 1
n1 = (N + m) n2 = (N − m).
2 2
Sustituyendo en la ecuación 4.22 obtenemos,

N!
PN (m) = N +m
 N −m  p(N +m)/2 (1 − p)(N −m)/2 , (4.24)
2
! 2 !

que para el caso especial p = q = 1/2 toma la forma simétrica,

 N
N! 1
PN (m) = N +m  N −m  (4.25)
2
! 2 ! 2
Distribución de probabilidad cuando N es grande
Cuando N es grande, la distribución de probabilidad binomial,

N ! n1 N −n1
WN (n1 ) = p q , (4.26)
n1 !n2 !
tiende a exhibir un máximo pronunciado en algún valor n1 = ñ1 y decrece rápidamente
cuando nos alejamos de ñ1 . Usaremos esto para encontrar la expresión de WN (n1 ) cuando N
es sucientemente grande. Si N es grande podemos considerar regiones cerca del máximo de
W donde n1 también es muy grande, el cambio fraccional de W cuando n1 cambia por una
unidad es relativamente pequeño y por lo tanto se cumple en general,

|W (n1 + 1) − W (n1 )| << W (n1 ), (4.27)

entonces W puede, en buena aproximación, ser considerada como una función continua de
la variable continua n1 , aunque sólo valores enteros de n1 son físicamente relevantes. La
localización n1 = ñ del máximo de W está determinado aproximadamente por la condición,

dW d ln W
o equivalentemente =0 (4.28)
dn1 dn1
donde las derivadas son evaluadas en n1 = ñ1 . Para investigar el comportamiento de W (n1 )
cerca de su máximo, pondremos,

n1 ≡ ñ1 + η (4.29)

y realizamos un desarrollo en series de Taylor de ln W (n1 ) alrededor de ñ1 . La razón de


desarrollar el logarítmo en lugar de W surge de que ln W es una función que varía mucho
más lentamente en función n1 , esto comparado con la variación de W . Entonces el desarrollo
en series de potencias para ln W debe converger más rápidamente que el desarrollo de W .
Por lo tanto,

1 1
ln W (n1 ) = ln W (ñ1 ) + B1 η + B2 η 2 + B3 η 3 + · · · (4.30)
2 6
donde,

dk ln W
Bk ≡ (4.31)
dnk1
es la k-ésima derivada de ln W evaluada en n1 = ñ1 .
Como estamos desarrollando alrededor
1 2
del máximo B1 = 0. Además como W es un máximo, entonces el término B2 η debe ser
2
negativo, i.e., B2 debe ser negativo. Para hacer esto explícito, reescribimos B2 = −|B2 |, por
lo tanto, sustituyendo W̃ = W̃ (ñ1 ) en la ecuación 4.30,

1 2 + 1 B η 3 ··· 1 2 1 3
W (n1 ) = W̃ e 2 B2 η 6 3 = W̃ e− 2 |B2 |η e 6 B3 η · · · (4.32)

En una región donde η es sucientemente pequeña los términos de orden superior del
desarrollo pueden ser despreciados; por lo tanto, se obtiene en primera aproximación,
1 2
W (n1 ) = W̃ e− 2 |B2 |η . (4.33)

Investigaremos la expresión 4.30 un poco. Considerando la expresión,

N!
W (n1 ) = pn1 q N −n1 (4.34)
n1 !(N − n1 )!
y tomando el logaritmo obtenemos,

ln W (n1 ) = ln N ! − ln n1 ! − ln(N − n1 )! + n1 ln p + (N − n1 ) ln q (4.35)

Si n es un número entero grande, tal que n >> 1, entonces ln n! puede considerarse como
una función casi continua de n, y como el ln n! cambia solamente por una fracción pequeña
si n cambia por un entero pequeño,

d ln n! ln(n + 1)! − ln n! (n + 1)!


≈ = ln = ln(n + 1) (4.36)
dn 1 n!
Así,

d ln n!
≈ ln n (4.37)
dn
Por lo tanto la expresión 4.34, puede reescribirse,

d ln W
= − ln n1 + ln(N − n1 ) + ln p − ln q (4.38)
dn1
Igualando a cero obtenemos el valor n1 = ñ1 donde W es un máximo, y llegamos a,

 
(N − ñ1 ) p
ln = 0, (4.39)
ñ1 q
o bien,

(N − ñ1 )p = ñ1 q ⇒ ñ1 = N p (p + q = 1) (4.40)

De igual manera, considerando la derivada a segundo orden,

d2 ln W 1 1
2
= − (4.41)
dn1 n1 N − n1
y evaluando para n1 = ñ1 obtenemos,

 
1 1 1 1 1 1
B2 = − − =− + =− (4.42)
Np N − Np N p q N pq

en el último paso, considerando p + q = 1. Por lo tanto B2 es negativo. La constante W̃ la


ecuación 4.34 se determina por normalización, considerando que W y n1 con casi continuas,
N
X Z Z ∞
W (n1 ) ≈ W (n1 )dn1 = W (ñ1 + η)dη = 1 (4.43)
n1 =0 ∞

Sustituyendo la expresión 4.33 en la ecuación anterior,

s
Z ∞
− 21 |B2 |η 2 2π
W̃ e dη = W̃ =1 (4.44)
−∞ |B2 |

Por lo tanto la ecuación 4.33 queda como,

r
|B2 | 1 |B2 |(n1 −ñ1 )2
W (n1 ) = e2 , (4.45)

la cual es la distribución Gaussiana, que ocurre frecuentemente en estadística cuando se
trabaja con números grandes. Considerando las expresiones 4.40 y 4.42 llegamos a,

(n1 − N p)2
 
−1/2
W (n1 ) = (2πN pq) exp − . (4.46)
2N pq
Esta expresión, para valores grandes de N y n1 , es más simple que la ecuación 4.34 y no
requiere la evaluación de factoriales.

Podemos obtener dos expresiones de utilidad si consideramos el problema del caminante


al azar. Recordemos que p es la probabilidad de dar un paso a la derecha, por lo tanto, el
número promedio de pasos a la derecha de un total de N pasos está dado simplemente por
ñ1 = N p, si calculamos la dispersión a esta cantidad, obtenemos,

h(∆n1 )2 i = N pq desplazamiento cuadrático medio. (4.47)

Escribiendo la expresión 4.46, en términos de las dos cantidades anteriores, obtenemos la


expresión más general,

(n1 − ñ1 )2
 
2 −1/2
W (n1 ) = (2πh(∆n1 ) i) exp − . (4.48)
2h(∆n1 )2 i
Clase 5
Teorema del límite central
El teorema del límite central (TLC) es uno de los resultados más importantes en teoría
de probabilidad. Existe otro resultado clásico de la teoría de probabilidad, la ley de los gran-
des números, que establece que bajo ciertas condiciones el promedio de las sumas parciales
de variables aleatorias independientes e idénticamente distribuidas puede aproximarse al va-
lor esperado de estas variables aleatorias. El TLC da información más sustancial sobre las
uctuaciones de los promedios de estas sumas parciales, alrededor de su valor esperado. Esta-

blece que si multiplicamos esta uctuación por N, donde N denota el número de variables
aleatorias en el promedio, entonces la distribución de la uctuación tiende a una distribución
independiente del número N . Más aún, la distribución a la que se aproxima, no depende de la
distribución de las variables aleatorias cuyos promedios son considerados. Esta distribución
es una ley universal, conocida como distribución normal.

La teoría de Fourier da un método natural para demostrar la versión local del teorema
del límite central, i.e., para describir el comportamiento asintótico de la densidad y no de
la función de distribución normalizada de las sumas parciales de las variables aleatorias
independientes.

Consideremos un conjunto de N variables aleatorias (recordemos que el caminante al


azar es una suma de variables estocásticas.) x1 , x2 , · · · , xN , estadísticamente independientes
y distribuidas estadísticamente de la misma manera. Sea X ~ N la suma de estas N variables
aleatorias, es decir,

N
X
~N =
X ~xn (5.1)
n=1

como los elementos del conjunto ~N}


{~xn } son estadísticamente independientes, entonces a {X
se le llama cadena de Markov. En una cadena de Markov X ~ N +1 no depende de xn para
n < N es decir, X ~ N +1 = {X
~ N }. Nuestro objetivo es obtener la distribución de probabilidad
~ ~
PN (R) de los valores que XN puede tomar. Por ejemplo, si N = 2, sabemos que si la suma
es X , entonces x2 debe ser igual a X − x1 , por lo tanto la distribución de X es el producto
P (x1 )P (X − x1 ) integrado sobre x1 , es decir,
Z ∞
P2 (X) = P (x1 )P (X − x1 ) dx1 (5.2)
−∞

55
Consideremos ahora el caso N > 2. Denotamos la suma de las variables aleatorias con
~
R. Podemos escoger las primeras N − 1 como deseamos, pero entonces xN debe ser igual a
~ = PN xi . Por lo tanto la ecuación 5.2 se puede generalizar a,
R i=1

Z ∞
~ =
PN (R) ~ − ~r)PN −1 (R
PN (~r|R ~ − ~r) dd~r (5.3)
−∞

donde ~ es la distribución de probabilidad de los valores que ~xN toma cuando X


PN (~r|R) ~ N es
~ y PN (~r|R
R ~ − ~r) es la probabilidad de transición entre el estado R
~ − ~r y el ~r. Si suponemos
que el valor ~xN es independiente de X ~N,

~ − ~r) = PN (~r).
PN (~r|R (5.4)

Entonces comparando la ecuación 5.4 con 5.5, vemos que es una convolución
1 PN = PN ∗PN −1 ,
donde

Z ∞
PN ∗ PN −1 = ~ − ~r)dd~r
PN (~r)PN −1 (R (5.6)
−∞

Las probabilidades de cada una de las variables estocásticas, denen una cadena de Markov ,
2

PN = p 0 ∗ p 1 ∗ p 2 ∗ p 3 ∗ · · · ∗ p N (5.7)

donde p0 es la condición inicial x0 , p0 = δ(x0 ). Usamos el teorema de convolución para la


transformada de Fourier,

P̃N (~k) = p̃2 (~k)p̃2 (~k) · · · p̃N (~k) (5.8)

recordemos que la transformada de Fourier de la convolución es el producto de las trasnfor-


madas de Fourier. Entonces,

Z ∞ N
1 i~k·R
~
Y
~ =
PN (R) e p̃n (~k) dd~k (5.9)
(2π d ) −∞ n=1

1 Denición del operador convolución:


Si f (x1 , · · · , ck ) y g(x1 , · · · , xk ) son dos funciones medibles en k dimensiones de k variables, que son
integrables, i.e.,

Z Z
|f (x1 , · · · , xk )| dx1 · · · dxk < ∞ y |g(x1 , · · · , xk )| dx1 · · · dxk < ∞,

entonces la convolución f ∗g de ambas funciones, es la función de k variables denida por la fórmula:

Z
[f ∗ g](x1 , · · · , xk ) = f (u1 , · · · , uk )g(x1 − u1 , · · · , xk − uk ) du1 · · · duk . (5.5)

2 En una cadena de Markov, tenemos un conjunto de estados S = {s1 , s2 , · · · , sr }. El proceso comienza


en uno de estos estados y se mueve sucesivamente de un estado a otro. Cada movimiento se llama un
paso. Si la cadena esta actualmente en el estado si , entonces se mueve al estado sj en el próximo paso con
una probabilidad pij , y esta probabilidad no depende de los estados previos en los que la cadena se haya
encontrado. Las probabilidades pij se llaman probabilidades de transición.
si todas las ~xn tienen la misma distribución p(~k),
Z ∞ Z ∞
1 i~k·R
~ 1 ~ ~ ~
~ =
PN (R) e [p̃(~k)]N dd~k = eik·R+N Ψ(k) dd~k (5.10)
(2π d ) −∞ (2π d ) −∞

donde Ψ(~k) = ln[p̃(~k)]. Pero

∞ ∞ ∞
Z Z Z
i~k·R
~ i~k·R
~
|p̃(~k)| =
d
e p(~r)dd~r ≤ e p(~r) d ~r ≤
p(~r)dd~r = 1 (5.11)
−∞ −∞ −∞

⇒ Ψ(~k) < 0 ∀ ~k . Entonces

Z
~ ~ ~
~ ≈
PN (R) eik·R eN Ψ(k) dd k si N 1 y 1 (5.12)
|k|<(N )

y podemos hacer un desarrollo de Taylor alrededor de ~k = 0,


Z   
~ ≈ i~k·R
~ ~ 1~ ~
PN (R) e exp N −i~c · k − k · H · k + · · · dd k (5.13)
|k|< 2
2
donde ~c = i∇Ψ(~k) |~k=0 y Hij = − ∂k∂i ∂kj Ψ(~k) |~k=0 .
Z ∞
~ ~ 1 ~ ~
~ =
PN (R) eik·(R−N~c) e 2 N k·H·k dd k (5.14)
−∞

donde hemos supuesto que el segundo momento existe. Para visualizar mejor el resultado
conviene hacer el siguiente cambio de variable,

~ = N 1/2 H 1/2~k
ω y ~ − N~c)
~zN = (N H)−1/2 (R
donde es importante notar que H 1/2 ≡ QA1/2 QT , donde Q es una matriz ortogonal cuyas
columnas son los eigenvectores de H . Finalmente obtenemos,

Z ∞
~ = 1 2 /2
PN (R) ei~ω·~zN e−ω dd ω
~ (5.15)
(2πN ) (det H)1/2
d/2
−∞

ecuación que es una transformada de Fourier de una Gaussiana. Por denición,

∇Ψ(~k) |~k=0 = hRi


∂ 2Ψ
− |~ = hRi2 i − hRi ihRj i
∂ki ∂kj k=0
1 |z |2 1 ~
(R−N hRi)H −1 (R−N
~ hRi)
~ = − N2 −
PN (R) e = e 2N 1/2
(2πN )d/2 (det H)1/2 (2πN det H)1/2

y obtenemos una Gaussiana centrada en R = N hRi.


Es importante recalcar que las condiciones usadas para llegar a este resultado fueron las
siguientes:
1. Las variables son estadísticamente independientes.

2. El segundo momento de PN existe.

La Gaussiana sólo es válida para R − N hRi ≈ O(N 1/2 ), es decir, en la región central:
Teorema del Centro del Límite, es decir, no hay colas que dependen de más órdenes. La
forma más general y formal del Teorema del Límite Central es mostrar que PN (x)
sigue una
−3
distribución Gaussiana. Así se demuestra que distribuciones con colas que varían como |x|
(cuyo segundo momento no existe) también convergen a la Gaussiana para N → ∞. La
Gaussiana es una distribución límite estable, pero no la única (vuelos de Lévy).

El teorema del límite central en estadística, nos dice que para N → ∞, la distribución de
la suma de N variables aleatorias es una Gaussiana cuya media es N veces la media de la
distribución de una sóla variable, con una varianza N veces la varianza de la distribución de
una sóla variable, independientemente de la forma de la distribución de esa única variable,
siempre y cuando su media y varianza sean nitas.
Clase 6
Ensamble y espacio fase
Ahora estamos en posición de hacer la conexión entre la descripción microscópica (me-
cánica cuántica) y la descripción macrocóspica (termodinámica) de sistemas con muchas
partículas. Recordemos que no podemos especicar el estado de un sistema macroscópico
porque no disponemos de toda la información, sin embargo, si podemos calcular la proba-
bilidad de que el sistema se encuentre en un estado dado. ¾Cómo? Experimentalmente, por
ejemplo.

Supongamos que lanzamos 800 monedas y el estado del sistema resultante se da en tér-
minos de la especicación del estado de cada moneda + − + + + + − − − − ···. Al repetir
el experimento nuevamente, obtenemos un estado diferente y podemos calcular todos los
posibles estados macroscópicos. La colección de todos estos estados, compatible con las res-
tricciones del sistema (porque se conserva el número de monedas) puede visualizarse como
un conjunto, del francés ensemble, (término utilizado por primera vez por Gibbs), que en
español podríamos utilizar el término colectividad.

Para calcular la probabilidad de encontrar un estado en especíco en el ensamble, ten-


dríamos que contar el número de copias del estado en cuestión y dividir entre el número
total de copias en el ensamble, compatibles con las restricciones o estados accesibles. Para
comenzar, necesitamos un postulado teórico. Nos basamos en la experiencia: no tenemos por
qué suponer que las monedas tengan una probabilidad más alta de caer hacia un lado en
particular. Y como estamos considerando un sistema aislado, éste eventualmente debe llegar
al equilibrio termodinámico y la probabilidad de encontrar un estado accesible no cambia en
el tiempo. Esto se sabe en la mecánica clásica.

Para investigar el estado de este ensamble de sistemas construimos un espacio euclideano


2N dimensional, con 2N ejes para cada una de las coordenadas q1 , · · · , qN y los momentos
p1 , · · · pN , cuyos valores determinan el estado del sistema. Nuevamente usando la terminología
de Gibbs, quien designó los cambios en el estado del sistema como cambios en la fase, podemos
hablar de este espacio conceptual como el espacio fase para el sistema bajo consideración. El
estado instantáneo de cualquier sistema en el ensamble se obtiene especicando la posición
de un punto representativo en el espacio fase y la condición de un ensamble, como un todo,
puede ser descrita como una nube de estos puntos representativos, uno para cada sistema en
el ensamble.

59
6.1. Teorema de Liouville
Considere el espacio fase {q1 , q2 , · · · , qN , p1 , p2 , · · · , pN } donde las ecuaciones de movi-
miento para cada partícula están dadas por las ecuaciones de Hamilton,

∂H ∂H
q̇i = , ṗi = − . (6.1)
∂pi ∂qi
Un estado macroscópico del sistema dene un punto en el espacio fase, conforme transcurre
el tiempo cada partícula cambia su qi y pi de forma que el volumen del espacio fase ocupado
por el sistema se mueve. La condición de un ensamble a cualquier tiempo puede especicarse
por la densidad ρ con la que los puntos representativos están distribuidos en el espacio fase.
Esta densidad de distribución

ρ = ρ(q1 , · · · , qN , p1 , · · · , pN , t) (6.2)

se toma para el caso de sistemas con N grados de libertad como una función de las 2N
coordenadas y momentos, y además del tiempo, ya que en general la densidad cambia con el
tiempo en cualquier punto del espacio fase obedeciendo al movimiento de los puntos del espa-
cio fase cuando las coordenadas y momentos cambian sus valores de acuerdo a los principios
de la mecánica. Denimos δN = ρ({qi }, {pi }) dq1 dq2 · · · dqN , dp1 , dp2 , · · · dpN como el número
de sistemas en el ensamble que en el tiempo t están dentro de ese elemento de volumen.
Entonces el cambio de la densidad en el tiempo está dada por la expresión,

 
dρ ∂ρ X ∂ρ ∂qi ∂ρ ∂pi
= + + (6.3)
dt ∂t i
∂qi ∂t ∂pi ∂t

La ecuación de continuidad (conservación del ujo),

 
∂ρ X ∂ ∂ X ∂ρ ∂ρ ∂ q̇i ∂ ṗi
= (ρq̇i ) + (ρṗi ) = q̇i + ṗi + ρ + (6.4)
∂t i
∂qi ∂pi i
∂qi ∂pi ∂qi ∂pi

Usando las ecuaciones de movimiento, ecuaciones 6.1,

∂ 2H ∂ 2H
 
∂ q̇i ∂ ṗi
+ = − =0 (6.5)
∂qi ∂pi ∂qi ∂pi ∂pi ∂qi

∂ρ X ∂ρ ∂ρ dρ
= q̇i + ṗi ⇒ = 0. (6.6)
∂t i
∂q i ∂p i dt

Esto quiere decir que la distribución de sistemas sobre los estados accesibles no cambia
en el tiempo. En mecánica cuántica lo mismo pasa para la matriz densidad ρmn . Por lo tanto,
nuestro postulado es: en un sistema aislado y en equilibrio, todos los estados accesibles al
sistema son igualmente probables,

PE = c. (6.7)
6.2. Matriz densidad
6.2.1. Funciones de Green en la física estadística

Toda la teoría que hemos desarrollado hasta ahora esta muy bien para sistemas puros, en
los que se pueden denir cantidadas como la función de onda etc., es decir, sistemas que se
encuentren en un estado cuántico puro. Pero desafortunadamente, esto no es útil. Un sistema
cuántico nunca se encuentra asilado del resto del universo, siempre hay interacciones con
otros sistemas. Si conociesemos exactamente las ecuaciones del movimiento, querría decir
que teníamos que haber resuelto y descrito a todo el universo como un todo. Esto no es
posible y a lo más que podemos aspirar es a tener un conocimiento defectuoso y aproximado
de la dinámica de un sistema (en realidad ni queremos este conocimiento perfecto).

Desde el punto de vista de las mediciones, podemos decir que si tuviésemos un sistema
aislado (en un estado cuántico puro), el resultado de medir sería siempre el mismo y estaría
perfectamente determinado por,

Z
hn|Â|ni = φ∗n (~r)Âφn (~r)d3 r = λn (6.8)

el valor esperado de la observable es jo y bien determinado (λn ). En la práctica el sistema


está en contacto con el resto del universo, así que si calculamos 6.8 varias veces, el resultado
no es el mismo. De hecho lo que pasa es que no conocemos el estado verdadero del sistema
al medir |ni.
Una teoría que suponga un conocimiento total de |ni es demasiado exacta y no tiene
nada que ver con la práctica. Necesitamos una generalización de la teoría anterior para poder
usarla en sistemas verdaderos. Las uctuaciones al medir se pueden tratar de diversas formas,
pero en esencia no tienen que ver con la mecánica cuántica, sino con variaciones estadísticas
de los estados puros del sistema, como consecuencia de interacciones que se salen de nuestro
control.

Supongamos entonces que el resultado caótico al medir es debido a que el sistema cambia
de estado (puro) entre una medicion y otra. La cantidad que tendrá signicado físico al medir
será el promedio de los números obtenidos a través de muchas mediciones. Intuitivamente
podemos creer que el resultado de medir muchas veces el mismo sistema (a diferentes tiempos)
da igual a que si midiéramos un conjunto de sistemas idénticos en todos los posibles estados
que se pudieran dar (ensamble). Esto se conoce como el Teorema Ergódico, que hasta la fecha
nadie ha podido demostrar en general.

Ahora lo que tiene sentido es preguntar por la probabilidad Pα de que el sistema se


encuentre en el estado |αi, con la condición de que

X
Pα = 1 (6.9)
α

el conjunto de todas estas probabilidades lo podemos expresar como,

X
ρ= |αiPα hα|, (6.10)
α

lo cual nos dene una función de estado para el ensamble,


Z
0
ρ(x, x ) ≡ φ∗ (q, x0 )φ(q, x)dq (6.11)

donde q son todas las variables dinámicas que nos denen el ensamble y x es la variable
dinámica que nos interesa medir. La ecuación 6.11 dene un operador llamado la matriz
densidad. De hecho este operador (o sus elementos diagonales) nos cuenta los sistemas en el
ensamble que se encuentran en un estado puro |xi. Denimos el resultado de la medida de
A(x) como:

Z Z
∗ 0
hAiensamble = φ (q, x )A(x)φ(q, x)dqdx = A(x)ρ(x, x0 )dx. (6.12)

O bien, ya que A es en general una matriz A(x, x0 ),


Z Z
hAiensamble = A(x0 , x)ρ(x, x0 )dxdx0 (6.13)

que por denición de multiplicación de matrices,

hAiensamble = Tr[Aρ], (6.14)

esta cantidad es invariante ante transformaciones canónicas (unitarias). Es fácil de ver que:

Tr(ρ) = 1, (6.15)

ya que ρ es una probabilidad, además ρ es hermitiana. En la notación que venimos usando,


los elementos de matriz de ρ se pueden escribir, generalizando la ecuación 6.10,

X X
ρ= |miPmn hn| = |miρmn hn| (6.16)
m,n m,n

los elementos diagonales de ρ nos cuentan el número de estados, mientras que los no dia-
gonales nos hablan acerca de las probabilidades de transición entre estados o uctuaciones
estadísticas. Es obvio entonces que no podemos conocer más sobre el sistema que lo que nos
dice la matriz de densidad. Ella dene el estadodel sistema. La ecuación 6.14 queda

X
hAiensamble = ρmn hm|A|ni. (6.17)
m

Es el promedio estadístico que todo mundo conoce, con pesos ρmn . Como no conocemos
todos los estados del sistema, en general podemos decir que,

2
Tr[ρ ] ≤ 1, (6.18)

el signo igual sólo se obtiene cuando el sistema está en un estado cuántico puro. De hecho,
en general, si el estado es puro,

X
φ= cn φn donde |cn | ≤ 1 (6.19)
n
X
hφ|A|φi = c∗n cm Anm donde Anm = hφn |A|φm i y ρmn = c∗n cm ≤ 1, (6.20)
m,n

entonces,

X X
(ρ)2mn = ρmi ρin = c∗m c∗i ci cn = c∗m cn = ρmn ⇒ Trρ2 = 1. (6.21)
i i

Suponga ahora que los estados varían en el tiempo:

|m, ti = U (t)|m, 0i (6.22)

entonces,

X
ρ(t) = |m, tiρmn hn, t| = U (t)ρ(0)U ∗ (t) (6.23)
m,n

y entonces la ecuación de movimiento para la matriz densidad es,

∂ρ(t)
i~ = [H, ρ(t)]. (6.24)
∂t
Nota: ρ no es un operador normal(varía con el tiempo en la representación de Schrödin-
ger).

Esta ecuación es en realidad la contraparte cuántica del teorema de Liouville acerca de la


variación de la densidad de probabilidad en el espacio fase. Conectaremos ahora a la Mecánica
Cuántica con la Mecánica Estadística y la Termodinámica, en la cual se trata a sistemas en
equilibrio térmico con un baño térmico. En este caso de equilibrio térmico la ρ no depende
del tiempo, es estacionaria y por la ecuación 6.24 tenemos que,

[H, ρ] = 0 (6.25)

en otras palabras ρ tiene que ser una función del hamiltoniano. Para encontrar esa función
podemos esgrimir viejos argumentos, por ejemplo: que si dos sistemas están en equilibrio
térmico con un baño, (a la misma temperatura) son equivalentes a otro sistema cuyo hamil-
toniano es la suma de los dos,

H1 + H2 = H (6.26)

de donde,

ρ1 ρ2 = ρ, por lo tanto ρ = αe−βH . (6.27)

α normaliza a ρ (ver ecuación 6.17) y β depende del baño térmico, es decir, es función de la
temperatura. Se deriva en cualquier libro de termodinámica que,

e−H/kB T
ρ= (6.28)
Z
−H/kB T
donde la función de partición Z = Tr(e ) normaliza propiamente a ρ y cuenta el
número total de estados. Este es en ensamble Canónico. En forma más general, si el número
de partículas es variable, denimos el ensamble Gran Canónico igual que en la ecuación 6.28,
pero,

H = H + µN, (6.29)

donde µ es el potencial químico (la energía que cuesta quitarle una energía de Gibbs por
partícula al sistema) y N
es el operador de número total de partículas. La similaridad entre
− i Ht
la forma de la ecuación 6.28 y U = e ~ permite ver a la temperatura como el inverso de un
tiempo imaginario y utilizar todo el aparato cuántico descrito anteriormente para este caso,

1 τ
=i . (6.30)
kB T ~
Este es el corazón de la teoría de la funciones de Green dependientes de la temperatura.
La generalización del concepto de las funciones de Green al caso en que se tengas sistemas
uctuantes es inmediata. Denimos la función de Green casual como:

G0 (t, t0 ) = −ihτ (A(t)B(t0 ))i = hhA(t), B(t0 )ii (6.31)

h· · · i = Tre Z B ···
−H/k T
donde es un promedio termodinámico, A y B son dos operadores cuales-
quiera en la representación de Heisenberg y el operador de Wick (que ordena en el tiempo)
se puede escribir como,

τ (A(t)B(t0 )) = θ(t − t0 )A(t)B(t0 ) + ηθ(t0 − t)B(t0 )A(t0 ), (6.32)

donde η = ±1, con el signo positivo para bosones y el negativo para fermiones. Por lo tanto,
la parte retardada de la función de Green se puede escribir,

Gr (t, t0 ) = −iθ(t − t0 )h[A(t), B(t0 )]η i = hhA(t), B(t0 )iir (6.33)

o la avanzada,

Ga (t, t0 ) = iθ(t − t0 )h[A(t), B(t0 )]η i. (6.34)


Clase 7
Ensambles

7.1. Conceptos básicos

El objetivo de la mecánica estadística es explicar el comportamiento de sistemas que se


componen de un número muy grande de partículas. Podemos caracterizar el estado físico de
un sistemas de dos maneras, dependiendo de si nos enfocamos en sus características a nivel
macroscópico o molecular.

El macroestado de un sistema es su estado visto desde el punto de vista macroscópico.


Para describir el estado de un tanque de oxígeno, por ejemplo, tendríamos que especicar el
número de moléculas N que contiene, el volumen V total que ocupa y la energía interna total
E . Mientras que el gas este en equilibrio termodinámico, estos tres parámetros son sucientes
para determinar su macroestado. Recordemos que las otras variables termodinámicas, tales
como la temperatura T y la presión P pueden calcularse usando las ecuaciones de estado.
En general, el macroestado de un sistema está determinado por las leyes de conservación y
restricciones físicas a las que esta sujeto.

El microestado de un sistema es su estado visto desde el punto de vista molecular. Para


describir el microestado de nuestro tanque de oxígeno, tendríamos que especicar la posición
y velocidad (o la función de onda cuántica) de cada molécula individual. Notemos que si
conocemos los microestados de un sistema, también conocemos su macroestado: La energía
total E, por lo tanto, es la suma de las energías de todas las moléculas. Por otro lado, si
conocemos el macroestado de un sistema, no quiere decir que podemos conocer sus microes-
tados. El número de microestados que son consistentes con un macroestado dado se llama la
multiplicidad de ese macroestado y se denota con Ω. Equivalentemente, Ω es el numero de
microestados accesibles, limitados solamente por las restricciones que determinan el macro-
estado. Para el tanque de oxígeno, la multiplicidad podría ser una función de tres variables
macrocópicas Ω(E, V, N ). En muchos casos la multiplicidad puede ser un número grande, ya
que habrá un número muy grande de maneras de distribuir una cantidad dada de energía
entre las moléculas que componen el sistema.

La suposición fundamental de la mecánica estadística es que un sistema aislado en un


macroestado dado tiene igual probabilidad de estar en cualquiera de sus microestados acce-
sibles. Esto signica que la probabilidad de encontrar al sistema en cualquier microestado
1
dado es , ya que hay un total de Ω microestados, todos igualmente probables.

65
7.2. Colectividad microcanónica
Si a los microestados clásicos les corresponden puntos matemáticos en el espacio fase, el
número total de estados compatibles con los intervalos nitos de energía y volumen serían
innitos para la mayoría de los sistemas. Así el cálculo de la entropía u otros potenciales ter-
modinámicos es problemático en la mecánica estadística clásica. La enumeración detallada
de los microestados clásicos requiere que el espacio fase 2f dimensional se divida en celdas
f
con volumen nito δ donde δ tiene las dimensiones de dq dp. Aunque podríamos considerar
un límite clásco δ → 0, esto resultaría en entropías innitas. Afortunadamente, la mecánica
cuántica da una discretización natural del espacio fase: el principio de incertidumbre limita
la precisión con la que se pueden especicar las coordenadas conjugadas de posición y mo-
mento. Por lo tanto, δ está relacionada con la constante de Planck. Más aún, si el parámetro
δ es pequeño y nito, debe ser una constante universal de tal forma que las entropías puedan
sumarse para sistemas de diferentes tipos. Por lo tanto, podemos identicar a δ con la cons-
tante de Planck h. Por lo tanto, normalizando el elemento de volumen diferencial del espacio
fase obtenemos,

f
Y dqi dpi
dΓ = (7.1)
i=1
h

usando un factor h−1 para cada grado de libertad.

Recordemos que en los sistemas conservativos, la energía H(q, p) = E es una constante


de movimiento. Así para esta clase de sistemas, un ensamble con la densidad ρ distribuida
siguiendo cualquier función de la energía E estará en equilibrio estadístico. Un ensamble útil
surge al considerar una densidad igual a cero para todos los valores de la energía, excepto
en una región estrecha E a E + δE . Usando la terminología de Gibbs, tal ensamble puede
especicarse con,


const (E a E + δE),
ρ(q, p) =
0 (fuera del intervalo anterior)

En el intervalo E y E + δE hay Ω(E) microestados,

Ω(E)
Ω(E) = ρ(E)δE con ρ(E) = (7.2)
δE
donde ρ(E) es independendiente de δE y da la densidad de estados dentro del intervalo.

La distribución microcanónica se emplea frecuentemente como un ensamble para predecir


las propiedades de un sistema que está en un estado macroscópico de equilibrio con una
energía en el intervalo E y E + δE . Si hacemos el intervalo seleccionado de energía δE más
estrecho, podemos considerar que nos aproximamos al límite de una distribución supercial
de puntos en el espacio fase, donde todos corresponden a sistemas con la misma energía. La
distribución resultante se llama ensamble de supercie.

Si denotamos con Φ(E) el número total de estados cuánticos con energía menor que E.
Para un grado de libertad o número cuántico, véase la gura 7.1, esta cantidad está dada
por,
 ∆ Φ1 ∼ 
∆

∆ ≈ s − s−1

Figura 7.1: Niveles de energía del sistema.


Φ1 ∼ n ∼ o bien Φ1 () = α (7.3)
∆
con α = 1. Para f grados de libertad (números cuánticos), tenemos,

f
E Y
= y Φ(E) = Φi () ∼ |Φ1 ()|f ∼ f (7.4)
f i

∂Φ
Ω(E) = Φ(E + δE) − Φ(E) = δE (7.5)
  ∂E
∂Φ1 1 ∂Φ1
= f Φf1 −1 δE = Φf1 −1 δE (7.6)
∂E f ∂E
∂Φ1
donde
∂E
∼1 y Ω es una función que crece rápidamente con la energía.

 
∂Φ1
ln Ω(E) ∼ (f − 1) ln Φ1 + ln δE (7.7)
∂E
donde el último término es despreciable. Como f  1, podemos escribir la ecuación anterior,

ln Ω(E) ∼ f ln Φ1 (7.8)

Ω ∼ Φf1 ∝ E f (7.9)

es decir,

Ω(E) ∝ E f (7.10)

por lo tanto, es una función muy creciente con la energía.

7.2.1. Conexión con la Termodinámica

Sea Σ(E) el volumen encerrado por la supercie de energía constante (número de micro-
estados),
Z
Σ(E) = d3N q d3N p. (7.11)
H(p,q)<E

Σ(E + δE) − Σ(E) ∼ Ω(E), por lo tanto, Ω(E) = dΣ(E). Entonces Γ(E) = Σ(E + δE) −
Σ(E) = ω(E)δE , donde ω(E) = ∂Σ(E)
∂E
es la densidad de estados con energía entre E y E +δE .

Para que la mecánica estadística sea consistente, todas las siguientes deniciones tienen
que ser equivalentes,

Entropía:

S = k ln Γ(E) (7.12a)

S = k ln ω(E) (7.12b)

S = k ln Σ(E) (7.12c)

S = k ln Ω(E) (7.12d)

que dan la receta para calcular la termodinámica:

1. Calcule la densidad de estados ω(E) a partir del Hamiltoniano.

2. Encuentre la entropía S(E, V ) = k ln ω(E).


3. Resuelva para E en términos de S, V , es decir, U (S, V ) ≡ E(S, V ).
4. Use la termodinámica que ya sabe.

7.3. Algunos comentarios acerca del postulado básico


Toda la mecánica estadística se funda en el hecho de que todos los estados tienen igual
probabilidad a priori, es decir,

f N
| ∼{zln Γ}
S y
| ∼ e{z∼ e }
Γ (7.13)
(1) (2)

ambas ecuaciones son el teorema H 1


de Boltzmann , que lleva a conceptos criticables,

Teoría cinética

Independencia estadística

"mixing"(Sinaí)

Ergodicidad (Boltzmann)

Ensemble (Gibbs)

Para entender la mecánica estadística debemos comprender el signicado de (2), la hipótesis


de independencia.

1 Una de las mayores contribuciones y sin duda la más controversial de Boltzmann a la mecánica estadística
es el teorema H. Este trabajo fué publicado en 1872, en un intento de mostrar que la segunda ley de la
Termodinámica puede derivarse de las leyes de la mecánica [6].
7.3.1. Ergodicidad

Boltzmann pensó en términos de la trayectoria: La trayectoria pasará a través de toda


conguración de la región de momento, es decir, es ergódica y por lo tanto en un tiempo
innito el promedio temporal es igual al promedio en una región.

Erronéo: El tiempo que se debe esperar debe ser cuanto mayor que ef mientras que el
tiempo de observación es O(E), esto es exigir demasiado, en la práctica esto se cumple en
tiempos menores. La ergodicidad no se requiere en la mayoría de los casos.

7.3.2. Ensamble

La reformulación en términos de un concepto matemático abstracto. Gibbs construye un


conjunto de sistemas (pensando en Γ) que forman algo así como un gas ideal de puntos y se
necesitanO(E f ) para denir la distribución. Tiene la ventaja de que es muy intuitivo porque
se parece al gas (Gibbs y distribución de partículas) pero también tiene la desventaja de que
nos ata excesivamente el concepto de gas.

Erronéo: No hay un número innito de sistemas sino sólo uno. El ensamble no representa
el grado de conocimiento del observador. El ensamble es una nube en el espacio fase y su
densidad está dada por la función de distribución,

Z Z
SGIBBS = − ρ ln ρdΓ ( ρdρ = 1) (7.14)

Pero el movimiento de cada sistema en el ensamble sigue una trayectoria en el espacio


fase obedenciendo las leyes de Newton y las trayectorias no se traslapan (determinismo). Por
el teorema de Liouville ρ no cambia a lo largo de la trayectoria, R(t = 0) y R(0) tienen
el mismo volumen. Por lo tanto, ΓGibbs es un invariante del movimiento y no representa un
problema aleatorio. El equilibrio no es un concepto instantáneo y la entropía necesita una
escala de tiempo: No es razonable el ensamble.

7.3.3. Mixing (Sinaí, Krylov)


Mixing
2 dice que las trayectorias en el espacio fase se distribuyen uniformemente en la
región de movimiento, entonces,

Γ(R(t) ∩ R0 ) Γ(R(0)) Γ(R0 )


lı́m = · (7.15)
t→∞ Γ Γ Γ
es decir, el volumen de R(t) es proporcional al volument de R0 .
Por ejemplo, una partícula en una caja de longitud L, el tiempo que tarda en atravesar
la caja t > τ , es proporcional a τ ∼ VL
2 Los sistemas que se mezclan tienen una tendencia, en el transcurso del tiempo, de evolucionar hacia un
estado de equilibrio termodinámico. Mixing implica ergodicidad. En 1963, Sinaí bosquejó una demostración,
que un sistema de esferas duras encerrado dentro de un cubo con paredes perfectamente reejantes es ergodico
y mezclado [7].
...construir la mecánica estadística usando de base principios clásicos es fundamentalmente imposible (Krylov
1979, p.100)
Mixing implica independencia en un sentido pero no es lo mismo. La independencia implica
sólo la caída de la correlación en tiempos y distancias más grandes que una escala. Al tiempo
de un τ y la distancia de la correlación ξ, entonces,

Z T
1
hA(r1 , t1 )B(r2 , t2 )i = dt A(r1 , t)B(r2 , t) = hA(r1 )ihB(r2 )i (7.16)
T 0

si |t1 − t2 |  τ , |r1 − r2 |  ξ y T es el tiempo de medición, entonces las uctuaciones no


afectan el valor de la integral. Entonces A y B son locales cerca de r1 y r2 , sólo un número
pequeño de variables de movimiento afectan el valor promedio. Ejemplo, una masa con un
resorte a frecuencia ω.
Clase 8
Bases de la mecánica estadística
En la mecánica estadística nos preguntamos cómo obtener la termodinámica de un sistema
dada cierta información microscópica sobre sus propiedades y considerando ciertos principios
que éste debe satisfacer cuando está en equilibrio. La teoría cinética estudia además de las
propiedades de los sistemas en equilibrio, cómo se alcanza el equilibrio y cómo las propiedades
del sistema evolucionan en el tiempo. Esto requiere un modelo de las partículas constituyentes
del sistema así como de sus interacciones (colisiones). Las propiedades en el equilibrio se
derivan con menor generalidad que en mecánica estadística. La teoría cinética es pues, menos
abstracta y más intuitiva que la mecánica estadística y recuperamos los mismos resultados
que ésta en el equilibrio.

Teoría cinética =⇒ Dinámica molecular

Irreversibilidad (macroscópica) =⇒ reversibilidad (microscópica)

Recordemos que al derivar la mecánica estadística consideramos las siguientes condiciones:

1. los procesos microscópicos reversibles están conectados con los macroscópicos irrever-
sibles.

2. debe describir detalladamente la aproximación al equilibrio.


Teorema Ergódico
Donde podemos considerar dos tipos de derivaciones →
Ecuación Maestra

Hipótesis ergódica de Boltzmann: Durante los años 1870's y 1880's, varias formas
de la hipótesis ergódica fueron usadas por Boltzmann en sus trabajos sobre los fundamentos
de la mecánica estadística. Una formulación de esta hipótesis es la siguiente:

Para sistemas grandes de partículas interactuantes en equilibrio, los promedios en el


tiempo son cercanos al promedio sobre el ensamble.

¾Cómo se incorporan los tiempos de contacto en las interacciones? Se puede considerar


entonces, el tiempo a promedio innito.

71
La ecuación maestra : Nos da la evolución temporal de Pn (t) en mecánica estadística
en equilibrio. Donde Pn (t) representa la probabilidad de que un sistema esté en el estado n
al tiempo t,

dPn (t) X
= [ωnm Pm (t) − ωmn Pn (t)] (8.1)
dt m

donde ωnm son probabilidades de transición por segundo del estado n al m.


Derivación: La probabilidad de estar en el estado n al tiempo t + dt se escribe,
X X
Pn (t + dt) = Pn (t) + ωmn Pm (t)dt − ωnm Pn (t)dt (8.2)
m6=n m6=n

donde el primer término es la probabilidad de que el sistema esté en el estado n al tiempo


t, el segundo término representa la probabilidad de que el sistema se encuentre en el estado
m 6= n al tiempo t y salte al estado n en el intervalo dt, el tercer término representa la
probabilidad de que el sistema se encuentre en el estado n al tiempo t y salte cualquier otro
estado m en el intervalo dt. t [Pm (t)] y que haya saltado al estado n durante el intervalo
dt, (ωmn dt). La sumatoria incluye todos los estados desde los cuales el sistema pudo haber
evolucionado. Reordenando términos,

Pn (t + dt) − Pn (t) X X
= ωmn Pm (t)dt − ωnm Pn (t)dt. (8.3)
dt m6=n m6=n

En el límite t→∞ el término de la derecha se convierte en una derivada y obtenemos la


ecuación 19.5.
Clase 9
Gases cuánticos
Partimos de la gran función de partición,

X
Z(V, T, µ) = e−β(Er −µNr ) (9.1)
r

donde tenemos que especicar un estado r. Para un sistema cuántico, que se compone de
partículas indistinguibles, tenemos que las partículas pueden ser de dos tipos, fermiones o
bosones, debido a la restricción impuesta por el principio de Pauli.

9.1. Simetría de la función de onda


Consideremos el problema de un sistema de N partículas idénticas. Por simplicidad su-
ponemos que el estado de cada partícula r está descrito por su posición ~xr relativa a algún
marco de referencia.

La función de onda para este sistema es Ψ(x1 , · · · , xN ). Si las partículas son idénticas,
entonces la densidad de probabilidad |Ψ(x1 , · · · , xN )|2 debe ser invariante bajo intercambios
arbitrarios de las etiquetas usadas para identicar a las partículas. En mecánica cuántica, las
partículas no tienen trayectorias bien denidas, sólo los estados de un sistema físico están
bien denidos. Supongamos que en un tiempo inicial t0 las N partículas están localizadas en
posiciones denidas x1 , · · · , xN , conforme el sistema evolucione en el tiempo esto se perderá.
El hamiltoniano es invariante bajo cualquier permutación de las etiquetas de las partículas,
ya que las permutaciones constituyen una simetría en sistemas mecanico-cuánticos de muchas
partículas. Es decir, las partículas idénticas son indistinguibles. En particular, la densidad
de probabilidad de cualquier eigenestado debe permanecer invariante si intercambiamos las
etiquetas de dos partículas. Sea Prk el operador de intercambio de las etiquetas de dos par-
tículas r y k, las funciones de onda deben cambiar bajo la acción de este operador cuando
mucho por un factor de fase. Por lo tanto, se requiere que,

Prk Ψ(xi , · · · , xr , · · · , xk , · · · xN ) = eiφ Ψ(xi , · · · , xk , · · · , xr , · · · xN ) (9.2)

Si efectuamos otra operación de intercambio, las partículas regresarán a sus estados iniciales
y recuperaremos el estado original. Este argumento requiere que φ = 0, π , ya que 2φ no debe
ser una fase observable. Por lo tanto concluimos que tenemos dos posibilidades: que Ψ sea par

73
bajo la permutación y P Ψ = Ψ o impar bajo la permutacion, es decir, pΨ = −Ψ. Los sistemas
de muchas partículas que tienen funciones de onda que son pares bajo una permutación de
sus etiquetas por parejas, se llaman bosones. En el caso Ψ impar bajo una permutación
por parejas, se llaman fermiones. Se debe considerar que estos argumentos sólo muestran
que el requerimiento de que Ψ sea par o impar es solamente una condición suciente. Bajo
circunstancias especiales (i.e. sistemas en una y dos dimensiones) surgen otras opciones y el
factor de fase φ puede tomar valores diferentes de 0 ó π. Estas partículas se llaman anyones
(del inglés anyons. Por el momento sólo pueden surgir en casos en los que las partículas están
restringidas a moverse sobre una línea o sobre plano.

9.2. Estadística de Fermi-Dirac y Bose-Einstein


La indistinguibilidad de las partículas idénticas tiene efectos fuertes a bajas temeperaturas
y/o altas densidades, donde los paquetes de onda mecánico-cuánticos se traslapan conside-
rablemente. La representación de ocupación se usa para estudiar la mecánica estádistica y
termodinámica de las gases ideales cuánticos que satisfacen la estadistica de Fermi-Dirac y
Bose-Einstein.

9.2.1. Números de ocupación

Un eigenestado de la energía Ψr del sistema de N -partículas se determina cuando identi-


camos:

cuáles estados de una sóla partícula esta ocupados y,

qué tan frecuentemente se ocupan esos estados.

Para los fermiones el principio de exclusión de Pauli, prohibe una ocupación múltiple. En
contraste, en un sistema de bosones, se pueden tener por ejemplo muchos de ellos en un sólo
estado ϕs (single-particle states).

La indistinguibilidad de partículas idénticas implica que no podemos especicar qué par-


tículas están en que estado cuántico. Basta con conocer el siguiente conjunto de números,

ns (Ψr ) ≡ número de veces que un estado cuántico ϕr


está ocupado en el estado completo Ψr

El número ns (Ψr ) se llama el número de ocupación para el estado cuántico ϕs en Ψr . Para


los fermiones, el número de ocupación siempre está restringido a cero o 1. Para bosones, el
rango es 0, 1, 2, · · · , N .
Consideremos un sistema cuántico en el que podemos caracterizar su energía por n nú-
meros de ocupación,


X
ER = n1 1 + n2 2 + · · · = nλ λ (9.3)
λR
donde N representa el número total de partículas en el sistema,

X
N = n1 + n2 + · · · = nλ . (9.4)
λR

La energía media se calcula de manera usual,

e−β(Er −µNr ) Er
P
r
E= ,
Z

y similarmente el número medio de partículas en el estado r,

e−β(Er −µNr ) Nr
P
r
Nr = (9.5)
Z

donde la suma sobre todos los microestados para todas las energías posibles se efectúa su-
mando sobre todos los posibles números de ocupación,

XXX
Z= e−β[(1 −µ)n1 +(2 −µ)n2 +(3 −µ)n3 +··· ] (9.6)
n1 n2 n3
| {z }
λ

Resulta conveniente denotar el término eβµ con f, la fugacidad. Como µ = kT ln f , f


es una actividad absoluta (energía que cuesta quitar una partícula del sistema por grado
centígrado), para la diferencia entre los potenciales químicos entre dos estados, es decir,
∆µ = kT ln(a1 /a2 ) donde a1 y a2 son las actividades [8].

En términos de la fugacidad, la gran función de partición queda,


X
Z(f, V, T ) = f N ZN (V, T ), (9.7)
N =0

donde hemos introducido la denición de función de partición canónica,

X0
ZN (V, T ) = e−β(1 n1 +2 n2 +··· ) (9.8)
n1 ,n2 ,n3

con la prima en la sumatoria indicando que estamos restringimos al conjunto de las N 's que
cumplen con la condición,

X
nλ = N
λR

Sustituyendo la ecuación 9.8 en la ecuación 9.7 y desarrollando obtenemos,



X ∞ X
X
P P
Z(f, V, T ) = f N e−β λ nλ λ
= f N e−β λ nλ λ
(9.9)
N =0 N =0 {nλ }

X XY
= (f e−βλ )nλ (9.10)
N =0 {nλ } λ
X
· · · (f e−β1 )n1 (f e−β2 )n2 · · · .
 
= (9.11)
n1 ,n2 ,n3

Finalmente,

" #
Y X
−βλ n
Z= (f e ) = Z1 × Z 2 × Z 3 · · · (9.12)
λ n

donde Z1 representa la gran función de partición para el microestado 1, Z2 para el microestado


2 y así sucesivamente. Por lo tanto no nos enfocamos en las partículas sino en los orbitales.

9.2.2. La representación de ocupación

El número medio de partículas en el estado s está dado, en términos de la ecuación 9.6,

P
P −β[n1 (1 −µ)+n2 (2 −µ)+··· ]
P −β n (i −µ)ni P −βns (s −µ)
n1 n2 ··· e ns ni 6=ns e i
ns e ns
ns = = P
−β n ni i P
Z
P −βns (s −µ)
ni 6=ns e ns e
i

P −βns (s −µ)


e ns 1 ∂
ns = Pns −βns (s −µ) = ln Z (9.13)
ns e β ∂s

A partir de la ecuación 9.13 podemos distinguir tres casos en términos del valor del
potencial químico y la simetría de la función de onda.

Caso I: Bosones con µ = 0


La expresión 9.13 se reduce a,


!  
1 ∂ X
−βns s 1 ∂ 1
ns = ln e =− ln (9.14)
β ∂s ns =0
β ∂s 1 − e−βs

con lo que obtenemos,

1
ns = (9.15)
e−βs −1

la cual es la distribución de Planck.


Caso II: Bosones con µ 6= 0
Los números de ocupación de los estados cuánticos para los bosones pueden ser arbitrarios
P
(sin límites), Considerando la restricción r nr = N y debido a que el potencial químico es
distinto de cero, agregar partículas al sistema cuesta energía, por lo tanto,


!
1 ∂ X
ns = ln e−βns (s −µ) . (9.16)
β ∂s ns =0

La serie en el argumento del logarítmo es una progresión geométrica que converge si


e−β(−µ) < 1, condición que debe satisfacerse para s arbitrario, tal que µ < 0. Es decir, el
potencial químico de un gas de Bose siempre es negativo. Por lo tanto, obtenemos,

1 ∂ 1
ln 1 − e−β(s −µ) = β(s −µ)

ns = −
β ∂s e −1
Entonces,

1
ns = (9.17)
eβ(s −µ) −1

que corresponde la distribución de Bose-Einstein. El signo − en el denominador permite que


el número de ocupación estimado sea mucho mayor que 1.

Aún cuando T 6= 0 todas las partículas pueden condensarse en un sólo estado. El número
de partículas en el estado base puede ser innito.

Caso III: Fermiones con µ 6= 0


Partimos del número promedio de partículas en el estado cuántico s,
P −βns (s −µ)
e ns
ns = Pns −βns (s −µ) (9.18)
ns e

Por el principio de exclusión de Pauli, para los fermiones este número puede ser 0 ó
1. Entonces en la sumatoria sobre ns en la ecuación previa sólo sobreviven dos términos y
obtenemos,

e−β(s −µ) 1
n= = (9.19)
1 + e−β(s −µ) eβ(s −µ) + 1
Entonces,

1
ns = (9.20)
eβ(s −µ) +1

la cual es la distribución de Fermi-Dirac. Se puede ver que ns ≤ 1.


Aquí µ denota la energía de Fermi: la máxima energía de los estados ocupados a tempe-
ratura cero (del orden de 1 a 5 eV). El +1 en el denominador asegura que la relación ns ≤ 1
sea válida, una consecuencia del principio de Pauli.
9.2.3. Límites: Aproximación clásica

La física clásica no distingue entre fermiones y bosones. Cuando las condiciones de tem-
peratura y densidad de número son tales que la clásica da una buena aproximación, entonces
los fermiones y bosones deben comportarse de la misma manera. La cantidad ±1 en las
ecuaciones 9.17 y 9.20 sobre ns debe ser insignicante relativo a la exponencial.

eβ(s −µ)  1. (9.21)

y ambas distribuciones deben reducirse a la de Maxwell-Boltzmann.

Retomando la gran función de partición,

∞ ∞
X X 1 X N!
ZMB = N
f QN = fN e−β(n1 1 +n2 2 +··· ) (9.22)
N =0 N =0
N! n1 , n2 ,···
n1 ! n2 ! · · ·
P
s ns =N
X 1
= e−βn1 (1 −µ) e−βn2 (2 −µ) · · · (9.23)
n1 , n2 ,···
n 1 ! n 2 ! · · ·
X [e−β(1 −µ) ]n1 [e−β(2 −µ) ]n2
= ··· (9.24)
n , n ,···
n 1 ! n 2 !
1 2

donde identicando el coeciente binomial, podemos escribir como,

P∞ P∞
e−βs
ZMB = e−β(1 −µ) + e−β(2 −µ) + · · · = e s=1 −β(s −µ)
= ef s=1 = ef z 1 , (9.25)

P∞ −βs
con z1 = s=1 e . Entonces la gran función de partición se escribe en términos de la
exponencial de una sóla partícula. El valor esperado de los números de ocupación, por ejemplo
n1 ,

1 ∂ ln Z ∂ X
n1 = − =− e−β(s −µ) = e−β(1 −µ)
β ∂(1 − µ) ∂[β(1 − µ)] s=1

Entonces el número promedio de partículas en el nivel s es,

ns = f e−βs (9.26)

si sumamos sobre s en ambos lados de esta ecuación para eliminar f, obtenemos,

ns e−βs
= P −βr (9.27)
N re

la cual es la distribución de Maxwell-Boltzmann.

Por otra parte si tomamos el límite clásico en las distribuciones de Bose-Einstein y Fermi-
Dirac, ecuaciones 9.17 y 9.20, éstas se convierten en,
1
ns = (9.28)
eβ(−µ)
que es la ecuación 9.27.

Consideremos la gran función de partición para los bosones y fermiones

Y ±1
ZFD = 1 ± f e−βs (9.29)
BE
s

Tomando el logaritmo obtenemos,

X
ln Z = ± ln(1 ± e−β(r −µ) ) (9.30)
r

en el límite clásico (LC), aproximado ln(1 ± x) ≈ ±x obtenemos,

X
ln ZLC = e−β(r −µ) (9.31)
r
X
βµ = ln N − ln e−βr
r
X
ln ZLC = −βµN ± ln(±e−β(r −µ) ) (9.32)
r
| {z }
nr

Z = −βµN + N = N (1 − βµ)
con lo que obtenemos,

X
ZLC = −N ln N + N + N ln e−βr (9.33)
| {z }
− ln N ! r
| {z }
ZMB

donde en la primer llave se ha considerado la aproximación de Stirling. Finalmente,

ZMB
ZLC = (9.34)
N!
Lo cual resuelve la paradoja de Gibbs.
Clase 10
Gas de electrones libres
El modelo de Drude de la conductividad eléctrica fué propuesto en 1900 por Paul Drude
para explicar las propiedades de transporte de los electrones en materiales (metales). El mo-
delo, que es una aplicación de la teoría cinética supone que el comportamiento microscópico
de los electrones en un sólido puede tratarse clásicamente (similarmente a una máquina de
pinball), con un mar de electrones en constante movimiento golpeando constantemente los
iones positivos más pesados. Este modelo dió algunos resultados que concordaron bastante
con los experimentos, por lo que Hendrik A. Lorentz usó todo el aparato de la teoría cinéti-
ca para investigar el problema más cuidadosamente. Sus resultados no mejoraron el modelo
de Drude, sin embargo, usó la distribución de Boltzmann y la ecuación de Boltzmann para
obtener sus resultados.

Debido a que modelo Drude-Lorentz no decía nada sobre la distribución de energía en los
metales y tampoco tomaba en cuenta el principio de exclusión de Pauli, Arnold Sommerfeld
1
(1868-1951) para eliminar estas deciencias, desarrolló un modelo para los electrones en los
metales que consideró la estadísitica de Fermi-Dirac [9].

10.1. Modelo de Sommerfeld


Consideremos el problema de electrones libres en una caja, si las partículas no interactúan,
hay que calcular la gran función de partición de acuerdo a la expresión,

ln Z = N (ln ζ − ln N + 1) (10.1)

donde ζ es la función de partición de un sólo electrón.

Podemos suponer además que el gas de electrones está contenido en una caja de lados
Lx, Ly , Lz y que el potencial dentro de la caja es constante. La ecuación de Schrödinger es,

~2 2
− ∇ Ψ(r) = EΨ(r) (10.2)
2m
y su solución es,

1 Seis estudiantes de Sommerfeld: Werner Heisenberg, Wolfgang Pauli, Peter Debye, Hans Bethe, Linus
Pauling and Isidor I. Rabi, ganaron un premio nobel en física. Sommerfeld fué nominado 81 veces pero nunca
ganó

81
1
Ψk (r) = V − 2 eik·r (10.3)

donde los eigenvalores de la energía,

~2 k 2
Ek = . (10.4)
2m
Para evitar dicultades en las fronteras, podemos suponer condiciones períodicas de tal
forma que en x=0 y x = L, la función de onda valga lo mismo, Ψ(x + L) = Ψ(x). Esto nos
lleva a que hay un número entero de longitudes de onda en el interior de la caja, es decir, los
valores permitidos de ki con i = x, y, z satisfacen,

2πni
ki = (10.5)
Li
donde ni = 0, ±1, ±2, · · · . Por lo tanto la energía es,

~2 2 n2x n2y n2z


 
Ek = 2π + + (10.6)
2m L2x L2y L2z

10.1.1. Derivación de la densidad de estados

La densidad de estados da el número de electrones permitidos por volumen a una energía


dada. Estos estados permitidos se pueden gracar como una rejilla de puntos en el espacio
k, una visualización en tres dimensiones de las direcciones de los vectores de onda de los
electrones. Los estados permitidos están separados por π/Lx,y,z
en las tres direcciones del
3
espacio k . El volumen del espacio k que toma cada estado permitido es π /Lx Ly Lz . Su
3
recíproco es la densidad de estados en el espacio k , el número de estados por volumen, V /π .

El número de estados disponibles para una magnitud dada del vector de onda |k| se
encuentra construyendo un cascarón esférico de radio k y grosor dk . El volúmen de este
2
cascarón esférico en el espacio k es 4πk dk . Por lo tanto, el número de estados k dentro del
cascarón esférico, ρ(k) dk es (aproximadamente) el volumen del espacio k multiplicado por
la densidad espacial de estados,

 
2 V
ρ(k) dk = 4πk dk (10.7)
π3
Por lo tanto, el número de estados en un intervalo de energía,

ρ(E) dE = ρ(k) dk

dk dk V
ρ(E) = ρ(k) ⇒ ρ(E) dE = ρ(k) dE = 2 2 mk dE
dE dE 2π ~

tomando en cuenta la ecuación 20.3, obtenemos k= 2mE/~2 , por lo que,


V 2mE
ρ(E) dE = 2 2 m dE
2π ~ ~2
Es decir,

V m3/2 √
ρ(E) dE = 2E dE = cteE 1/2 (10.8)
2π 2 ~3
Si efectuamos el mismo procedimiento en una y dos dimensiones obtenemos ρ(E)dE =
−1/2
cteE y ρ(E)dE = cte respectivamente.

La función de partición de un sólo electrón es,

z X
2 ~2
(kx2 +ky2 +kz2 ) 2
X ~
Y
−β 2m
ζ= e = e−β 2m ki . (10.9)
kx ,ky ,kz i=x ki

Podemos convertir la sumatoria sobre ki en una integral si la longitud de la caja es mucho


más grande que las longitudes de onda de los electrones, entonces,

Z ∞  1/2
X ~
−β 2m
2
ki2 Li ~
−β 2m
2
ki2 Li 2πm
e ≈ e dki =
ki
2π −∞ 2π β~2
 1/2
Li 2πm
= (10.10)
2π~ β

Considerando que el espacio es tridimensional, obtenemos para la función de partición de


una sóla partícula,

 3/2
i=x,y,z V 2πm
ζ = 3 , (10.11)
h β
donde hemos sustituido ~ = h/2π . Finalmente la gran función de partición, ecuación 10.1,

   
V 3 3 2πm
ln Z = N ln + ln β + +1 . (10.12)
N 2 2 h2
Clase 11
Física Estadística Cuántica
En mecánica estadística clásica es conveniente representar el estado de un sistema de f
grados de libertad por la posición de un punto en el espacio fase qp de 2f dimensiones y luego
representar un ensamble de estos sistemas por medio de una nube de puntos en el espacio fase
distribuidos con una densidad ρ1 . Suponiendo que esta densidad está normalizada a uno, es
decir,

Z Z
··· ρdq1 · · · dqf dp1 · · · dpf = 1. (11.1)

A partir de la expresión anterior, podemos calcular el valor medio (para los sistemas en
el ensamble) de cualquier función F (q, p) de las coordenadas y momentos con la ecuación,

Z Z
hF i = ··· F (q, p)ρdq1 · · · dqf dp1 · · · dpf . (11.2)

11.1. La matriz densidad


John von Neumann [10] demostró que puede introducirse en mecánica cuántica una canti-
dad llamada la matriz densidad con componentes ρnm que tome un papel similar a la densidad
ρ en mecánica clásica.

En un estado cuántico, si se conocen los valores de expectación, la matriz densidad se


determina totalmente. Sin embargo, hay problemas. Sea un vector |ψi en el espacio de Hilbert,

|ψi = ψ(q)
P
denido en términos de una base ortonormal hψq |ψq0 i = δqq0 y completa q |ψq ihψq | = 1, el
valor de expectación de cualquier operador se denota con hψq |A|ψq i.

Cuando el sistema evoluciona en el tiempo t, el estado puro q sólo cambia de fase, por
lo tanto, el problema mecánico cuántico queda resuelto si conoemos los {A}, es decir, los
valores de expectación de los operadores que conmutan con el Hamiltoniano H . En general
el conjunto completo de observables {A} no se conoce y por lo tanto, el sistema no estará en
un estado cuántico puro. Los promedios hψq |A|ψq i no darán lo mismo.

1 Para N particulas f = 6N , es decir, la dimension del espacio fase es 6N

85
X
hAi = Pi hψi |A|ψi i (11.3)
i
P
con Pi ≥ 0 y i Pi = 1.
Denimos el operador matriz densidad, el cual da la proyección sobre el estado i, pesado
por la probabilidad,

X
ρ̂ = Pi |ψi ihψi |. (11.4)
i

Dada cualquier base podemos calcular,

X
Tr(Âρ̂) = hbn |Âρ̂|bn i (11.5)
n
XX
= Pi hbn |Â|ψi ihψi |bn i (11.6)
n i
XX
= Pi hψi |bn ihbn |Â|ψi i (11.7)
n i
X
= Pi hψi |Â|ψi i = hÂi, (11.8)
i

Es decir, el promedio estadístico de la observable está dado por la expresión,

hÂi = Tr (Âρ̂) (11.9)

ecuación que conecta la mecánica cuántica con lo que estamos midiendo.

11.1.1. Propiedades de la matriz densidad

ρ̂† = ρ̂

Es positiva,

X
hbn |ρ̂|bn i = Pi hbn |ψi ihψi |bn i
i
X
= Pi |hbn |ψi i|2 ≥ 0.
i

P
Tr ρ̂ = i pi = 1, ya que los coecientes son probabilidades.

Los elementos diagonales de ρ̂ son probabilidades de que el sistema se encuentre en esos


estados. Notemos, lo siguiente, si calculamos,
∂ ρ̂ X  ∂|ψi i ∂hψi |

i~ = i~ Pi hψi | + |ψi i (11.10)
∂t i
∂t ∂t
X h i
= Pi Ĥ|ψi ihψi | − |ψi ihψi |Ĥ (11.11)
i

obtenemos la ecuación de Heisenberg, que en este caso es conocida como ecuación de von
Neumann,

∂ ρ̂(t) h i
i~ = Ĥ, ρ̂ . (11.12)
∂t
Por lo tanto, la matriz densidad ρ̂ depende del tiempo y es un operador de Heisenberg.
En un sistema en equilibrio ρ̂ es estacionario y conmuta con Ĥ ,
h i
Ĥ, ρ̂ = 0 en equilibrio (11.13)

En este caso, ρ̂ es una constante de movimiento que solamente depende del hamiltoniano.
Para esribir en términos de la matriz densidad los ensambles, necesitamos encontar la forma
de ρ̂.

11.2. Ensamble microcanónico


En este caso es importante respetar el postulado de iguales probabilidades a priori. La
ecuación de Schrödinger,

Ĥ|ψn i = En |ψn i (11.14)

como ρ̂ = ρ̂(Ĥ), ρ̂ es diagonal en la misma representación que Ĥ es diagonal. Si denimos un


sistema aislado con energía entre E y E + ∆E , para ∆E  1, es decir, pequeña en energía,
pero sucientemente grande como para que quepan muchos estados cuánticos, el número de
microestados Ω, (que da el número de estados cuánticos que caben en esa energía) está dado
por:

X
Θ(E + ∆E + En(α) ) − Θ(E − En(α) )

Ω(E, N, α; ∆E) = (11.15)
n

donde Θ es la función de Heaviside y α representa los parámetros de los que puede depender
Ω, tales como el volumen V el número de partículas N, etc. La matriz densidad,

(α) (α)
Θ(E + ∆E + En ) − Θ(E − En )
ρmn = hψm |ρ̂|ψn i = δmn (11.16)
Ω(E, N, α; ∆E)
En este caso, la matriz es diagonal porque la probabilidad de pasar a otro estado es cero. El
valor de expectación del operador Â, esta dado por,
X XX
hÂi = hψn |Âρ̂|ψn i = hψn |Â|ψm ihψm |ρ̂|ψn i (11.17)
n n m
1X
hψn |Â|ψn i × Θ(E + ∆E − En(α) ) − Θ(E − En(α) ) ,

= (11.18)
Ω n

la suma de los valores de expectación de todos los estados que se encuentran entre los estados
E y E + ∆E . Podemos denir la densidad de estados como,

X
ω(E, α, N ) = δ(E − En(α) ) (11.19)
n

los estados con energía menor que E,


X
Σ(E, α, N ) = Θ(E − En(α) ) (11.20)
n

el cuál es el volumen del espacio fase encerrado por la supercie a energía constante. Final-
mente,

(α) (α)
Θ(E + ∆E − En ) − Θ(E − En )
ρmn = δmn (11.21)
Ω(E, N, α; ∆E)

ecuación que da la densidad microcanónica.

11.3. Ensamble canónico


En este ensamble, la matriz densidad se dene como,

(α)
δmn e−βEn
ρmn = hψm |ρ̂|ψn i = (11.22)
Z
donde,

X (α)
Z(β, α, N ) = i eβEn (11.23)
n

es la función de partición canónica. Si el sistema consiste partículas que no interactúan entre


sí, el hamiltoniano se puede separar de la siguiente manera,

N
X
Ĥ = Ĥ j (11.24)
j=1

donde Ĥ j representa el hamiltoniano de una sola partícula.

X X
Ĥi |ϕi i = i |ϕi i ⇒ Ĥ = i |iihi| = i â†i âi = i ni .
i i
con ↠y â, los operadores de creación y aniquilación respectivamente. Recordemos que un
estado cuántico cualquiera puede ser representado como una excitación del vacío, denido
según,

i=1 i=2 i=3 i=N


|ϕi = | 0 , 0 , 0 ,··· , 0 i

Al aplicar el operador de creación sobre el vacío, obtenemos

i
â†i |ϕi = |0, 0, · · · , 1, 0, · · · , 0i = |ii

Similarmente,

hi|âi = hϕ| quitamos un uno a la partícula

Por lo tanto, podemos escribir,

â†i âi = 1i |ϕi (11.25)

es decir, el vacío es un eigenvector del operador N̂ y su eigenvalor es el número de partículas


en el estado i. Si aplicamos el operador número al estado |ni = |n1 , n2 , n3 , · · · i, obtenemos,

â†i âi |ni = ni |ni (11.26)

que es de utilidad para averiguar el número de partículas en el estado i.


Para sistemas con hamiltonianos separables, podemos expresar la energía total del sistema
como,

X∗
EnN = ni i (11.27)
i
P
donde ∗ i ni = N , es decir, la conservación del número de partí-
representa la restricción,
culas. En el ensamble canónico, obtenemos,

X∗ P
Z(β, α, N ) = e−β i ni i (α)
(11.28)
{ni }

11.3.1. Aplicaciones: Paramagneto a la Brillouin

El problema consiste de N átomos no interactuantes en presencia de un campo magnético


Ĥ , la energía del sistema está dada por,

~
 = −~µ · H (11.29)

donde µ
~ es el momento magnético de un átomo, denido según,

~ = gµ0 J~
µ (11.30)
e~
con g el factor de Landé, µ0 el magnetón de Bohr, a su vez denido como µ0 = 2mc
, y
ˆ
J = L̂ + Ŝ el momento angular total. En términos de la ecuación 11.30, la energía, ecuación
11.29 puede reescribirse como,

 = −gµ0 J~ · H
~ = −gµ0 |H|J
~ z (11.31)

donde hemos supuesto que el campo magnético apunta a lo largo de la dirección z . Recorde-
mos que Jz es una cantidad cuantizada que toma valores Jz = m, con m = 0, ±1, ±2, · · · , ±J ,
es decir un total de 2J + 1 valores. Por lo tanto, los posibles estados cuánticos son,

m = −gµ0 Hm. (11.32)

Entonces el momento magnético promedio está dado por,

PJ βgµ0 mH
m=−J (gµ0 m)e
hµz i = PJ . (11.33)
e βgµ0 mH
m=−J

Por simplicidad identicamos y ≡ βgµ0 H , la razón entre la energía magnética y térmica,


sustituyendo obtenemos para la función de partición,

J
X
Z= eβgµ0 mH = e−yJ + e−y(J−1) + · · · + ey(J−1) + eyJ
m=−J

= e−yJ 1 + e1 + e2 + · · · + e2yJ


2J
e−yJ 1 − e2yJ+1

X
−yJ ny
=e e =
n=0
1 − ey
| {z }
suma geométrica nita
1 1
e−yJ − eyJ e−y(J+ 2 ) − ey(J+ 2 )
= = − y2 y
1 − ey e − e 2
1

senh J + 2 y
= . (11.34)
senh y2

Finalmente, la función de partición canónica para el sistema es,

senh J + 12 y

Z= . (11.35)
senh y2

Para hacer la conexión con la termodinámica, conviene calcular antes la siguiente canti-
dad,

  
1 y 
ln Z = ln senh J + y − ln senh (11.36)
2 2
Por lo tanto,
1 ∂ ln Z ∂ ln Z
hµz i = ≡ gµ0 (11.37)
β ∂H ∂y
" #
J + 12 cosh J + 12 y 1 cosh y2
 
hµz i = gµ0 −
senh J + 12 y 2 senh y2

    
1 1 1 y
= gµ0 J + coth J + y − coth
2 2 2 2

hµz i = gµ0 Bj (y) (11.38)

donde Bj (y) es la función de Brillouin. Cuando y es muy pequeña (temperatura alta) la


función de Brillouin iguala a la función de Langevin L(y) = coth y − 1/y , obtenida al resolver
el problema clásicamente. En ningún magneto los espines son independientes entre sí, cuando
consideramos esta interacción el problema es insoluble. Si la interacción entre espines se
considera a primeros vecinos obtenemos la ley de Curie-Weiss para la suceptibilidad magnética
de un material casi idealmente paramagnético en el que las interacciones entre momentos
magnéticos hacen que se desvíe de la ley de Curie.

11.4. Ensamble gran canónico


La probabilidad de que el sistema se encuentre en un estado r está dada por la expresión,

Pr = e−β(r −µNr ) (11.39)

donde µ es el potencial químico y Nr el número de partículas en el estado r. Podemos denir


βµ
la fugacidad como f = e . La matriz densidad macrocanónica,

N
f N eEn
ρmn = δmn (11.40)
Q(β, α, N, f )
donde Q es la gran función de partición, denida,

∞ ∞
X X (N ) X
N −βEn (α)
Q= f e = fN Z(β, V, N )
n
| {z }
N =0 N =0
función de partición canónica

X X∗ P
= fN e−β i ni i (α)

N =0 {ni }
∞ X∗ Y
X ni
= f e−βi
N =0 {ni } i

X∞
= C(N ) fN. (11.41)
| {z } |{z}
N =0
coef. desconocidos serie geométrica
La derivada de la gran función de partición, ecuación 11.41 con respecto a N es


∂Q X
= N C(N )f N −1 . (11.42)
∂f N =0

Y el número promedio de partículas,

f ∂ ln Q
hN i = . (11.43)
∂f
Notemos lo siguiente,

X X∗ P
fN = f i ni
,
N {ni }

es decir podemos sumar sobre las ni 's y por lo tanto los coecientes C(N ) no afectan la suma.
X P P
ni −β ni i (V )
Q(β, V, f ) = f i e i

{ni }

Por lo tanto,

YX ni
Q(β, V, f ) = f e−βi (V ) (11.44)
i {ni }

Recordemos que en mecánica cuántica la simetría de los estados es importante, para los
fermiones ni = 0, 1, por lo tanto,

Y
1 + f e−βi (V ) ,

QF = (11.45)
i

Mientras que para bosones n = 0, 1, 2, · · · , ∞,

Y 1

QB = . (11.46)
i
1 − f e−βi (V )

Reescribiendo las ecuaciones 11.45 y 11.46 en una sóla expresión obtenemos,

X
ln 1 ± e−β(i −µ)

ln QFD = ± (11.47)
BE
i

O bien,

X
ln 1 + Θe−β(r −µ)
 
ln Q = Θ (11.48)
r

en términos de,


1 : fermiones
Θ=
−1 : bosones
El número promedio de partículas está dado por,

f e−βi (V )
P
i
hN i = . (11.49)
1 + Θf e−βi (V )
Y por lo tanto, el número de partículas en el estado i,

f e−βi (V )
hni i = . (11.50)
1 + Θf e−βi (V )
Clase 12
Teoría cuántica de gases ideales

12.1. Introducción
Hasta ahora hemos obtenido dos distribuciones fundamentales en Mecánica Estadística:
Fermi-Dirac y Bose-Einstein. Las ecuaciones básicas asociadas con estas distribuciones son,

Y ±1
Q(V, T, f ) = 1 ± f e−βk (12.1)
k

El número de partículas,

X f e−βk
N= (12.2)
k
1 ± f e−βk

El número promedio de partículas en el nivel k,

f e−βk
nk = (12.3)
1 ± f e−βk
La energía,

X f e−βk k
E= (12.4)
k
1 ± f e−βk

Y nalmente, la conexión con la termodinámica,

X
ln 1 ± f e−βk

pV = ±kT (12.5)
k

Si f es una cantidad pequeña, ambas distribuciones se reducen a la distribución de


Maxwell-Boltzmann (límite clásico). Por lo tanto, la magnitud de f puede considerarse como
una medida del grado de comportamiento cuántico del sistema.

f pequeño a T alta o ρ baja: Comportamiento clásico

95
f grande a T baja o ρ alta: Comportamiento cuántico

12.2. Gas ideal de fotones


Aplicaremos la termodinámica estadística a la radiación electromagnética encerrada en
un volumen V y a una temperatura T. Experimentalmente esto se puede obtener con una
cavidad de cualquier material, evacuada. Posteriormente se calienta a la temperatura T.
Debido a esto, los átomos dentro de la cavidad absorben y emiten radiación, por lo tanto en
equilibrio tenemos una cavidad llena de radiación electromagnética.

Una onda electromagnética puede considerarse como una partícula sin masa de espín
entero ~ = h/2π , con momento y energía en función de su longitud de onda λ. Notemos lo
siguiente, como el gas se compone de fotones de espín 1 (en unidades de ~), tenemos un gas
de Bose-Einstein.

La energía y momento de un fotón están dadas por,

 = hν = ~ω = ~ck (12.6)

h
p= = ~k (12.7)
λ
Consideremos la radiación de cuerpo negro en equilibrio como un sistema de ondas esta-
cionarias en el interior de la cavidad. De la ecuación 12.6 vemos que la energía depende del
vector de onda |~k|, por lo tanto, necesitamos una expresión del número de ondas estacionarias
con energía entre  y  + d,

π2 2
k2 = 2 2

n x + ny + n z nx , ny , nz = 1, 2, · · · (12.8)
L2
Recordemos que el número de estados con energía menor o igual a  es aproximadamente
igual al número de puntos de red cristalina que caben dentro de una esfera de radio R dado
por,

L2 k 2
R2 = n2x + n2y + n2z = (12.9)
π2
Estamos interesados en calcular el número de estados que tienen aproximadamente la misma
energía , y esto se hace contando el número de puntos de red cristalina que están a una
distancia constante del origen. Para 1/8 del volumen de la esfera obtenemos,

4πR3 L3 k 3 V k3
   
1 1
φ(k) = = π = (12.10)
8 3 6 π3 6π 2

donde hemos sustituido el valor R2 dado por la ecuación 12.9.

El número de estados entre k y k + dk (equivalente al número de estados entre  y  + d,


ya que la energía es lineal en k ), es
g(k, ∆k) = φ(k + ∆k) − φ(k) (12.11)

con ∆k/k  1. Por lo tanto,

dφ V k 2 dk
g(k)dk = dk = , (12.12)
dk 2π 2
y de la ecuación 12.6, obtenemos,

2 V 2 d
 
1 1
g()d = V d = (12.13)
~2 c2 2π 2 ~c (~c)3 2π 2
Como los fotones tienen dos polarizaciones, obtenemos nalmente,

V 2
g()d = d, (12.14)
π 2 ~3 c3
el número de ondas estacionarias con energía entre  y  + d.
La energía total del sistema,

X
E({nk }) = k nk (12.15)
k

donde el número de partículas con energía k es nk = 0, 1, 2, · · · , ∞, ya que las fotones son


bosones.

La función de partición canónica,

X X P
Z(V, T ) = e−βE({nk }) = e−β k k nk (12.16)
{nk } {nk }

Notemos lo siguiente: No hay restricción en el conjunto {nk } ya que el número de fotones no


se conserva, por lo tanto Z = Z(V, T ) y no es una función de N, ya que no es una variable
termodinámica porque el número de fotones no está jo.


!
Y X Y 1
Z(V, T ) = e−βk n = (12.17)
k n=0 k
1 − e−βk

donde hemos considerado una serie geométrica nita para llegar al resultado. Recordemos
que en el ensamble canónico todas las variables termodinámicas están en función del ln Z ,
por lo tanto,

" #  
Y 1 1 X
ln Z = ln = ln
k
1 − e−βk k
1 − e−βk
X X
ln 1 − e−βk = − ln 1 − e−β
 
=− (12.18)
k 
Esta sumatoria se puede convertir en una integral, si introducimos la densidad de estados
y tratamos a  como una variable continua,

Z ∞
V
ln Z = − 2 3 3 2 ln(1 − e−β )d
π c~ 0

V X 1 ∞ 2 −nβ
Z
= 2 3 3 e d (12.19)
π c ~ n=1 n 0

La integral se puede evaluar por partes y el resultado es,

Z ∞
2
2 e−nβ d =
0 n3 β 3
por lo tanto, la función de partición es,


V 2 X 1
ln Z = 2 3 3 3 (12.20)
π c ~ β n=1 n4

De la denición de función zeta de Riemann,


X 1
ζ(s) = s
, (12.21)
n=1
n

podemos reescribir la función de partición como,

V 2
ln Z = ζ(4) (12.22)
π 2 c3 ~3 β3
Obtenemos la energía del sistema a partir de,

 
2∂ ln Q
E = kT
∂T V
 
2 ∂ V ζ(4) 3
= kT 2(kT )
∂T π 2 c3 ~3
4 V ζ(4) 6 4 (kT )4 V
= 6(kT ) 2 3 3 = π 2 3 3 (12.23)
π c~ 90 π c ~
nalmente,

π 2 V (kT )4
E= . (12.24)
15(~c)3
Por lo tanto la densidad de energía de un gas de fotones depende de la cuarta potencia en la
temperatura T.
De teoría cinética, el ujo de partículas golpeando una supercie por unidad de área por
unidad de tiempo en el contenedor es,
1 nc
Φ = nhvi = (12.25)
4 4
La potencia emitida es la energía ~ω , multiplicada por el ujo,

n~ωc
P = ~ωΦ = (12.26)
4
Pero la energía total es E = n~ω , por lo tanto,

π 2 V (kT )4 c π 2 V (kT )4
P = = ≡ σT 4 (12.27)
15(~c)3 4 60(~3 c2 )

que es la ley de Stefan-Boltzmann.

La presión de radiación del cuerpo negro,

2(kT )4
 
∂ ln Z
p = kT = 2 ζ(4) (12.28)
∂V T π (~c)3

π 2 (kT )4
p= (12.29)
45(~c)3

por lo tanto, la presión es despreciable excepto a altas temperaturas.

La entropía y el potencial químico están dados por,

4π 2 V ~(kT )3
 
∂ ln Z
S = k ln Z + kT = (12.30)
∂T V 45(~c)3

De la energía libre de Gibbs, G = T S − pV + µN , obtenemos,

µN = G − T S − pV = 0. (12.31)

La densidad de energía para cada frecuencia,

X X
ln Z = − ln(1 − e−β ) = − ln(1 − e−β~ω )
 ω

Sustituyendo en la ecuación para la energía,

 
2∂ ln Z
E = kT =
∂T V
( )
∂ X
= kT 2 − ln(1 − e−β~ω )
∂T ω
−β~ω
X e
= ~ω (12.32)
ω
1 − e−β~ω
Introduciendo la densidad de estados y transformando la sumatoria en una integral,


V 2 ~ωe−β~ω
Z
E= ω dω
0 π 2 c3 1 − e−β~ω
Z ∞ 3 −β~ω
V~ ω e
= 2 3 dω. (12.33)
π c 0 1 − e−β~ω
La energía termodinámica por unidad de volumen, puede escribirse en términos de la
densidad de energía de cada frecuencia,

Z ∞
E
= ρ(ω, T )dω (12.34)
V 0

donde,

~ ω3
ρ(ω, T )dω = dω (12.35)
π 2 c3 eβ~ω − 1
la cual es la distribución de radiación de cuerpo negro, derivada por Planck.

12.3. Capacidad caloríca de los sólidos


12.3.1. Introducción

Pierre Louis Dulong y Alexis Thèrèse Petit efectuaron experimentos en sólidos cristalinos
tridimensionales para determinar la capacidad caloríca de una variedad de éstos. Dulong
y Petit descubrieron que todos los sólidos que estudiaron tienen una capacidad caloríca
4 −1 −1
de aproximadamente 2.49 × 10 J kilomole K a aproximadamente una temperatura de
298 K o temperatura ambiente, véase la gura 12.1. Los resultados de sus experimentos
fueron explicados considerando que cada átomo dentro del sólido se puede considerar como
un pequeño oscilador con seis grados de libertad (el oscilador puede imaginarse como un
resorte conectando todos los átomos dentro de la red cristalina). Estos resortes se extienden
en el espacio tridimensional. Mientras más energía se agrega al sólido, estos resortes vibran
1
más. Cada átomo tiene una energía de kT , donde k es la constante de Boltzmann y T , la
2
temperatura absoluta. Así,

 
N
cV = 6 k = 3N k.
2
El número 6 en la ecuación anterior es el número de grados de libertad para la molécula.
Petit y Dulong sugirieron que estos resultados fundamentaban sus trabajos experimentales
para la capacidad caloríca de los sólidos. Sin embargo, esta explicación no fué suciente
cuando se descubrió que la capacidad caloríca decrece cuando la temperatura se acerca
al cero absoluto. Los grados de libertad no dejan de contribuir cuando el sólido alcanza
una temperatura lo sucientemente baja. Por lo tanto, se propusieron modelos adicionales
para explicar esta desviación. Dos teorías principales fueron desarrolladas para resolver esta
desviación en los experimentos. La primera, fué construida por Einstein y la segunda por
Debye.
2.5

2.0

Pb
1.5 Ag

cV Zn
Cu
4 J
10 K·mol 1.0 Al

0.5

0.5 1.0 1.5 2.0 2.5

ΘE

Figura 12.1: Resultados de la medición de la capacidad caloríca para varios sólidos. Expe-
3
rimentalmente se encontró que la temperatura tiende a cero como T .

12.3.2. Teoría de Einstein

Einstein hizo tres suposiciones al investigar la capacidad caloríca de los sólidos. Primero,
supuso que todos los sólidos se componen de una estrutura de red cristalina que consiste de
N átomos. Cada átomo, se mueve independientemente en las tres dimensiones de la red
cristalina (3 grados de libertad), lo que equivale a describir el movimiento vibracional de la
red cristalina por 3N grados de libertad. La segunda suposición, fué que los átomos dentro
de la red cristalina del sólido no interactúan entre sí y nalmente, la tercera, que todos los
átomos dentro del sólido vibran a la misma frecuencia. Esta es la diferencia principal entre
este modelo y el de Debye.

En este caso tenemos un conjunto de osciladores armónicos vibrando a la misma frecuen-


cia. Para un oscilador,

 
1
n = ~νE n+ con n = 0, 1, 2, · · · (12.36)
2
Si cada oscilador está en equilibrio térmico, la función de partición canónica,


X ∞
X
Z= e−βn = e−βhνE (n+1/2)
n=0 n=0

1
X
= e−βhνE n e− 2 βhνE
n=0

x
X
= e− 2 e−xn con x ≡ βhνE . (12.37)
n=0

usando la expresión de la serie geométrica,



X 1
xn = (12.38)
n=0
1−x

obtenemos,

x
e− 2
Z(T, V, N ) = (12.39)
1 − e−x
La energía la obtenemos de la expresión,

 
∂ ln Z ∂ βhνE hνE hνE
u=− = + ln(1 − e−βhνE ) = + βhν (12.40)
∂β ∂β 2 2 e E −1
hνE
donde es la energía del punto cero. Como la energía es una cantidad extensiva, la energía
2
para los 3N osciladores está dada por,

 
hνE hνE
U = 3N u = 3N + βhν (12.41)
2 e E −1

La capacidad caloríca a volumen constante es,

   
∂U ∂u ∂β
cV = = 3N (12.42)
∂T V ∂β V ∂T

x2 ex hνE ΘE
cV = 3N k con x≡ = (12.43)
(ex − 1)2 kT T

donde ΘE es la temperatura de Einstein, que es diferente para cada sólido y reeja la rigidez
x
de la red cristalina. Cuanto T  ΘE , o bien x  1, e → 1 − x y cV → 3N k , recuperamos
x x
la ley de Dulong-Petit. En el límite de baja temperatura, T  ΘE y x  1, e − 1 ∼ e y
obtenemos,

 2
ΘE ΘE
cV ∼ 3N k e− T (12.44)
T
por lo tanto, el modelo predice esta cantidad en lugar de T 3 como los datos experimentales. Es
decir, según el modelo de Einstein, la temperatura decae exponencialmente a cero (comparada
3
con T ).

12.3.3. Teoría de Debye

Debye mejoró la teoría de Einstein introduciendo vibraciones acopladas del sólido en


términos de 3N modos normales de vibración de todo el sistema.

Las vibraciones de la red cristalina son equivalentes a 3N osciladores armónicos indepen-


dientes con estas frecuencias de modos normales. Si las longitudes de onda de vibración λ
son mucho mayores que la separación interatómica a, i.e. λa podemos tratar al sistema
a

Figura 12.2: Modos normales.

como un medio elástico homogéneo. Debye obtuvo la expresión para el número de modos con
frecuencia entre ν y ν + dν . Retomando el cálculo efectuado en la sección 12.2, particularme
la ecuación 12.12, obtenemos,
V k2
g(k)dk = dk (12.45)
2π 2
vk
y en términos de la velocidad de propagación de la onda v = λν = 2π
, obtenemos,

4πV 2
g(ν)dν = ν dν (12.46)
v3
donde V es el volumen. Considerando que hay dos tipos de ondas en un medio elástico homo-
géneo: ondas transversales y longitudinales. Recordemos qeu podemos dibujar dos vectores
independientes con respecto a ~
k y sólo uno paralelo a ~k , por lo que hay dos ondas transversales
y una longitudinal. En términos de esto,

 
2 1
g(ν)dν = 3
+ 3 4πV ν 2 dν (12.47)
vt vl

con vl y vt las velocidades longitudinal y transversal respectivamente. Introduciendo una


velocidad promedio,

3 2 1
3
≡ 3+ 3 (12.48)
v0 vt vl

Finalmente,

12πV 2
g(ν)dν = ν dν (12.49)
v03

válida para ν bajas o λ grandes, es decir, cuando la naturaleza atómica del sólido es despre-
ciable. La ecuación 12.53 es válida para todas las frecuencias normales, sin embargo, como el
número total de frecuencias normales es 3N , Debye denió una frecuencia máxima νD de tal
forma que la integral de g(ν)dν entre cero y νD iguale a 3N ,
Z νD
g(ν)dν = 3N. (12.50)
0

La integral del lado izquierdo,


νD νD
12πV ν 3 νD
Z Z  
12πV 2
g(ν)dν = ν dν =
v03 v03 3 0

0 0
3
12πV νD
= = 3N (12.51)
v03 3
 1/3
3N
νD = v0 frecuencia de Debye (12.52)
4πV
Sustituyendo la ecuación 12.52 en la ecuación 12.53, obtenemos,

9N 2
g(ν)dν = 3
ν dν (12.53)
νD

El número medio de partículas con frecuencias entre ν y ν + dν es,

g(ν)dν
N (ν)dν = (12.54)
ehν/kT −1
La energía,

νD νD
ν 3 dν
Z Z
9N h
U= hνN (ν)dν = 3 (12.55)
0 νD 0 ehν/kT − 1
en donde hemos ignorado la energía del punto cero. Deniendo la temperatura de Debye,

hνD
ΘD = (12.56)
k
y calculando,

ehν/kT
 
∂ 1 hν
= . (12.57)
∂T ehν/kT − 1 kT 2 (ehν/kT − 1)2
Por lo tanto, la capacidad caloríca,

νD
ehν/kT
Z
9N h hν
cV = 3 2 hν/kT 2
ν 3 dν (12.58)
νD 0 kT (e − 1)

Si hacemos el cambio de variable x≡ kT
, obtenemos

3 Z ΘD /T
x4 ex dx

T
cV = 9N k (12.59)
ΘD 0 (ex − 1)2

En el límite de alta temperatura ΘD /T  1 (x  1) y ex − 1 ∼ x en el denominador y


x
e ∼1 en el numerador, la integral resulta,

Z νD  3
2 1 ΘD
x dx = (12.60)
0 3 T
por lo tanto,

cV = 3N k Ley de Dulong-Petit (12.61)

Para bajas temperaturas, ΘD /T  1, por lo tanto el límite superior en la integral puede


considerarse como un ∞, entonces,


x4 ex dx 4π 4
Z
= (12.62)
0 (ex − 1)2 15
Por lo tanto,

3
12π 4

T
cV = Nk Ley T3 de Debye. (12.63)
5 ΘD
Clase 13
Condensación de un gas ideal de bosones
Para un gas de bosones, el número promedio de partículas está dado por la expresión,

X ze−βi
hN i = (13.1)
i
1 − ze−βi (V )

Es a través de la fugacidad, denotada con la letra z, que podemos condensar el gas a


una temperatura distinta de cero. Suponemos la energía del estado base 0 = 0, el estado de
mínima energía. Por lo tanto,

z X0 ze−βi
hN i = + (13.2)
1−z i
1 − ze−βi
| {z }
estados con energía cero
| {z }
contribución de los estados excitados

Cuando la temperatura es cero, sólo sobrevive el primer término del lado derecho en la
ecuación 13.2. Sin embargo, cuando la temperatura aumenta, algunas partículas empiezan a
poblar los estados excitados. En el límite termodinámico,


e−β
Z  
z 3 2m
hN i ∼ + (2π) V 1/2 d (13.3)
1−z 0 h2 1 − ze−β

Si implicamos una temperatura T grande, estamos signicando que T > Tc , con Tc la


temperatura donde z ≡ 1. Entonces tenemos lo siguiente,

X 1
xq =
q
1−x

es decir,

ze−β X
= zq e−βq (13.4)
1 − ze−β q=1

Denotando las constantes que multiplican a los estados excitados con Λ, obtenemos,

107

V X q ∞
Z
z
hN i = + 3 z d 1/2 e−βq
1 − z Λ q=1 0

z V X zq
= +
1 − z Λ3 q=1 q 3/2
z V
= + 3 g3/2 (‡). (13.5)
1−z Λ

donde hemos introducido,


X zq
gl = . (13.6)
i=1
ql

En el límite clásico, a temperatura alta, z  1. Cuando la temperatura es baja, ambas


funciones de z aumentan. En el límite termodinámico tenemos,

 
z
=0 z  1. (13.7)
V [1 − z]
Entonces la densidad de partículas queda como,

hN i 1
ρ= = 3 g3/2 (z) z < 1. (13.8)
V Λ
por lo tanto, la densidad de partículas tiene que ver con las partículas que no se encuentran
en el estado base. Si aumentamos z (T baja), manteniendo la densidad ρ constante, la función
g3/2 crece, aunque tiene un límite superior, dado por la función zeta de Riemann.


X 1
ζ(`) = `
. (13.9)
q=0
q

Por lo tanto,

ρΛ3c = ζ(3/2) donde ζ(3/2) = 2.61238 · · · ,


es decir,

h
Λc (ρ) = p (13.10)
2πmkTc (ρ)
que es una longitud gobernada por la densidad de energía. Si bajamos la temperatura aún
más, por debajo de la crítica, esta aproximación ya no es válida. Habrá una fración λ de
partículas en el estado base,

z
λhN i = (13.11)
1−z
donde 0 < λ < 1, entonces,
λhN i 1
z= = 1 . (13.12)
1 + λhN i 1 + λhN i

En el límite termodinámico,

 
1 z 1
ρ = LT + 3 g3/2 (z) (13.13)
V 1−z Λ
La densidad de partículas es,

1

g (z)
Λ3 3/2
T > Tc
ρ=
ρ0 + Λ13 ζ( 32 ) T < Tc
Es decir, tenemos una transición de fase, donde el parámetro de orden es la densidad
N0 /N , con N0 el número de partículas en el estado base, como se muestra en la gura 13.1,

N0 ρ0 ζ(3/2) Λ3c (ρ)


= =1− = 1 −
N ρ ζΛ3 Λ3
 3/2
T
=1− (13.14)
Tc (ρ)
(13.15)

ecuación que nos dice cómo diverge la suceptibilidad en T crítica.

Figura 13.1: Fracción condensada N0 /N en función de la temperatura para un gas ideal de


Bose uniforme. La fracción condensada es diferente desde cero, por debajo de Tc donde el
sistema exhibe una condensación de Bose-Einstein.

Cuando T > Tc no hay en el estado base ninguna partícula, cuando T < Tc estamos
en la fase condensada. Para observar la condensación de Bose, se requiere llevar al sistema
a una temperatura crítica de nano Kelvin. En presencia de un campo magnético oscilante
obtenemos,

 3
N0 T
=1− (13.16)
N Tc (ρ)
Para obtener la temperatura crítica,

 1/2
N
kTc (N ) = ~ω0 (13.17)
ζ(z)
En el experimento con 1000 átomos de rubidio, la temperatura de condensación fué del
orden de nano Kelvins, como se muestra en la gura 13.2

Condensación de Bose-Einstein: gases atómicos ultra-fríos (87 Rb)


37 electrones + 87 nucleones = 124 fermiones → Boson
2000 átomos de Rb en una trampa
Tc = 170 nK
Distribución de velocidades
T < Tc
T > Tc T ∼ Tc

Ocupación
macroscópica
de un estado con
p=0

Figura 13.2: Condensación de Bose-Einstein.

13.0.4. Demostración de que existe una discontinuidad: Transición


de fase

Partiendo de la gran función de particion,


X X
Q= zN e−βi ni (13.18)
N =0 {ni }

que es una suma de funciones analíticas que son exponenciales. Si N es nita, en un numero
nito de sumandos, donde cada sumando es analítico, la Q es analítica. Sin embargo, no
existe un teorema que diga que la suma innita de sumandos analíticos es también analítica,
por lo tanto, para que ocurra una transición de fase, se requiere que el sistema sea innito.
Un fenómeno crítico existe si existe una zcrit → 1 cuando hN i → ∞.
 3/2 Z ∞
2m
ln Q = − ln(1 − z) − 2πV d 1/2 ln(1 − ze−β ) (13.19)
h2 0

Introduciendo el desarrollo en series del logarítmo,


X zq
ln(1 − z) = − (13.20)
q=1
q

V
ln Q = − ln(1 − z) + g5/2 (z) (13.21)
Λ3

hEi 1 ∂ ln Q 3 1
e≡ =− = kT 3 g5/2 (z) (13.22)
N β ∂β 2 ρΛ
Entonces,

  3/2
T g5/2 (z)
T > Tc

3 
Tc (ρ) ζ( 52 )
e = kT 3/2
2

T ζ(5/2)


Tc (ρ) ζ(3/2)
:x≤0

la energía por partícula es una función continua en la temperatura crítica Tc .


Por otro lado, el calor especíco,

 3/2
15 T g5/2 (z)
cV (−) = k T < Tc (13.23)
4 Tc ζ(3/2)

 3/2  3/2
15 T g5/2 (z) 3 T 1 ∂g5/2 (z)
cV (+) = k = k T > Tc (13.24)
4 Tc ζ(5/2) 2 Tc ζ(3/2) ∂T

Podemos escribir,

∂g5/2 (z) ∂g5/2 ∂z g3/2 (z) ∂z


= =
∂T ∂z ∂T z ∂T

∂z −z 3 z
= ρΛ
∂T 2T g1/2 (z)
Sustituyendo en la ecuación 13.24, llegamos a,

 3/2
9 k T g3/2 (z)
cV (+) = (13.25)
4 ζ(3/2) Tc g1/2 (z)
cuando z→1 obtenemos,

cV (−) = cV (+), (13.26)


por lo tanto, el calor especíco es continuo en Tc , es decir la condensación de Bose es una
transición de fase de segundo orden, véase la gura 13.3. No diverge cV ya que la temperatura
no es el parámetro de orden, sino la densidad ρ. En este caso, la cantidad que diverge es ∂c
∂T
V
,
o la primera derivada en la suceptibilidad,

  
∂cV (−) ∂cV (+) 27 3 k
=− = ζ . (13.27)
∂T ∂T 16π 2 Tc (ρ)

Figura 13.3: Calor especíco de una gas de Bose ideal uniforme, en función de la temperatura.
Para T grande la curva se aproxima al valor clásico 3/2. La curva exhibe un pico en T = Tc .
Clase 14
Modelos de la conductividad eléctrica

14.1. Paul Karl Ludwig Drude


El modelo de Drude fué desarrollado en el siglo XX por Paul Drude. Surgió pocos años
después de que J. J. Thomson descubriera el electrón en 1897. Precede a la teoría cuántica,
pero aporta mucha información sobre los electrones en los metales. En este modelo tenemos
que conocer cuántos electrones están libres en el metal (electrones de valencia). Esta supo-
sición yace en el hecho de que los electrones más cercanos al núcleo del átomo están mas
fuertemente ligados y por lo tanto, no pueden liberarse para contribuir a la conducción. Es
decir, esto disminuye el número de elctrones de Z a Zc donde Zc es el número de electrones
de conducción. Por ejemplo, en una muestra de un metal como el sodio (Na), la densidad de
electrones de conducción n es,

3
Zc ρm 1 e/átomo · 1 × 106 g/m
n = NA = 6.02 × 1023 átomos/mol
A 29 g/mol
28 3
= 2 × 10 e/m (14.1)

donde NA es el número de Avogadro, ρm es la densidad del metal, A es el número atómico


del sodio.

En el modelo de Drude, se eliminan todas las interacciones entre los electrones y los iones,

1. Las colisiones entre los iones y los electrones son eventos instantáneos y no correlacio-
nados.

2. Ignoraremos cualesquiera otras interacciones, tales como los potenciales de los iones y
otros electrones, a excepción de las debidas a los campos aplicados. Esto signica que
los electrones viajan a lo largo de líneas rectas entre eventos de dispersión.

3. La probabilidad de que un electrón tenga una colisión en un intervalo de tiempo dt es


dt/τ , donde τ es un tiempo de relajación que no depende de la posición o momento del
electrón.

4. Las colisiones termalizan electrones. Esto signica que después de una colisión los elec-
trones tienen la temperatura del medio local.

113
Figura 14.1: Representación esquemática de un único átomo del metal aislado. El átomo
consiste de un núcleo de carga +Zc rodeado por electrones de las capas internas que proveen
una carga −e(Zc − Z), y Z electrones de valencia de carga −eZ . En el metal, los electrones
de las capas internas permancen ligados al núcleo, pero los electrones de valencia se pueden
mover en el metal como electrones de conducción.

Partimos de la fuerza de Lorentz que describe el movimiento de los electrones,

 
d~p ~ p~ ~ p~
=e E+ ×B − . (14.2)
dt m τ
|{z}
coeciente de viscosidad
Despreciando el campo magnético y considerando una colisión de tal forma que,

∆p ~
= −eE (14.3)
∆t

∆v e ~ e ~
=− E ∆v = − E∆t
∆t m m
Haciendo un promedio,

τ = h∆ti tiempo promedio entre choques

como hv 0 − v0 i = h∆vi y considerando que hv0 i = 0, ya que la velocidad puede ser cualquiera,
obtenemos,

e ~
hvi = − Eτ (14.4)
m
Usando la ley de Ohm frecuentemente expresada como

V = RI
o de la siguiente manera, en términos de la densidad de corriente ~j
~
~j = σ E (14.5)

donde σ = ne es la conductividad del material, obtenemos,

~j = ne~v ~
h~ji = σ E
despejando obtenemos una expresión para σ dada por,

ne2
σ= τ (14.6)
m
Experimentalmente, al medir σ se puede calcular τ , el cual resulta del orden de 10−14 seg
(n del orden del número de Avogadro.)

V 1 4π 3
= = r (14.7)
N
|{z} n 3 s
volumen ocupado por un electrón

donde rs es el radio de la esfera que ocupa un electrón, el cual tiene un valor numérico de 2
ó 3 veces el radio de Bohr (rs /a0 ∼ 2, 3).

14.2. Modelo Sommerfeld


Este modelo, también es conocido como el modelo del electrón libre es un modelo simple
para el comportamiento de los electrones de valencia en la estructura cristalina de un sólido
metálico. Fué desarrollado principalmente por Arnold Sommerfeld quien combinó el modelo
de Drude clásico con la estadística mecanico-cuántica de Fermi-Dirac, por lo que también es
conocido como el modelo de Drude-Sommerfeld.

Podemos escribir el número promedio de electrones en un gas, en términos de la siguiente


expresión,

1
hni = ≡ f (, µ, T ). (14.8)
e(β−µ) + 1
El número de electrones es,

2kF2 kF2
N= V →n= (14.9)
6π 2 3π 2
Introduciendo el radio de Bohr,

~2
a0 =
me2
obtenemos,

 1/3
3 V 4π 3
rs = = r
πn N 3 s
(9π/4)1/2 1.92
kF = ∼
rs rs
3.6 −1
kF =
rs /a0
donde rs /a0 , como ya habiamos dicho previamente es el radio de la esfera que aproximada-
mente ocupa un electrón. Reescribiendo,

e2
 
50.1eV
EF = (kF a0 )2 ∼ (14.10)
2a0 (rs /a0 )2
| {z }
cte. Rydberg (13.6 eV)

14.2.1. A temperatura cero

X
hN i = ni f ()
i
 3/2 Z ∞
2m
= 4πV d 1/2 f (, µ, T )
h20
Z ∞
2 3/2
=A d 1/2 Θ(F − ) = AF (14.11)
0 3
Z ∞
2
hEi = A d 3/2 Θ(F − ) = 5/2
. (14.12)
0 5AF
La energía promedio por electrón,

hEi 3 3
= 0 = F = kTF (14.13)
hN i 5 5
entonces a cero grados, la temperatura del gas es TF ,

µeV
F = kTF = 80 TF (14.14)
K
por lo tanto,

50
TF = × 104 K. (14.15)
(rs /a0 )3
La presión del gas en el estado base,

 
∂U ∂hEi
P =− =− (14.16)
∂V N ∂V N
3
hEi = hN i F n2/3 = (N/V )2/3
5
2 hEi
F ∼ kF2 P =
3 V
Recalculando,

X ∂i
Pi = − hni i (14.17)
i
∂V

∂i 2 2
i ∼ V −2/3 ∼ − V −5/3 =
∂V 3 3V
Introduciendo el módulo de Young,

 5
1 ∂P 10 hEi 2 13.6 dinas
κ= B = −V = = nF = × (14.18)
B ∂V 9 V 3 (rs /a0 ) cm2

14.2.2. A temperatura diferente de cero (300K)

( q
m 2m
~2 π 2 ~2
>0
g() = (14.19)
0 <0
Es conveniente escribir,

 1/2
3n  m
g= = kF
2 F F h2
n
donde
F
es la densidad del gas y F la energía máxima. Para que lo anterior sea congruente
F = µ, recordemos que

F = lı́m µ (14.20)
T →0

en general F 6= 0 y sólo coinciden en el límite cuando T igual a cero.


hEi
Z
U
u= = = dg()f () (14.21)
N N −∞

donde g() está dada por la ecuación 14.19 y f () es la función de Fermi.

Z ∞
N
n= = dg()f () (14.22)
V −∞

Para calcular la integral nos interesa jarnos alrededor del nivel de Fermi, gura 14.2.
Desarrollando H(), suponiendo que es analítica,


X dn H() ( − µ)n
H() = n
desarrollo de Sommerfeld (14.23)
d n!

=µ
n=0
Figura 14.2: Función de Fermi: La variación es del orden del 1 % alrededor de F .

Sommerfeld consideró el problema a fondo: Si H() = 0,  → ∞ y no diverge más


rápidamente que una potencia (no diverge como una exponencial) podemos denir un kernel
de la siguiente manera,

Z ∞

κ= H(0 )d0 H() = (14.24)
−∞ d
e integrando por partes,

Z ∞ Z ∞  
∂f
H()f ()d = κ() − d (14.25)
−∞ −∞ ∂
Desarrollando en series de Taylor la κ alrededor de µ,

X ( − µ)n dn (κ − )
κ() = κ(µ) + . (14.26)
i=1
n! dn =µ

Sólo sobreviven los términos pares en el desarrollo, por lo tanto,

∞ µ ∞ Z ∞
( − µ)2n d2n−1
Z Z  
X ∂f
H()f ()d = H()d + − d 2n−1 H() (14.27)

−∞ −∞ n=1 −∞ (2n)! ∂ d =µ

−µ
Haciendo el cambio de variable x≡ kT
, podemos escribir,

∞ µ ∞
d2n−1 H()
Z Z X
H()f ()d = H()d + an (kT )2n 2n−1
(14.28)
d

−∞ −∞ =µ
| {z } |n=1
término para T=0
{z }
desviaciones de T=0

donde,


x2n ∂
Z   
1
an ≡ dx (14.29)
−∞ 2n! ∂x ex + 1
El resultado que obtenemos al integrar la ecuación 14.29 es el siguiente,
   
2 2 2 2 1
an = 2 1 − 2n + 2n − 2n + 2n + · · · = 2 2 − 2(n−1) ζ(2n) (14.30)
2 3 4 5 2
donde hemos introducido la función zeta de Riemann. Si denimos,

π 2n
ζ(2n) ≡ 22n−1 Bn (14.31)
(2n)!
donde,

1 1 1
B1 = B2 = B3 =
6 30 42

1 5
B4 = B5 =
30 66
los cuales son los números de Bernoulli. Por lo tanto,

∞ ∞
π2 7π 4
Z Z
H()f ()d = H()d + (kT )2 H 0 (µ) + (kT )4 H 000 (µ) + · · · (14.32)
−∞ −∞ 6 360

La energía,

π2
u = F − (kT )2 g 0 (µ) válida para cualquier T. (14.33)
6
Es decir, la termodinámica pinta una millonésima en el problema. El calor especíco,

π2 2
 
∂U
cV = = k T g(F ). (14.34)
∂T n 3
Recordemos que en un sólido cV = γT + αT 3 , entonces los electrones que contribuyen a
la capacidad caloríca son los que están cerca de la F o del nivel de Fermi.
Clase 15
Magnetismo
En esta clase estudiaremos las propiedades magnéticas de los materiales. La mayoría de
los materiales se consideran no-magnéticos, ya que solamente se magnetizan en presencia de
un campo magnético aplicado (diamagnetismo y paramagnetismo). En muchos casos, estos
efectos son débiles y la magnetización se pierde tan pronto como el campo magnético se
elimina. Sin embargo, un comportamiento más interesante, desde el punto de vista tecnoló-
gico, se observa en materiales que tienen una magnetización grande y que además la retienen
después de que el campo externo se quita. Estos materiales se llaman imanes permanentes
(ferromagnetismo).

Figura 15.1: Tipo de magnetismo de los elementos de la tabla periódica. En los elementos
que no están coloreados, el magnetismo es muy pequeño o no ha sido explorado.

La gura 15.1 ilustra el tipo de magnetismo de los elementos de la tabla periódica. Sólo el
erro (Fe), níquel (Ni), cobalto (Co) y gadolinio (Gd) exhiben ferromagnetismo. La mayoria
de los materiales magnéticos son aleaciones u óxidos de estos elementos mencionados, o los

121
contienen de alguna manera.

Hemos obtenido previamente, cuando despreciamos las interacciones entre las partículas,
a T = 0, la magnetización está dada por la expresión,

1 ∂E0 (H)
M (H) = − (15.1)
V ∂H S,V

donde E0 es el estado base en presencia del campo magnético. A T 6= 0, la magnetización


M (H, T ) está denida como el promedio en el momento magnético,

Mn (H)e−En /kT
P
nP
M (H, T ) = −En /kT
(15.2)
ne

y en términos de la energía libre de Helmholtz, la magnetización,

1 ∂F (H, T )
M =− (15.3)
V ∂H

S,V

La suceptibilidad magnética,

∂M (H) 1 ∂ 2 E(H)
χ= =− (15.4)
∂H S,V V ∂H 2 S,V

y a temperaturas nitas,

∂M (H) 1 ∂ 2 F (H, T )
χ= =− (15.5)
∂H S,V V ∂H 2

S,V

Experimentalmente M se mide a través de la fuerza ejercida por H cuando varía la fuerza,

∂F ∂H
dF = F [H(x + ∆x) − H(x)] = = −V M dx (15.6)
∂H ∂x

1 ∂F ∂H
f =− =M .
V ∂V ∂χ

15.1. Magnetismo de los átomos y electrones libres


El magnetismo surge de las corrientes microscópicas conectadas al momento orbital y de
espín de los electrones. Por lo tanto, cada electrón se puede ver como un imán microscópico.
Estamos interesados en saber cómo se acoplan éstos electrones en los materiales con el campo
magnético externo aplicado. Siendo que el material está compuesto de átomos es razonable
reducir este problema al del acoplamiento electrónico dentro de un átomo. Como el momento
orbital y el de espín de todos los electrones ligados al átomo contribuyen a su comportamiento
magnético, será útil recordar cómo se determina el momento angular electrónico de un átomo,
antes de estudiar el efecto de un campo magnético sobre el hamiltoniano atómico.
15.1.1. Momento angular total de los átomos

En el modelo de capas atómicas, los posibles estados cuánticos de los electrones se eti-
quetan con n, l, ml , donde n es el número cuántico principal, l el número cuántico órbital y
ml el numero cuántico orbital magnético. Para cualquier n dada, que dene una capa dada,
l sólo puede tomar valores enteros entre 0 y n − 1. Para l = 0, 1, 2, 3, · · · generalmente se
utilizan las letras s, p, d, f, etc. Dentro de una sub-capa n l , el número cuántico órbital ml
puede tomar (2l + 1) valores enteros entre −l y l . El último número cuántico, el numero
cuántico de espín magnético ms , toma los valores de −1/2 y 1/2. Por ejemplo, las primeras
dos capas nos llevan a dos estados 1s, dos estados 2s y seis estados 2p.

Cuando un átomo tiene más de un electrón, el principio de exclusión de Pauli, dice que
cada estado cuántico especícado por el conjunto de números cuánticos n l ml ms sólo puede
ser ocupado por un electrón. En casi todos los átomos, a excepción de los iones más pesados,
el acoplamiento espín-órbita
1 es despreciable. En este caso el hamiltoniano no depende del
espín o el momento orbital y por lo tanto conmuta con estos números cuánticos (acoplamiento
Russel-Saunders). El momento angular total orbital y de espín para una sub-capa dada están
dados por,

X X
L= ml S= ms

Si una sub-capa está completamente llena, es fácil vericar que L = S = 0. Por lo tanto, el
momento angular total electrónico de un átomo J = L+S se determina por las sub-capas que
están parcialmente llenas. La ocupación de los estados cuánticos en una capa parcialmente
llena se determina por las reglas de Hund:

1. Los estados están ocupados de tal manera que la mayoría de los electrones (con las
limitaciones del principio de exclusión), tienen sus espines alineandos paralelamente
entre sí, i.e., de tal manera que el valor de S es el más grande posible.

2. Cuando se determina cómo se asignan los espines, los electrones ocupan los estados de
tal manera que L toma un valor máximo.

3. El momento angular total J se obtiene combinando L y S como sigue:

a ) si la sub-capa está llena menos de la mitad (i.e. el número de electrones es < 2l+1),
entonces J = L − S.
b ) si la sub-capa está llena más de la mitad (i.e. el número de electrones es > 2l + 1),
entonces J = L + S.
c ) si la sub-capa está llena a la mitad (i.e. el número de electrones es 2l +1), entonces
L = 0, J = S .

Las primeras dos reglas de Hund se determinan de consideraciones de la energía electros-


tática. Sólo la tercera regla surge del acoplamiento espín-órbita. Cada estado cuántico, en
estas sub-capas parcialmente llenas se llama multiplete.

1 El acoplamiento espín-órbita o acoplamiento LS es un efecto relativista que requiere la solución de la


ecuación de Dirac.
15.2. Suceptibilidades atómicas
Una vez conocido cómo se determina el momento angular de un átomo, podemos estudiar
el efecto de un campo magnético uniforme ~
H (a lo largo del eje z) sobre el hamiltoniano
electrónico de un átomo, despreciando el efecto de ~
H sobre el movimiento nuclear y de espín.
La energía cinética está dada por,

X p2
i
T0 = (15.7)
i
2m

pero de electrodinámica clásica sabemos que en presencia de un campo magnético, tenemos


que reemplazar los momentos p~i por los momentos canónicos,

e~
p~i → p~i + A(~
r) (15.8)
c
donde A ~ , con H
~ = − 1 ~r × H ~ = ∇×A
~ y usando la norma de Coulomb, ∇ · A
~ = 0. El operador
2
de energía cinética total se puede escribir como,

1 X  2 e ~ 2 1 Xh 2 e ~
i2
T = p~i + A = p~i − (~ri × H) (15.9)
2m i c 2m i 2c

desarrollando el cuadrado,

2
~ + e H2
X
~ ·H
T = T0 +µB L (x2i + yi2 ) (15.10)
|{z} 8mc i
~2
p
i
2m

p~ · A~=A
~ ~
donde hemos usado
~ P · p~. Si ∇A = 0, podemos escribir el operador momento orbital
electrónico total como L = ri × p~i . Por lo tanto la variación
i~ del operador energía cinética
debido al campo magnético es,

2
~ + e H2
X
~ ·H
∆T = µB L (x2i + yi2 ). (15.11)
8mc i

Si éste fuera el único efecto del campo magnético sobre el hamiltoniano, se puede de-
mostrar que la magnetización en equilibrio término siempre es cero (teorema de Bohr-van
Leeuwen). Esto se debe a que el potencial vectorial sólo introduce un cambio en p~ que se
puede integrar al sumar sobre todos los momentos. La energía libre es independiente de ~
H y
la magnetización da cero. Sin embargo, en realidad la magnetización no es cero. El problema
surge porque estamos utilizando el operador energía cinética incorrecto (el problema debe
resolverse apropiadamente a través de la ecuación de Dirac). Por lo tanto, debemos introducir
heurísticamente el espín del electrón que emerge de un tratamiento relativista completo. La
nueva energía de interacción es,

H = H + ∆H (15.12)

donde
∆H = g0 µB HSz (15.13)

e~
siz .
P
ya que el campo está dirigido a lo largo de z, donde Sz = i Recordemos que µ= 2mc

10−8 eV .
Gauss
El término de espín añade otro término,

~ + g0 S)
∆H = µB (L ~ · H.
~ (15.14)

Por lo tanto el Hamiltoniano dependiente del campo es,

2
~ + e H2
X
~ + g0 S)
H = µB ( L ~ ·H (x2i + yi2 ), (15.15)
8mc i

donde el primer término dentro del paréntesis viene de la contribución orbital y el segundo
de la contribución de espín.

Los desplazamientos en la energía producidos por la ecuación 15.15 son generalmente


muy pequeños, del orden de las energías de excitación atómica, aún para los campos mag-
néticos más altos producidos en los laboratorios (∼ 20 Teslas). Por lo tanto, podemos usar
teoría de perturbaciones para calcular los cambios en las energías debidos a este hamilto-
niano. A segundo orden, podemos escribir la energía para el n-ésimo nivel no degenerado del
hamiltoniano sin perturbar como,

En → En + ∆En (15.16)

con,

X |hn|∆H|n0 i|2
∆En = h∆Hi + (15.17)
n0 6=n
En − En0

Sustituyendo,

~ · (L
X |hn|µB H ~ + g0 S)|ni|
~ 2
~ · hn|L
∆En = µB H ~ + g0 S|ni
~ +
| {z }
n0 6=n
En − En0
(1) | {z }
(2)
2
e X
+ H 2 hn| (x2i + yi2 )|ni . (15.18)
8mc i
| {z }
(3)

La interacción de un sólido con un campo magnético siempre y cuando los espines no


interactúen entre sí. Esta interacción es del orden de,

~H
O(µB N ) ∼ ∼ ~ωc ∼ 10−4 eV,
mc
por lo tanto todos los fenómenos magnéticos en sólidos son muy pequeños.
15.2.1. Capas electrónicas llenas

Si la contribución de los electrones de valencia es cero, tenemos,

~ˆ = L|0i
J|0i ~ˆ + S|0i
~ˆ (15.19)

es decir las partes (1) y (2) de la ecuación 15.18 son cero, y sólo contribuye la parte (3), el
estado base se modica de acuerdo a,

e2 H 2 X 2
∆E0 = h0| (xi + yi2 )|0i (15.20)
8mc i

que es el término de Larmor/Langevin. Considerando funciones de onda esféricamente simé-


tricas,

2
x2i + yi2 + zi2 = ri2 → x2i + yi2 = ri2
3
podemos aproximar la energía de estado base como,

e2 H 2 X
∆E0 = h0|ri2 |0i (15.21)
12mc i

La suceptibilidad magnética es,

N ∂ 2 ∆E0 e2 N X
χ=− = − h0| ri2 |0i ∼ 10−6 . (15.22)
V ∂H 2 6mc2 V i

donde N/V es el volumen molar. Si consideramos,

1 X
hri i = h0|ri2 |0i (15.23)
Zi i

obtenemos,

2  2
e2

Z NA 2 NA 3 r
χmolec
Larmor =− hr i = −Zi ah i (15.24)
6 mc2 ~c 6 0 a0
e21
donde
137
~c
=
es la constante de estructura na. Este término se llama de Larmor o diamag-
−6 cm3
netismo de Langevin, cuya magnitud es aproximadamente 10 . Por lo tanto, el término
moles
es diamagnético χ < 0.

15.2.2. Capa electrónica semi-llena

Cuando hay electrones en la capa externa del átomo, podemos tener dos subcasos:
Momento angular total J~ = 0
El término (1) en la ecuación 15.18 es cero, sin embargo el (2) no lo es, por lo tanto,

positivo
z }| {
e2 X ~ · (L
X |h0|µB H ~ + g0 S)
~ |0i|2
2
∆E0 = H h0| (x2i + yi2 )|0i − (15.25)
8mc2 i n
En − E0

donde el segundo término del lado derecho es intrínsecamente paramagnético. En este caso,
la suceptibilidad es,

χ = χLarmor + χVV (15.26)

en este caso, el último término representa una contribución paramagnética, paramagnetismo


de Van Vleck que corresponde a transiciones electrónicas inducidas por el campo.

Momento angular total diferente de cero J~ =


6 0

En este caso en término (1) en la ecuación 15.18 no es cero. El estado base tiene degene-
ración 2J + 1 en campo cero, es decir,

hJLSSz |(Lz + g0 Sz )|JLSSz i (15.27)

donde Jz y Jz0 pueden tomar valores −J, · · · , J . El teorema de Wigner-Eckart nos dice que,

~ + g0 S|i
h|L ~ = g(JLS)h|J|i, (15.28)

nos dice que sólo importa el momento angular total, donde el factor numérico en la ecuación
15.28 es el factor de Landé,

1 1 L(L + 1) − S(S + 1)
g(JLS) = (g0 + 1) − (g0 − 1) . (15.29)
2 2 J(J + 1)

Podemos escribir el operador ~ + g0 S


L ~ = g J~, conocido como desacoplamiento de Russell,
que supone que J~ está ligado a ~ ~
L y S de la forma más simple. Por lo tanto, el momento
magnético,

~ = −gµB J~ · · ·
µ (15.30)

La magnetización,

N
M =− gµB JBj (βg0 µB JH) (15.31)
V
por lo tanto, la contribución más fuerte es la paramagnética de Curie:

(gµB )2 J(J + 1)
χCurie = NA Ley de Curie (15.32)
3 kT
Sin embargo, experimentalmente no se observa paramagnetismo en los metales, debido a
que el término diamagnético (que expulsa al campo) es el que cuenta, ya que los metales son
buenos conductores. La respuesta del por qué no se observa el paramagnetismo de Curie en
los metales yace en el hecho de que los electrones son fermiones y no pueden ocupar cualquier
nivel cuántico.

15.2.3. Paramagnetismo de Pauli

Habiendo determinado las propiedades magnéticas de los electrones ligados a los iones,
es importante considerar el extremo opuesto y analizar las propiedades de los electrones
cuando se mueven libremente en un metal. Suponemos que los electrones de conducción
son no localizados, sin embargo, si estuvieran libres el metal sería un diamagneto perfecto.
Los electrones de conducción no responden de manera independiente a ~
H y además están
sujetos a principio de Pauli. El término (1) en la ecuación 15.18 es el de espín (contribución
paramagnética) y en él está el principio de Pauli.

µ = −µB (n+ − n− ) (15.33)

El hamiltoniano,

p2 2
~ = p~ − µB ~σ · H
~
H= −µ
~ ·H (15.34)
2m 2m
Los eigenvalores de ~
~σ · H son S = ±1, es decir,

p2
p,s = − SµB H = P − SµB H (15.35)
2m
La densidad de estados, con espín arriba y abajo entre  y  + d es la mitad, es decir,

1 1
Si H=0 ⇒ ρ± () = ρ() = ρ( ∓ µB H ) (15.36)
2 2 | {z }
(∗)

donde (∗) es el término de la desviación en la energía causada por el campo H. Entonces,

n± = dρ± ()F () (15.37)

con,

1
F () = (15.38)
eβ(−µ) +1
Haciendo la integral con la condición n = n+ + n− y eliminando µ podemos hallar M (n).
TAREA: Demostrar que la magnetización de un gas de electrones no degenerado es la ley
de Curie con J= 1
2
. Hint: Para bajas densidades F ≈ e−β(−mu) .
Retomando el cálculo,

1 1
ρ± () = ρ() ± µB Hρ0 () (15.39)
2 2
Z Z
1 1
n± = ρ()F ()d ± µB H dρ0 ()F () (15.40)
2 2
donde la primera integral del lado derecho corresponde a todos los estados. El potencial
químico tiene que ser igual al potencial químico a T = 0, es decir,

 2
kT
µ = F + O (15.41)
F
Z  
∂F
M= µ2B H ρ() − d (15.42)
∂
∂F
donde
∂
es cero en todas partes, excepto en el nivel de Fermi F donde es la delta de Dirac
(una buena aproximación hasta temperaturas de 100 000 K).

Por lo tanto,

M = µ2B Hρ(F ) (15.43)

Entonces la suceptibilidad de Pauli,

χPauli = µ2B ρ(F ) (15.44)

donde,

mkF
ρ(F ) = (15.45)
~2 π 2
Finalmente,

 α 2
χPauli = (a0 kF ) (15.46)

con un valor numérico de aproximadamente 10−6 , del mismo orden que la suceptibilidad
paramagnética de Curie, excepto que no depende de la temperatura.

15.3. Teorema de Van Leeuwen. Diamagnetismo de Lan-


dau
Los electrones en presencia de un campo magnético ~
H cuantizan su órbita. La gran función
de partición,

" #
Y X
ze−βn

Z= (15.47)
λ n

donde hemos introducido la fugacidad como f ≡ eβµ . El número medio de partículas,


X 1
N= . (15.48)
λ
f −1 eβ + 1

La condición de cuantización de Bohr-Sommerfeld,

I   
e ~ 1
p~ − A · d~r = j + h (15.49)
c 2
con j = 0, 1, 2, · · · , la cual da la cuantización de los orbitales. Si el campo magnético está
dirigido a lo largo del eje z, ~ = H ẑ ,
H
I Z Z
~ · d~r =
H ~ · ds = πr2 H
(∆ × A)n̂ (15.50)

πr2 e
 
1
2πmv → 2πmω → H= j+ h
c 2
entonces,

 
2 2mc 1
r = h j+
eH 2
sustituyendo,
 
1  e ~ 2 1 2 e~ 1
p~ − A = m|~v | = H j+ (15.51)
2m c 2 mc 2
los niveles de energía,

p2
 
e~H 1
λ (pz , j) = z + j+ (15.52)
2m mc 2
como pz también está cuantizado,

2π~
pz = ` ` = 0, ±1, ±2, · · · (15.53)
V 1/3
Por lo tanto la degeneración g es el número de estados tales que,

p2x + p2y e~H


<
2m 2mc
todas las j's para una pz dada. Finalmente,

V 2/3 eH
g= (15.54)
2π ~c
Calculando la función de partición,

g ∞ X
X X
ln Z = ln(1 + f e−β(pz ,k,α) ) (15.55)
α=1 j=0 pz
donde α es la degeneración. El número promedio de partículas es,

∞ ∞
gV 1/3
Z X 1
hN i = dp (15.56)
h −∞ j=0
f eβ +1

suma geométrica
z }| {
∞ ∞
ln Z
Z
eH 2
X
= 2 2 f e−βp /2m e−2xj e−x
V 4π ~ c −∞ j=0

πm e−x
r
f eH
= 2 2 (15.57)
2π ~ c β 1 − e−2x

e~H
con x≡ 2mc
β . Para campos pequeños x ∝ H, entonces,

e−x 1 x 7x3
 
1 1 1
−2x
≈ x −x
= = − + + ···
1−e e −e 2 senh x 2 x 6 360
Entonces,

1 2 H2
 
ln Z f
∼ √ 1 − µB (15.58)
V 2 2λ3 6 kT
q
β
con λ≡h m . Podemos identicar,

N ln Z f 1
∼ ∼ √ =
V V 2 2λ 3 v

1
χLandau = − µ2 (15.59)
3vkT B
Por lo tanto, el diamagnetismo de Landau, debido a la cuantización de las órbitas es

1
χLandau = − χPauli . (15.60)
3
Clase 16
Interacciones magnéticas
Hasta ahora hemos explicado el origen del paramagnetismo y diamagnetismo en los ma-
teriales. Sin embargo, muchas aplicaciones interesantes de los materiales magnéticos surjen
del ferromagnetismo, cuando los momentos magnéticos de los espines permanecen alineados
aún en la ausencia de un campo magnético externo. Para explicar este fenónemo, tenemos
que considerar no solamente las interacciones entre los momentos magnéticos individuales
y el campo externo aplicado, sino también introducir las interacciones entre los momentos
magnéticos, véase la gura 16.1.

16.1. Interacciones magnéticas dipolo-dipolo

Figura 16.1: Esquema de la interacción dipolar de dos partículas (espines) via el mecanismo
de interacción dipolo-dipolo

La interacción magnética dipolo-dipolo, también conocida como acoplamiento dipolar,


da la interacción entre dos dipolos magnéticos. Suponiendo que m
~ 1 ym
~2 son dos momentos
magnéticos en el espacio, la energía potencial U de la interacción está dada por,

1
U= ~1·m
[m ~ 2 − 3(m
~ 1 · r̂)(m
~ 2 · r̂)] , (16.1)
3|~r|3

133
donde r̂ es un vector unitario paralelo a la línea que une los centros de los dos dipolos y ~r
es la distancia entre los centros de m
~1 y m
~ 2. Como esta energía de interacción está dada en
términos de los cuadrados de los momentos magnéticos, un cálculo a grosso modo arroja,

2 
(gµ0 )2 e2 e2
  
a0  2
U∼ ∼ 10−4 eV (16.2)
r3 ~c r a0
 2
e
donde es la constante de estructura na también conocida como constante de Sommer-
~c
1 e2
feld (∼ ), a0 es el radio de Bohr (a0 ∼ 0.5), µ0 es el magnetón de Bohr y es la constante
137 2a0
de Rydberg. Además hemos considerado r ∼ 2 − 3. Es decir, el valor numérico obtenido en
la ecuación 16.2, no es suciente para explicar que el ferromagnetismo exista a temperatura
−4
ambiente, ya que 10 eV es pequenísimo comparado con las diferencias de energía electros-
tática entre dos electrones, que es del orden de eV, entonces el origen del ferromagnetismo se
debe al principio de Pauli.

16.2. Interacción de intercambio y el modelo de Heisen-


berg
Para explicar el origen de esta interacción, es importante considerar los efectos cuánticos
en el problema. Intercambio se reere a las propiedades de los electrones y el principio de
Pauli. La interacción de intercambio implica cambios en la energía debido a la restricción de
que los electrones deben obedecer este principio: la energía electrostática que surge de que los
electrones se acerquen o se alejen entre sí, depende de si tienen espines diferentes o iguales.

La interacción de intercambio entre dos espínes surje cuando las funciones de onda de los
dos partículas se traslapan en el espacio, los casos más importantes en los átomos son,

1. cuando las funciones de onda electrónicas de dos espínes se traslapan,

2. cuando se traslapan las funciones de onda electrónicas de un espín y del núcleo,

cuando esto ocurre, las funciones de onda se traslapan, y la aproximación dipolar puntual ya
no es válida.

16.2.1. Ecuación de Schrödinger

Retomemos la denición de momento angular total,

J~ = L
~ +S
~

considerando como una primera aproximación ~ = 0,


L podemos enfocarnos únicamente en el
espín. La ecuación de Schrödinger para dos partículas cuyos espines se traslapan es,

~2
∇21 + ∇22 Ψ + V (r1 , r2 )Ψ = EΨ

HΨ = − (16.3)
2m
donde Ψ es la función de onda de dos electrones.

[Un ejemplo de la importancia de la interacción de intercambio que veremos a continua-


ción es el excitón, el cual es un estado ligado de un electrón y un agujero de electrón que se
atraen entre sí debido a la fuerza electrostática de Coulomb. El excitón es una partícula eléc-
tricamente neutra que existe en aislantes, semiconductores y líquidos. Éste se forma cuando
un fotón es absorbido por un semiconductor, lo cual resulta en la excitación de un electrón
en la banda de valencia hacia la banda de conducción. Cuando el electrón se promueve, deja
un hueco cargado positivamente, como se muestra esquemáticamente en la gura 16.2. Co-
mo electrón y el hueco experimentan una atracción electrostática, se comportan como una
quasi-partícula, sin carga, capaz de difundirse.

Figura 16.2: El problema del electrón atrapado en el campo de un agujero (a) se reduce a
calcular el problema de un átomo de H, pero en este caso la masa del hueco es la del electrón,
no el protón (b). El espectro de absorción del óxido de cobre (Cu2 O) a 77K, muestra las
líneas de excitón correspondientes a varios valores del número cuántico n [11].

El electrón y el hueco pueden tener espines paralelos a antiparalelos. Los espines están
acoplados por la degeneración de intercambio (exchange degeneration), lo que da lugar a la
estructura na del excitón, véase la gura 16.2(c).]

Regresando a la ecuación 16.3,

~2
H=− (∇21 + ∇22 )Ψ + V (r1 , r2 )Ψ = EΨ (16.4)
2m
escribimos la función de onda en términos de la combinación lineal de los estados de espín:

| ↑↑i | ↑↓i | ↓↑i | ↓↓i

que por simplicidad en la notación, también podemos denotar con,

| + +i | + −i | − +i | − −i

Por conveniencia escribimos Ψ en términos de una combinación lineal de los estados


enumerados en el siguiente cuadro,
S Sz
| + +i 1 1
espacial
| − −i 1 -1 triplete (Ψantisimétrica )
√1 (| + −i + | − +i) 1 0
2
√1 (| + −i − | − +i)
espacial
0 0 singulete (Ψsimétrica )
2

por el principio de Pauli, la función de onda total del electrón es antisimétrica. Suponiendo
que el eigenvalor del singulete y triplete son Es y Et respectivamente. Estamos interesados
en saber cuál de estos estados tiene el eigenvalor más pequeño: Si consideramos el problema
de dos electrones, obtenemos que Es < Et , lo cual se puede demostrar fácilmente haciendo
el siguiente cálculo sencillo,

 
H1 V
H= (16.5)
V H2
resolviendo obtenemos,

 
E − H1 −V
|(E − H)| = =0 (16.6)
−V E − H2

(E − H1 )2 − V 2 = 0 E − H = ±V E = E0 ± V (16.7)

Por lo tanto,

Es < Et , (16.8)

donde el intercambio de electrones es antisimétrico debido a que la parte de espín es anti-


simétrica y la parte espacial es simétrica, por lo tanto la densidad de carga es mayor en el
espacio entre los electrones, véase la gura 16.3.

16.2.2. Aproximación de Heitler-London

Si los átomos están sucientemente separados, la función de onda de los electrones es


aproximadamente una función de onda atómica. Consideremos que la función de onda es
el producto y es una combinación lineal: aproximación de combinación lineal de órbitales
atómicos (LCAO), entonces podemos escribir,

Es − Et = hΨs |Hs |Ψs i − hΨt |H|Ψt i (16.9)

donde la combinación simétrica está dada por la siguiente ecuación,

Ψs = c[φ1 (r1 )φ2 (r2 ) + φ2 (r1 )φ1 (r2 )] (16.10)

una combinación lineal de la función de onda de los órbitales atómicos y similarmente la


antisimétrica,

Ψt = c0 [φ2 (r1 )φ1 (r2 ) − φ1 (r1 )φ2 (r2 )] (16.11)


Figura 16.3: Cuando los electrones de dos átomos se acercan mucho, una función de onda
simétrica espacial lleva a una conguración de enlace de los electrones, mientras que la función
de onda antisimétrica no. La densidad de carga electrónica está dada por la magnitud de
la función de onda y se puede ver que la función de onda simétrica resulta una densidad
electrónica más alta en el centro del núcleo de los átomos, lo cual resulta en una fuerza
atractiva neta entre los átomos (enlace) [12].

donde c ≡ hΨs |Ψs i y c0 ≡ hΨt |Ψt i. La integral de intercambio (exchange) está dada por la
expresión,

Z
1
(Es − Et ) = 2 dr1 dr2 [φ1 (r1 )φ2 (r2 )]∗ ×
2
e2 e2 e2 e2
 
× + − − [φ1 (r1 )φ2 (r2 )] (16.12)
r1 − r2 R1 − R2 r1 − R1 r2 − R2

donde hemos introducido los términos de energía de interacción electrostática (e-e repulsiva),
iones (repulsiva), e1 con el átomo 1 y e2 con el átomo 2. La interpretación de la integral
de intercambio es la diferencia entre las energías entre el singulete y triplete; su orígen es
puramente electrostático (ley de Coulomb) y el principio de exclusión de Pauli es importante,
aunque está escondido en la función de onda electrónica total (antisimétrica).

Si tenemos dos partículas i = 1, 2 con espines ~1


S y ~2
S como se muestra en la gura 16.4
del lado derecho, el espín total está dado por,

 
1 1 3
Si2 = +1 =
2 2 4

~ 2 = (S
S ~2 )2 = 3 + 2S
~1 + S ~1 · S
~2
2
 
~ ~ 1 3
S1 · S2 = s(s + 1) −
2 2
con lo que obtenemos,
3

−
 singulete
4
 1
 triplete
4
Lo que sigue es inventar un hamiltoniano que tenga eigenvalores Es en el singulete y Et
en el triplete.

S1 S2

~1 · S
Uint ∼ S ~2

Figura 16.4: Izquierda: Diferencia entre las energías del singulete y triplete. Derecha: Esquema
de la interacción entre dos partículas con espínes ~1
S y ~2 .
S

1 ~1 · S
~2
Hespín = (Es − 3Et ) − (Es − Et )S (16.13)
4
con lo que llegamos al modelo de Heisenberg, el cual dice,

~1 · S
H12 = −j S ~2 (16.14)

que más formalmente podemos escribir como,

X
HHeisenberg = − ~1 · S
jij S ~2 (16.15)
ij

donde jij es la constante de intercambio entre los átomos i y j, y S es el momento angular


de espín de cada electrón. El valor de la constante de intercambio determina si el momento
magnético tiende a alinearse en la misma dirección (j > 0, orden ferromagnético) o en la
dirección opuesta (j < 0) los espines están antiparalelos entre sí (orden antiferromagnético).
El hamiltoniano de la ecuación 16.15 es válido si la distancia de separación entre lo espines
es sucientemente grande y cuando la contribución órbital del momento angular es cero o
sucientemente pequeña.

A temperatura T = 0, con j > 0, podemos escribir

1X~ ~ 0 )j(R
~ −R
~ 0 ) − gµ0 H
X
~
H=− S(R) · S(R Sz (R) (16.16)
2 RR0 R

donde el último término viene del campo magnético externo que cada ion siente debido al
campo aplicado más el campo debido a los espines.
Y
|0i = |SiR
R

~
Sz (R)|SiR = S|SiR

Denimos los operadores escalera,

~ ± iSy (R)
S± (R) = Sx (R) ~ (16.17)

es decir, los operadores de creación y aniquilación de los operadores de espín.

p
S± |Sz i = (S ∓ Sz )(S + 1 ± Sz )|Sz ± 1i (16.18)

Entonces,

" #
1 X X X
H=− Iij Szi Szj + S−i S+j − gµ0 H Sz (16.19)
2 ij ij i

donde el primer y tercer término del lado derecho sólo dependen de la componente z (com-
ponente de Ising), mientras que el segundo término únicamente depende de xy (componente
xy ). Recordando,

X X
HIsing = Iij σi σj y HXY = Jij cos(θi − θj ) (16.20)
hiji hiji

recordemos que el modelo de Ising describe espines discretos, normalmente apuntando en dos
direcciones σz = ±1 y el modelo XY describe vectores de espín situados en un plano con una
longitud S = 1, véase la gura 16.5.

Figura 16.5: (a) Modelo de Ising: espines discretos. (b) Modelo xy: vectores de espín planares.

Por lo tanto, podemos resumir a partir de la ecuación 16.19,

Modelo de Heisenberg = Componente de Ising + Componente xy


Figura 16.6: Esquema del hamiltoniano de Heisenberg, en términos del modelo xy y de Ising.
El modelo de Heisenberg es isotrópico, es el origen (I
= J ), a la derecha I > J y a la izquierda
I < J . El sistema de Goldstone es aquél en donde cuesta muy poca energía hacer excitaciones
xy y hay vórtices de espines.

donde un sistema de Goldstone


1 se reere al rompimiento de simetría derivado del teorema
de Goldstone, que dice que para un hamiltoniano con interacciones de corto alcance, el
rompimiento espontáneo de una simetría continua implica la existencia de excitaciones de
baja energía llamados modos de Goldstone [13]. Es la física de la materia condensada estos
modos aparecen en muchos sistemas, por ejemplo, fonónes acústicos en sólidos que rompen
la simetría traslacional, ondas de espín en el modelo de Heisenberg.

Retomando nuestro cálculo, recordemos que S+ |Sz i = 0 cuando Sz = 0, entonces H|0i


sólo contiene términos en Sz , por lo que la energía del estado base es

1 X
E0 = − S 2 Jij − N gµ0 HS (16.21)
2 ij

E00 = h00 |H|00 i

si J > 0, tenemos la siguiente desigualdad,

1X ~i · S
~j ) − gµ0 H
X 1 2X
E00 ≥ − Jij max(S maxhSz i ≥ − S Jij − gµ0 HhSi = E0 (16.22)
2 ij i
2 ij

donde el estado base del ferromagneto de Heisenberg es E0 . Por lo tanto, el comportamiento


antiferromagnético únicamente se ha encontrado en la cadena lineal. Un ejemplo ilustrativo

1 El teorema de Goldstone dice que en un sistema con una simetría continua y cuyo estado base es degene-
rado, si se rompe esta simetría, las excitaciones de longitud de onda muy larga (modos de Goldstone) existen
arbitrariamente cercanas a cero.
ocurre en el níquel, material que presenta un orden ferromagnético a primeros vecinos y un
orden antiferromagnético a segundos vecinos. Como el estado base tiene que estar acotado,

1 X 1 X
− S(S + 1) Jij ≤ E ≤ − S 2 Jij (16.23)
2 i,j
2 ij

Una solución exacta del hamiltoniano de Heisenberg, se ha encontrado en la red de Bethe


con interacciones de largo alcance [14]. Cuando la temperatura es pequeña y muy cercana a
cero, la energía del estado base es,

 
1
E0 = −N J ln Z − . (16.24)
4
Cuando T = 0, la magnetización es,

N
M = gµ0 s (16.25)
V
o en términos de la función de partición,

e−βHi
P
i
M = hµi = . (16.26)
Z
Consideremos un estado,

|Ri = | ↑↑↑↑ · · · ↓ · · · ↑↑ · · · i (16.27)


|{z}
R

volteamos un espín en el sitio R. El estado base es aquél en el que todos los espines están
apuntando hacia arriba:

~ + (R)|Ri
S( R)S ~ = 2S|Ri (16.28)

entonces,

(
S|Ri si R0 6= R
Sz (R0 )|Ri =
(s − 1)|Ri si R = R0
X
H = E0 |Ri + gµ0 H|Ri + S J(R − R0 )[|Ri − |R0 i] (16.29)
R0

donde se considera que las R's están sobre una red cristalina. Denimos el estado k,

1 X i~k·R~
|ki = √ e |Ri (16.30)
N R

la ecuación de Schrödinger para este estado es,

H|ki = Ek |ki (16.31)


donde los eigenvalores están dados por la ecuación,

~ ~
X
Ek = E0 + gµ0 H + S J(R)(1 − eik·R ) (16.32)
R

reescribiendo,

 
X
2 1~ ~
Ek − E0 = (k) = 2s J(R) sen k · R + gµ0 H (16.33)
R
2

calculando la componente transversal,

S⊥ (R|S⊥ (R0 )) = Sx (R)Sx (R0 ) + Sy (R)Sy (R0 )


2s
hk|S⊥ (R) · S⊥ (R0 )|ki = cos[~k · (R
~ −R
~ 00 )]R6=R0 (16.34)
N

Por lo tanto, hay un espín que no está alineado del todo al campo. Se pueden ver oscila-
ciones de las componentes transversales del espín, como se muestra en la gura 16.7. Estas
ondas de espín son eigenestados exactos del hamiltoniano de Heisenberg y pueden tratarse
como quasipartículas, bosones, en una primera aproximación.

Figura 16.7: Ondas de espín: Conforme se desplaza en el cristal, la componente transver-


sal del espín va oscilando, esto corresponde a la excitación transversal del hamiltoniano de
Heisenberg.

X
(k)nk (16.35)
k

1
hnk i = (16.36)
eβ (k) −1
Cada onda de espín reduce el espín total,
" #  Z 
1 X V dk
M (T ) = M (0) 1 − hnk i ∼ M (0) 1 − (16.37)
| {z } Ns k Ns (2π)3 (eβ(k)−1 )
T =0

a T baja sólo la excitación con vector de onda ~k pequeña contribuye a la integral.

sX ~
k≈0 (k) ≈ J(k · ~r)2 . (16.38)
2 R
| {z }
contribución parabólica

El cambio porcentual en la magnetización,

M (T ) − M (0)
Z
V dq
= − (kT )3/2  P . (16.39)
M (0) Ns 2
(2π) exp s 1,2 J(R)

16.2.3. Teorema de Mermin y Wagner

En una y dos dimensiones, las simetrías continuas no pueden romperse espontáneamente


a temperaturas nitas, en sistemas con interacciones sucientemente de corto alcance.

Este teorema nos dice que el modelo xy en dos dimensiones no presenta orden ferromag-
nético, la integral diverge para estos casos [15].
Clase 17
Hamiltonianos modelo
En ausencia de interacciones H, tiene eigenvalores Eα (`), podemos escribir,

X XX
H= = Eα (`)a†α (`)aα (`) + Wαα0 (``0 )a†α (`)aα0 (`0 ) + c.c. (17.1)
α` αα0 ``0

este hamiltoniano se escribe igual para electrones, fotones, fonones, magnones, etc.

17.1. Caso particular: Hamiltoniano de Heisenberg


X
H= hR (17.2)
R

donde,

 
X
~ ·
hR = −~s(R) ~ −R
j(R ~ 0 )~s(R
~ 0 ) + gµ0 H
~ (17.3)
~ =R
R6 ~0

sólo se puede resolver analíticamente en casos especiales, como el modelo de Ising en dos
dimensiones. Este hamiltoniano se resuelve en general con teoría de perturbaciones, ya que
j es pequeño.

17.1.1. Aproximación de Bethe-Peierls

Esta aproximación sustituye el problema de calcular funciones de partición y valores de


expectación a uno en el que se resuelve un conjunto de ecuaciones no lineales. Aunque en
general, esta sustitución introduce un error. Estamos interesados en modelos de campo medio,
para los cuales se puede demostrar que la aproximación de Bethe-Peierls es asintóticamente
exacta en el límite de un sistema grande. Un ejemplo de este tipo es el modelo de Ising.

El campo promedio se escoge de la siguiente manera,

~ · He gµ0
hR = ~s(R) (17.4)

145
donde,

P
h R0 j si hs(R)i X
He = H̄ + = H̄ + jR (17.5)
gµ0 gµ0 R

donde H̄ es un campo externo. Suponiendo que j es mayor que cero, obtenemos,

V M~
hs(R)i = (17.6)
N gµ0
es decir, podemos ver el problema como uno de teoría de perturbaciones,

~ V j0
hHe i = H̄ + λM λ≡ (17.7)
N N (gµ0 )2
P
con j0 = R jR .
La magnetización como función de la temperatura es,

H
M (T ) = M (η) η= (17.8)
T
la cual es la razón de la energía magnética con la energía térmica. La magnetización en campo
medio del problema es, véase el esquema de la gura 17.1,

Figura 17.1: Campo medio para la aproximación de Bethe-Peierls.

 
He
M (T ) = M0 con M0 (x) = · · · BJ (T ) (17.9)
T
que es una solución de espines independientes, con BJ la función de Brillouin. Cuando H = 0,
sistema sin campo, el campo efectivo únicamente se debe al campo de los espines,

!
λM̂
M (T ) = M0 (17.10)
T

λM̄ (T )
la cual es una ecuación trascendente autoconsistente. Renombrando χ≡ T
, llegamos a,

M (T ) = M0 (χ) (17.11)
Por lo tanto, la magnetización del átomo central es la magnetización del sistema completo
(Ejemplo Hartree-Fock). Esta aproximación tiene solución y esa solución es exacta en la red
de Bethe.

Figura 17.2: Solución de la magnetización en la aproximación de Bethe-Peierls.

Como la gura 17.2 lo indica, para temperaturas muy altas hay un aumento en la pen-
diente, para cierta T hay una transición de fase. Un ejemplo de esto es la temperatura de Néel
o temperatura de ordenamiento magnético, que corresponde a la temperatura sobre la que
o
un material antiferromagnético, se vuelve paramagnético (para el erro 700 C), es decir, la
energía térmica es lo sucientemente grande como para destruir el ordenamiento magnético
macroscópico dentro del material. Esta transición sólo existe cuando,

T ∂M0
< (17.12)
λ ∂χ
en términos de la suceptibilidad,

∂M0
∂M0 ∂M0 ∂χ ∂χ
χ0 = = = . (17.13)
∂χ H=0 ∂χ ∂H T

Por lo tanto, para η pequeña y T alta, χ tiende a la ley de Curie,

N (gµ0 )2 s(s + 1)
χ0 = (17.14)
V 3 kT

Tc N (gµ20 )
= T χ0 = s(s + 1). (17.15)
λ V 3k
Sin embargo, es importante notar que la temperatura crítica y el exponente crítico no son
del todo correctos, ya que estamos efectuando una aproximación por campo medio,

∂M ∂M0
χ= = = χ0 (1 + λχ) (17.16)
∂H ∂He
χ0 χ0
χ= =   Ley de Curie-Weiss. (17.17)
1 − λχ0 1 − TTc

Finalmente,

cte
χ= (17.18)
(T − Tc )
por lo tanto, el exponente crítico es 1. En general, en una transición de fase, la suceptibilidad
sigue la forma,

Suceptibilidad = (T − Tc )α . (17.19)

con α = −1.
La teoría resultante de calcular exponentes críticos ha clasicado a los sistemas en clases de
universalidad, esto quiere decir que los exponentes críticos de sistemas totalmente diferentes
son los mismos. Por ejemplo, el modelo de Ising, ha sido útil para estudiar fenómenos como la
transición líquido-vapor, sólido-líquido y la transición de atascamiento (jamming transition),
que corresponde a un sistema en el que la velocidad depende de la densidad (tráco).

Otra técnica, además de la de campo medio, para resolver este tipo de problemas es la
de grupo de renormalización, o escalamiento de Leo Philip Kadano, quien hizo suposicio-
nes razonables que resultaron en un escenario plausible para el mecanismo del escalamiento
crítico: Cerca del punto crítico, emergen uctuaciones muy grandes, con una escala espacial
característica dada por la longitud de correlación λa (mucho más grande que el espacia-
miento de la red cristalina). Si estas uctuaciones de gran escala dominan el comportamiento
crítico, es razonable que los detalles del sistema, en escalas pequeñas (forma de la red o
alcance de la interacción) sean irrelevantes, ya que las uctuaciones enormes eliminan estos
detalles. Si esto es cierto, entonces todos los sistemas en la región crítica deben comportarse
cualitativamente de la misma manera (i.e., deben tener los mismos exponentes críticos) y
deben estar descritos por la misma teoría efectiva [16]. La aproximación de Kadano para el
modelo de Ising en 2D se muestra en la gura 17.3

17.1.2. Red de Bethe

Concepto previamente conocido en las matemáticas como árbol de Cayley, que corres-
ponde a una red en la que no hay circuitos cerrados, como se muestra en la gura 17.4. El
número de sitios conectados en N pasos es,

N
X −1
N (z) = 1 + z(z − 1)N −1 , (17.20)
n=1

donde z es el número de coordinación, o el número de enlaces por sitio. Es decir al aumentar


z, el número de nodos que hay que pintar crece exponencialmente. Analizando el árbol,
podemos identicar que la red de Bethe con z=2 corresponde a la cadena lineal. Notemos
algo importante, el número de átomos en la supercie, contados con respecto al número total
de átomos es,
Figura 17.3: Modelo de Ising 2D en la aproximación de Kadano de bloques de espín. Aquí
λ es la longitud de correlación entre los espines: Las correlaciones decaen exponencialmente
con la distancia entre los puntos de la red (denotada con a). Esta distancia de decaimiento es
importate en teoría de campos, física de partículas, física de la materia condensada y teoría
de transiciones de fase.

Ns z−2
= , (17.21)
NT z−1
2
por lo tanto, un cálculo sencillo con z = 4 nos indica que
3
de los átomos están en la supercie.
El límite de percolación en la Red de Bethe es fácil de obtener, ya que cortando un sólo enlace
se divide la red en dos redes separadas. para garantizar el paso de información (percolación
en un sitio, se necesitan al menos dos enlaces activos: el que entra y el que sale) de los z sitios
que hay, es decir, el límite es cuando todos los N sitios tienen en promedio N (2)/z enlaces
activos, Entonces se pueden cortar hasta N (1 − 2/z) = (z − 2)/z enlaces y seguir teniendo
ujo de información. Observe que la cadena lineal tiene el límite de percolación en cero.

17.1.3. El hamiltoniano más simple en la red de Bethe

Consideremos un hamiltoniano simple, que considera un electrón 1s por átomo:

" #
X X X X
H= i a†i ai + ti (a†i aj + a†j ai ) =  |iihi| + t |iihj| + c.c. (17.22)
i i,j i j

que corresponde a crear una excitación en el electrón en el sitio i. Resolviendo por el método
de la función de Green,
Figura 17.4: Red de Bethe, también conocida como árbol de Cayley con z = 2.

H|ni = En |ni (EI − H) = 0 (EI − H)g = I (17.23)

obtenemos,

X |nihn|
g(E) = . (17.24)
n
E − En

Las ecuaciones de movimiento,

Eg00 = 1 + g00 + ztg01


(E − )g00 = 1 + ztg01
(E − )g01 = tg00 + (z − 1)tg0z
(E − )g02 = tg01 + (z − 1)tg03
.
.
.

(E − )g0n = tg0,n−1 + (z − 1)tg0,n+1 (17.25)

donde 0 es el átomo central y la correlación g0n es la correlación entre el átomo central y


la capa n. En este caso sólo primeros vecinos en la red de Bethe. Denimos la matriz de
transferencia k como

g0,n+1
kg0n = g0,n+1 k= (17.26)
g0n
y sustituyendo en la ecuación 17.25, obtenemos,

(E − )k = t + (z − 1)tk 2 (17.27)


cuya solución es,

1 h p i
k= (E − ) ± (E − )2 − 4(z − 1)t2 (17.28)
2(z − 1)t
considerando la condición inicial,

(E − )g00 = 1 + ztkg00 , (17.29)

y resolviendo para g00 ,

1
g00 (E) = h p i. (17.30)
z
E −  + z(z−1) E −  ± (E − )2 − 4(z − 1)t2

La densidad de estados esta dada por la parte imaginaria de la ecuación 17.30 (dentro de
la raíz),

1 1
ρ(E) = − Im{Trg} = − Im{g00 }. (17.31)
π π
Por lo tanto,

( √
0 si |E − | ≥ 2 z − 1t
ρ(E) = √ 1
de cualquier otra forma,
4(z−1)t2 −(E−)2

es decir, la solución de campo medio exacta se obtiene en la red de Bethe. Considerando


únicamente el átomo central tenemos,

Figura 17.5: (a) Banda semi-elíptica con z =2 para la cadena lineal (densidad de estados
electrónica).(b) Densidad de estados electrónica para z = 4.

1
g00 (E) = (17.32)
E −  − zΣ
donde Σ es la autoenergía. Entonces, considerando el átomo central y sus z vecinos conectados
al resto por un campo medio Σ,
1
g00 (E) = (z−1)t2
. (17.33)
E−− E−−(z−1)Σ

Exigiendo que el campo medio sea el mismo en la ecuación 17.32 y en la ecuación 17.33
(aproximación de Bethe-Peierls), obtenemos la ecuación 17.3. Por lo tanto la solución para
la aproximación de Bethe-Peierls es,

(z − 1)Σ2 − (E − )Σ + t2 = 0 (17.34)

17.2. Solución exacta del hamiltoniano de Ising en una


dimensión
X X
HIsing = − Jij siz sjz − gµ0 H siz (17.35)
ij i

donde,

(
J si j =i±1
Jij =
0 de cualquier otra forma

La energía del estado i está dada por,

N N
1X X
=− si si+1 − H si . (17.36)
2 i=1 i=1

Si consideramos s = sz = ±1, entonces,

(
1 0
n= +s=
2 1

podemos escribir la función de partición como,

XX X
Z= ··· eβ(gsi si+1 +Hsi ) (17.37)
s1 s2 sN

donde N es el número de átomos en la cadena lineal. Usando condiciones periódicas sN +1 = s1 ,


obtenemos,

PN
[Jsi si+1 − H2 (si +si+1 )] .
XX X
Z= ··· eβ i=1 (17.38)
s1 s2 sN

Si denimos un operador P, de la siguiente manera,

H
hs|P |s0 i = eβ [Jss + 2 (s+s )] ,
0 0
(17.39)
donde s y s0 valen ±1, podemos escribir,

h+|P |+i = eβ(J+H)


h−|P |−i = eβ(J−H)
h+|P |−i = e−βJ = h−|P |+i (17.40)

O bien, podemos escribir en notación matricial, en términos de una matriz de 2 × 2,

eβ(J+H) e−βJ
 
P = (17.41)
e−βJ eβ(J−H)
Entonces la función de partición, ecuación 17.38, queda,

XXX X
Z= ··· hs1 |P |s2 ihs2 |P |s3 i · · · hsN −1 |P |sN i, (17.42)
s1 s2 s3 sN
P
donde se debe cumplir que tenemos un conjunto completo si |si ihsi | = 1. Finalmente,

X
Z= hsi |P N |si i = Tr P N = λN N
+ + λ− . (17.43)
si

donde λ± son los dos eigenvalores de la matriz 17.41. Si N es muy grande, sólo el eigenvalor
máximo es relevante.

17.2.1. Eigenvalores

El cálculo de los eigenvalores de la matriz 17.41 nos lleva a,

(λ − eβ(J+H) )(λ − eβ(J−H) ) = 0


λ2 − 2λeβ(J+H) cosh βH − 2 senh 2βJ = 0 (17.44)

 q 
βJ 2 −2βJ
λ=e cosh βH ± cosh βH − 2 sinh 2βJe (17.45)

Entonces, λ+ > λ− , con lo que podemos escribir,

λN N
+ > λ− . (17.46)

Cuando N →∞ la solución exacta es,

 
ln Z
lı́m = ln λ+ . (17.47)
N →∞ N

La energía libre de Helmholtz es,


q 
F 1 1 2
= − ln Z = j − ln cosh βH − 2 sinh 2βJe−2βJ , (17.48)
N β β
y la magnetización,

∂H N sen βH
M= = p . (17.49)
∂N cosh βH + cosh2 βH − 2 sinh 2βJe−2βJ
Por lo tanto, el modelo de Ising, nunca exhibe una transición de fase, es decir, no hay
magnetización espontánea de los espines.
Clase 18
Transiciones de fase

18.1. Transiciones de fase de primer orden


Las transiciones de fase son bastante conocidas de la experiencia diaria: por ejemplo el
agua se evapora, se congela y solidica. Casi todos los materiales muestran estas característi-
cas, hierven, se solidican o se derriten. En general, todos los materiales se exhiben en varias
formas, que están caracterizadas por diferentes propiedades físicas tales como la densidad,
viscosidad o estructura molecular. Un sistema que se encuentra bajo condiciones de presión y
temperatura constantes (condiciones bajo las que generalmente ocurren todas las transiciones
de fase) se describe mejor en términos de la energía libre de Gibbs. Dos fases en equilibrio,
justamente sobre la línea de coexistencia tienen igual energía libre de Gibbs. Sin embargo, si
alguna variable del sistema cambia, el resto de los parámetros no necesariamente se adapta
a este cambio y el sistema no asume inmediatamente el estado de energía de Gibbs más bajo
posible, por lo tanto, el sistema se queda atorado en un mínimo local del potencial de Gibbs,
como se muestra en la gura 18.1.

Por ejemplo, si se enfría agua lentamente por debajo del punto de congelación, ésta no
se congela inmediatamente y cae en el mínimo local. Un fenómeno similar ocurre con el
agua supercalentada, la cual puede burbujear súbitamente en un vaso [17, 18]. Debido a
que los parámetros del sistema uctúan, la barrera entre los dos mínimos es pequeña y el
sistema eventualmente saltará al mínimo global de la derecha. Podemos inducir esta transición
golpeando al contenedor en el caso del agua sobreenfriada, donde los fonones proveen la
energía suciente para remontar la barrera mostrada en la gura 18.1. En general, estos
mínimos local y global dependen de la temperatura, gura 18.2(a), y corresponden a las fases
sólida y líquida, respectivamente de la sustancia en consideración. Cuando el sistema está
en equilibrio, siempre tomará el valor más bajo en la energía libre de Gibbs. Es ilustrativo
dibujar la posición de los mínimos como función de la temperatura, véase la gura 18.2(b).

Estas curvas pueden extenderse en la dirección de la presión. La proyección resultante


de estas supercies en el plano p − T, resultan en un diagrama de fase. Dos diagramas de
fase típicos se muestran en la gura 18.3, el de la izquierda corresponde a la mayoría de las
sustancias, el de la derecha ilustra el comportamiento del agua. Nótese que ambas guras 18.3
muestran que a una temperatura y presión particulares, las fases sólida, líquida y gaseosa
están en equlibrio. A este punto se le llama punto triple y dene una única temperatura para
cada material.

155
Figura 18.1: Potencial de Gibbs: El mínimo de la izquierda corresponde a una fase con
densidad más alta que el mínimo de la derecha.

Cuando el sistema esta en equilibrio, su energía cumple con el siguiente criterio de esta-
bilidad,

∂U ∂ 2U
=0 > 0. (18.1)
∂x ∂x2
Supongamos un sistema termodinámico, controlado por cierto parámetro x. Cuando el
parámetro x se acerca al punto crítico xc el sistema está en un estado de equilibrio estable
Σ1 , una vez que x alcanza o excede xc , el estado Σ1 se vuelve inestable, y ocurre en el sistema
una transición a otro estado estable Σ2 . El principio básico, es que existem uctuaciones en
el sistema que llevan a desviaciones de los estados de equilibrio, y el proceso de transición de
fase es un comportamiento dinámico.

El principio de Le Chatelier, dice que para un estado de equilibrio estable Σ de un sistema,


cuando el sistema se desvía de Σ por una pequeña perturbación o uctuación, habrá una
fuerza restauradora que regrese al sistema al estado estable Σ.

18.1.1. Calor latente

Cuando ocurre en un sistema una transición de fase, la energía de Gibbs toma el valor
más bajo mientras se varía la temperatura,

G = H − T S. (18.2)

Una sustancia en la fase sólida, si comparamos con un gas ideal bajo condiciones equivalen-
tes, tiene una entalpía más negativa debido a las fuerzas de enlace entre las moléculas. Sin
embargo, la entropía es muy pequeña porque las moléculas están ordenadas. Es decir, la fase
sólida tiene una energía de Gibbs más pequeña y es la fase estable a bajas temperaturas.
Figura 18.2: (a) Dependencia en el volúmen de la energía libre de Gibbs a diferentes tempe-
raturas. (b) Mínimo de la función de Gibbs como función de la temperatura.

Figura 18.3: Diagramas de fase de sustancias típicas (a) y del agua (b).

A temperaturas altas, la fase gaseosa tiene poca entalpía pero una entropía grande, por lo
tanto, es la fase estable. Esto se ilustra mejor en la gura 18.4.

18.1.2. Fronteras en las fases

En la gura 18.5 se muestra una curva de coexistencia o diagrama p−T entre dos fases,
líquido y gas de una sustancia. La pendiente de la curva está directamente determinada
por las propiedades de las fases. A continuación derivaremos una expresión que relaciona la
pendiente de la curva con el calor latente y el cambio en el volúmen que ocurre en el sistema.
Figura 18.4: Energía de Gibbs como función de la temperatura. El diagrama esquematiza el
valor de G conforme el sistema sufre transiciones de fase.

Figura 18.5: Curva de coexistencia de las fases líquida y gaseosa de una sustancia.

18.1.3. Ecuación de Clausis-Clapeyron

Los potenciales químicos de los estados A y A', así como los de B y B' en la gura
18.5, están en equilibrio. Suponemos que las diferencias en la presión y temperatura entre
los estados A y B son innitesimales, de tal forma que dP = PB − PA y dT = TB − TA . La
dP
pendiente de la curva es , y los potenciales químicos en ambos lados de la frontera de la
dT
fase son iguales,

µA = µA 0
µB = µB 0 (18.3)

µB − µA = µB 0 − µA 0 (18.4)

pero ambos lados pueden escribirse como,


µB − µA = dG = vdP − sdT
µB 0 − µA0 = dG0 = v 0 dP − s0 dT (18.5)

en donde s y s0 son las entropías molares y v y v0 los volúmenes molares en cada fase.
Sustituyendo las ecuaciones 18.5 en 18.4, obtenemos,

dP s0 − s ∆s
= 0 = . (18.6)
dT v −v ∆v
en donde ∆s y ∆v son las discontinuidades en las entropías molares y volúmenes molares
asociadas con la transición de fase. Como ` = ∆h = T ∆S , obtenemos,

dP l
= . (18.7)
dT T ∆v
Podemos obtener la ecuación 18.7 a partir de la ecuación de Gibbs-Duhem,

X
Nj dµj = −SdT + V dP. (18.8)
j

Utilizaremos nuevamente una sustancia que consiste en dos fases, como la mostrada en
la gura 18.5 y nos interesa encontrar las condiciones bajos las que estas fases existen en
equilibrio. Hemos dicho ya, que en una transición de fase, el sistema alcanza el equilibrio de
tal forma que la energía libre de Gibbs toma el valor mínimo posible y para que esto ocurra
la energía de Gibbs debe tener el mismo valor en ambos lados de la curva de coexistencia. Si
N partículas cruzan en un punto dado la curva de equilibrio, tenemos a partir de la ecuación
18.8,

dµ = −sdT + vdP
dµ = vdP. (18.9)

Integrando desde el punto A al B,

Z B
µB − µA = vdP. (18.10)
A

Un criterio de estabilidad más restrictivo, lo obtenemos del principio de Le Chatelier-


Braun: consideremos un sistema que se aleja del equilibrio debido a alguna acción o uc-
tuación. De acuerdo al principio de Le Chatelier la perturbación induce directamente un
proceso que atenua la perturbación. Sin embargo, indirectamente también se inducen varios
procesos secundarios. El principio de Le Chatelier-Braun dice que estos proces inducidos
indirectamente también actúan para atenuar la perturbación inicial.

En el espacio tridimensional s, u, v la condición global de estabilidad requiere que la


supercie de la entropía s(u, v, · · · ) yazca sobre planos tangentes. Para ∆u y ∆v arbitrarios,
s(u + ∆u) − s(u − ∆u) ≥ 0
suu svv − 2suv ≥ 0
uvv uss − 2uvs ≥ 0 (18.11)

donde los subíndices indican las derivadas con respecto a la variable en cuestion. La concen-
tración de líquido-gas,

(xD + x0 ) = xD vD + x0 v0
x0 vD − vT
= , (18.12)
xD vT − v0

ver puntos en las guras 18.6(b-c). Con esto podemos concluir que hay una discontinuidad
en v y consecuentemente también en s, por lo tanto, podemos escribir el calor latente,

` = T (sD − s0 ). (18.13)

Considerando,

 
∂S P
ds = dv = dv (18.14)
∂V T T
Z
1 ∆P ∆v
∆s = ∆P dv ≈ (18.15)
T ∆T

(s − s0 )dT = (v − v 0 )dP (18.16)

Con lo que, de igual manera llegamos a la ecuación de Clausius-Clapeyron,

dP `
= . (18.17)
dT T ∆v

18.1.4. Isotermas inestables y ecuación de van der Waals

Recordemos que la distinción entre líquido y vapor no puede hacerse por encima de la
presión y temperatura críticas. Consideremos el calor latente de vaporización,

 
∂g
∆hvap = Tvap ∆svap = −Tvap ∆ (18.18)
∂T p,N

y el cambio en el volumen molar,

 
∂g
∆ = ∆v. (18.19)
∂p T,N
Notemos que si el calor latente y el cambio en el volumen son cero por encima del punto
crítico, las supercies de energía libre de Gibbs G para la fase líquida no se intersectan. En
lugar de esto el sistema pasa continuamente a lo largo de una supercie G. Queremos saber
cómo ocurre esta transición entre dos supercies de G, por debajo del punto crítico a una
única supercie por encima del punto crítico. Usaremos el uido ideal de van der Waals para
ilustrar esto, véase la gura 18.6(a).

Figura 18.6: Isotermas de Van der Waals.

Por encima de la temperatura crítica y para un cierto intervalo p − T, la ecuación de van


der Waals,

RT a
p= − 2, (18.20)
(v − b) v
satisface los criterios de estabilidad,

∂ 2U
2
≥0
∂V
∂ 2U
   
∂ ∂U ∂p
2
= =− ≥0
∂V ∂V ∂V T,N ∂V T,N
 
∂p
≤ 0. (18.21)
∂V T,N

Esto criterios se violan en la región MLKJF de la gura 18.6(b-c). Debido a esto, esta
sección del diagrama de fases no puede describir un sistema físico real. Otros procesos pueden
reemplazar la isoterma en esta región, estos procesos son uctuaciones entre las fases de vapor
y líquido.

La forma de la isoterma dibujada en las guras 18.6 determina el potencial molar de


Gibbs (potencial químico). Podemos integrar la relación de Gibbs-Duhem,

dµ = −sdT + vdP (18.22)

para obtener el potencial químico,


Z
µ= v(p)dp + f (T ) (18.23)

donde f (T ) denota una constante de integración. Si nos jamos en la gura 18.6(c), la


diferencia entre la energía de Gibbs en A y B es,

Z B
µB − µA = v(p)dp. (18.24)
A

Ignoremos por un momento la región MLKJF, e integremos la isoterma desde A a lo largo de


la curva v(p), el potencial molar de Gibbs resultante para cada temperatura es una función
de la presión, como se muestra en la gura 18.7.

Figura 18.7: Potencial de Gibbs para las isotermas de van der Waals.

El potencial se incrementa cuando integramos de A a F. Siguiendo la trayectoria de


integración hasta M, el potencial de Gibbs se reduce cuando la presión disminuye. Desde M
a S el potencial es una función monótonamente creciente de nuevo. Es importante notar que
la pendiente de esta rama es distinta a la pendiente en el rango A a F. Un sistema real en
equilibrio, asumirá siempre los valores mínimos en el intervalo, entonces el sistema siempre
procederá al punto D (idéntico al punto O). Incrementando aún más la presión resulta que
el sistema se mueve en la trayectoria OQRS, entonces, en la intersección de los puntos D-O
la pendiente cambia discontinuamente. Esta es la característica principal de una transición
de fase de primer orden.

18.1.5. Sistemas multicomponentes

La ecuación fundamental para un sistema multicomponente es,

U = U (s, x1 , x2 , · · · , xt ) (18.25)
sustituyendo,

U s xJ
u= x0 = xj =
xt xt xt
obtenemos a la ecuación 18.25, en forma molar,

u = u(x0 , x1 , x2 , · · · , xt−1 ). (18.26)

Ya que la suma de las fracciones molares igual a uno, sólo t − 1 variables son independientes.
En equilibrio, todos los potenciales, la energía interna, la entalpía, la energía libre de Gibbs
y la energía libre de Helmholtz son funciones convexas de las fracciones molares. Si, no
se satisfacen los criterios de estabilidad en un sistema multicomponente, pueden ocurrir
transiciones de fase. La compocisión química, la entalpía o el volumen molar pueden diferir
en cada fase. Las condiciones que debe cumplir la ecuación 18.26 son,

u00 > 0
u(P0 )11 > 0
u(P0 , P1 )2 > 0 (18.27)
.
.
. (18.28)

donde Pi = ∂U/∂xi son las fuerzas generalizadas. Cada transformada de Legendre dará un
criterio de estabilidad. Calculado en diferendial d(du),

t−1
X
2
d u= ujk dxj dxk (18.29)
j,k=0

y el primer diferencial de P0 ,

t−1
X
dP0 = u00 dx0 + u0k dxk . (18.30)
k=1
Separando la sumatoria de la ecuación 18.29 obtenemos,

t−1
X t−1
X
2 2
d u = u00 (dx0 ) + u0k dxk dx0 + ujk dxj dxk (18.31)
k=1 j,k=1

Elevando la ecuación 18.30 al cuadrado,

t−1
X t−1
X
(dP0 )2 = u200 (dx0 )2 + 2u00 u0k dx0 dxk + u0j u0k dxj dxk (18.32)
k=1 j,k=1

Comparando términos, podemos expresar d2 u de la siguiente manera,


t−1 
(dP0 )2

2
X u0j u0k
d u= + ujk − dxj dxk . (18.33)
u00 j,k=1
u00
Sea ψ0 la transformada de Legendre,

ψ 0 ≡ u − P0 x 0 , (18.34)

entonces,

∂ 2ψ0 0 u0j u0k


= ψjk = ujk − . (18.35)
∂xj ∂xk u00
Similarmente, denimos la transformada inversa como,

0 0
ψij0 ψik
0
ψjk = ψjk − . (18.36)
ψii0
Por lo tanto, podemos escribir la energía,

ψ 1 = u − P0 x0 − P1 x1 = u(P0 , P1 , x2 , · · · , xt−1 ) (18.37)

t−1
1X 1
du2 = 2
j−1 dPj (18.38)
2 j=0 ψjj

donde,

k
X
j−1
uψjj =u− Pi xi = u(P0 , P1 , · · · , Pk , xk+1 , · · · ) (18.39)
i=0

 
j−1 ∂Pj
ψjj = >0 ∀j (18.40)
∂xj

Cuando alguna de estas condiciones no se satisface, hay una transición de fase. Cada fase
es un sistema simple y entre ellas pueden intercambiar número de partículas.

18.1.6. Transiciones de fase entre las fases sólida y líquida

Ejemplo: En un sistema de dos componentes


Consideremos un contenedor mantenido a la temperatura T y presión P, que contiene
una mezcla de dos componentes. Se observa al sistema en dos fases: una líquida y otra sólida.
Nuestro objetivo es encontrar la composición de cada fase. El potencial de Gibbs para cada
fase está dado por,

 
T P
G(T, P, N1 , N2 ) = N µ , , x1 (18.41)
N N
L
denotamos el potencial químico de la primer componente en la fase líquida con µ1 y su fase
S
sólida como µ1 . Las condiciones de equilibrio con respecto a la transferencia de la primer
componente (1) y la segunda componente (2) de fase a fase son,
µL1 (T, P, N1 , N2 ) = µS1 (T, P, xS1 )
µL2 (T, P, N1 , N2 ) = µS2 (T, P, xS1 ), (18.42)

L S
respectivamente, donde x1 + x2 = 1
en cada fase. Estas dos ecuaciones determinan x1 y x1
L S
Por lo tanto hay que resolver dos ecuaciones con dos incógnitas x1 , x1 , que corresponden a la
cantidad de la sustancia que se transforma de líquido a gas. Supongamos que se observan tres
fases coexistiendo en el sistema anterior, denotadas con I , II y III , por lo tanto, tenemos
para la primer componente,

µI1 (T, P, xI1 ) = µII II III III


1 (T, P, x1 ) = µ1 (T, P, x1 ) (18.43)

y un par de ecuaciones similares para la segunda componente. Por lo tanto, tenemos cuatro
I II III
ecuaciones con tres incógnitas:x1 , x1 y x1 . Por lo tanto, no podemos especicar T y
P a priori, pero si especicamos T entonces las cuatro ecuaciones determinan P, xI1 , xII1 y
III
x1 . Aunque es posible seleccionar tanto T como P de manera arbitraria para encontrar un
estado de dos fases, un estado de tres fases sólo puede existir para una presión particular si
se especica la temperatura.

18.1.7. La regla de las fases de Gibbs

La regla de las fases nos dice cuántas fases son posibles en un sistema de N componentes,
lo que está relacionado con el número de grados de libertad, en términos del número de fases
diferentes y el número de constituyentes químicos del mismo. Fué deducida en términos de
principios termodinámicos por J. W. Gibbs.

Los grados de libertad f son el número de variables independientes intensivas que se


necesitan para determinar totalmente el estado de un sistema, entre ellas se encuentran la
temperatura, presión, concentración, etc.

Una fase puede contener distintos componentes químicos, que pueden o no estar presentes
en las otras fases. El número de fases en el sistema se representa por M. Los componentes
químicos se representan por los distintos compuestos (o elementos) involucrados en las ecua-
ciones del sistema. Si algunos de estos componentes permanecen en equilibrio entre sí, sin
importar el estado del sistema, deben considerarse como un único constituyente. El numero
de componentes se representa con r.
En un sistema con r componentes, los potenciales químicos en la primera fase son fun-
I I I
ciones de T, P, x1 , x2 , · · · , xr−1 . Los potenciales químicos en la segunda fase son funciones de
T, P, xII II II
1 , x2 , · · · , xr−1 Si tenemos M fases, el conjunto completo de variables independientes
consiste de T, P y M (r − 1) fracciones molares, en total 2 + M (r − 1) variables. Hay M − 1
ecuaciones de igualdad del potencial químico para cada componente, o un total de r(M − 1)
ecuaciones. Por lo tanto, el número f de variables que pueden asignarse arbitrariamente es
[2 + M (r − 1)] − r(M − 1) o,

f = r − M + 2. (18.44)

la cual es la regla de las fases de Gibbs. Para un sistema de una sóla componente, r = 1
y f = 0, si M = 3. Esto está de acuerdo con el hecho de que el punto triple es el único
estado para un sistema de una sóla componente. De manera similar, para un sistema de dos
componentes, cuatro fases pueden existir en un único punto, f = 0, r = 2 y M = 4, y la
temperatura puede ser asignada arbitrariamente para un sistema de tres fases, f = 1, r = 2,
y M = 3, y que ambas, T y P pueden asignarse arbitrariamente para un sistema con dos
fases, f = 2, r = 2 y M = 2.

18.1.8. Diagramas de fases para sistemas binarios

La regla de las fases de Gibbs, provee las bases para el estudio de los diagramas de fases.
Para un sistema de una componente, la función de Gibbs por mol es una función de la
temperatura y la presión, como se muestra en la gura 18.8. El diagrama de fases en el plano
P − T, como los mostrados en las guras 18.3, es una proyección de la curva de intersección
de la supercie µ consigo misma en el plano P − T.

Figura 18.8: Dependencia funcional de potencial molar de Gibbs.

Equilibrio entre las fases líquida-sólida de un sistema binario


Una característica típica de la solidicación de una fase líquida es que la composición quí-
mica del sólido es diferente que la composición química del líquido. El líquido es homogéneo
debido a la movilidad de sus componentes. En contraste, el sólido generalmente es inhomogé-
neo como resultado de cambio en la composición del material que se solidica. En contraste
con la transición de fase sólido-líquido de las sustancias puras, el proceso de solidicación se
extiende sobre un intervalo muy grande de temperaturas. En la gura 18.9(a), gracamos el
potencial químico para las fases sólida y líquida de un sistema binario.

La mezcla de la gura 18.9 (a) se separará espontáneamente en dos fases x` y xs . El


diagrama corresponde a sistemas en los que el punto de licuefacción deB es mayor que el de
A. La parte superior de la gura corresponde a una temperatura intermedia en el intervalo de
solidicación. La línea tangente (negra) indica el equilibrio entre las fases líquida y sólida de
composiciones x` y xs respectivamente. Si gracamos las posiciones de x` y xs como función
de T obtenemos la gura inferior. La curva roja superior se llama liquidus, ya que el líquido
es estable para todas las temperaturas por encima de esta curva. Similarmente, la fase sólida
es estable para temperaturas por debajo del solidus.
Figura 18.9: (a) Equilibrio entre las fases sólida y líquida de un sistema binario. (b) Proyección
bidimensional del diagrama de fases en 3D de una sistema binario líquido-sólido típico.

Consideremos una mezcla con una composición inicial x1` . La mezcla se enfria desde la
temperatura T0 por encima del liquidus a la temperatura T1 en el liquidus, que se muestra en
la gura 18.9 (b). A las temperaturas entre el liquidus y solidus para una composición inicial
dada x1` , la mezcla espontáneamente se separa en dos fases con fracciones molerares x1` y
x1s . Las fases líquida y sólida tienen diferentes composiciones. La fase sólida es más rica en
la sustancia B que la líquida. Consecuentemente, el líquido va careciendo de la sustancia B.
Cuando la temperatura baja aún más, las fracciones molares de ambas fases decaen cómo se
indica con las echas azules, en la gura 18.9 (b). El líquido y sólido tienen composiciones
iguales únicamente a las temperaturas TmA y TmB .

18.1.9. Diagramas de fase eutécticos: Aleaciones

En este caso, los diagramas de fase pueden ser más complicados que el mostrado en la
gura 18.9. En este caso las fases líquida y sólida pueden tener un gap de solubilidad . Puede
1
haber más de una fase sólida, por lo tanto, las aleaciones tendrán una fase líquida homogénea
debido a la movilidad de los átomos. Sin embargo, varias estructuras cristalinas pueden existir
con diferentes composiciones químicas. El potencial de Gibbs para estos sistemas se muestra
en la gura 18.10(a).

A altas temperaturas el potencial químico del líquido es más bajo que el potencial químico
de la fase sólida, que puede verse en términos de que el líquido es menos ordenado que el
sólido. Mientras la temperatura disminuye, el potencial químico del sólido B se traslapa con
el del líquido. Las fases se separan a lo largo de la tangente 1. A temperaturas aún más
bajas, occure una separación adicional de fases a lo largo de la tangente 2. Dependiendo de
las composiciones iniciales de las fases sólida y líquida A o B están en equilibrio con el líquido.

1 Un gap de solubilidad ocurre en un sistema de dos componentes cuando hay una energía de mezclado
positiva y cuando la temperatura es lo sucientemente baja de tal forma que la contribución de la energía de
mezclado a la energía libre 'gana' sobre la contribución de entropía de mezclado.
Cuando la temperatura decae aún más, las tangentes rotan (tangentes 3 y 4) hasta que se
únen en la tangente 5. Esta temperatura dene una temperatura mínima única en la cual el
líquido puede existir. Esta es la temperatura eutéctica. A temperaturas más bajas todavía,
sólo ocurren transiciones de fase entre las fases sólidas. El diagrama eutéctico correspondiente
se muestra en la gura 18.10(b).

Figura 18.10: (a) Potencial de Gibbs para aleaciones. (b) Diagrama de fases eutéctico.

El punto eutéctico es en el que la fase líquida y la sólida tienen la misma composición


xeu .

18.2. Teoría de Landau


18.2.1. Repaso de fenómenos críticos

Hemos visto en la lectura previa, que las líneas que denen la frontera entre las fases se
llaman líneas de coexistencia, gura 18.11. Cuando el sistema cruza las líneas de coexistencia,
ocurre una transición de fase de primer orden, que se caracteriza por un cambio discontinuo en
algunas cantidades termodinámicas tales como el volumen, entalpía o magnetización. Nótese
en la gura 18.11, que la curva de fusión puede extenderse hasta el innito, mientras que la
curva de ebullición termina en un punto, más allá de este punto, las dos fases (gas-líquida)
no pueden distinguirse. Este punto se llama punto crítico y por encima de él, el sistema se
encuentra en un estado uido supercrítico.

La temperatura a la que este fenómeno ocurre se llama temperatura crítica Tc . En el punto


crítico, las cantidades termodinámicas tales como el volumen, la entalpía o magnetización
son continuas, sin embargo, sus derivadas puede divergir. Ejemplos de estas cantidades son
la capacidad caloríca, la compresibilidad isotérmica, la suceptibilidad magnética, etc.,

   
1 ∂v ∂S
κT = − → ∞, CP = T → ∞, etc. (18.45)
v ∂P T ∂T P
Estas divergencias ocurren de la misma manera para una gran mayoría de los sistemas, a
estos sistemas se les dice que pertenecen a la misma clase de universalidad.

Figura 18.11: Curvas de coexistencia de una sustancia pura.

La ecuación de estado de un sistema se puede escribir de la forma,

P = g(ρ, T ), (18.46)

es decir, la presión es una función de la densidad y la temperatura. Un conjunto de isotermas


para una ecuación de estado de una sustancia típica se muestra en la gura 18.12. La curva
punteada en rojo, corresponde a la curva de coexistencia líquido-gas. Por debajo de la isoterma
crítica, la curva de coexistencia gas-líquido describe qué tan grande es el cambio discontinuo
en la densidad durante una transición de fase de primer orden. En el punto de inexión, que
corresponde al punto crítico, la discontinuidad se hace cero.

La divergencia en las derivadas termodinámicas ocurren de la misma manera para sistemas


que pertenecen a la misma clase de universalidad. Estas divergencias se comportan como leyes
de potencias, y por lo tanto, pueden describirse en términos de exponentes, conocidos como
exponentes críticos. Estos exponentes serán los mismos para sistemas que pertenecen a la
misma clase de universalidad. Los exponentes críticos se denen de la siguiente manera en el
punto crítico,

1. La capacidad caloríca a volumen constante,

∂ 2A
   
∂U
CV = = −T (18.47)
∂T V ∂T 2 V

diverge con la temperatura de acuerdo a,

CV ∼ |T − TC |α . (18.48)

2. A lo largo de la curva de coexistencia el parámetro de ordena varía como,


Figura 18.12: Isotermas de una sustancia pura como función de la densidad y la presión.

Q ∼ (Tc − T )β (T < Tc ). (18.49)

3. La compresibilidad isotérmica,

   
1 ∂V 1 ∂ρ
κT = − = (18.50)
V ∂P T ρ ∂T T

diverge como la temperatura cuando ésta se acerca a la temperatura crítica como,

κT ∼ |T − TC |γ . (18.51)

4. En la isoterma crítica (T = Tc ), el parámetro de orden y su correspondiente parámetro


intensivo satisfacen la relación,

Q ∼ Be1/δ ó ∆v ∼ (P − Pc )1/δ . (18.52)

18.2.2. Transiciones de fase de segundo orden

Lev Landau (1908-1968) fué un físico ruso quién ganó el premio Nobel de física en 1962
por sus teorías pioneras en el estudio de la materia condensada, especialmente el helio líquido.
Fué el primero en identicar el papel del parámetro de orden
2 en las transiciones de fases. El
comportamiento típico del parámetro de orden φ(P, T ) se muestra en la gura 18.13. Para una
2 Un parámetro de orden es alguna cantidad física observable que permite distinguir dos fases distintas del
sistema que describe. La elección del parámetro de orden, depende de las características de cada sistema. El
parámetro de orden es cero en la fase desordenada, de alta temperatura, y es nito en la fase ordenada.
transición de fase de segundo orden o transición de fase continua, φ se acerca continuamente
a cero en la transición.

Figura 18.13: Comportamiento típico del parámetro de orden φ como función de la tempe-
ratura. Por debajo de la temperatura crítica Tc hay valor nito del parámetro de orden, el
cual se hace cero para T > Tc .

Recordemos que el mínimo en la energía de Gibbs dene un estado de equilibrio. Consi-


deremos un sistema simple que cumple con los siguientes criterios de estabilidad,

∂ 2g ∂ 2g
   
<0 <0 (18.53)
∂T 2 P ∂P 2

∂ 2g ∂ 2g ∂ 2g
     
− >0 (18.54)
∂P 2 T ∂T 2 P ∂T ∂P
donde la última expresión da la concavidad de la g. En el punto crítico, las tres condiciones
fallan y las suceptibilidades divergen.

Como la energía libre de Gibbs varía con la temperatura, entonces el mínimo también
cambia con la temperatura. Supongamos que podemos escribir la energía libre de Gibbs
G(P, T, φ), cerca de la transición de fase, como un desarrollo en serie en términos de φ

G = G0 + G1 φ + G2 φ2 + G3 φ3 + G4 φ4 + G5 φ5 + · · · (18.55)

La condición,

G(Q) = G(−Q), (18.56)

requiere que la serie de potencias en la ecuación 18.55, sólo tenga potencias pares en Q. Por
lo tanto, truncando la serie, obtenemos,

G = G0 + G2 Q2 + G4 Q4 . (18.57)

Los coecientes de la ecuación 18.55 son dependientes de P, T y φ, únicamente G0 es, por


dención, independiente de φ, véase la gura 18.14.
Figura 18.14: Formas posibles del potencial termodinámico G(T,φ) para diferentes signos de
los coecientes de expansión.

Por encima de Tc , φ es cero, y por debajo de Tc , φ tiene un valor nito. El mínimo de la


energía libre debajo de Tc debe ocurrir a φ 6= 0, y sobre Tc a φ = 0, de esto podemos concluir
que G1 es cero (para sistemas sin campos externos), porque de cualquier otra manera φ 6= 0
para todas las temperaturas. El término G2 que acompaña el término cuadrático en φ tiene
que ser positivo para T > Tc (mínimo en φ = 0) y negativo para T < Tc (mínimo de G para
φ 6= 0). Por lo tanto, la elección más simple es,

G2 (P, T ) = a(T − Tc ), (18.58)

el cual es válido cerca de Tc . La condición de que φ sea nita por debajo de Tc requiere que
G4 (P, T ) > 0 de tal forma que la energía libre puede escribirse como,

G = G0 + a(T − Tc )φ2 + G4 φ4 . (18.59)

∂G
El comportamiento de φ se encuentra minimizando G, es decir calculando ∂φ
= 0, lo cual
resulta en,

2a(T − Tc )φ = −4G4 φ3
a(Tc − T )
φ2 = (T < Tc )
2G4
φ=0 (T > Tc ) (18.60)

Por lo tanto, el mínimo en la energía libre,


a2
Gmin = G2 φ2 + G4 φ4 = − (Tc − T )2 (18.61)
4G4
más constantes. Entonces G es continua en la transición de fase (y también lo es la energía
libre de Helmholtz cuando el proceso se efectúa a volumen jo). Sin embargo, las derivadas
∂G
superiores de la energía libre, no son todas continuas, tiene un pico en T = Tc . Esto dene
∂T
una transición de fase de segundo orden .
3
1
Los valores númericos de los exponentes críticos son los siguientes, α = 0, β = 2
γ = 1,
,
δ = 3. En el caso de β , el exponente que se obtiene para un sistema real es α = 0.1,
β = 0.3 − 0.4, γ = 1.2 − 1.4 y δ = 4.2. Ejemplos de sistemas que tienen una transición de
fase de este tipo: el problema de rigidez estructural de Maxwell (rigid-oppy transition) y la
transición de percolación.

3 En la clasicación de Ehrenfest una transición de fase de n-ésimo orden tiene una discontinuidad en la
∂nG
n-ésima derivada de la energía libre con respecto a la temperatura
∂T n .
Clase 19
Sistemas fuera de equilibrio
La mecánica estadística de no equilibrio estudia la evolución de los sistemas hacia el
estado de equilibrio, a diferencia de la mecánica estadística de equilibrio, que en ocasiones
se reere como estadística estática. Únicamente los sistemas que están cerca del equilibrio
pueden ser estudiados por la mecánica estadística de no equilibrio. En este caso el término
cerca se reere que el equilibrio se alcanzará a través de un proceso que se puede describir
por un conjunto de ecuaciones lineales. Si el sistema está lejos del equilibrio, no existe un
formalismo general aplicable y la mecánica estadística lejos del equilibrio es un tema abierto
e interesante para la investigación moderna.

Al principio del curso denimos el equilibrio termodinámico: Dos sistemas están en equi-
librio cuando entre ellos hay equilibrio mecánico, químico y térmico. Ahora supongamos que
tenemos dos sistemas a diferente temperatura. Cuando estos sistemas se ponen en contacto
entre sí, la temperatura de ambos cuerpos cambiará: El sistema caliente se enfriará y el frío
se calentará. Eventualmente, ambos sistemas alcanzarán la misma temperatura y entonces se
dice que ambos están en equilibrio entre sí. Un sistema aislado que no experimenta cambio
en alguna en sus propiedades macroscópicas, tales como la entropía o energía interna, está en
equilibrio termodinámico. El estado del sistema se determina por los parámetros intensivos
(temperatura, presión, volumen).

19.1. No equilibrio
Un sistema que este en un estado transitorio está en un estado de no equilibrio (o puede
estar en un estado estacionario de equilibrio dinámico). Un ejemplo interesante es un sistema
en contacto con dos baños calorícos que están a distinta temperatura.

Las características que pueden asociarse con el no equilibrio son la dinámica (por ejemplo
la relajación transiente hacia el equilibrio) y ujo de corriente en las cantidades conservadas
desde un lugar del sistema a otro. El tiempo de vida de un estado de no equilibrio puede ser
muy corto a menos que haya perturbaciones macroscópicas en las cantidades conservadas que
las alejen de la distribución de equilibrio. En todos los casos, habrá corrientes macroscópicas
de las cantidades conservadas acompañando a estas perturbaciones.

Una situación de no equilibrio interesante es aquélla en la que no hay dependencia tem-


poral (i.e. una situación estacionaria), pero si hay corrientes de las variables conservadas

175
uyendo. Ya que la dinámica de estos sistemas es disipativa, habrá una inyección de energía,
ujo de energía dentro del sistema y en ocasiones una transformación entre diferentes formas
de energía (por ejemplo, energía mecánica o química a calor), seguidas por una eliminación
de esta energía para mantener el estado estacionario. Un ejemplo sencillo es un sistema en
contacto con dos baños calorícos a temperaturas constantes, pero distintas, que exhibirá
ujos de energía que transportan calor entre los dos baños.

19.2. Regreso al equilibrio


Los sistemas de no equilibrio que estén cerca del equilibrio, como por ejemplo, los sistemas
que son generados a partir de pequeñas perturbaciones a partir del equilibrio, pueden ser
tratados fácilmente. Hay diferentes escalas asociadas con la relajación hacia el equilibrio.
En esta clase, trataremos los procesos con una relajación lenta, que ocurren en escalas de
tiempo más grandes que las escalas de tiempo microscópicas. Esta idea se conoce como
aproximación de Onsager. Los grados de libertad que se relajan lentamente son aquéllos
que corresponden a variables conservadas en el sistema aislado.

En el apéndice A hacemos un análisis detallado de un sistema en no equilibrio. Podemos


concluir de este ejemplo que si efectúamos una perturbación localizada a un sistema en estado
de equilibrio termodinámico, obtendremos los siguientes resultados,

1. Un estado cerca del equilibrio decaerá exponencialmente hacia el equilibrio.

2. La dinámica está dada por las ecuaciones de movimiento, que por un lado son ecuacio-
nes fenomenológicas (en el ejemplo la corriente de calor es proporcional a la diferencia
en las temperaturas) y por otro lado, son derivables de leyes fundamentales de la termo-
dinámica. Necesariamente las ecuaciones de movimiento son consistentes con las leyes
de la termodinámica.

3. La ley de incremento de entropía impone restricciones en los coecientes de las ecuacio-


nes dinámicas, pero no en sus soluciones. Cualquier solución de las ecuaciones dinámicas
es necesariamente consistente con segunda la ley de la termodinámica.

La teoría de Onsager, véase el apéndice C, desarrollada para sistemas cercanos al equilibrio


lleva a perturbaciones que decaen exponencialmente hacia el equilibrio. Estos resultados
surgen debido a la suposición de que las perturbaciones son pequeñas, de tal forma que
únicamente los términos lineales se mantienen al considerar la desviación del equilibrio. En
un sistema que se encuentra lejos de equilibrio, la linealidad ya no es válida y las desviaciones
con respecto a ella dan lugar a nuevos efectos. Una característica principal de estos sistemas
es que las ecuaciones de movimiento serán no lineales.

19.3. Fluctuaciones
Cuando sacamos a un sistema del equilibrio, notamos que ocurren en él dos cosas:

1. Disipación: tales como el surgimiento de fuerzas viscosas, la resistencia eléctrica, etc.


Esto debido a que las partículas que componen el sistema interactúan entre sí.
2. Fluctuaciones: Que son las causantes principales de las transiciones de fase.

El teorema de uctuación-disipación, apéndice B, relaciona ambos puntos, esto es posible


debido a que un sistema que se sale del equilibrio, lo hace de manera universal por medio
de uctuaciones o interacciones. De manera burda el teorema de uctuación disipación esta-
blece que una uctuación espontánea del equilibrio decae como una perturbación impuesta
externamente. Consideremos un sistema A descrito por el Hamiltoniano,

H 0 = H + Hi (19.1)

con la ecuación de Schrödinger,

H|ψr i = r |ψr i solución cuántica.

El hamiltoniano Hi es generalmente más pequeño que H y en él se introducen las interac-


ciones, generalmente debidas a los choques entre las partículas que componen el sistema A.
Debido a que estos choques cambian los momentos de las partículas de forma discontinua,
esto causa transiciones entre los eigenestados del sistema. La ecuación característica,


H − E Hi

Hi = (H − E)2 − Hi2 = 0
H − E
tiene por solución,

E = H ± Hi , (19.2)

para toda probabilidad de transición Wrs .


Debido a la interacción los niveles de energía de hamiltoniano original se desdoblan y
puede suceder que el sistema pase de un estado cuántico a otro con probabilidad de transición
W. Observe que la separación ente niveles cuánticos es del orden de la pertubación, que en
general es pequeña. Si la energía se conserva y Er 6= Es , entonces,

Wrs = Wsr (19.3)

es decir la transformación debe ser igual de r → s o de s → r. A la ecuación 19.3 se les llama


relaciones de Onsager, más detalles en el apéndice C.

19.3.1. Relaciones de Onsager

La relación 19.3 es consecuencia inmediata de la reversibilidad en el tiempo de las siguien-


tes ecuaciones cuánticas,

Wsr = |hs|Hi |ri|2 = hs|Hi |ri∗ hs|H|ri


= hr|H|rihs|Hi |ri = |hr|H|si|2 = Wrs , (19.4)

donde se ha considerado que H es hermitiano. Por lo tanto, están dictadas directamente por
la reversibilidad microcópica.
Sea Pr (t) la probabilidad de que el sistema al tiempo t esté en el estado r. Si consideramos
las interacciones, el sistema va a evolucionar de la siguiente manera,

dPr X X X
= Ps Wsr − Pr Wrs = (Ps Wsr − Pr Wrs ) (19.5)
dt s s s

donde Ps es la probabilidad de encontrar al sistema en el estado s, entonces si Wsr es la


probabilidad de transición de pasar del estado s al estado r, la probabilidad de encontrar al
sistema en el estado r al tiempo t+dt aumenta. El segundo término describe la disminución de
esta probabilidad debido a que el sistema puede pasar a cualquier otro estado s en el tiempo
dt. La ecuación 19.5 es la ecuación maestra del sistema, no tiene simetrías, es irreversible
en el tiempo y por lo tanto es una buena ecuación para describir procesos irreversibles. Si

dPr
6= 0 (19.6)
dt
la ecuación 19.5 no tiene simetría de Kramer (t → −t) y es irreversible en el tiempo.

Es importante notar que, aunque la ecuación 19.5 se basa en la ecuación de Schrödinger,


que es simétrica, la ecuación 19.5 no necesariamente lo es. La ecuación de Schrödinger,

H|ψr i = r |ψr i

da la solución al problema, sin embargo, no se ha investigado la manera de pasar de esta


ecuación a la ecuación maestra. Es importante notar que al introducir el concepto de pro-
babilidad perdemos la información de las fases (decoherencia). La ecuación maestra debe
predecir que en algún tiempo dado el sistema vuelve al equilibrio, por la condición,

P r = Ps , postulado fundamental de la física estadística. (19.7)

Que se obtiene de considerar,

Ps Wsr − Pr Wrs = Pr (Wsr − Wrs ) = 0, (19.8)

y usando las ecuaciones 19.4 y 19.7, obtenemos,

dPr
=0 (19.9)
dt
es decir, la ecuación maestra describe correctamente el equilibrio. La condición,

Ps Wsr = Pr Wrs (19.10)

se conoce como balance detallado, es una condición suciente (pero no necesaria) para decir
que el sistema esta en equilibrio. También puede ser que la ecuación 19.9 sea válida, sin que
se cumpla el balance detallado. Nótese que las relaciones de Onsager se cumplen, aunque esto
sucede independientemente de si el sistema está o no en equilibrio (Pr = Ps ⇒ Wrs = Wsr ).
0
Ahora supongamos que colocamos al sistema A en un baño térmico A , más grande que
el sistema mismo. Entonces, las ecuaciones se modican de la siguiente manera,
A0 = A + A0
H0 = H + Hi + H0 . (19.11)

Podemos escribir,

H|ψr i = r |ψr i
H0 |ψr i = 0r |ψr i (19.12)

entonces Hi es el intermediario que produce transiciones y permite que A llegue al equilibrio


0 0 0
con A . La probabilidad de que el sistema A este en el estado r y que A en r es,

0
Prr 0 = Pr Pr 0 (19.13)

0
considerados como eventos independientes. Entonces para todo Wrr 0 ss0 y por conservación si,

Er + Er0 6= Es + Es0 ⇒ Wrr0 ss0 ≥ 0.

Por lo tanto existe una probabilidad de transición, dada por la expresión,

W 0 (ss0 → rr0 ) = W 0 (rr0 → ss0 ) (19.14)

conocidas como relaciones de Onsager. Como Pr es canónica y proporcional al número de


estados, podemos escribir,

Pr ∼ Ω0 (E 0 − Er0 ) ∼ e−βEr0
∂ ln Ω0
β= (19.15)
∂E 0

donde la temperatura está denida por el estado primado. Para la expresión,

Pr Pr0 W 0 (rr0 → ss0 ) = Ps Ps0 W 0 (ss0 → rr0 ) (19.16)

si W0 es diferente de cero, podemos dividir la expresión 19.16, considerando las relaciones de


Onsager,

Pr Ps 0 Pr e−βEs0 0 0
= = −βE 0 = e−β(Es0 −Er0 ) , (19.17)
Ps Pr 0 Ps e r

considerando la conservación de la energía,

Es0 − Es = Er0 + Er , (19.18)

obtenemos,
Pr
= e−β(Er −Es ) distribución canónica. (19.19)
Ps
Cuando sacamos al sistema del equilibrio y consideramos a A0 tan grande que siempre
0 −βE 0
está en equilibrio interno, p = e

Figura 19.1: Probabilidades de transición de la ecuación 19.20.

0
X X X
Wrs = 0
Pr0 Wrr 0 ss0 = C e−βEr0 Wrr
0
0 ss0 = C e−βEs0 Wrr0 ss0 (19.20)
r 0 s0 r 0 s0 r 0 s0

lo cual implica que,

Wrs > Wsr (19.21)

donde,

X X
Wsr = Pr0 W 0 (rr0 → ss0 ) = C e−βEr0 W 0 (rr0 → ss0 )
r 0 s0 r 0 s0
X
Wsr = C e−βEs0 W 0 (ss0 → rr0 ) (19.22)
r 0 s0

arreglando términos en la expresión anterior obtenemos,

Wsr
= e−β(Er −Es ) . (19.23)
Wrs
con β>0 y Es > Er .
La distribución canónica de W , dada por la ecuación 19.23 es la misma que la distribución
canónica dada por la ecuación 19.17. Por lo tanto, la A satisface la ecuación maestra,

dPr X
λsr Ps eβEs − Pr eβEr

= (19.24)
dt sr

con,
λsr ≡ λrs = e−βEr Wrs = e−βEs Wsr ,
y esto garantiza el regreso al equilibrio con estas probabilidades canónicas. Si el sistema no
esta aislado el regreso al equilibrio es a través de las distribuciones canónicas.
Clase 20
Sistemas fuera de equilibrio II

20.1. Ejemplo: Resonancia magnética


Habíamos visto en la clase anterior, que la ecuación maestra es,

dPr X
λsr Ps eβEs − Pr eβEr

= (20.1)
dt s

donde los factores λsr obedecen la relación de Onsager,

λsr = λrs = e−βEr Wrs = eβEs Wsr (20.2)

para un sistema en contacto con un reservorio. Nuestro objetivo es investigar cómo el sistema
regresa al equilibrio estacionario (no necesariamente estático).

Consideremos el fenómeno de resonancia magnética, es decir, tenemos N partículas con


1
espín inmersas en un campo H = H ẑ . La energía del sistema está dada por,
2

± = ∓µH. (20.3)

Figura 20.1: Transiciones del estado + al − y viceversa para el ejemplo de resonancia mag-
nética.

Debido a que el estado de mínima energía es −µH , el estado+ está más poblado. Sin
embargo, debido a las uctuaciones hay transiciones del estado − al + y viceversa, véase la
gura 20.1. El hamiltoniano del sistema,

H = Hspin + Hlattice + HLS (20.4)

181
donde en el lado derecho, el primer término da la interacción del espín con el campo, el
segundo considera el hecho de que los núcleos se mueven en una red cristalina y nalmente
el tercero la interacción de la red cristalina con un espín.

El número total de espines es

N = n+ + n− . (20.5)

En este caso el factor de Boltzmann está dado por,

W−+
= e−β(− ++ ) → β(− + + ) = 2βµH. (20.6)
W+−
con una distancia de separación de 2µH . La magnitud de estas interacciones se puede obte-
ner por medio de un cálculo sencillo, considerando los siguientes valores numéricos para los
parámetros involucradas,

µ ∼ 5 × 10−24 erg/gauss

H ∼ 104 gauss

5 × 10−4
βµH = 1 (20.7)
T
por lo que βµH es muy pequeño hasta temperaturas de 103 K. Reescribiendo W+− ≡ W , y
haciendo un desarrollo en serie de Taylor,

W−+ = W (1 + 2βµH) con βµH  1. (20.8)

Si se aplica un campo oscilatorio con frecuencia ω, y si,

~ω ≡ − − + = 2µH,

se inducen interacciones +−. La radiación puede entrar en resonancia con la separación de


8
los niveles, para ω ∼ 10 Hz (radio frecuencias). La probabilidad de transición por unidad de
tiempo de que el espín se voltee, está dado por las relaciones de Onsager,

W+− ≡ W−+ ≡ $, (20.9)

entonces $ = $(ω) sólo es grande si ~ω ≈ 2µH . La ecuación maestra de problema es,

dn+
= n− (W−+ + $) − n+ (W+− + $)
dt
dn−
= n+ (W+− + $) − n− (W−+ + $) (20.10)
dt

Denimos el desbalance de acuerdo a la cantidad,


n = n+ − n− (20.11)

y sustituyendo en las ecuaciones 20.10 obtenemos,

dn
= −2n+ (W+− + $) + 2n− (W−+ + $) con W+− = W. (20.12)
dt
Simplicando,

dn
= −2 (W + $) + 2βµHW N (20.13)
dt
 
1
4βµHW n− = 4βHW N −n ≈ 2βHW N (20.14)
2
ya que n  N si la temperatura es baja. Estudiemos el siguiente caso, si ω = 0, no hay
dn
radiofrecuencia,
dt
= 0, esto implica que,

n0 = N βµH, (20.15)

que está de acuerdo con la distribución canónica. Si H = 0, n0 = 0 tenemos el mismo número


de espines hacia arriba y hacia abajo. Además,

N e±βµH N
n± = βµH −βµH
≈ (1 ± βµH) (20.16)
e +e 2
si consideramos βµH  1, entonces,

n0 = n+ − n− = N βµH, (20.17)

por lo tanto se obtiene el mismo resultado que con la ecuación maestra. Finalmente la ecuación
20.13 se convierte en,

dn
= −2W (n − n0 ) − 2$n (20.18)
dt
y en ausencia de campo oscilante ω=0 se puede integrar, la solución de la ecuación 20.18
es,
n(t) = n0 + [n(0) − n0 ]e−2W t (20.19)

donde n(0) es el número de espines desbalanceados en t=0 y n0 el número de espines en


equilibrio. Por lo tanto, el sistema llega al equilibrio en un tiempo característico,

1
τ= . (20.20)
2W
Cuanto mayor sea la interacción entre los espines (W) el sistema llega más rápido al
equilibrio. Si no hay interacción entre los espines, éstos sólo responden al campo. Cuando
encendemos el campo de la resonancia, pero con una interacción de espines pequeña W ≈ 0,
dn
= −2$n n(t) = n(0)e−2$t (20.21)
dt
por lo tanto, la red llega al equilibrio en un tiempo característico dado por,

1
τ= (20.22)
2$
donde $ es la interacción introducida por la radiación electromagnética. Cuando introduci-
mos esta radiación el sistema absorbe energía,

(n+ − n− )$(2µH), (20.23)

y el sistema se calienta, aumenta la temperatura de los espines hasta que Ts → ∞, (cuando


n+ = n− ) y la probabilidad de encontrar el espín arriba o abajo es la misma. En este punto de
saturación el sistema no absorbe energía si y sólo si la interacción con la red es pequeña. La
condición es que el sistema absorbe energía estacionariamente y se la pasa a la red cristalina,

W (n − n0 ) = −$n,

es decir,

n0
n= $
 (20.24)
1+ W
el número de espines desviados del equilibrio es más pequeño que n0 , i.e. n < n0 . Si $  W ,
tenemos que n → n0 , pero si$  N , n → 0 y este es el punto de saturación.
La energía absorbida tiene que ver con $ y la del espín con el resto de la red cristalina
(entorno químico) y por lo tanto, podemos saber las propiedades de este entorno. Ejemplos de
las aplicaciones de esto es el desplazamiento de Knight y el desplazamiento químico [19, 20].

20.1.1. Knight shift

El desplazamiento de Knight es un desplazamiento observado en la frecuencia de reso-


nancia magnética nuclear de una sustancia paramagnética, fenómeno estudiado por el físico
Walter D. Knight. Este fenómeno se debe a la conducción de electrones en los metales, que
introducen un campo efectivo extra en el sitio nuclear, debido a las orientaciones de los es-
pines de los electrones de conducción en presencia de un campo externo. Esto provoca el
desplazamiento observado en la resonancia magnética nuclear, el cual viene de dos fuentes,
la primera de la suceptibilidad paramagnética de Pauli del espín y la otra es la componente s
de las funciones de onda en el núcleo. Dependiendo de la estructura electrónica del material,
el desplazamiento de Knight puede o no depender de la temperatura.

20.1.2. Chemical shift

El desplazamiento químico es la frecuencia resonante de un núcleo relativo a una frecuencia


estándar. Las posiciones y el número de desplazamientos químicos dan información de la
estructura de la molécula. Éste fenómeno también se usa para describir señales en otras
formas de espectroscopía, como la espectroscopía de fotoemisión.

Algunos núcleos atómicos poseen un momento magnético (espín nuclear), que da lugar
a diferentes niveles de energía y frecuencias de resonancia en presencia de un campo mag-
nético. El campo magnético total que siente el núcleo incluye los campos magnéticos locales
inducidos por las corrientes de electrones en los orbitales moleculares ( electrones con mo-
mento magnético). La distribución electrónica del mismo tipo de núcleo varía de acuerdo
a la geometría local (longitudes de enlace, ángulos entre los enlaces, etc.), y con el campo
magnético local en cada núcleo. Esto se reeja en los niveles de energía de los espínes (y
las frecuencias de resonancia). Las variaciones en la frecuencia de la resonancia magnética
nuclear para un mismo tipo de núcleo, debido a las variaciones en la distribución electrónica
se llaman desplazamiento químico. El tamaño de este desplazamiento está dado con respecto
a una frecuencia de referencia o muestra de referencia y permite conocer la identidad química
de una muestra.
Clase 21
Transporte y la ecuación de Boltzmann

21.1. Conservación de la masa


21.1.1. Ecuación de continuidad

Si un sistema mecánico está fuera de equilibrio necesariamente habrá ujo de masa.


Por ejemplo, considere un uido que uye y en el cual hay transporte de masa. Necesitamos
conocer la función distribución de la velocidad, denotada con v = v(x, y, z, t) y dos cantidades
termodinámicas, por ejemplo, la presión p = p(x, t, z, t) y la densidad de masa ρ = ρ(x, y, z, t).
Consideremos un volumen V0 del uido, rodeado por una supercie S que está ja en el
espacio. La masa total de este elemento de volumen es,

Z
m= ρdV, (21.1)
V0

y la masa uyendo a través del elemento de supercie dS que encierra este volumen es ρv ·dS,
donde la magnitude de dS es igual al área del elemento y se considera que está dirigido a lo
largo de la normal hacia afuera y es una cantidad es positiva si el uido sale.
H
La masa total que abandona el elemento de volumen por unidad de tiempo es ρv · ds,

R
mientras que el decremento en la masa, − ρdV . Por lo tanto,
∂t
Z I

− ρdV = ρv · dS, (21.2)
∂t
por el teorema de Green, podemos escribir,

I Z
ρv · ds = ∇ · (ρv)dv

que resulta en,

∂ρ
+ ∇ · (ρv) = 0, (21.3)
∂t
la cual es la ecuación de continuidad, donde el ujo de masa se puede denotar con j = ρv.

187
21.1.2. La derivada total

La ecuación de continuidad 21.3 contiene la derivada temporal de la densidad del ui-


do. Para cualquier cantidad física f = f (r, t) (densidad, temperatura, componentes de la
velocidad, etc.), debemos tener cuidado en distinguir dos derivadas temporales distintas. La
derivada parcial ∂f /∂t f en un punto particular jo en el
indica una razón en el cambio de
espacio. Sin embargo, para denir la razón de cambio de f en un elemento de uido dado,
mientras éste se mueve a lo largo de una trayectoria r = r(t) en el ujo, debemos usar la
derivada material, denida,

Df d
= f (x(t), y(t), z(t), t)
Dt dt
∂f dx ∂f dy ∂f dz ∂f
= + + +
∂t dt ∂x dt ∂y dt ∂z
∂f ∂f ∂f ∂f
= + vx + vy + vz
∂t ∂x ∂y ∂z
∂f
= + v · ∇f. (21.4)
∂t
∂f
La ecuación 21.4 dice que aún en un ujo independiente del tiempo (
∂t
= 0), cualquier
elemento de volumen puede sufrir cambios en f por medio de v· ∇f , mientras se mueve en
el espacio.

La ecuación de continuidad puede reescribirse, usando la ecuación 21.4 como,


+ ρ∇ · v = 0. (21.5)
Dt
Para un uido incompresible ρ =constante, independiente del espacio y tiempo,


= 0, ∇ · v = 0. (21.6)
Dt

21.2. Conservación del momento


Consideremos un volumen V acotado por una supercie S que se mueve con el uido,
siempre conteniendo a los mismos elementos materiales. Su momento es,

Z Z
Dv
ρvdV = dV ρ , (21.7)
V V Dt
donde hemos considerado que la masa ρdV de cada elemento material es constante. La
ecuación 21.7 debe ser igual a la fuerza neta sobre el elemento.

Hay dos tipos de fuerzas que actúan sobre cualquier uido,

Fuerzas externas de largo alcance que penetran la materia y actúan uniformemente


sobre cualquier elemento de volumen dV del material. Por ejemplo, la fuerza de gravedad
ρgdV .
Fuerzas moleculares de corto alcance, internas al uido. Para cualquier elemento, la
fuerza neta de estas fuerzas debidas a las interacciones con otros elementos actúa en
una supercie de una capa delgada. En 3D, cada una de estos tres conjuntos de planos
acotando al elemento, experimentan una fuerza de tres componentes, resultando en un
total de 9 componentes. Estas componentes forman el tensor de estrés σ, denido en
términos la fuerza ejercida por unidad de área a lo largo de un elemento de supercie
dS ≡ n̂dS , como,

f = σ · n̂. (21.8)

La fuerza total (elemento de volumen + supercie),

Z Z
F= dV ρg + σ · dS
ZV S

= dV (ρg + ∇ · σ). (21.9)


V

21.2.1. Ecuación de Cauchy

Por la segunda ley de Newton, las ecuaciones 21.7 y 21.9 deben igualarse para cualquier
V,

Dv
ρ = ρg + ∇ · σ. (21.10)
Dt

21.2.2. Ecuación de Euler


H
La fuerza total actuando sobre el elemento de uido es la integral de la presión − pdS,
sobre toda la supercie cerrada que dene V0 . Transformando en una integral de volumen,
obtenemos,

I Z
− pdS = − ∇pdV, (21.11)

por lo tanto, el uido que rodea al elemento de volumen dV ejerce una fuerza −∇p, la fuerza
por unidad de volumen. La ecuación de movimiento de Newton se escribe (en la vecindad del
volumen),

dv
ρ = −∇p, (21.12)
dt
pero como v = v(r, t), entonces,

dv ∂v ∂v ∂xi ∂v ∂v ∂v
= + = + vi = + (v · ∇)v, (21.13)
dt ∂t ∂xi ∂t ∂t ∂xi ∂t
∂v 1
+ (v · ∇)v = − ∇p, (21.14)
∂t ρ

la cual es la ecuación de Euler.

21.2.3. Ecuación de Navier-Stokes

Habíamos dicho que en general, el uido está sujeto a fuerzas debidas a un campo externo
(fuerzas volúmétricas) más las fuerzas de contacto. Denotemos las fuerzas volumétricas con
f y a las fuerzas de contacto de deformación descritas por medio del tensor de esfuerzos σ,

Fd = ∇ · σ. (21.15)

Es importante notar que en general el tensor de esfuerzos se puede expresar como la suma
de dos tensores de esfuerzos,

σ = pI + σ 0 , (21.16)

donde p es la presión hidrostática total, de compresión y tensión, dado por p = σii /3 y σ0 es


el tensor de esfuerzos desviatorio, que contiene los esfuerzos de corte.

Finalmente, la ecuación de movimiento es,

Dv
= −∇p + ∇ · σ + f (21.17)
Dt
la cual es la ecuación de Navier-Stokes.

Para completar hay que escribir p, σ y ρ como funciones de v,


• Para la densidad ρ es suciente escribir la ecuación de continuidad,

Dρ ∂ρ
= ρ(∇ · v) = + ∇ · (ρv) = 0. (21.18)
Dt ∂t
• El tensor de esfuerzos diagonal (p) se modela usando la ecuación de estado (por ejemplo,
en un uido incompresible) a volumen constante el campo de velocidad cumple,

∇ · v = 0. (21.19)

La parte no diagonal en la ecuación 21.16 se modela con el tensor de viscosidad α,

σ 0 = α(∇v), (21.20)

si el uido es isotrópico, α es simétrico y puede ser expresada en términos de cantidades es-


calares positivas η y ξ , conocidas como las viscosidades dinámicas. Regresando a la denición
de tensor de esfuerzos, ecuación 21.16, en forma tensorial,

σij ≡ −pδij + σij0 (21.21)


donde −pδij incluye todas las componentes isotrópicas sobre la diagonal, mientras que σij0
representa todas las componentes no isotrópicas (esfuerzos normales y de corte). Los esfuerzos
dinámicos están relacionados a los gradientes de velocidad de la siguiente manera, en notación
tensorial,

   
∂vi ∂vj ∂vl
σij0 =η + +ξ δij (21.22)
∂xj ∂xi ∂xl

con η el coeciente de viscosidad dinámica y ξ la elasticidad de bulto (segundo coeciente de


viscosidad). Si el uido es incompresible,

X ∂vi
∇·v = = 0, (21.23)
i
∂x i

y la ecuación 21.22 se reduce a,

 
∂vi ∂vj
σij0 =η + , (21.24)
∂xj ∂xi
y cuando i 6= j es el tensor de corte o deformación.

Para obtener la ecuación de Navier-Stojes para uidos Newtonianos incompresibles, sus-


tituimos la ecuación para el tensor de esfuerzos para un uido Newtoniano,

 
∂vi ∂vj
σij = −pδij + η + (21.25)
∂xj ∂xi
en la ecuación de Euler 21.14 y obtenemos,

Dvi ∂vi ∂vi 1 ∂p ∂ 2 vi fi


= + vj =− +η + forma tensorial
Dt ∂t ∂xj ρ ∂xi ∂xj ∂xj ρ
Dv ∂v 1 f
= + v · ∇v = − ∇p + η∇2 v + forma vectorial. (21.26)
Dt ∂t ρ ρ

Finalmente, la forma más general de la ecuación de Navier-Stokes,

viscosidad
 
convección
∂v z }| {  z }| {
ρ + v · ∇v  = −∇p + η∇2 v + f . (21.27)

∂t |{z}
fuerzas externas
| {z }
|{z} fuerza del uido
aceleración

21.3. Transporte
Cualquier probabilidad de transporte de masa se obtiene en términos de la función dis-
tribución de probabilidad f = f (r, v, t), que da el número de partículas localizadas entre r y
r + dr, con una velocidad entre v y v + dv, en el tiempo t,
Z
ρ(r, t) = d3 vf (r, v, t). (21.28)

La velocidad media de una molécula, u, que es el promedio del campo de velocidades,

Z
1
u = hv(r, t)i = d3 vf (r, v, t)v, (21.29)
n(r, t)
donde u es la velocidad hidrodinámica. Denimos la velocidad peculiar como,

U = v − u, con hU i = 0 (21.30)

que nos dice cómo la velocidad del uido se desvía del promedio en cada punto. El ujo χ,
de cualquier cantidad,
Z Z
fnχ (r, t) = 3
d v χ f |n · u| − d3 v χ f |n · u| (21.31)
n·u>0 n·u<0

donde n·u es la componente de la velocidad peculiar en la dirección considerada. El primer


término de lado derecho da el ujo que entra y el segundo término el ujo que sale.

Z
fnχ (r, t) = d3 v f (n · u)χ. (21.32)

De la ecuación 21.29, podemos identicar,

fnχ (r, t) = n · F F = nhuχi (21.33)

Considerando una molécula, cuya función de distribución,

df ∂f X ∂f ∂xi X ∂f ∂vi
= + + (21.34)
dt ∂t i
∂xi ∂t i
∂vi ∂t

que en equilibrio tiene que ser cero, caso especial del teorema de Liouville,

Df ∂f ∂f ∂f
= +v· +v
Dt ∂t ∂r ∂v
∂f F ∂f
= + v · ∇f + · (21.35)
∂t m ∂v

de donde podemos identicar el operador de Liouville,

∂ P
L≡ + · ∇x + F · ∇P (21.36)
∂t m
con P = mv. De manera general, el operador de Liouville se escribe en forma tensorial,

∂ ∂
L̂ = pα α
− Γαβγ pβ pγ α , (21.37)
∂x ∂p
donde Γαβγ son los símbolos de Christoel. En el equilibrio tenemos L̂[f ] = 0.
Si hay transporte verdadero entonces se tienen que considerar las colisiones. Boltzmann
razonó que el número de partículas entre r y r + dr, v y v + dv al tiempo t es en realidad las
que calculamos más las que lleguen ahí como resultado de las colisiones. Entonces la ecuación
de Boltzmann es,

L̂[f ] = Ĉ[f ] (21.38)

donde Ĉ es el operador de colisiones. La ecuación 21.38 no sería útil si Boltzmann no hubiera


derivado una expresión para el operador de colisiones basada en las interacciones entre pares.
Si suponemos que la velocidad de las partículas no cambia debido a las fuerzas externas
durante el tiempo τ (muy pequeño) entonces τ (v0 ) = τ (v) + τ , Si esto no sucede,

 3/2
mβ 1 2
0
f =n e− 2 βm(v0 −u) , (21.39)

la cual es la distribución de Maxwell-Boltzmann. Sea P (t) la probabilidad de que una molécula
no haya experimentado un choque durante el intervalo temporal t = 0 a t, y ω la probabilidad
de que una molécula choque en una única ocasión en el intervalo t + t + dt. Nos interesa la
probabilidad combinada, probabilidad Bayesiana,

P(t)dt = P (t)ωdt (21.40)

de que la partícula no haya chocado y que choque una sóla vez. La probabilidad de chocar
hasta el tiempo t + dt ,

P (t + dt) = P (t)(1 − ωdt), (21.41)

dP 1
= −P ω P = e−ωt ω= (21.42)
dt τ

Z ∞
τ = hti = P(t)t dt
0
Z ∞
= e−ωt ωt dt
0
1 ∞ −y
Z
1
=− e dy = . (21.43)
ω 0 ω

t0
e− τ
P(t)dt = dt (21.44)
τ
que es el tiempo de relajación o tiempo promedio entre colisiones. Si no hubieran colisiones,
0 0
las moléculas llegarían a f . Ahora, jémonos en un intervalo t − t = t0 , tiempo que tardan
las moléculas en llegar al equilibrio,

dt0
Z
0 0
f (r, v, t) = f (r0 , v0 , t − t ) . (21.45)
0 τ
Para tiempos muy cercanos, tenemos que esperar un tiempo t0 para que lleguen al no
equilibrio. Las moléculas que entraron a la vecindad f − f0 , es el número de moléculas que si
chocaron. Integrando por partes,

Z ∞
t0
f (r, v, t) = f 0 (t0 )e− τ dt0
0

0 0 − tτ
0
∞ Z df 0 (t) − t0 0
= −f (t )e + e τ dt . (21.46)

0 0 dt

Reordenando términos,


df 0 (t) − t0 0
Z
0
∆f = f − f = e τ dt . (21.47)
0 dt
Entonces el término de colisiones es,

f − f0
 
Ĉ[f ] = − (21.48)
τ0

donde τ0 = τ . Sustituyendo en la ecuación 21.38, obtenemos la ecuación de Boltzmann. El


tiempo promedio entre colisiones es justamente el tiempo de relación,

f − f0
 
L̂[f ] = . (21.49)
τ0
Clase 22
Teoría del transporte de Boltzmann
En clase pasada habíamos visto que el operador del Liouville cuando el sistema está fuera
del equilibrio está dado por la expresión,

(f − f 0 )
L̂[f ] = C[f ] = − , (22.1)
τ
donde,

∂f ∂f
L̂ = + fm ∇ r f + F . (22.2)
∂t ∂p
En las siguientes secciones veremos dos ejemplos, en donde aplicamos las ecuaciones 22.1
y 22.2.

22.1. Aproximación del tiempo de relajación


Consideremos un modelo simple de la integral de colisiones,

f − f0
 
∂f δf
=− =− , (22.3)
∂t col τ τ

modelo que se conoce como la aproximación del tiempo de relajación, donde f 0 = f 0 (r, p, t)
es una función de distribución que describe el equilibrio local a cada posición r y tiempo t. La
cantidad τ se llama tiempo de relajación, puede ser dependiente del momento. En ausencia
de términos de ujo, tenemos,

∂δf δf −t
=− ⇒ δf (r, p, t) = δf (r, p, 0)e τ . (22.4)
∂t τ
La distribución f se relaja a la distribución de equilibrio f0 en una escala de tiempo τ.

22.1.1. Ejemplo 1: Conductividad

Consideremos un gas de partículas cargadas de masa m y carga e, sujetas a un campo


eléctrico E a lo largo del eje z. En equilibrio, la función distribución de probabilidad que

195
describe al sistema es,

 3/2

0
f (r, v, t) = ρ(), ρ() = n e−β . (22.5)

es decir, la distribución de Maxwell-Boltzmann. En el caso de electrones, la distribución
1
de Fermi-Dirac, g ∼ β(−µ) . En presencia del campo eléctrico, la distribución cambia a
e +1
??
f (r, v, t), y aplicando la ecuación de Boltzmann, ecuación , considerando Fext = eE = eEẑ,

eE f − f0
L̂[f ] = =− (22.6)
m τ
El operador de Liouville aplicado a f,

∂f ∂f eE ∂f
L̂f = + eE + z (22.7)
∂t ∂z m ∂vz
Si el campo eléctrico E es pequeño, ∆f es chico (corriente pequeña),

<<1
z }| {
0
∂f ∂f ∂∆f
f − f0  1 ⇒ = +E = 0, (22.8)
∂vz ∂vz ∂vz
esto haciendo un desarrollo de Taylor y considerando únicamente el término lineal. Lo cual
resulta en,

 
τ eE ∂f 0 τ eE  0
 ∂f ∂  ,

∆f ≈ − =− (22.9)
m ∂vz m  ∂ ∂vz 
|{z}
mvz

∂f 0
∆f = −τ vz eE . (22.10)
∂
Por lo tanto la corriente debida al campo, en la dirección ẑ es,

Z
jz = e d3 v f vz , (22.11)

∂f 0
Z Z
3 0 2
jz = e d v f vz −e E d3 v vz2 τ (22.12)
∂
| {z }
en equilibrio hvz i=0

Finalmente la conductividad a partir de la ecuación 22.12,

∂f 0 2
Z
jz
σel = = −e2 d3 v τv (22.13)
E ∂ z
Denimos,
3/2
df 0


= −βn e−β = −βf 0 ,
d 2π
entonces,

Z
2
σel = β d3 v f 0 τ vz2 (22.14)

donde τ = τ (v) en general es función de la velocidad. Considerando un tiempo promedio τ


constante, la ecuación 22.14 se convierte en,

σel = βe2 τ hvz2 i,


1
que por el teorema de equipartición
2
mhvz2 i = 12 kT , se transforma en,

ne2
σel = τ (22.15)
m
expresión que nos da conocimiento del tiempo promedio entre choques.

Electrones en un metal
En un metal, el gas de electrones sigue la distrubición de Fermi-Dirac, y si el gas es muy
degenerado,

0
∂fFD
6= 0, (22.16)
∂
cerca del nivel de Fermi. Sólo los electrones cerca del nivel de Fermi contribuyen a la integreal
de la conductividad electrónica, lo que corresponde a τ = τF ,

ne2
σel = τF (22.17)
m
pero n es el número total de electrones, véase,

df 0
Z
2
σel = −e τF d3 v vz2 (22.18)
d
la integral de la ecuación 22.18, se puede escribir como,

∞ ∞ ∞
df 0 2 0
dvz df 0 1 ∞
Z Z Z ∞ Z
df dvz
dvz v = dvz vz2 = vz = f vz − f dvz

−∞ d z −∞ dvz d −∞ m dvz −∞
| {z } | m −∞
{z }
0 n
m

sustituyendo este resultado en la ecuación 22.18, recuperamos la ecuación 22.17.


22.1.2. Ejemplo 2: Viscosidad

Consideremos la situación esquematizada en la gura 23.1. Un uido llenando el espacio


entre dos placas largas localizadas en z = 0 y z = d, moviéndose debido a un fuerza Fext = F x̂
aplicada sobre la placa superior, mientras la placa inferior se mantiene ja. Se asume que la
velocidad del uido iguala localmente a la velocidad de las placas. Las partículas del uido en
la parte superior tienen una componente promedio en sus momentos hPx i = mUx . Conforme
nos movemos hacia la placa inferior, hacia valores menores de ẑ, el valor del momento va
cambiando. Entonces hay un ujo hacia abajo (a lo largo de −ẑ) de hPx i. Ya que el momento
a lo largo de x va disminuyendo cuando nos acercamos a z = 0, hay una fuerza de arrastre
viscosa (dirigida hacia −x̂) en la placa superior.

Figura 22.1: Fluido moviéndose entre dos placas. La placa superior se mueve con velocidad
u0 , mientras que la inferior esta ja. Debido a esto se forma un gradiente de velocidad en el
uido.

La presión a lo largo del eje z está dada por la expresión,

|Pz | = hpi = σzz = Pzz . (22.19)

La velocidad peculiar,

U = v − u,
por lo tanto hU i = 0, ya que u = v. El primer término del lado derecho corresponde a la
velocidad hidrodinámica y el segundo término a la velocidad promedio de una molécula. Por
lo tanto U = 0, ya que u = hvi.
Consideremos el ujo de la cantidad χ transportada por unidad de tiempo, por unidad
de área, a lo largo de una supercie con normal n̂,
σ χ (r, t) = nhn̂ · Uχi. (22.20)

En este caso la cantidad transportada es la componente x del momento mvx mientras que
la normal es n̂ · U = Uz . La fuerza por unidad de área, con normal ẑ aplicada por el uido
debajo de una supercie en x̂ es,

σ mvx = Pzx = nmhUz vx i


= nmhUz (ux + Ux )i = nm[hUz iux + hUz Ux i]
= nmhUz Ux i (22.21)

considerando en el último paso hUz i = 0. Entonces para todo el uido,

Z
Pzx = m d3 v f Uz Ux . (22.22)

R
De igual manera, la presión a lo largo de z es Pzz = p = m d3 v f vz2 .
En ausencia del gradiente de velocidades (cuando el sistema está en equilibrio), el uido
está moviéndose a velocidad constante ux . La función distribución de probababilidad que
describe el sistema es,

 3/2
mβ β 2
0
f (U ) = m e− 2 mU (22.23)

donde U = U (vx − ux , vy , vz ) es la velocidad peculiar. Nótese que hU i = 0. La ecuación 22.23
satisface, el operador de Liouville,

∂f 0
L̂[f 0 ] = + v · ∇f 0 + F · ∇ψ f 0 (22.24)
∂t
donde el primero y tercer términos del lado derecho valen cero. La ecuación de Boltzmann
es,

∂f (f − f 0 ) ∆f
vz =− =− . (22.25)
∂z τ τ
∂ux
Si consideramos que
∂z
 1, entonces,

∂f 0 ∂f 0 ∂ux
∆f = −τ = −τ vz . (22.26)
∂z ∂ux ∂z

Retomemos la ecuación 22.22. Si f0 es sólo función de |U |, es decir,

Z
d3 vf 0 Uz Ux = 0,

cuando una de las placas se mueve,


∂f 0 ∂Ux
Z
Pzx = −m d3 U Uz Uz τ vz (22.27)
∂Ux ∂z
que resulta en,

∂ux
Pzx = −η (22.28)
∂z
la cual es la ecuación de Poiseuille. El signo menos en la ecuación 22.28 viene de que el
sistema debe regresar al equilibrio. Despejando η y sustituyendo Pzx por la ecuación 22.27,
obtenemos,

∂f 0 ∂f 0
Z Z
3
η = −m dU Ux Uz τ vz = −m d3 U Ux Uz2 τ, (22.29)
∂Ux ∂Ux
e integrando por partes,


∂f 0
Z Z Z Z
η = −mτ dUy dUz Uz2 dUx Ux = mτ d3 U Uz2 f 0 = mτ hUz2 i. (22.30)
−∞ ∂Ux

Por lo tanto, la viscosidad es una correlación de velocidades. Nuevamente por el teorema de


1 2 1
equipartición, mhUz i = kT , obtenemos,
2 2

η = mτ hUz2 i = nkT τ . (22.31)

Considerando un líquido isotrópico, llegamos al resultado para la viscosidad,

n
η= mτ hU 2 i. (22.32)
3
Clase 23
Movimiento Browniano y la ecuación de
Langevin

23.1. Introducción
En 1827 el botánico Robert Brown descubrió que bajo el microscópio, los granos de polen
otando sobre un líquido experimentaban un movimiento irregular. Fué hasta 1905, cuando
los trabajos de Albert Einstein dieron una explicación teórica a este fenómeno, el cual podía
vericarse cuantitativamente por medio de experimentos, lo que dió lugar al origen de la
teoría atómica de la materia.

La teoría del movimiento Browniano fué posteriormente desarrollada por P. Langevin,


M. Smoluchowski, G. E. Uhlenbeck, L. S. Ornstein y muchos otros. En esta clase estamos
interesados estudiar el fenómeno del movimiento Browniano desde la perspectiva de la física
estadística de no equilibrio, considerando este fenómeno como un proceso estocástico.

La ecuación de movimiento de una partícula moviéndose inmersa en un uido es,

dv
m = F(t) + Fext (23.1)
dt
donde las fuerzas impulsivas F (t) son funciones que uctúan en el tiempo, debido a las
colisiones con las moléculas del medio.

Consideremos un ensamble de las distintas realizaciones de la caminata de la partícula,


es claro que,

hF (t)iens = 0 (23.2)

sin embargo, el segundo momento es diferente de cero, i. e. hF (t)2 i =


6 0. Las uctuaciones en
F (t) se pueden asociar con uctuaciones en la velocidad,

v(t) = hviens + v 0 (t)

donde v 0 (t) es el término que varía rápidamente. Integrando en un intervalo temporal τ,


resulta en,

201
Figura 23.1: Movimiento Browniano causado por los impactos incesantes de las moléculas del
gas en contra de un espejo suspendido en un gas diluido [21].

Z t+τ
m[v(t + τ ) − v(t)] = Fext τ + F (t0 )dt0 , (23.3)
t

donde la integral del lado derecho contribuye muy poco, porque F cambia de signo (uctúa)
muy rápido. Notemos que F es la función que tiende a restaurar el equilibrio, si Fext = 0 y
hvi =
6 0, a cierto tiempo F produce hvi = 0, por lo tanto, F debe contener una parte lenta
que restaure el equilibrio. Sea,

F = hF iens + F 0 ,

donde para una uctuación rápida hF 0 i = 0, entonces la parte lenta debe ser una función de
hviens de tal manera que hF iens = F , lo que lleva a F (0) = 0 en el equilibrio. Por lo tanto F
puede desarrollarse en serie de Taylor y a primer orden obtenemos,

F = −αhviens (23.4)

donde α es la constante de fricción y el signo menos se escribe explícitamente para que v → 0


cuando t → ∞, es decir, se restaure el equilibrio. En general, la parte lenta de la ecuación de
movimiento es,

hvi
m = Fext − αhvi,
dt
e incluyendo la parte rápida, obtenemos,

dhvi
m = Fext − αv + F 0 (t), (23.5)
dt
0
la cual es la ecuación de Langevin, donde F (t) es una función aleatoria con media cero
0
(hF (t)i = 0). Además, en el segundo término del lado derecho, aparecen las fuerzas disipa-
tivas que rompen la simetría de inversión en el tiempo (irreversibilidad)
23.2. Desplazamiento cuadrático medio
Considerando la ecuación de Langevin, ecuación 23.5, para el caso en una dimensión,
multiplicando la ecuación de Langevin por x, obtenemos,

 
dẋ 1 d(xẋ)
mx = m − ẋ − αxẋ + xF 0 (t)
2
dt 2 dt
Hagámos el promedio en el ensamble de realizaciones hF 0 i = 0, independiente de v y x, es
decir,

hxF 0 i = hxihF 0 i = 0 (23.6)

y además considerando el teorema de equipartición,

1 1
mhẋ2 i = kT
2 2
Entonces,

 
d(xẋ) dhxẋi
m = kT − αhxẋi = m
dt dt
Integrando obtenemos,

α kT
hxẋi = Ce− mt + (23.7)
α
α
donde γ ≡ m
tiene unidades de inverso de tiempo. Suponiendo que a t = 0, tenemos que
x= 0, y obtenemos el valor de C ,

kT
C+ =0
α
Por lo tanto, sustituyendo en la ecuación 23.7, obtenemos,

kT
hxẋi = (1 − e−γt ). (23.8)
α
El desplazamiento cuadrático medio está dado por,

 
2 2kT 1 −γt
hx i = t− e (23.9)
α γ
1
expresión que para t γ
y α = γm se reduce a,

kT 2
hx2 i = t (23.10)
m
por lo tanto, la partícula se mueve como si fuera libre para un tiempo muy pequeño, con
 21
velocidad v= kT
m
. Cuando t 1
γ
, e−γt → 0, por lo tanto,
2kT
hx2 i = t = 2Dt, (23.11)
α
la partícula se difunde como una caminante al azar, con una constante de difusión,

2kT
D≡ (23.12)
α
Para un electrón, con carga e, moviéndose en un campo eléctrico E, tenemos que la
ecuación de Langevin,

dv
m = eE − αv + F 0 (23.13)
dt
para
dv
dt
= 0, obtenemos heE − αv + F 0 i = 0, que resulta en,

e
eE − αhvi = 0, hvi = E
α
por lo tanto, la movilidad es,

hvi
µ≡ (23.14)
ξ
Por lo tanto, la relación de Einstein del problema es,

µ e
= . (23.15)
D kT
Clase 24
Ecuación de Fokker-Planck
Las uctuaciones en un sistema dan lugar a las disipaciones, y éstas a su vez a correlaciones
temporales entre diversas partes del sistema. Sea P (v, t) la probabilidad de encontrar a una
partícula con una velocidad entre v y v + dv al tiempo t. Estamos interesados en saber cómo
depende esta función del tiempo, cómo evoluciona. Para esto utilizaremos el ejemplo del
caminante al azar, descrito en términos de un proceso de Markov,

P (v, t) = P (v, t|v0 , t0 ). (24.1)

Si la partícula en un tiempo anterior t0 tenía una velocidad v0 , y el sistema es invariante


ante traslaciones en el tiempo, esto quiere decir que la función depende únicamente de la
separación s = t − t0 ,

P (v, t|v0 , t0 ) = P (s, v|v0 )


Si s → 0, entonces v → v0 ,

Ps→0 (v, s, t0 ) → δ(v − v0 ), (24.2)

A una separación temporal s pequeña, la probabilidad es practicamente cero. Cuando


s → ∞, esta probabilidad evoluciona al equilibrio a temperatura T y esto es la distribución
de Maxwell-Boltzmann,

  32
mβ 1 2
Ps→∞ (v, s|v0 ) → e− 2 mv . (24.3)

La probabilidad P, al evolucionar en t tiene que obedecer a una ecuación maestra en un
espacio continuo de velocidades. Para τ pequeño,

Z Z
dP
τ dv = − P (v, s|v0 )P (v1 , τ |v) dv dv1 + P (v1 , s|v0 )P (v, τ |v1 ) dv dv1
dt
Z
= −P (v, s|v0 )dv + P (v − ξ, s|v0 )P (v, τ |v − ξ)dξ, (24.4)

como τ es pequeño, la diferencia entre v1 y v es pequeña, y escribimos v1 = v − ξ .

205
La diferencia con la ecuación de Boltzmann esta en que la velocidad no puede cambiar
drásticamente. El segundo término del lado derecho de la ecuación 24.4, no decae tan drás-
ticamente con respecto a ξ , a menos que ξ  1 y podemos desarrollar en serie de Taylor
alrededor de P (v, s|v2 )P (v + ξ, τ |v),

X (−ξ)n ∂ n
P (v − ξ, s|v0 )P (v, τ |v − ξ) = [P (v, s|v0 )P (v + ξ, τ |v)] (24.5)
n=0
n! ∂v n

El primer término se anula con el primer término del lado derecho de la ecuación 24.4, los
siguientes términos son los momentos de la velocidad,

Z ∞
µn = dξ ξ n P (v + ξ, τ |v). (24.6)
−∞

Deniendo los momentos normalizados,

µn
Mn = , (24.7)
τ
obtenemos,


X (−1)n ∂ n
∂P
(v, s|v0 ) = n
Mn P (v, s|v0 ), (24.8)
∂s n=1
n! ∂v

pero h(∆v)n i tiende a cero más rápidamente que τ, si n > 2, entonces,

∂P ∂ 1 ∂2
= − (M1 P ) + (M2 P ) (24.9)
∂S ∂v 2 ∂v 2
la cual es la ecuación de Fokker-Planck. Estos momentos se pueden calcular para el movi-
α
miento Browniano con la ecuación de Langevin, con γ ≡ ,
m

1
h∆v(τ ) = −γv
M1 =
τ
1 2kT
M2 = h[∆v(τ )]i = γ (24.10)
τ m

donde γ es el cociente de disipación. Sustituyendo en la ecuación 24.9, obtenemos,

∂P ∂ γkT ∂ 2 P
= γ (vP ) + , (24.11)
∂s ∂v m ∂v 2
o bien,

∂P ∂P γkT ∂ 2 P
= γP + γv + , (24.12)
∂s ∂v m ∂v 2
que nos dice la evolución de la probabilidad asociada a la velocidad en el tiempo.
La ecuación de Langevin investiga la evolución de la velocidad media de una partícula
en el tiempo. La ecuación de Fokker-Planck investiga la evolución de la probabilidad de que
una partícula tenga cierta velocidad, por lo tanto, la ecuación de Fokker-Planck puede verse
como un ensamble de ecuaciones de Langevin.
Apéndice A
Sistema en no-equilibrio
Consideremos un ejemplo simple de un sistema dividido a su vez en dos subsistemas por
medio de una partición que permite un ujo débil de energía entre ambos, pero no el ujo
de cualquier otra cantidad conservada. El equilibrio entre los dos subsitemas está dado por
la igualdad en las temperaturas T1 = T2 . Si preparamos este sistema, de tal manera que
los subsistemas estén a distintas temperaturas, el sistema total estará en un estado de no
equilibrio y por lo tanto habrá una corriente de energía uyendo entre los subsistemas que
lleve al sistema al equilibrio. El problema es simple si la diferencia en las temperaturas es
pequeña (δT = T2 − T1 ), alrededor de una temperatura promedio T2 ≈ T1 ≈ T . Considerando
un desarrollo de Taylor, la corriente de energía JE entre los subsistemas será proporcional a
δT . En el equilibrio se debe cumplir que JE es cero cuando δT = 0. Entonces

JE = −KδT (A.1)

con JE positivo si la energía uye del subsistema 1 al 2 y K un coeciente cinético que


depende de la intesidad del acoplamiento entre los dos subsistemas. La ecuación A.1 puede
usarse para describir un proceso de relajación. La corriente en la energía da la razón en el
incremento de energía en un subsistema y la razón de disminución en el otro. Ya que las
otras cantidades conservadas están jas, las temperaturas de los subsistemas cambiarán a
una razón proporcional a la razón del cambio de la energía,

dT1 1 dE1 JE
= =−
dt C1 dt C1
dT2 1 dE2 JE
= = , (A.2)
dt C2 dt C2
donde Cx es la capacidad caloríca del subsistema x, la cual es una constante de proporcio-
nalidad que relaciona pequeños cambios en la temperatura a pequeños cambios en la energía.
Es importante notar lo siguiente, ya que la relajación entre los subsistemas es lenta, cada
subsistema puede considerarse en equilibrio interno, de tal forma que la constante de propor-
cionalidad entre los cambios de la energía y temperatura es el valor de equilibrio del calor
especíco:

 
dT K 1 1 1
δ =− δT con = + , (A.3)
dt C C C1 C2

209
con C la capacidad caloríca combinada efectiva. Integrando la ecuación A.3, obtenemos un
relajamiento exponencial en el tiempo, caracterizado por un tiempo de relajación,

C
τ= , (A.4)
K
dado en términos de cantidades macroscópicas.

Debido a que la corriente en la energía es el proceso que lleva la aproximación al equilibrio,


la entropía se incrementa durante la relajación, entonces,

dS dS1 (E1 ) dS2 (E2 )


= +
dt dt dt
1 dE1 1 dE2
= +
T1 dt T2 dt
 2
δT δT
≈ −JE 2 = K (A.5)
T T

donde en el último paso nos quedamos únicamente con términos a primer orden en δT .
Entonces considerando la segunda ley de la termodinámica, que nos dice que la entropía se
incrementa cuando un sistema aislado regresa al equilibrio, el coeciente cinético K debe ser
positivo.

Estos resultados pueden ser fácilmente generalizados para un sistema continuo. Conside-
rando que únicamente que la temperatura y energía varían, un sistema macroscópico está
en equilibrio cuando la temperatura es uniforme en el espacio. Cuando la temperatura varía
espacialmente habrá un ujo de energía, y para perturbaciones pequeñas y que varían lenta-
mente la corriente en la energía será proporcional a los gradientes de la temperatura. Es útil
introducir una densidad en la energía e (energía por unidad de volúmen), y la densidad de

Rcorriente de energía jE (de tal forma que la energía que uje a través de la supercie S es
j · dS). La conservación de la energía es,
S E

∂e
= −∇ · jE (A.6)
∂t
donde la corriente de energía es proporcional al gradiente espacial de la temperatura,

jE = −k∇T (A.7)

donde k es la conductividad térmica. Nuevamente la segunda ley impone restricciones en k,


ya que debe ser positivo.

Las ecuaciones A.6 y A.7 son cerradas si conocemos cómo depende la densidad de ener-
gía en la temperatura. Esta relación es la misma que en el equilibrio, considerando el calor
especíco apropiado. Las ecuaciones dinámicas son lineales y para un sistema físico nito la
evolución será la suma de los modos (decayendo exponencialmente) del sistema. Es impor-
tante notar que un sistema innito tienen un número innito de modos, y la relajación puede
ser no exponencial.

La ecuación A.6 es la ecuación de conducción del calor. Si suponemos que la conductividad


térmica k es independiente de la temperatura y que además relaciona los cambios en la
densidad de energía e a cambios en la temperatura por medio del calor especíco por unidad
de volumen C, también independiente de la temperatura, las ecuaciones A.6 y A.7 pueden
combinarse en una única ecuación,

∂T
= κ∇2 T (A.8)
∂t
donde κ = k/C . Esta ecuación es una ecuación de difusión dependiente del tiempo para la
temperatura. De igual manera, la densidad de energía e satisface una ecuación idéntica. El
coeciente κ es la difusividad térmica (dimensiones de una constante de difusión).
Apéndice B
Teorema de uctuación disipación
En el siguiente ejemplo consideraremos una partícula Browniana inmersa en un uido y
conectada a un resorte, véase la gura B.1. La variable x también podría denotar la posición
del centro de masa de la carga eléctrica, como veremos a continuación.

Figura B.1: Partícula Browniana inmersa en un uido uctúante y conectada a un resorte.

Habíamos dicho ya que el teorema de uctuación disipación establece que una uctuación
espontánea del equilibrio decae como una perturbación impuesta externamente. Considere-
mos una pequeña perturbación h  kT al hamiltoniano H del sistema. Para t < 0 el sistema
esta gobernado por el hamiltoniano H + h, mientras que para t > 0, está gobernado por H .
Sea h = −F x, donde F es una fuerza externa, que podríamos considerar F = QE , con Q
una carga eléctrica y E un campo eléctrico. La traza de x está dada por,

Z X
Tr x= dωx = hn|x|ni, (B.1)
n

donde dω representa una volumen innitesimal en el espacio fase. El promedio en el equilibrio,

Tr {x(q, p)e−βH }
hxi = Tr {x(q, p)f (q, p)} = (B.2)
Tr e−βH

donde f (q, p), representa la distribución de probabilidad en el espacio fase y x puede ser
cualquiera de las q 's. La variable x se dene de tal forma que hxi = 0. La función de correlación
es,

213
Z
c(t) = hx(t)x(0)i = dω x(t; q, p) x(0; q, p)f (q, p) (B.3)

donde x(t; q, p) es el valor de x al tiempo t. Es importante notar que el Hamiltoniano del


sistema ja la evolución de todas las variables a partir de las condiciones iniciales dadas. El
valor medio de x después de que la fuerza externa se elimina es,

Tr {x(t; q, p)e−β(H−F x) }
x(t) = (B.4)
Tr e−β(H−F x)

donde el promedio se considera con el factor de Boltzmann e−β(H−F x) , ya que la condición


inicial se dene con F actuando sobre el sistema. Como βF x  1, podemos desarrollar el
numerador y considerar el primer orden del desarrollo,

Tr {x(t; q, p)e−β(H−F x) } ≈ Tr {x(t; q, p)e−βH [1 + βf x(0; q, p)]}


= Tr {x(t; q, p)e−βH } + Tr {x(t; q, p)x(0; q, p)βF e−βH }
= βF hx(t)x(0)i Tr e−βH , (B.5)

donde se ha considerado que,

Tr {x(t; q, p)e−βH }
= hx(t)i = hxi = 0 (B.6)
Tr e−βH

es independiente del tiempo. Similarmente,

1 1 − F hxi 1
≈ = . (B.7)
Tr e−β(H−F x) Tr e−βH Tr e−βH

Combinando las ecuaciones B.5 y B.7 obtenemos,

x(t) = βF hx(t)x(0)i, (B.8)

para t > 0. La ecuación B.8 tiene la forma del teorema de uctuación disipación. Sin embargo,
la perturbación h = −F x no es macroscópica, ya que la consideramos más pequeña que kT ,
y por lo tanto, x no es más grande que cualquier uctuación espontánea. Sin embargo, si el
sistema es lineal, de tal forma que x ∝ F , aún cuando h  kT , entonces,

x = F r(t),
donde r(t) es una función respuesta (si F está en el régimen lineal). Esta relación debe ser
válida para F pequeño, de tal forma que,

r(t) = βhx(t)x(0)i. (B.9)

Esto signica que esta función r(t) es válida para toda F siempre y cuando la perturbación
macroscópica sea lineal, lo que signica que F debe ser tan pequeña de tal forma que no exceda
el régimen lineal del resorte y no genere efectos hidrodinámicos no lineal cuando la fuerza
externa se anule. Bajo estas condiciones, el teorema de uctuación disipación está dado por
la ecuación B.8.
Apéndice C
Relaciones de reciprocidad de Onsager
Consideremos dos contenedores conectados por un hueco pequeño a través del cual puede
uir un gas. Si el ancho y altura del hueco es del orden del camino libre medio del gas, no
se observarán efectos hidrodinámicos. Si hay diferencia de presiones entre los subsistemas
puede haber ujo de masa, similarmente la diferencia en las temperaturas ocasionará ujo
de calor. Esto se conoce como efecto termomecánico y representa el efecto de un fenómeno
cruzado donde la fuerza de conddución de una corriente impulsa otra fuerza y viceversa.
Las relaciones de reciprocidad de Onsager establecen que estos acoplamientos cruzados son
iguales (o recíprocos) en un sentido cuantitativo. Otro ejemplo de fenómeno de acoplamiento
cruzado ocurre entre líquidos como el aceite y agua, que uye en un medio poroso y son
forzados por diferencias individuales en las presiones.

Figura C.1: Lars Onsager (1903-1976).

Lars Onsager, gura C.1 estudió el acoplamiento cruzado entre un ujo de calor en una
dirección y los gradientes de temperatura en la otra dirección en un cristal anisotrópico.
En 1931 publicó un resultado más general que relaciona los ujos y fuerzas en sistemas
termodinámicos fuera de equilibrio, pero donde existe una noción de equilibrio local. Este
resultado está basado en el hecho de que la microdinámica subyacente es reversible en el
tiempo (esto prueba la reciprocidad en fenómenos macroscópicos e irreversibles). Por estos
trabajos, Onsager recibió el premio nobel de química en 1968.

Denotemos las cantidades que están acopladas en el sistema con xi . Por simplicidad,
supondremos que estas cantidades aparecen linealmente en el hamiltoniano, de tal manera
que el teorema de uctuación-disipación sea aplicable. En el caso de un ujo de dos fases,

215
la velocidad del ujo puede identicarse con la posición de un pistón sujeto a una fuerza
externa constante.

La producción de entropía en un valor de no equilibrio x estará dada por la expresión,

∂S(x)
Ṡ = ẋi = fi ẋi (C.1)
∂xi
donde fi es la fuerza termodinámica y ẋi es el ujo termodinámico conjugado. Si el sistema
está aislado, la probabilidad de encontrar al sistema a un valor particular x es proporcional
al número de microestados compatibles con,

eS(x)/k
P (x) = R ∞ (C.2)
−∞
dx eS(x)/k
donde la integración se efectúa sobre todas las xi 's. Se puede obtener una relación conveniente
entre xi y fi . Calculando el promedio en el equilibrio, a partir de la distribución anterior
obtenemos,

R∞ R∞
−∞
dx xi fj eS(x)/k −∞
dx xi ∂S(x)
∂xi
eS(x)/k
hxi fj i = R∞ = R∞
−∞
dx eS(x)/k −∞
dx eS(x)/k

xi eS(x)/k |∞
R S(x)/k
−∞ − kδij −∞ dx e
= R∞
−∞
dx eS(x)/k
= −kδij (C.3)

donde se ha integrado parcialmente y descartado el término de la frontera, ya que los valores


extremos de xi tienen una probabilidad muy pequeña. Supongamos que hay una relación lineal
entre los ujos y las fuerzas. Para una fuerza relacionada linealmente con el desplazamiento
(fuerza tipo Hooke), las uctuaciones son lineales y podemos escribir,

ẋi = Lik fk (C.4)

que corresponden a leyes macroscópicas lineales. Podemos obtener información sobre los
coecientes Lik a partir de la naturaleza de las funciones de correlación hxi (t)xj (0)i. Es
importante notar que en la descripción microscópica, la evolución temporal de xi (t) y todos
los grados de libertad microscópicos están gobernados por un Hamiltoniano que garantiza la
reversibilidad temporal,

hxi (t)xj (0)i = hxi (−t)xj (0)i. (C.5)

Usando la invariancia traslacional en el tiempo, el promedio en equilibrio cumple,

hxi (t)xj (0)i = hxi (−t)xj (0)i = hxi (t − t)xj (t)i = hxi (0)xj (0)i. (C.6)

Entonces,

hxi (t)xj (0)i0 = hxi (0)xj (t)i0 , (C.7)


donde xi (t) es el promedio sobre todas las evoluciones temporales que comienzan con xi =
xi (0). Restando hxi (0)xj (0)i en ambos lados de estas ecuaciones, sustituyendo t por τ y
dividiendo por τ obtenemos,

   
xi (τ − xi (0)) xj (τ − xj (0))
xj (0) = xi (0) (C.8)
τ 0 τ 0

donde τ representa un tiempo mucho más grande que el tiempo libre medio molecular y más
pequeño que los tiempos de decaimientos macroscópicos. Entonces, identicamos,

xi (τ ) − xi (0)
= ẋi , (C.9)
τ
y sustituyendo la ecuación C.4, obtenemos,

Lik hfk xj i = Ljk hfk xi i. (C.10)

Usando la ecuación C.3, obtenemos,

Lij = Lji , (C.11)

las cuales son las relaciones de reciprocidad de Onsager. La característica más importante
de estas relaciones es que ligan una simetría de respuesta macroscópica irreversible a la
reversibilidad de la microdinámica subyacente.

Para aplicar las relaciones de Onsager, primero se deben identicar los ujos y fuerzas
y esto se hace determinando la producción de entropía, ecuación C.1. Como esta ecuación
involucra sólo los productos f i xi , existe una libertad para denir los ujos y fuerzas.
Apéndice D
Teoría cinética

D.1. El teorema de Liouville


El teorema de Liouville establece que dado un sistema Hamiltoniano, un conjunto de
puntos en el espacio fase que describen estados del sistema, mantienen su densidad en todo
momento, es decir,

df ∂f
= + {f, H} = 0,
dt ∂t
donde f = f (q i , pi , t) es la densidad de puntos en el espacio fase (o bien, una distribución
de probabilidad), H es la función Hamiltoniana del sistema y el símbolo {·, ·} se reere al
paréntesis de Poisson. Podemos pensar en un ensemble del sistema cuyo número de réplicas
forman una densidad de puntos arbitraria en el espacio fase. Cada uno de los puntos traza
una trayectoria y esto se reere a una partícula interactuando con un potencial exterior.

Si se sobrepusieran todas las réplicas del ensemble sin permitir interacción entre ellas, la
dinámica de las partículas correspondería a un sistema ideal. En el momento de considerar
las interacciones entre las partículas tendemos que el teorema de Liouville ya no es aplicable
y por lo tanto,

 
df ∂f ∂f
= + {f, H} = , (D.1)
dt ∂t ∂t colisiones
el segundo miembro de la ecuación, que describe el cambio de densidad en el espacio fase
debido a las colisiones o interacciones entre partículas, en general es distinto de cero.

D.2. El operador de colisiones


Para obtener una expresión del segundo miembro de la ecuación D.1, es necesario estudiar
la mecánica de las colisiones [22]. Para que una partícula sea dispersada por otra es necesario
que ambas estén sucientemente cercanas una de la otra. Al momento de la colisión, dado que
el radio de interacción entre las partículas es menor a la distancia entre sus centros, podemos
considerar que las partículas están contenidas en la misma celda del espacio fase. Una de las
0 0
partículas tendrá momento p = {pi } y la otra p = {pi }

219
Posterior a la colisión, ambas partículas aún permanecen dentro de la misma celda del
espacio fase, sin embargo, intercambiarán momento y al nalizar la interacción sus momentos
0
serán P y P . Estos momentos de cada partícula, posteriores a la interacción, dependen de
los momentos iniciales, de la geometría y de los potenciales de interacción entre ellas.

Estamos interesados en pares de partículas con momentos p y p0


tal que después de la
0
colisión obtienen momentos distintos de p y pares de partículas con momentos P y P tal
que después de la colisión una de ellas adquiere momento p. Las de primer tipo reducen la
distribución de partículas con momento p con coordenadas q . Podemos decir entonces que el
ujo neto de particulas es,

df
= C[f ] := −δR− + δR+ ,
dt
con

Z
δR− = F[(p, p0 ) 7→ (p00 , p000 )]dpdp00 ,

Z
δR+ = F[(P, P 0 ) 7→ (p, p00 )]dP dP 00 ;

que describen al primer y segundo tipo de ujo respectivamente. Podemos dar una expresión
de la distribución de los pares de partículas F(p1 , p2 ) suponiendo que la probabilidad de
encontrar a las partículas con momentos p1 y p2 no está correlacionada, es decir, la podemos
separar en un producto de probabilidades,

F(p1 , p2 ) ≈ f (p1 )f (p2 ).


esta aproximación se le conoce como Stosszahlansatz o suposición de caos molecular.
Para ambos ujos de partículas, en la integración se debe ltrar todas las partículas que
obtienen momentos no deseados después de la colisión. Aquí es donde se toma en cuenta la
geometría de las moléculas, la forma de la interacción y las velocidades relativas en forma
sintetizada a través del diferencial, llevando a la expresión

Z Z
0 0
δR− = f (p)f (p )σdΩgdp y δR+ = f (P )f (P 0 )σdΩgdP 0

para los ujos, donde σ es la sección diferencial de dispersión, g es la diferencia de velocidades


entre los pares de partículas y dΩ es el diferencial de ángulo sólido. Finalmente llegamos a
la ecuación de Boltzmann,

  Z h
∂f X ∂H ∂f ∂H ∂f i
+ i
− i = f (P )f (P 0 ) − f (p)f (p0 ) σdΩgdp0 , (D.2)
∂t i
∂pi ∂q ∂q ∂pi

que también se puede escribir de forma compacta con coordenadas cartesianas y en forma
vectorial de la siguiente forma,
Z h
∂f 1 i
+ v · ∇x f + F · ∇v f = f (P )f (P 0 ) − f (p)f (p0 ) σdΩgdp0 ;
∂t m
para cualquier fuerza F, no necesariamente proveniente de un potencial, donde m denota la
masa de las partículas.

D.3. Estadística de partículas


La función f es linealmente integrable, f ∈ L1 , además se pueden obtener cantidades
macroscópicas como con una distribución de probabilidad, esto es,

R
A(q, p)f (q, p) dq dp
hAi = R .
f (q, p) dq dp
Naturalmente, para que las cantidades físicas tenga el signicado usual, en muchas ocasiones
será necesario hacer la traducción de coordenadas generalizadas a cartesianas. Para este
propósito adoptaremos el sistema cartesiano de aquí en adelante dejando coordenadas y
momentos generalizados para posición y velocidad como cantidades vectoriales,

(q i , pi ) 7→ (x, v).

D.3.1. Momentos de la distribución de partículas

Los primeros momentos de la función de distribución de partículas f tienen signicado


físico. Cuando nos referimos a un sistema físico que está constituido por N partículas estamos
diciendo que,

Z
f (x, v)d3 xd3 v = N,

por lo tanto, podemos deducir que integrando únicamente sobre los momentos, tendremos la
densidad de partículas,

Z
n(x) := f (x, v)d3 v. (D.3)

La densidad de partículas n está relacionada con la densidad de masa a través de

mn(x) = ρ(x).
El siguiente caso, o el primer momento de la distribución de partículas, está relacionado
con la velocidad peculiar u(x), esto es,

Z
n(x)u(x) := vf (x, v)d3 v. (D.4)

La densidad de momento se obtiene al multiplicar por la masa de las partículas. Del


segundo momento de la distribución se obtiene el tensor de densidad de ujo de momento,
Z
Π := vvf (x, v)d3 v − nuu, (D.5)

ww para un vector de dimensión K , es el producto


donde el producto de los vectores (p.ej.
matricial que produce una matriz de K × K (más explícitamente, es el producto matricial de
un vector columna con un vector renglón). La varianza de la distribución de partículas en v
es,

Z
3
mkB T (x) = ∆v 2 = (v 2 − u2 )f d3 v = TrΠ, (D.6)
2
donde kB = 86.17 µeV K−1 es la constante de Boltzmann y T es la temperatura local.

D.3.2. Invariantes colisionales

A partir de la integral de colisiones,

Z
C[f ] = [f 0 f10 − f f1 ]σdΩgd3 v1 ,

podemos denir el funcional

Z
I[φ] := φ(v)C[f ]d3 v. (D.7)

Haciendo explícito el argumento de la integral, es fácil ver que el funcional es invariante


ante las siguientes permutaciones,

(v, v1 ) → (v1 , v); (v, v1 ) → (v0 , v10 ); (v0 , v10 ) → (v10 , v0 ).

Esto proviene de las simetrías de las colisiones, cada una de las permutaciones anteriores
tiene representación física, como simetría ante inversión temporal en el segundo caso, e in-
distinguibilidad de las partículas en los demás casos. Esto implica que el funcional se puede
expresar para diferentes variables como

I[φ(v)] = I[φ(v1 )] = −I[φ(v0 )] = −I[φ(v10 )],

y debido a la linealidad del funcional, podemos reescribirlo de la siguiente manera,

1
I[φ] = I[φ + φ1 − φ0 − φ01 ].
4
De esta manera, cualquier función ψ = ψ(v) que satisface

ψ + ψ1 = ψ 0 + ψ10 ,

tendrá como consecuencia que I[ψ] = 0, entonces a ψ se le llama invariante colisional. Las
cantidades conservadas en una colisión son,
m + m = m + m,
mv + mv1 = mv0 + mv10 ,
1 2 1 2 1 02 1 02
mv + mv1 = mv + mv1 ;
2 2 2 2

esto es, la masa, el momento y la energía total resultan hacer al funcional nulo,

I[1] = I[v] = I[v 2 ] = 0.

D.3.3. Flujo de masa

Tomaremos la ecuación de Boltzmann la integraremos con respecto a la velocidad y la


multiplicaremos por la masa de las partículas,

Z  
df
m = C[f ] d3 v.
dt
El segundo miembro de la ecuación resulta ser un invariante colisional y directamente lo
podemos igualar a cero. Para el primer miembro tenemos

Z  
∂f 1
m + v · ∇x f + F · ∇v f d3 v
∂t m
En el primer término, la parcial puede ser intercambiada con la integral, entonces tenemos
que,

Z
∂ ∂ρ
mf d3 v 7→ .
∂t ∂t
El segundo término lo podemos expresar como

Z
∇ · (mf v)d3 v 7→ ∇ · (ρu),

gracias a que ∇ · (f v) = v · ∇f debido a que v no depende de la posición. El último término


a ser integrado es,

Z Z Z
3 3
F · ∇v f d v = ∇v · (f F)d v − f ∇v · Fd3 v

Para sistemas hamiltonianos, las fuerzas no dependen de la velocidad de las partículas,


sobre todo tratándose de fuerzas externas. Usando el teorema de la divergencia, tenemos
que ese término se desvanece dado que se espera que f se desvanezca rápidamente con altas
velocidades,

I
f F · ds = 0.
Juntando todo tenemos,

∂ρ
+ ∇ · (ρu) = 0, (D.8)
∂t
que es la ecuación de la conservación de la masa conocida como la ecuación de continuidad.

D.3.4. Flujo de impulso

El siguiente invariante colisional lo aplicaremos de manera similar, multiplicando por mv


la ecuación de Bolzmann e integrando respecto a las velocidades,

Z  
df
mv = C[f ] d3 v.
dt
Desarrollando la derivada total y simplicando de igual manera que en caso del ujo de masa,

Z
∂f 3 ∂
mv d v 7→ (ρu),
∂t ∂t
Z
mv(v · ∇f )d3 v →7 ∇ · Π + ∇ · (ρuu),
Z
ρ
vF · ∇v f d3 v → 7 − F;
m

para la última de las igualdades hemos hecho uso de la regla v · ∇v f = ∇v · (vf ) − f 1 y


usado el teorema de la divergencia. Juntando los tres términos llegamos a

∂ ρ
(ρu) + ∇ · (ρuu) = F − ∇ · Π.
∂t m
Usando la ecuación de continuidad e identicando al tensor de ujo de momento de la si-
guiente forma,

Π = P 1 − σ,

(con σ es el tensor de esfuerzos y P la presión escalar) llegamos a la ecuación de Euler:


 
∂u
ρ + u · ∇u = −∇P + ∇ · σ + g, (D.9)
∂t

donde g = g(x) = F/m.

D.3.5. Flujo de energía

Por último, el segundo momento de la distribución, que también es un invariante colisional,


nos da la ecuación de conservación de la energía,
Z  
1 2 df
mv = C[f ] d3 v.
2 dt
Deniremos la densidad de energía cinética local, eK como,

Z
1 2 3
mv f d v = eK (x).
2
Por un análisis similar a los anteriores se puede mostrar que,

∂eK
+ ∇ · q = ρg · u, (D.10)
∂t
R
donde q := mv 2 f d3 v / 2 es el vector de ujo de calor.

D.4. Equilibrio
D.4.1. El teorema H de Boltzmann

Considere el funcional

Z
H [f ] = f ln f d3 v d3 x,

para conocer la evolución en el tiempo de este funcional, aplicaremos la derivada total respecto
al tiempo, resultando en

dH δH df
= = (1 + ln f )C[f ],
dt δf dt
por regla de la cadena de la derivada funcional. Ahora bien, vamos a demostrar que la cantidad
(1 + ln f )C[f ] siempre es menor o igual a cero. Tomando la integral respecto a las velocidades
tenemos que

Z
(1 + ln f )C[f ]d3 v = I[1 + ln f ] = I[1] + I[ln f ];

con I la integral de colisiones. Por un lado I[1] = 0 por ser un invariante colisional y por el
otro,

f 0 f10
   
1 0 0 1 f f1 1
I[ln f ] = (I[ln f ] + I[ln f1 ] − I[ln f ] − I[ln f1 ]) = I ln 0 0 = − I ln .
4 4 f f1 4 f f1

Haciendo explícita la integral colisional,

f 0 f10
Z  
1
− [f 0 f10 − f f1 ] ln σdΩgd3 v1 d3 v,
4 f f1
podemos observar que el integrando es de la forma (X − Y ) ln(X/Y ) el cual, para todo valor
de X > 0 y Y > 0 es una cantidad mayor o igual a cero. Comparando los integrandos,
podemos decir que

f 0 f10
Z  
1
(1 + ln f )C[f ] = − [f 0 f10 − f f1 ] ln σdΩgd3 v1 ≤ 0.
4 f f1
En conclusión,

dH
≤ 0, (D.11)
dt
lo cual implica que H es una cantidad que decrece en el tiempo y por lo tanto la dinámica
de f describe un proceso irreversible.

El funcional H está relacionado con la entropía (de Shannon) dado que podemos rela-
cionar f 7→ N p, con p = p(x, v), la probabilidad de tener a una partícula del sistema en una
celda del espacio fase. Entonces, tenemos que

Z
H = (N p) ln(N p)d3 xd3 v = N ln N − N S,

o bien, la entropía está dada por

H
S = kB ln N − kB . (D.12)
N

No es de sorprender que la cantidad H sea una función que alcance el mínimo en equilibrio
al estar asociada a la entropía, sin embargo, lo que es sorprendente es que esto surja de
una teoría que en sus fundamentos es ulteriormente reversible dado que las colisiones son
invariantes ante inversiones temporales.

D.4.2. La Maxwelliana local

La distribución de equilibrio se obtiene de la derivada funcional de H, es decir, cuando

dH
= 0,
dt
podemos decir que la distribución ha alcanzado el equilibrio al menos localmente. Buscaremos
entonces la función f eq tal que H [f eq ] sea un extremal. La distribución de equilibrio, al igual
que cualquier otra que satisfaga la ecuación de Boltzmann, debe cumplir con las cantidades
físicas que incluiremos en la búsqueda del extremal de H como constricciones. Entonces,
denimos

 Z  Z Z 
H[f, λν ] := H [f ] − λ1 N − f d 3 3
xd v − λ2 · nud x − 3 3 3
vf d xd v
Z Z 
3kB T 3 1 2 2 3 3
−λ3 d x+ (v − u )f d xd v .
2m 2
Lo que lleva a

δH = 0 = (1 + ln f ) + λ1 + λ2 · v + λ3 v 2 + cte.,
es decir,

f eq = exp[−A − B · v − Cv 2 ],
para algunas constantes A, B y C que se pueden obtener al evaluar las constricciones, esto
es, de los primeros momentos de la distribución. Uno puede vericar que la expresión para
la distribución de equilibrio es,

m(v − u(x, t))2


 
n(x, t)
f eq (x, v, t) = exp − , (D.13)
[2πkT (x, t)/m]3/2 2kT (x, t)

que es la bien conocida distribución de Maxwell-Boltzmann. Nótese que n, u y T son


variables que dependen de la posición, es por esto que se le dice local a la distribucion. Si
el sistema ha llegado a un equilibrio global o absoluto, la dependencia de las coordenadas y
del tiempo se pierde, pero la distribución conserva la misma forma.
Bibliografía
[1] Herbert B. Callen. Thermodynamics and an Introduction to Thermostatistics. Wiley
Ed. 2nd Edition, 1985.

[2] Charles Poole Herbert Goldstein and John Safko. Classical Mechanics. Addison-Wesley,
2010.

[3] Eleftherios N. Economou. Green's Functions in Quantum Physics. Springer, 2006.

[4] Henri Poicaré. Science and Method, 1908. Available online at http://www.stat.cmu.
edu/~cshalizi/462/readings/Poincare.pdf.
[5] Frederick Reif. Fundamentals of statistical and thermal physics. Waveland Pr Inc, 2008.

[6] Richard C. Tolman. The principles of Statistical Mechanics. Dover Publications, 2010.

[7] Ya. G. Sinai. On the foundation of the ergodic hypothesis for a dynamical system of
statistical mechanics. Doklady Akademii Nauk SSSR, 153:12611264, 1963.

[8] Donald A. McQuarrie. Statistical Mechanics. University Science Books, 2000.

[9] A. Sommerfeld. Zur elektronentheorie der metalle auf grund der fermischen statistik.
Zeitschrift für Physik, 47(1-2):132, 1928.

[10] J. von Neumann. Mathematische begründung der quantenmechanik. Göttinger Na-


chrichten, pages 157, 1927.

[11] Philip W. Baumeister. Optical absorption of cuprous oxide. Physical Review, 121:359,
1961.

[12] Hyperphysics. Hydrogen Molecule, 2015. Available online at http://hyperphysics.


phy-astr.gsu.edu/hbase/molecule/hmol.html.
[13] Assa Auerbach. Interacting Electrons and Quantum Magnetism. Springer, 1998.

[14] A. Trias and Felix Yndurain. Exact solution of the bethe lattice with long-range inter-
actions: Application to a heisenberg ferromagnet. Physical Review B, 28:2839, 1983.

[15] Giuseppe Morandi, F. Napoli, and E. Ercoless. Statistical Mechanics: An Intermediate


Course. World Scientic, 2001.

[16] L. P. Kadano. Kadano Scaling, 2005. Available online at http://www.physics.fsu.


edu/courses/Spring05/phy6938-02/kadanoff.pdf.

229
[17] Youtube link. Supercooled Water, 2011. Available online at https://youtu.be/
Fot3m7kyLn4.
[18] Youtube link. Superheated Water Explodes in Microwave, 2010. Available online at
https://youtu.be/2FcwRYfUBLM.
[19] Wikipedia link. Knight Shift, 2015. Available online at http://en.wikipedia.org/
wiki/Knight_shift.
[20] Wikipedia link. Chemical Shift, 2015. Available online at http://en.wikipedia.org/
wiki/Chemical_shift.
[21] R. Kubo, M. Toda, and N. Hashitsume. Statistical Physics II: Nonequilibrium Statistical
Mechanics. Springer-Verlag, 2003.

[22] R. L. Libo. Kinetic Theory: Classical, Quantum, and Relativistic Descriptions. Sprin-
ger; 3rd edition, 2003.

También podría gustarte