Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Índice general
1. Revisión de termodinámica 9
1.1. Sistemas termodinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.6.2. Entalpía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3
3.2.3. Transformaciones unitarias innitesimales . . . . . . . . . . . . . . . 31
3.7. Formalismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7.2. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4. Probabilidad 45
4.1. Teorema del límite central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7. Ensambles 65
7.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.3.1. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.3.2. Ensamble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
15.Magnetismo 121
15.1. Magnetismo de los átomos y electrones libres . . . . . . . . . . . . . . . . . . 122
Bibliografía 227
Clase 1
Revisión de termodinámica
En mecánica, el estado de un sistema está completamente especicado a un instante
de tiempo dado si la posición y la velocidad de cada partícula (elemento de masa) del que
compone al sistema son conocidas. Para un sistema compuesto de un número N de partículas
esto requiere el conocimiento de 6N variables. Los sistemas termodinámicos se componen de
un número muy grande de partículas (átomos o moléculas), por lo que para especicar el
6
estado del mismo se requieren conocer 6N variables, donde N ∼ 10 (número de Avogadro).
Más aún, resulta innecesaria dicha descripción, ya que las cantidades con las que se trabajan
en termodinámica son propiedades promedio del sistema, es decir, un conocimiento detallado
del movimiento de cada partícula es irrelevante.
9
geométrico relevante. Sólo en casos en los que la razón entre la supercie y el volumen es
muy grande (por ejemplo una substancia fínamente granulada), es necesario considerar la
supercie.
La termodinámica también puede ser denida como el estudio de la energía, las transfor-
maciones de la energía y sus relaciones con la materia. La energía se ve como la habilidad de
causar cambios. Es denotada generalmente con la letra U , y es una cantidad extensiva que es
la manifestación de la ley de conservación de energía, también conocida como primera ley de
la termodinámica, que simplemente establece que durante una interacción, la energía puede
cambiar de una forma a otra, pero su cantidad total permanece constante.
U =W +Q (1.1)
Los estados de equilibrio tienen la propiedad de no variar siempre y cuando las condiciones
externas permanezcan sin cambio. Así, por ejemplo, un gas encerrado en un contenedor de
volumen constante está en equilibrio cuando su presión es constante y su temperatura es
igual a la del medio que lo rodea.
Calor
El ujo de calor hacia un sistema durante cualquier proceso (a número de moles cons-
tante) es simplemente la diferencia en la energía interna entre los estados iniciales y nales,
disminuida por el trabajo hecho durante el proceso. Para el trabajo mecánico, cuya expresión
cuantitativa es δWM = −P dV , el trabajo cuasiestático se dene por la ecuación,
Postulado II: Existe una función (llamada entropía) de los parámetros exten-
sivos de cualquier sistema [cerrado] compuesto, denida para todos los estados
de equilibrio y que tiene la siguiente propiedad: Los valores asumidos por los
parámetros extensivos en ausencia de una restricción externa son aquéllos que
maximizan la entropía sobre la variedad de los estados de equilibrio restringidos.
X
S= S α, (1.4)
α
∂S
S(λU, λV, λNi ) = λS(U, V, Ni ), > 0. (1.5)
∂U V,Ni
X ∂U
∂U ∂U
dU = dS + dV + dNr . (1.6)
∂S V,N1 ,··· ∂V S,N1 ,··· r
∂Nr V,Nk
Las derivadas parciales son los parámetros intensivos y la siguiente notación es usada con-
vencionalmente,
∂U
=T temperatura
∂S V,N1 ,···
∂U
− =P presión
∂V S,N1 ,···
∂U
= µr potencial químico
∂Nr V,Nk
Reescribiendo,
X
dU = T dS − P dV + µr dNr . (1.7)
r
δQ = T dS. (1.8)
Tales expresiones que relacionan los parámetros intensivos con los parámetros extensivos
independientes se llaman ecuaciones de estado. Todo el análisis previo, al efectuarse con
S = S(U, V, Nr ) resulta en un conjunto diferente de parámetros intensivos (llamados los
parámetros intensivos entrópicos):
∂S 1 −Pk
Fk ≡ , F0 = Fk = . (1.10)
∂Xk T T
1.2.5. Equilibrio térmico y temperatura
Considere un sistema cerrado compuesto que consiste de dos sistemas simples separados
por una pared que es rígida e impermeable a la materia pero que permite el ujo de calor.
1 2
Los volúmenes de los sistemas están jos pero las energías U y U son libres de variar, pero
sujetas a la restricción,
U 1 + U 2 = constante. (1.11)
En el equilibrio, dS = 0 y
dS 1 dS 2
1
dS = dU + dU 2 , (1.12)
dU 1 V,N dU 2 V,N
o bien,
1 1 1
dS = 1
dU + 2
dU 2 . (1.13)
T T
Pero dU 1 = −dU 2 , es decir,
1 1
dS = − dU 1 = 0, (1.14)
T1 T2
las temperaturas son iguales T 1 = T 2 . El análisis puede extenderse para mostrar que el calor
uye de regiones de alta temperatura a regiones de baja temperatura.
Clase 2
Introducción a la física estadística
La física estadística surge de la necesidad de reconocer que los sistemas físicos macro-
cópicos en general están constituidos por partículas pequeñísimas (cuánticas) en números
formidablemente grandes. Esta tarea, en apariencia simple, no es fácil y ni siquiera está com-
pleta hoy en día. En efecto, no sabemos aún cómo es posible que las ecuaciones de movimiento
(todas: clásicas y cuánticas) sean simétricas ante un cambio de signo en el tiempo (reversibles
o simetría de Kramer) y el mundo microscópico sea irreversible.
Muchas grandes mentes han aventurado respuestas, como Einstein, Gell-Mann, Feynman,
etc, quienes han sugerido que esto tiene que ver con: propiedades de los grandes números,
pérdida de información en colisiones instantáneas, improbabilidades de todo tipo. Sin embar-
go, la pregunta sigue en el aire. Afortudamente en el mundo microscópico, se necesita muy
24
poco para denir un sistema, no necesitamos las 6N ∼ 10 coordenadas para decir cómo
éste comporta. Para conocer un sistema físico hay que medirlo, pero entonces las escalas de
medida cuentan. Las medidas macroscópicas son insensibles al movimiento y al cambio de
las coordenadas microscópicas tanto en el espacio como en el tiempo, (que son del orden de
T ∼ 10−15 seg, L ∼ 1 = 10−10 m).
proceso estocastico
CLAVE medida
pocas coordenadas
15
U (λS, λX1 , · · · , λXk ) = λU (S, X1 , · · · , Xk ) (2.1)
r
∂U ∂(λS) X ∂U ∂(λXj )
+ = U (S, Xi , · · · , Xr ) (2.2)
∂(λS) ∂λ j=1
∂(λXj ) ∂λ
r
∂U X ∂U ∂U
S+ =U = Pj (2.3)
∂S j=1
∂Xj ∂Xj
es decir,
r
X
U = TS + Pj X j ecuación de Euler (2.4)
j=1
en un sistema simple,
r
X
U = TS − PV + µi Ni . (2.5)
i=1
S V N1 Nr U
U , , ,··· , = (S, V, N1 , · · · , Nr ) (2.6)
Nr Nr Nr Nr Nr | {z }
Nr + 2 variables
S V N1
U (S, V, N1 , · · · , Nr ) = Nr U
Nr , Nr , Nr , · · · , 1
(2.7)
| {z }
Nr + 1 variables
S V
U (S, V, N ) = N u(s, v, 1) = N u(s, v), con s= , v= (2.8)
N N
esto quiere decir que en realidad hay r+2 parámetros extesivos y hay r+2 ecuaciones de
1
estado, pero como λ = ,
Nr
µr = µr (s, v, n1 , · · · , nr , 1) (2.9)
las r + 2 ecuaciones de estado son función de r + 1 variables, por lo tanto, existe una relación
entre los parámetros intensivos. De la relación de Euler, diferenciando,
r
X
dU = T dS + SdT − P dV − V dP + (µj dNj = Nj dµj ), (2.10)
j=1
r
X
dU = T dS = P dV + µr dNr (2.11)
j=1
de aquí,
r
X
0 = SdT − V dP + Nj dµj , (2.12)
j=1
Recordemos que la segunda ley de la termodinámica indica que existe una función S de
la energía del sistema S(U, V, N ) que es una función creciente monótona de la energía interna
U. Esta función alcanza un extremo (máximo) en el equilibrio. Si usamos
1 P µ
dS = dU + dV − dN (2.14)
T T N
como la relacion fundamental, vemos que dS = 0 para la energía interna constante una vez
que el sistema alcanza el equilibrio.
Consideremos la gura 2.3 del lado izquierdo, para U constante, el equilibrio se alcanza
cuando S es máxima con respecto a la variable Xj . Si comenzamos con un sistema para el
cual la variable Xj no tiene el valor que corresponde al equilibrio, el sistema restrigido a estar
a un valor constante de U evolucionará y S aumentará y Xj variará durante este proceso. El
proceso se detiene cuando S alcanza un máximo:
dS
= 0, Equilibrio. (2.15)
dXj U
Ya que los parámetros intensivos se miden y controlan más fácilmente que los paráme-
tros extensivos, se puede pensar en los pámetros intensivos como variables independientes y
los parámetros extensivos como las cantidades derivadas. Una desventaja de usar U (S, V, N )
como un potencial termodinámico es que la variable natural S es muy difícil de controlar en
el laboratorio. Para propósitos prácticos es más fácil trabajar con otros potenciales termo-
dinámicos que pueden denirse haciendo uso de la transformada de Legendre. Esto lleva a
reformular a la termodinámica en otras representaciones, además de la entropía y la energía.
∂Y
P ≡ (2.17)
∂X
es la pendiente de la curva, véase la gura 2.6.
Tomando a la familia de líneas tangentes, Y = Y (P ), seleccionamos las variables (P, Ψ), tal
que,
Ψ = Ψ(P ) → Y = Y (X),
donde Ψ es la transformada de Legendre de Y. Debemos entonces conocer las intersecciones
para todas las tangentes, hágase referencia a la gura 2.4, donde la pendiente,
Y −Ψ
P = → Ψ = Y − P X, (2.18)
X −0
como Y = Y (x) y P = P (X),
Ψ = Y (X) − P (X)X (2.19)
d2 Y
6= 0 (estabilidad). (2.20)
dX 2
es decir,
dΨ
−X = (2.22)
dP
ahora se eliminan Ψ y P para dar Y (X) = Y .
Y = Y (X) Ψ = Ψ(P )
dY
P = dX −X = dΨdP
Eliminar X y Y Eliminar P y Ψ
Ψ = Ψ(P ) Y = Y (X)
Partiendo de Y = Y (X0 , X1 , X2 , · · · Xj ),
∂Y
PJ = (2.23)
∂Xj
r
X
Ψ=Y − Pj X j (2.24)
j=1
r
X ∂Ψ
dΨ = − Xj dPj → −Xj = (2.25)
j=1
dPj
Ejemplo: La lagrangiana
L = L(q1 , q2 , · · · , qn , v1 , v2 , · · · , vn ) (2.26)
∂L
el momento se puede denir como
∂vk
Pk =
, si se desea trabajar con los momentos en vez de
las velocidades se toma la transformación parcial con respecto a las velocidades, entonces se
dene la transformada (primera cantidad de Jacobi) como,
n
X
−H =L− Pk vk (2.27)
k=1
∂H
y entonces H = H(P1 , P2 , ·, Pn , q1 , q2 , · · · , qn ) y
∂Pk
= vk .
∂U
F =U −S = U − T SF = F (T, V, N ) Energía libre
∂S V,N
En la expresión,
dF = dU − d(T S) = dU − SdT − T dS
sustituimos dU y obtenemos,
r
X
dF = −SdT − P dV + µj dNj . (2.28)
j=1
∂F ∂F
−S = P =−
∂T V,N ∂V T
2.6.2. Entalpía
H = U + PV
La diferencial total de H,
∂U
H =U −V (2.29)
∂V S,N
| {z }
-P
r
X
dH = dU + d(P V ) = dU + V dP + P dV = T dS − P dV + µr dNr + V dP + P dV
j1
r
X
dH = T dS + V dP + µr dNr . (2.30)
j1
∂H ∂H
T = V = (2.31)
∂S P,N ∂P S,N
G = G(T, P, N ) (2.32)
∂U ∂U
G=U −S −V
∂S V,N ∂V S,N
G = U − T S + P V. (2.33)
T = ∂U
∂S
−S = ∂G
∂T
G = U − TS + PV
∂U
−P = ∂V V = ∂G
∂P
U = G + TS − PV
La diferencial total,
X
dG = SdT + V dP + µk Nk . (2.34)
k
∂G ∂G
S=− V = (2.35)
∂T P,N ∂P T,N
La funciones de Massieu son las posibles transformadas de Legendre de la entropía así como
los potenciales termodinámicos son de la energía.
∂ 2F ∂ 2F
= ,
∂X∂Y ∂Y ∂X
donde F es un potencial termodinámico y X y Y son dos de sus variables naturales indepen-
dientes.
∂ 2U ∂ 2U
=
∂S∂V ∂V ∂S
∂ ∂U
= − ∂P ∂T ∂ ∂U
∂S ∂V S,N ∂S V,N
= ∂V S,N
= ∂V ∂S V,N
Para un sistema simple, hay tres relaciones de Maxwell con respecto a U. Existen 6
transformadas parciales de Legendre → 21 relaciones de Maxwell. Se puede identicar dichas
relaciones usando el siguiente cuadro termodinámico:
dU = T dS − P dV
dF = −SdT − P dV
dH = T dS + V dP
dG = V dP − SdT
etc.
P G T
H F
S U V
2.7.1. Aplicaciones
Las relaciones de Maxwell son importantes porque muestran que las derivadas de los pará-
metros termodinámicos no son completamente independientes. Además proveen un método
para expresar derivadas que involucran cantidades difíciles de medir con aquéllas que son
fácilmente medibles en un experimento.
∂U ∂S
CV ≡ =T (2.36)
∂T V,N ∂T V,N
∂H ∂S
CP ≡ =T (2.37)
∂T P,N ∂T P,N
3. Expansión térmica,
1 ∂V
αP = (2.38)
V ∂T P,N
4. Compresibilidad isotérmica,
1 ∂V
κT = − (2.39)
V ∂P T,N
Estas funciones respuesta se denen de tal forma que sean positivas para los sistemas
normales, tales como los gases ideales y los líquidos simples. Sin embargo, en ocasiones
hay excepciones como el caso de la expansión térmica del agua debajo de los 4o C, la cual es
negativa.
Por lo tanto, las relaciones de Maxwell nos permiten expresar cantidades inaccesibles expe-
∂S ∂V
rimentalmente en terminos de cantidades medibles, como por ejemplo,
∂P T,N
= − ∂T P,N
.
Clase 3
Revisión de Mecánica Cuántica
Sea Ô un operador que opera sobre funciones de la variable x. Denotamos las eigen-
funciones del operador Ô con sj (x) o colectivamente con {sj (x)}, j = 1, 2, 3, · · · y a
con
los eigenvalores con λj , o de manera colectiva como {λj }. Si conocemos Ô , por denición
27
El problema central en mecánica cuántica es la determinación de la función de onda
Ψ(r, t) que en general es una función de la posición y del tiempo, para cualquier sistema de
interés. En algunos problemas, podemos enfocarnos en la solución del problema en términos
de la parte independiente del tiempo de Ψ(r, t), que se denota con ψ(r). El estado particular
descrito por ψ(r) se conoce como estado estacionario.
Para un sistema físico, las condiciones a la frontera del mismo son sucientes para de-
terminar la función de onda y sus eigenvalores asociados. Para hamiltoniano de la forma
H =T +V, la ecuación de Schrödinger, resulta en,
|H − E|G = 1. (3.5)
[A, B] = 0. (3.11b)
Como caso particular, si B̂ = Ĥ y encontramos los operadores  que cumplen con la
expresión (3.11b), entonces tenemos la máxima información del sistema o las constantes de
movimiento.
|hψn |ψi|2
Pn (λn ) = . (3.13)
hψ|ψi
Postulado 5: La evolución temporal de un sistema
La evolución temporal de un vector de estado |ψ(t)i de un sistema esta gobernado por la
ecuación de Schrödinger dependiente del tiempo,
∂|ψ(t)i
i~ = Ĥ|ψ(t)i, (3.14)
∂t
Un espacio de Hilbert tiene la propiedad de ser un espacio completo lineal con un producto
escalar denido. Este espacio es el de funciones cuadráticamente integrables.
La norma (Ψ, Ψ) ≥ 0.
Propiedades
Si un operador Ô es hermitiano, su operador transformado, también es hermitiano,
†
Ô0 = (Û ÔÛ † )† = Û Ô† Û † ≡ Û ÔÛ † = Ô0 (3.18)
Si Ĝ conmuta con Ô, la transformación unitaria no cambiará Ô, es decir, Ô0 = Ô:
Podemos construir una transformación unitaria nita a partir de la ecuación 3.19 efec-
tuando una sucesión de transformaciones innitesimales en pasos de ; la aplicación de un
serie de transformaciones unitarias sucesivas es equivalente a la aplicación de una transforma-
ción unitaria única. Sea = α/N , donde N es un entero y α es un parámetro nito, podemos
aplicar la misma transformación N veces y en el límite N → +∞ obtenemos,
N
Y α α N
Ûα (Ĝ) = lı́m 1 + i Ĝ = lı́m 1 + i Ĝ = eiαĜ , (3.24)
N →∞
k=1
N N →∞ N
† −1
eiαĜ = e−iαĜ = eiαĜ . (3.25)
3.3. Esquemas de la Mecánica Cuántica
Existen muchas representaciones de las funciones de onda y operadores en mecánica cuán-
tica. La conexión entre estas representaciones se hace en términos de las transformaciones
unitarias que repasamos en la sección anterior. Cada clase de representación diere de las
otras en términos de cómo se trata la evolución temporal del sistema. Los esquemas frecuen-
temente usandos en mecánica cuantica son los siguientes:
d
i~ |ψ(t)i = Ĥ|ψ(t)i (3.26)
dt
donde |ψ(t)i denota el estado del sistema en este esquema. La evolución temporal de un
estado |ψ(t)i puede expresarse en términos del propagador de evolución temporal, ˆ(U )(t, t0 )
de la siguiente manera,
Su utilidad surge para sistemas cuyos Hamiltonianos tienen una dependencia temporal
explícita en el tiempo. La dependencia temporal de los vectores de estado está completamente
congelada. Este esquema se obtiene a partir del esquema de Schrödinger aplicando Û sobre
|ψ(t)i,
itĤ itĤ
Podemos reescribir Û † = Û † (t, t0 = 0) = e ~ y |ψ(t)i = Û (t)|ψ(0)i, Û (t) = e ~ . Entonces
podemos reescribir la ecuación 3.28 como,
itĤ
|ψ(t)iH = e ~ |ψ(t)i. (3.29)
Un cálculo sencillo nos permite obtener el valor de expectación del operador  en el estado
|ψ(t)i que evoluciona en el tiempo, considerando que d|ψ(t)iH /dt = 0:
itĤ −itĤ
hψ(t)|Â|ψ(t)i =iψ(0)|e ~ Âe ~ |ψ(0)i =iψ(0)|ÂH (t)|ψ(0)i = hψ|ÂH (t)|ψiH . (3.30)
donde,
itĤ −itĤ
ÂH (t) = Û † (t)ÂÛ (t) = e ~ Âe ~ . (3.31)
Es decir, el valor de expectación de un operador es el mismo en el marco de Schrödinger
y Heisenberg.
d|ψ(t)iI
i~ = V̂I (t)|ψ(t)iI , (3.33)
dt
con,
dÂI 1 h i
= ÂI , Ĥ0 . (3.35)
dt i~
∂qj ∂pj
= 0, = 0, (3.37)
∂pk ∂qk
entonces podemos mostrar que,
Usando la ecuación 3.36 podemos inferir fácilmente las siguientes propiedades de los
paréntesis de Poisson:
2. Linealidad:
4. Distributividad:
{A, BC} = {A, B}C + B{A, C}, {AB, C} = A{B, C} + {A, C}B
5. Identidad de Jacobi,
{A, {B, C}} + {B, {C, A}} + {C, {A, B}} = 0. (3.39)
Estas propiedades son similares a las propiedades de los operadores mecánico cuanti-
cos, las cuales expondremos más adelante. Recordemos las ecuaciones de movimiento en la
formulación hamiltoniana [2],
dqi ∂H
= (3.40)
dt ∂pi
dpi ∂H
=− . (3.41)
dt ∂qi
du ∂u ∂u ∂qi ∂u ∂pi
= + + (3.42)
dt ∂t ∂qi ∂t ∂pi ∂t
Sustituyendo las ecuaciones de Hamilton (6.1),
du ∂u ∂u ∂H ∂u ∂H
= + − . (3.43)
dt ∂t ∂qi ∂pi ∂pi ∂qi
La evolución temporal total de una variable dinámica u está dada por la siguiente ecuación
de movimiento,
du ∂u
= {u, H} + . (3.44)
dt ∂t
Donde hemos sustituido la denición de paréntesis de Poisson, dada por la ecuación 3.36.
Notemos que si u no depende explícitamente del tiempo, su evolución temporal está dada
simplemtene por du/dt = {u, H}. Si du/dt = 0 ó {u, H} = 0, se dice que u es una constante
de movimiento.
y el anti-conmutador,
Dos operadores conmutan si [Â, B̂] = 0. Para los operadores de posición q̂i y momento
p̂j = i~ dqdj ,
∂|ψ(t)i
i~ = Ĥ|ψ(t)i, (3.49)
∂t
con Ĥ es el operador hamiltoniano que corresponde a la energía total del sistema, podemos
escribir dhÂi/dt de la siguiente manera,
* +
d 1 ∂ Â
hÂi = h[Â, Ĥ]i + . (3.50)
dt i~ ∂t
∂ Â
[Ĥ, Â] = 0 → = 0, → hÂi = constante. (3.51)
∂t
Se puede demostrar que la energía, el momento lineal y el momento angular de un sistema
aislado son cantidades consevadas: dhĤi/dt = 0, dhP̂ i/dt = 0 y dhL̂i/dt = 0. Esto implica que
los valores de expectación de Ĥ , P̂ y L̂ son constantes. Recordemos de la mecánica clásica que
la conservación de la energía, el momento lineal y el momento angular son consecuencias de las
siguientes simetrías, respectivamente, homogeneidad del tiempo, homogeneidad del espacio e
isotropía del espacio. Estas simetrías están asociadas con invariancias en la traslación en el
tiempo, traslación en el espacio y rotaciones espaciales.
Finalmente,
dÂH (t) 1 h i
= ÂH , Û † Ĥ Û . (3.52)
dt i~
Como los operadores Û (t) y Ĥ conmutan, tehemos Û † (t)Ĥ Û (t) = Ĥ , por lo tanto, podemos
reescribir la ecuación anterior como,
dÂH (t) 1 h i
= ÂH , Ĥ . (3.53)
dt i~
Esta es la ecuación de movimiento de Heisenberg, la cual generalmente es muy difícil de
resolver. Note que la estructura de la ecuación 3.53 es similar a la ecuación clásica 3.44
cuando  no depende explícitamente del tiempo, i. e. dA/dt = {A, H}, donde {A, H} es el
paréntesis de Poisson.
3.5. Relaciones de incertidumbre entre dos operadores
Sean hÂi y hB̂i con respecto a un vector de estado normalizado |ψi. Esto es, hÂi = hψ|Â|ψi
y hB̂i = hψ|B̂|ψi. Las incertidumbres ∆A y ∆B se denen,
q q
∆A = hÂ2 i − hÂi2 , ∆B = hB̂ 2 i − hB̂i2 , (3.54)
donde hÂ2 i = hψ|Â2 |ψi y similarmente para B̂ . Supongamos que la acción de los operadores
∆ y ∆B̂ ,
La desigualdad de Schwartz para los estados |χi y |φi está dada por,
Como  y B̂ son hermitiano, ∆ y ∆B̂ también son hermitianos, de tal forma que ∆† =
 − hÂi = ∆ y similarmente para ∆B̂ † = ∆B̂ . Usando la hermiticidad de ∆ y ∆B̂ ,
†
1 1 1 1
∆Â∆B̂ = [∆Â, ∆B̂] + {∆Â, ∆B̂} = [Â, B̂] + {∆Â, ∆B̂}, (3.60)
2 2 2 2
donde hemos usado el hecho de que el conmutador [∆Â, ∆B̂] es igual a [Â, B̂]. Como [Â, B̂]
es anti-hermitiano y su valor de expectación es real y además el valor de expectación de un
operador anti-hermitiano es imaginario, el valor de expectación de h∆Â∆B̂i de la ecuación
3.60 es igual a la suma de un parte real h{∆Â, ∆B̂}i y una parte imaginaria h[Â, B̂]i, entonces,
1 1
|h∆Â∆B̂i|2 = |h[Â, B̂]i|2 + |h{∆Â, ∆B̂}i|2 . (3.61)
4 4
Notemos que el último término es un número positivo y real, por lo tanto podemos inferir,
1
|h∆Â∆B̂i|2 ≥ |h[Â, B̂]i|2 . (3.62)
4
Comparando las ecuaciones 3.59 y 3.62 concluimos que,
1
h(∆Â)2 ih(∆B̂)2 i ≥ |h[Â, B̂]i|2 . (3.63)
4
2 2
Usando las ecuaciones 3.55 tenemos h(∆Â) i = h i − hÂi2 y combinando esto con la
2 2
ecuación 3.54 obtenemos h(∆Â) i = (∆A) . Finalmente,
1
∆A∆B ≥ |h[Â, B̂]i|. (3.64)
2
Esta relación de incertidumbre es muy importante en mecánica cuántica. Su aplicación a
los operadores de posición y momento conduce a las relaciones de incertidumbre de Heisen-
berg.
d2 d
D̂x = 2
+ γ + ω2. (3.66)
dx dx
Cuya solución es de la forma,
donde ycomplementaria es la solución de la ecuación homogénea D̂x yhomogénea (x) = 0 y yparticular (x)
es cualquier solución especial de la ecuación inhomogénea. Para obtener dicha solución espe-
cial de la ecuación inhomogénea para cualquier inhomogeneidad f (x), necesitamos primero
encontrar la solución a la siguiente ecuación,
0
la cual dene la función de Green G(x, x ) que corresponde al operador D̂x . Una vez que
0
encontramos G(x, x ) cualquier solución especial puede construirse por medio de,
Z
yparticular (x) = dx0 G(x, x0 )f (x0 ). (3.69)
3.7. Formalismo
3.7.1. Función de Green independiente del tiempo
0
sujeta a ciertas condiciones a la frontera para las dos coordenadas de posición r y r sobre
0
una supercie S en el dominio Ω de r y r . Suponemos que z es una variable compleja con
λ≡ Re{z} y s≡ Im{z}, L(r) es un operador diferencial lineal, Hermitiano e independiente
del tiempo que posee un conjunto completo de eigenfunciones {ψn (r)}, es decir,
donde {ψn (r)} satisface las mismas condiciones a la frontera que G(r, r0 ; z)
Recordemos que ψn forma una base ortonormal y completa:
Z X
ψn∗ (r)ψm (r)dr = δnm y
∗
ψn (r)ψm (r) = δ(r − r0 ). (3.72)
n n
(
0 si (r − r0 ) 6= a
δ(r − r0 ) =
∞ si (r − r0 ) = a.
Es importante notar que la función delta de Dirac actuando sobre una función f (r)
satisface la siguiente propiedad,
Z
δ(r − r0 )f (r0 )dr0 = f (r) para cualquier r0 ⊂ Ω. (3.73)
Ω
(z − L)G(z) = 1 (3.75a)
Usando las ecuaciones anteriores, podemos calcular el elemento de matriz hr|, |r0 i de la ecua-
ción 3.75(a),
y considerando además que estamos trabajando sobre una base completa, podemos usar la
ecuación 3.74(e) y obtenemos,
Z
0 0
hr|(z − L)G(z)|r i = zG(r, r ; z) − dshr|L|sihs|G(z)|r0 i = zG(r, r0 ; z) − L(r)hr|G(z)|r0 i.
(3.79)
Si todos los eigenvalores de z−L son distintos de cero, entonces podemos resolver la
ecuación 3.75(a) como,
1
G(z) = . (3.81)
z−L
Multiplicando la ecuación 3.81 por la ecuación 3.75(d) obtenemos,
1 X
G(z) = |ψn ihψn |. (3.82)
z−L n
1
donde es una constante. Usando la ecuación 3.75(b) para sustituir los eigenvalores del
z−L
operador L, obtenemos,
X 1 X |ψn ihψn |
G(z) = |ψn ihψn | = , z 6= λn (3.83)
n
z−L n
z − λn
De esta última ecuación podemos ver que G(z) está en función de un numero nito de
0
polos que corresponde a los eigenvalores discretos de L. Si queremos denir G(r, r ; z) en
z = λ, como G(r, r0 ; z) tiene un polo en λ, tendremos que denir G(r, r0 ; λ) a través de un
proceso límite.
3.7.2. Denición
Teorema
Sea z una variable compleja compuesta de una parte real λ y una parte imaginaria s. Sea
L(r) un operador diferencial lineal, Hermitiano e independiente del tiempo con un conjunto
completo de eigenfunciones ψn , y sea u(r) una función desconocida sobre la que L está
operando. Suponga que f (r) es una función arbitraria inhomogénea que nos da la siguiente
ecuación diferencial,
(R
G(r, r0 ; z)f (r0 )dr0 si z=6 λn
u(r) = R ±
G (r, r0 ; λ)f (r0 )dr0 + ψ(r) si z = λ.
Demostración
Demostraremos únicamente el caso donde z 6= λn . Si u(r) actúa sobre la solución pro-
puesta,
Z
[z − L(r)]u(r) = [z − L(r)] G(r, r0 ; z)f (r0 )dr0 . (3.86)
Z Z
0 0 0
[z − L(r)]G(r, r ; z)f (r )dr = δ(r − r0 )f (r0 )dr0 (3.88)
Corolario
La solución u(r) no existe cuando z coincide con un eigenvalor discreto de L, a menos
que todas las eigenfunciones asociadas con λn sean ortogonales a f (r). Véase [3] para la
demostración.
La ecuación de Schrödinger,
Hψ = Eψ, (3.89)
[E − H(r)]ψ(r) = 0, (3.90)
1. L(r) → H(r)
2. λ→E
3. λ + is = z → z = E + is
4. λn → En
5. ψn (r) → ψn (r).
Por lo tanto, denimos la función de Green de la ecuación de Schrödinger como,
(R
G(r, r0 ; z)f (r0 )dr0 si z=6 λn
ψ(r) = R ±
G (r, r0 ; λ)f (r0 )dr0 + ψ(r) si z = λ.
donde,
X ψn (r)ψ ∗ (r0 )
G(r, r0 ; z) = (3.92)
n
z − En
y f (r) = 0.
Clase 4
Probabilidad
En termodinámica la cantidad fundamental es la entropía S, que surge como resultado
de todas las coordenadas ignoradas. Se podría decir que es una medida de la ignoracia. La
razón es que la diferencia de escalas de tiempo entre las medidas (mediciones) y los movi-
mientos atómicos es enorme, por lo tanto en un sistema macroscópico de muchas partículas
las mediciones escalares no se enteran de la dinámica atómica y entonces la medida es un
promedio. Cada vez que se mide se obtiene un número diferente. ¾Cuál es el mejor número?
el promedio, denido según la expresión,
N
1 X
x= xi
N i
En [4], Henri Poincaré cita a Joseph Bertrand (Calculus of Probabilities): la probabilidad
es lo opuesto a la certeza, por lo tanto es, resultado de lo que ignoramos y consecuentemente
parecería ser lo que no podemos calcular. Entonces aquí hay, cuando menos, una contradicción
aparante y una sobre la que ya se ha escrito mucho .
1
Ni
P =
NT
Este número es un hecho matemático pero su interpretación puede ser deformada por
el vulgo ⇒ siempre usaremos la denición matemática de Poicaré en su interpretación de
cómo está la entropía relacionada con la estadística. Partimos de la ecuación diferencial que
conocemos, el gas ideal monoatómico para N = cte,
1 Probability is the opposite of certainty; it is thus what we are ignorant of, and consequently it would seem
to be what we cannot calculate. There is here at least an apparent contradiction, and one on which much has
already been written.
45
" !# " !#
U 3/2 V U 3/2 V
S = S0 + N R ln ∼ N ln η (4.1)
U0 V0 N N
3/2
N N U (∆p)2 V
donde se ha renombrado η≡ U0 V0
y
N
= 2m
,
N
= (∆x)3 .
(∆p∆x)3
S ∼ ln η (4.2)
uw
(2m)3/2 3
con u≡ η
y w ≡ (∆x0 ∆p0 ) es una unidad de volumen en el espacio fase que corresponde
a una partícula. Por lo tanto, podemos reescribir,
S ≈ ln Γ (4.3)
∆x∆p 3N
con Γ≡ w
.
Este volumen es el que dejan libres las restricciones (constantes de movimiento). Por
ejemplo, una mosca se mueve en un cuarto en 3D, pero y ¾si la mosca no vuela?. Siempre hay
una probabilidad de que la mosca no vuele y es por esto que para seguir adelante debemos
de hablar de la probabilidad y siempre usaremos el concepto matemático. Entonces tenemos
que desarrollar un método para calcular cantidades de la forma,
Ni
Pi = , (4.4)
NT
donde P representa la probabilidad, Ni la clase y NT la muestra. Este método se llama
estadística. Lo primero que tenemos que hacer es encontrar Ni , esto lo hacemos con la ayuda
de la función,
x0 6= xs
0 si
δ(x − xs ) =
1 si x 0 = xs
si xs es una variable continua, esta función se llama delta de Dirac. Entonces contar signica,
X
f (x0 ) = δ(x − xs ). (4.5)
s
Ejemplo: Las clases pueden ser cualquier variable de estado: edades, calicaciones, llamadas
telefónicas. Sea un conjunto de N variables aleatorias, x1 , x2 , · · · , xN podemos obtener su
función distribución de probabilidad, por ejemplo la mostrada en la gura 4, a partir de un
proceso estadístico. El número total de eventos N asociada a dicha distribución está dado
por,
X Z ∞
0
N= f (x ) = f (x0 )dx0 . (4.6)
x0 −∞
f (x)
0.1
0
-10 -5 0 5 10
Z x2
N (x1 < x < x2 ) = f (x)dx. (4.7)
x1
Z
hxi = dx0 ρ(x)x0 caso continuo (4.8)
1 X X f (x)x
hxi = x(s) = caso discreto, (4.9)
N s x
N
donde,
f (x) f (x)
ρ(x) = R = . (4.10)
f (x)dx N
se conoce como peso estadístico yhxi es el centro de masa (centroide) de la distribución (pri-
mer momento de ρ). Similarmente, podemos denir los momentos de orden n de ρ, denotados
n
con µ de acuerdo a la siguiente expresión,
Z
n
µ = ρ(x)xn dx. (4.11)
Z
σ= dx0 (x0 hxi)2 ρ(x0 ) = h∆x2 i = h(x−x)2 i = hx2 i−h2xhxii+hhxi2 i = hx2 i−hxi2 , (4.12)
Z
hg(x)i = dx g(x)ρ(x0 ), (4.13)
f (x0 ) es el promedio de la función δ(x0 − x),
Z
0
hδ(x − xs )i = dx ρ(x)δ(x − x0 ) = ρ(x0 ). (4.14)
1 si s∈R
θR (s) =
0 si s 6∈ R
Entonces,
X NR
N= θR (s) y P (R) = = hθR i,
s
N
N 00
1 X
Ck = 00 x(s)x(s + k) − hxi2 , donde N 00 = N − k (4.15)
N s=1
después hablaremos de la utilidad de las funciones de correlación porque son medibles, por
ejemplo, en un experimento de dispersión. Por lo pronto, nótese que si,
los eventos no están correlacionados, es decir, son estadísticamente independientes. Este orden
es un nuevo concepto estadístico que determinará la distancia entre dos eventos (o muestra
estadística). Las funciones de correlación son básicas en la física porque todas las cantidades
medibles son funciones de correlación.
1. E 6= φ
2. R⊂E y,
R1 y R2
si son clases
R1 ∩ R2 es clase
R1 ∪ R2 es clase
si R es clase, Rc es clase.
3. P (R) ≥ 0,
P (E) = 1
E = {1, 2, 3, 4, 5, 6}
Ri = i, i∈E
Cada una de las caras del dado, tiene una probabilidad asociada de,
1 1
P (i) = , P (1 ∪ 2) = P (1) + P (2) = , P (1 ∩ 2) = 0
6 3
Consideremos los subespacios,
R1 = {1, 2, 3} R2 = {4, 5, 6}
por lo tanto,
1
P (R1 ) = P (R2 ) = P (1) + P (2) + P (3) = P (4) + P (5) + P (6) =
2
Con esto,
1
P (E1 , E2 ) = Pi (E1 ) + Pi (E2 ) ⇒ 2Pi (Ei ) =
6
PN
f (xi )xi
hxi = Pi=1
N
, (4.17)
i=1 f (xi )
PN
i=1 f (xi )g(xi )
hg(x)i = P N
. (4.18)
i=1 f (xi )
f (xi ) X
ρ(xi ) = PN ⇒ ρ(xi ) = 1, (4.19)
i=1 f (xi ) i
y además que,
hf + gi = hf i + hgi
hcf i = chf i,
podemos escribir,
∆x = x − hxi ⇒ h∆xi = 0.
N
X
2
h(∆x) i = ρ(xi )(xi − hxi)2 ≥ 0 ⇒ hx2 i ≥ hxi2 .
i=1
Pero hay varias maneras posibles de tomar N pasos de tal forma que n1 de ellos sean a la
derecha y n2 a la izquierda, y este número de posibilidades está dado por el factor,
N!
. (4.21)
n1 !n2 !
Por lo tanto, la probabilidad WN (n1 ) de tomar n1 pasos de un total N a la derecha y
n2 = N − n1 a la izquierda, en cualquier orden se obtiene multiplicando la ecuación 4.20 por
4.21 que da las secuencias posibles de estos pasos,
N ! n1 n2
WN (n1 ) = p q (4.22)
n1 !n2 !
Esta distribución de probabilidad se llama distribución binomial. Recordando que la ex-
pansión binomial está dada por la fórmula,
N
X N!
(p + q) =N
pn q N −n , (4.23)
n=0
n!(N − n)!
PN (m) = WN (n1 ).
1 1
n1 = (N + m) n2 = (N − m).
2 2
Sustituyendo en la ecuación 4.22 obtenemos,
N!
PN (m) = N +m
N −m p(N +m)/2 (1 − p)(N −m)/2 , (4.24)
2
! 2 !
N
N! 1
PN (m) = N +m N −m (4.25)
2
! 2 ! 2
Distribución de probabilidad cuando N es grande
Cuando N es grande, la distribución de probabilidad binomial,
N ! n1 N −n1
WN (n1 ) = p q , (4.26)
n1 !n2 !
tiende a exhibir un máximo pronunciado en algún valor n1 = ñ1 y decrece rápidamente
cuando nos alejamos de ñ1 . Usaremos esto para encontrar la expresión de WN (n1 ) cuando N
es sucientemente grande. Si N es grande podemos considerar regiones cerca del máximo de
W donde n1 también es muy grande, el cambio fraccional de W cuando n1 cambia por una
unidad es relativamente pequeño y por lo tanto se cumple en general,
entonces W puede, en buena aproximación, ser considerada como una función continua de
la variable continua n1 , aunque sólo valores enteros de n1 son físicamente relevantes. La
localización n1 = ñ del máximo de W está determinado aproximadamente por la condición,
dW d ln W
o equivalentemente =0 (4.28)
dn1 dn1
donde las derivadas son evaluadas en n1 = ñ1 . Para investigar el comportamiento de W (n1 )
cerca de su máximo, pondremos,
n1 ≡ ñ1 + η (4.29)
1 1
ln W (n1 ) = ln W (ñ1 ) + B1 η + B2 η 2 + B3 η 3 + · · · (4.30)
2 6
donde,
dk ln W
Bk ≡ (4.31)
dnk1
es la k-ésima derivada de ln W evaluada en n1 = ñ1 .
Como estamos desarrollando alrededor
1 2
del máximo B1 = 0. Además como W es un máximo, entonces el término B2 η debe ser
2
negativo, i.e., B2 debe ser negativo. Para hacer esto explícito, reescribimos B2 = −|B2 |, por
lo tanto, sustituyendo W̃ = W̃ (ñ1 ) en la ecuación 4.30,
1 2 + 1 B η 3 ··· 1 2 1 3
W (n1 ) = W̃ e 2 B2 η 6 3 = W̃ e− 2 |B2 |η e 6 B3 η · · · (4.32)
En una región donde η es sucientemente pequeña los términos de orden superior del
desarrollo pueden ser despreciados; por lo tanto, se obtiene en primera aproximación,
1 2
W (n1 ) = W̃ e− 2 |B2 |η . (4.33)
N!
W (n1 ) = pn1 q N −n1 (4.34)
n1 !(N − n1 )!
y tomando el logaritmo obtenemos,
Si n es un número entero grande, tal que n >> 1, entonces ln n! puede considerarse como
una función casi continua de n, y como el ln n! cambia solamente por una fracción pequeña
si n cambia por un entero pequeño,
d ln n!
≈ ln n (4.37)
dn
Por lo tanto la expresión 4.34, puede reescribirse,
d ln W
= − ln n1 + ln(N − n1 ) + ln p − ln q (4.38)
dn1
Igualando a cero obtenemos el valor n1 = ñ1 donde W es un máximo, y llegamos a,
(N − ñ1 ) p
ln = 0, (4.39)
ñ1 q
o bien,
d2 ln W 1 1
2
= − (4.41)
dn1 n1 N − n1
y evaluando para n1 = ñ1 obtenemos,
1 1 1 1 1 1
B2 = − − =− + =− (4.42)
Np N − Np N p q N pq
s
Z ∞
− 21 |B2 |η 2 2π
W̃ e dη = W̃ =1 (4.44)
−∞ |B2 |
r
|B2 | 1 |B2 |(n1 −ñ1 )2
W (n1 ) = e2 , (4.45)
2π
la cual es la distribución Gaussiana, que ocurre frecuentemente en estadística cuando se
trabaja con números grandes. Considerando las expresiones 4.40 y 4.42 llegamos a,
(n1 − N p)2
−1/2
W (n1 ) = (2πN pq) exp − . (4.46)
2N pq
Esta expresión, para valores grandes de N y n1 , es más simple que la ecuación 4.34 y no
requiere la evaluación de factoriales.
(n1 − ñ1 )2
2 −1/2
W (n1 ) = (2πh(∆n1 ) i) exp − . (4.48)
2h(∆n1 )2 i
Clase 5
Teorema del límite central
El teorema del límite central (TLC) es uno de los resultados más importantes en teoría
de probabilidad. Existe otro resultado clásico de la teoría de probabilidad, la ley de los gran-
des números, que establece que bajo ciertas condiciones el promedio de las sumas parciales
de variables aleatorias independientes e idénticamente distribuidas puede aproximarse al va-
lor esperado de estas variables aleatorias. El TLC da información más sustancial sobre las
uctuaciones de los promedios de estas sumas parciales, alrededor de su valor esperado. Esta-
√
blece que si multiplicamos esta uctuación por N, donde N denota el número de variables
aleatorias en el promedio, entonces la distribución de la uctuación tiende a una distribución
independiente del número N . Más aún, la distribución a la que se aproxima, no depende de la
distribución de las variables aleatorias cuyos promedios son considerados. Esta distribución
es una ley universal, conocida como distribución normal.
La teoría de Fourier da un método natural para demostrar la versión local del teorema
del límite central, i.e., para describir el comportamiento asintótico de la densidad y no de
la función de distribución normalizada de las sumas parciales de las variables aleatorias
independientes.
N
X
~N =
X ~xn (5.1)
n=1
55
Consideremos ahora el caso N > 2. Denotamos la suma de las variables aleatorias con
~
R. Podemos escoger las primeras N − 1 como deseamos, pero entonces xN debe ser igual a
~ = PN xi . Por lo tanto la ecuación 5.2 se puede generalizar a,
R i=1
Z ∞
~ =
PN (R) ~ − ~r)PN −1 (R
PN (~r|R ~ − ~r) dd~r (5.3)
−∞
~ − ~r) = PN (~r).
PN (~r|R (5.4)
Entonces comparando la ecuación 5.4 con 5.5, vemos que es una convolución
1 PN = PN ∗PN −1 ,
donde
Z ∞
PN ∗ PN −1 = ~ − ~r)dd~r
PN (~r)PN −1 (R (5.6)
−∞
Las probabilidades de cada una de las variables estocásticas, denen una cadena de Markov ,
2
PN = p 0 ∗ p 1 ∗ p 2 ∗ p 3 ∗ · · · ∗ p N (5.7)
Z ∞ N
1 i~k·R
~
Y
~ =
PN (R) e p̃n (~k) dd~k (5.9)
(2π d ) −∞ n=1
Z Z
|f (x1 , · · · , xk )| dx1 · · · dxk < ∞ y |g(x1 , · · · , xk )| dx1 · · · dxk < ∞,
Z
[f ∗ g](x1 , · · · , xk ) = f (u1 , · · · , uk )g(x1 − u1 , · · · , xk − uk ) du1 · · · duk . (5.5)
∞ ∞ ∞
Z Z Z
i~k·R
~ i~k·R
~
|p̃(~k)| =
d
e p(~r)dd~r ≤ e p(~r) d ~r ≤
p(~r)dd~r = 1 (5.11)
−∞ −∞ −∞
Z
~ ~ ~
~ ≈
PN (R) eik·R eN Ψ(k) dd k si N 1 y 1 (5.12)
|k|<(N )
donde hemos supuesto que el segundo momento existe. Para visualizar mejor el resultado
conviene hacer el siguiente cambio de variable,
~ = N 1/2 H 1/2~k
ω y ~ − N~c)
~zN = (N H)−1/2 (R
donde es importante notar que H 1/2 ≡ QA1/2 QT , donde Q es una matriz ortogonal cuyas
columnas son los eigenvectores de H . Finalmente obtenemos,
Z ∞
~ = 1 2 /2
PN (R) ei~ω·~zN e−ω dd ω
~ (5.15)
(2πN ) (det H)1/2
d/2
−∞
La Gaussiana sólo es válida para R − N hRi ≈ O(N 1/2 ), es decir, en la región central:
Teorema del Centro del Límite, es decir, no hay colas que dependen de más órdenes. La
forma más general y formal del Teorema del Límite Central es mostrar que PN (x)
sigue una
−3
distribución Gaussiana. Así se demuestra que distribuciones con colas que varían como |x|
(cuyo segundo momento no existe) también convergen a la Gaussiana para N → ∞. La
Gaussiana es una distribución límite estable, pero no la única (vuelos de Lévy).
El teorema del límite central en estadística, nos dice que para N → ∞, la distribución de
la suma de N variables aleatorias es una Gaussiana cuya media es N veces la media de la
distribución de una sóla variable, con una varianza N veces la varianza de la distribución de
una sóla variable, independientemente de la forma de la distribución de esa única variable,
siempre y cuando su media y varianza sean nitas.
Clase 6
Ensamble y espacio fase
Ahora estamos en posición de hacer la conexión entre la descripción microscópica (me-
cánica cuántica) y la descripción macrocóspica (termodinámica) de sistemas con muchas
partículas. Recordemos que no podemos especicar el estado de un sistema macroscópico
porque no disponemos de toda la información, sin embargo, si podemos calcular la proba-
bilidad de que el sistema se encuentre en un estado dado. ¾Cómo? Experimentalmente, por
ejemplo.
Supongamos que lanzamos 800 monedas y el estado del sistema resultante se da en tér-
minos de la especicación del estado de cada moneda + − + + + + − − − − ···. Al repetir
el experimento nuevamente, obtenemos un estado diferente y podemos calcular todos los
posibles estados macroscópicos. La colección de todos estos estados, compatible con las res-
tricciones del sistema (porque se conserva el número de monedas) puede visualizarse como
un conjunto, del francés ensemble, (término utilizado por primera vez por Gibbs), que en
español podríamos utilizar el término colectividad.
59
6.1. Teorema de Liouville
Considere el espacio fase {q1 , q2 , · · · , qN , p1 , p2 , · · · , pN } donde las ecuaciones de movi-
miento para cada partícula están dadas por las ecuaciones de Hamilton,
∂H ∂H
q̇i = , ṗi = − . (6.1)
∂pi ∂qi
Un estado macroscópico del sistema dene un punto en el espacio fase, conforme transcurre
el tiempo cada partícula cambia su qi y pi de forma que el volumen del espacio fase ocupado
por el sistema se mueve. La condición de un ensamble a cualquier tiempo puede especicarse
por la densidad ρ con la que los puntos representativos están distribuidos en el espacio fase.
Esta densidad de distribución
ρ = ρ(q1 , · · · , qN , p1 , · · · , pN , t) (6.2)
se toma para el caso de sistemas con N grados de libertad como una función de las 2N
coordenadas y momentos, y además del tiempo, ya que en general la densidad cambia con el
tiempo en cualquier punto del espacio fase obedeciendo al movimiento de los puntos del espa-
cio fase cuando las coordenadas y momentos cambian sus valores de acuerdo a los principios
de la mecánica. Denimos δN = ρ({qi }, {pi }) dq1 dq2 · · · dqN , dp1 , dp2 , · · · dpN como el número
de sistemas en el ensamble que en el tiempo t están dentro de ese elemento de volumen.
Entonces el cambio de la densidad en el tiempo está dada por la expresión,
dρ ∂ρ X ∂ρ ∂qi ∂ρ ∂pi
= + + (6.3)
dt ∂t i
∂qi ∂t ∂pi ∂t
∂ρ X ∂ ∂ X ∂ρ ∂ρ ∂ q̇i ∂ ṗi
= (ρq̇i ) + (ρṗi ) = q̇i + ṗi + ρ + (6.4)
∂t i
∂qi ∂pi i
∂qi ∂pi ∂qi ∂pi
∂ 2H ∂ 2H
∂ q̇i ∂ ṗi
+ = − =0 (6.5)
∂qi ∂pi ∂qi ∂pi ∂pi ∂qi
∂ρ X ∂ρ ∂ρ dρ
= q̇i + ṗi ⇒ = 0. (6.6)
∂t i
∂q i ∂p i dt
Esto quiere decir que la distribución de sistemas sobre los estados accesibles no cambia
en el tiempo. En mecánica cuántica lo mismo pasa para la matriz densidad ρmn . Por lo tanto,
nuestro postulado es: en un sistema aislado y en equilibrio, todos los estados accesibles al
sistema son igualmente probables,
PE = c. (6.7)
6.2. Matriz densidad
6.2.1. Funciones de Green en la física estadística
Toda la teoría que hemos desarrollado hasta ahora esta muy bien para sistemas puros, en
los que se pueden denir cantidadas como la función de onda etc., es decir, sistemas que se
encuentren en un estado cuántico puro. Pero desafortunadamente, esto no es útil. Un sistema
cuántico nunca se encuentra asilado del resto del universo, siempre hay interacciones con
otros sistemas. Si conociesemos exactamente las ecuaciones del movimiento, querría decir
que teníamos que haber resuelto y descrito a todo el universo como un todo. Esto no es
posible y a lo más que podemos aspirar es a tener un conocimiento defectuoso y aproximado
de la dinámica de un sistema (en realidad ni queremos este conocimiento perfecto).
Desde el punto de vista de las mediciones, podemos decir que si tuviésemos un sistema
aislado (en un estado cuántico puro), el resultado de medir sería siempre el mismo y estaría
perfectamente determinado por,
Z
hn|Â|ni = φ∗n (~r)Âφn (~r)d3 r = λn (6.8)
Supongamos entonces que el resultado caótico al medir es debido a que el sistema cambia
de estado (puro) entre una medicion y otra. La cantidad que tendrá signicado físico al medir
será el promedio de los números obtenidos a través de muchas mediciones. Intuitivamente
podemos creer que el resultado de medir muchas veces el mismo sistema (a diferentes tiempos)
da igual a que si midiéramos un conjunto de sistemas idénticos en todos los posibles estados
que se pudieran dar (ensamble). Esto se conoce como el Teorema Ergódico, que hasta la fecha
nadie ha podido demostrar en general.
X
Pα = 1 (6.9)
α
X
ρ= |αiPα hα|, (6.10)
α
donde q son todas las variables dinámicas que nos denen el ensamble y x es la variable
dinámica que nos interesa medir. La ecuación 6.11 dene un operador llamado la matriz
densidad. De hecho este operador (o sus elementos diagonales) nos cuenta los sistemas en el
ensamble que se encuentran en un estado puro |xi. Denimos el resultado de la medida de
A(x) como:
Z Z
∗ 0
hAiensamble = φ (q, x )A(x)φ(q, x)dqdx = A(x)ρ(x, x0 )dx. (6.12)
esta cantidad es invariante ante transformaciones canónicas (unitarias). Es fácil de ver que:
Tr(ρ) = 1, (6.15)
X X
ρ= |miPmn hn| = |miρmn hn| (6.16)
m,n m,n
los elementos diagonales de ρ nos cuentan el número de estados, mientras que los no dia-
gonales nos hablan acerca de las probabilidades de transición entre estados o uctuaciones
estadísticas. Es obvio entonces que no podemos conocer más sobre el sistema que lo que nos
dice la matriz de densidad. Ella dene el estadodel sistema. La ecuación 6.14 queda
X
hAiensamble = ρmn hm|A|ni. (6.17)
m
Es el promedio estadístico que todo mundo conoce, con pesos ρmn . Como no conocemos
todos los estados del sistema, en general podemos decir que,
2
Tr[ρ ] ≤ 1, (6.18)
el signo igual sólo se obtiene cuando el sistema está en un estado cuántico puro. De hecho,
en general, si el estado es puro,
X
φ= cn φn donde |cn | ≤ 1 (6.19)
n
X
hφ|A|φi = c∗n cm Anm donde Anm = hφn |A|φm i y ρmn = c∗n cm ≤ 1, (6.20)
m,n
entonces,
X X
(ρ)2mn = ρmi ρin = c∗m c∗i ci cn = c∗m cn = ρmn ⇒ Trρ2 = 1. (6.21)
i i
entonces,
X
ρ(t) = |m, tiρmn hn, t| = U (t)ρ(0)U ∗ (t) (6.23)
m,n
∂ρ(t)
i~ = [H, ρ(t)]. (6.24)
∂t
Nota: ρ no es un operador normal(varía con el tiempo en la representación de Schrödin-
ger).
[H, ρ] = 0 (6.25)
en otras palabras ρ tiene que ser una función del hamiltoniano. Para encontrar esa función
podemos esgrimir viejos argumentos, por ejemplo: que si dos sistemas están en equilibrio
térmico con un baño, (a la misma temperatura) son equivalentes a otro sistema cuyo hamil-
toniano es la suma de los dos,
H1 + H2 = H (6.26)
de donde,
α normaliza a ρ (ver ecuación 6.17) y β depende del baño térmico, es decir, es función de la
temperatura. Se deriva en cualquier libro de termodinámica que,
e−H/kB T
ρ= (6.28)
Z
−H/kB T
donde la función de partición Z = Tr(e ) normaliza propiamente a ρ y cuenta el
número total de estados. Este es en ensamble Canónico. En forma más general, si el número
de partículas es variable, denimos el ensamble Gran Canónico igual que en la ecuación 6.28,
pero,
H = H + µN, (6.29)
donde µ es el potencial químico (la energía que cuesta quitarle una energía de Gibbs por
partícula al sistema) y N
es el operador de número total de partículas. La similaridad entre
− i Ht
la forma de la ecuación 6.28 y U = e ~ permite ver a la temperatura como el inverso de un
tiempo imaginario y utilizar todo el aparato cuántico descrito anteriormente para este caso,
1 τ
=i . (6.30)
kB T ~
Este es el corazón de la teoría de la funciones de Green dependientes de la temperatura.
La generalización del concepto de las funciones de Green al caso en que se tengas sistemas
uctuantes es inmediata. Denimos la función de Green casual como:
h· · · i = Tre Z B ···
−H/k T
donde es un promedio termodinámico, A y B son dos operadores cuales-
quiera en la representación de Heisenberg y el operador de Wick (que ordena en el tiempo)
se puede escribir como,
donde η = ±1, con el signo positivo para bosones y el negativo para fermiones. Por lo tanto,
la parte retardada de la función de Green se puede escribir,
o la avanzada,
65
7.2. Colectividad microcanónica
Si a los microestados clásicos les corresponden puntos matemáticos en el espacio fase, el
número total de estados compatibles con los intervalos nitos de energía y volumen serían
innitos para la mayoría de los sistemas. Así el cálculo de la entropía u otros potenciales ter-
modinámicos es problemático en la mecánica estadística clásica. La enumeración detallada
de los microestados clásicos requiere que el espacio fase 2f dimensional se divida en celdas
f
con volumen nito δ donde δ tiene las dimensiones de dq dp. Aunque podríamos considerar
un límite clásco δ → 0, esto resultaría en entropías innitas. Afortunadamente, la mecánica
cuántica da una discretización natural del espacio fase: el principio de incertidumbre limita
la precisión con la que se pueden especicar las coordenadas conjugadas de posición y mo-
mento. Por lo tanto, δ está relacionada con la constante de Planck. Más aún, si el parámetro
δ es pequeño y nito, debe ser una constante universal de tal forma que las entropías puedan
sumarse para sistemas de diferentes tipos. Por lo tanto, podemos identicar a δ con la cons-
tante de Planck h. Por lo tanto, normalizando el elemento de volumen diferencial del espacio
fase obtenemos,
f
Y dqi dpi
dΓ = (7.1)
i=1
h
const (E a E + δE),
ρ(q, p) =
0 (fuera del intervalo anterior)
Ω(E)
Ω(E) = ρ(E)δE con ρ(E) = (7.2)
δE
donde ρ(E) es independendiente de δE y da la densidad de estados dentro del intervalo.
Si denotamos con Φ(E) el número total de estados cuánticos con energía menor que E.
Para un grado de libertad o número cuántico, véase la gura 7.1, esta cantidad está dada
por,
∆ Φ1 ∼
∆
∆ ≈ s − s−1
Φ1 ∼ n ∼ o bien Φ1 () = α (7.3)
∆
con α = 1. Para f grados de libertad (números cuánticos), tenemos,
f
E Y
= y Φ(E) = Φi () ∼ |Φ1 ()|f ∼ f (7.4)
f i
∂Φ
Ω(E) = Φ(E + δE) − Φ(E) = δE (7.5)
∂E
∂Φ1 1 ∂Φ1
= f Φf1 −1 δE = Φf1 −1 δE (7.6)
∂E f ∂E
∂Φ1
donde
∂E
∼1 y Ω es una función que crece rápidamente con la energía.
∂Φ1
ln Ω(E) ∼ (f − 1) ln Φ1 + ln δE (7.7)
∂E
donde el último término es despreciable. Como f 1, podemos escribir la ecuación anterior,
ln Ω(E) ∼ f ln Φ1 (7.8)
Ω ∼ Φf1 ∝ E f (7.9)
es decir,
Ω(E) ∝ E f (7.10)
Sea Σ(E) el volumen encerrado por la supercie de energía constante (número de micro-
estados),
Z
Σ(E) = d3N q d3N p. (7.11)
H(p,q)<E
Σ(E + δE) − Σ(E) ∼ Ω(E), por lo tanto, Ω(E) = dΣ(E). Entonces Γ(E) = Σ(E + δE) −
Σ(E) = ω(E)δE , donde ω(E) = ∂Σ(E)
∂E
es la densidad de estados con energía entre E y E +δE .
Para que la mecánica estadística sea consistente, todas las siguientes deniciones tienen
que ser equivalentes,
Entropía:
S = k ln Γ(E) (7.12a)
S = k ln ω(E) (7.12b)
S = k ln Σ(E) (7.12c)
S = k ln Ω(E) (7.12d)
f N
| ∼{zln Γ}
S y
| ∼ e{z∼ e }
Γ (7.13)
(1) (2)
Teoría cinética
Independencia estadística
"mixing"(Sinaí)
Ergodicidad (Boltzmann)
Ensemble (Gibbs)
1 Una de las mayores contribuciones y sin duda la más controversial de Boltzmann a la mecánica estadística
es el teorema H. Este trabajo fué publicado en 1872, en un intento de mostrar que la segunda ley de la
Termodinámica puede derivarse de las leyes de la mecánica [6].
7.3.1. Ergodicidad
Erronéo: El tiempo que se debe esperar debe ser cuanto mayor que ef mientras que el
tiempo de observación es O(E), esto es exigir demasiado, en la práctica esto se cumple en
tiempos menores. La ergodicidad no se requiere en la mayoría de los casos.
7.3.2. Ensamble
Erronéo: No hay un número innito de sistemas sino sólo uno. El ensamble no representa
el grado de conocimiento del observador. El ensamble es una nube en el espacio fase y su
densidad está dada por la función de distribución,
Z Z
SGIBBS = − ρ ln ρdΓ ( ρdρ = 1) (7.14)
Z T
1
hA(r1 , t1 )B(r2 , t2 )i = dt A(r1 , t)B(r2 , t) = hA(r1 )ihB(r2 )i (7.16)
T 0
1. los procesos microscópicos reversibles están conectados con los macroscópicos irrever-
sibles.
Teorema Ergódico
Donde podemos considerar dos tipos de derivaciones →
Ecuación Maestra
Hipótesis ergódica de Boltzmann: Durante los años 1870's y 1880's, varias formas
de la hipótesis ergódica fueron usadas por Boltzmann en sus trabajos sobre los fundamentos
de la mecánica estadística. Una formulación de esta hipótesis es la siguiente:
71
La ecuación maestra : Nos da la evolución temporal de Pn (t) en mecánica estadística
en equilibrio. Donde Pn (t) representa la probabilidad de que un sistema esté en el estado n
al tiempo t,
dPn (t) X
= [ωnm Pm (t) − ωmn Pn (t)] (8.1)
dt m
Pn (t + dt) − Pn (t) X X
= ωmn Pm (t)dt − ωnm Pn (t)dt. (8.3)
dt m6=n m6=n
X
Z(V, T, µ) = e−β(Er −µNr ) (9.1)
r
donde tenemos que especicar un estado r. Para un sistema cuántico, que se compone de
partículas indistinguibles, tenemos que las partículas pueden ser de dos tipos, fermiones o
bosones, debido a la restricción impuesta por el principio de Pauli.
La función de onda para este sistema es Ψ(x1 , · · · , xN ). Si las partículas son idénticas,
entonces la densidad de probabilidad |Ψ(x1 , · · · , xN )|2 debe ser invariante bajo intercambios
arbitrarios de las etiquetas usadas para identicar a las partículas. En mecánica cuántica, las
partículas no tienen trayectorias bien denidas, sólo los estados de un sistema físico están
bien denidos. Supongamos que en un tiempo inicial t0 las N partículas están localizadas en
posiciones denidas x1 , · · · , xN , conforme el sistema evolucione en el tiempo esto se perderá.
El hamiltoniano es invariante bajo cualquier permutación de las etiquetas de las partículas,
ya que las permutaciones constituyen una simetría en sistemas mecanico-cuánticos de muchas
partículas. Es decir, las partículas idénticas son indistinguibles. En particular, la densidad
de probabilidad de cualquier eigenestado debe permanecer invariante si intercambiamos las
etiquetas de dos partículas. Sea Prk el operador de intercambio de las etiquetas de dos par-
tículas r y k, las funciones de onda deben cambiar bajo la acción de este operador cuando
mucho por un factor de fase. Por lo tanto, se requiere que,
Si efectuamos otra operación de intercambio, las partículas regresarán a sus estados iniciales
y recuperaremos el estado original. Este argumento requiere que φ = 0, π , ya que 2φ no debe
ser una fase observable. Por lo tanto concluimos que tenemos dos posibilidades: que Ψ sea par
73
bajo la permutación y P Ψ = Ψ o impar bajo la permutacion, es decir, pΨ = −Ψ. Los sistemas
de muchas partículas que tienen funciones de onda que son pares bajo una permutación de
sus etiquetas por parejas, se llaman bosones. En el caso Ψ impar bajo una permutación
por parejas, se llaman fermiones. Se debe considerar que estos argumentos sólo muestran
que el requerimiento de que Ψ sea par o impar es solamente una condición suciente. Bajo
circunstancias especiales (i.e. sistemas en una y dos dimensiones) surgen otras opciones y el
factor de fase φ puede tomar valores diferentes de 0 ó π. Estas partículas se llaman anyones
(del inglés anyons. Por el momento sólo pueden surgir en casos en los que las partículas están
restringidas a moverse sobre una línea o sobre plano.
Para los fermiones el principio de exclusión de Pauli, prohibe una ocupación múltiple. En
contraste, en un sistema de bosones, se pueden tener por ejemplo muchos de ellos en un sólo
estado ϕs (single-particle states).
∞
X
ER = n1 1 + n2 2 + · · · = nλ λ (9.3)
λR
donde N representa el número total de partículas en el sistema,
X
N = n1 + n2 + · · · = nλ . (9.4)
λR
e−β(Er −µNr ) Er
P
r
E= ,
Z
e−β(Er −µNr ) Nr
P
r
Nr = (9.5)
Z
donde la suma sobre todos los microestados para todas las energías posibles se efectúa su-
mando sobre todos los posibles números de ocupación,
XXX
Z= e−β[(1 −µ)n1 +(2 −µ)n2 +(3 −µ)n3 +··· ] (9.6)
n1 n2 n3
| {z }
λ
∞
X
Z(f, V, T ) = f N ZN (V, T ), (9.7)
N =0
X0
ZN (V, T ) = e−β(1 n1 +2 n2 +··· ) (9.8)
n1 ,n2 ,n3
con la prima en la sumatoria indicando que estamos restringimos al conjunto de las N 's que
cumplen con la condición,
X
nλ = N
λR
Finalmente,
" #
Y X
−βλ n
Z= (f e ) = Z1 × Z 2 × Z 3 · · · (9.12)
λ n
P
P −β[n1 (1 −µ)+n2 (2 −µ)+··· ]
P −β n (i −µ)ni P −βns (s −µ)
n1 n2 ··· e ns ni 6=ns e i
ns e ns
ns = = P
−β n ni i P
Z
P −βns (s −µ)
ni 6=ns e ns e
i
A partir de la ecuación 9.13 podemos distinguir tres casos en términos del valor del
potencial químico y la simetría de la función de onda.
∞
!
1 ∂ X
−βns s 1 ∂ 1
ns = ln e =− ln (9.14)
β ∂s ns =0
β ∂s 1 − e−βs
1
ns = (9.15)
e−βs −1
∞
!
1 ∂ X
ns = ln e−βns (s −µ) . (9.16)
β ∂s ns =0
1 ∂ 1
ln 1 − e−β(s −µ) = β(s −µ)
ns = −
β ∂s e −1
Entonces,
1
ns = (9.17)
eβ(s −µ) −1
Aún cuando T 6= 0 todas las partículas pueden condensarse en un sólo estado. El número
de partículas en el estado base puede ser innito.
Por el principio de exclusión de Pauli, para los fermiones este número puede ser 0 ó
1. Entonces en la sumatoria sobre ns en la ecuación previa sólo sobreviven dos términos y
obtenemos,
e−β(s −µ) 1
n= = (9.19)
1 + e−β(s −µ) eβ(s −µ) + 1
Entonces,
1
ns = (9.20)
eβ(s −µ) +1
La física clásica no distingue entre fermiones y bosones. Cuando las condiciones de tem-
peratura y densidad de número son tales que la clásica da una buena aproximación, entonces
los fermiones y bosones deben comportarse de la misma manera. La cantidad ±1 en las
ecuaciones 9.17 y 9.20 sobre ns debe ser insignicante relativo a la exponencial.
∞ ∞
X X 1 X N!
ZMB = N
f QN = fN e−β(n1 1 +n2 2 +··· ) (9.22)
N =0 N =0
N! n1 , n2 ,···
n1 ! n2 ! · · ·
P
s ns =N
X 1
= e−βn1 (1 −µ) e−βn2 (2 −µ) · · · (9.23)
n1 , n2 ,···
n 1 ! n 2 ! · · ·
X [e−β(1 −µ) ]n1 [e−β(2 −µ) ]n2
= ··· (9.24)
n , n ,···
n 1 ! n 2 !
1 2
P∞ P∞
e−βs
ZMB = e−β(1 −µ) + e−β(2 −µ) + · · · = e s=1 −β(s −µ)
= ef s=1 = ef z 1 , (9.25)
P∞ −βs
con z1 = s=1 e . Entonces la gran función de partición se escribe en términos de la
exponencial de una sóla partícula. El valor esperado de los números de ocupación, por ejemplo
n1 ,
∞
1 ∂ ln Z ∂ X
n1 = − =− e−β(s −µ) = e−β(1 −µ)
β ∂(1 − µ) ∂[β(1 − µ)] s=1
ns = f e−βs (9.26)
ns e−βs
= P −βr (9.27)
N re
Por otra parte si tomamos el límite clásico en las distribuciones de Bose-Einstein y Fermi-
Dirac, ecuaciones 9.17 y 9.20, éstas se convierten en,
1
ns = (9.28)
eβ(−µ)
que es la ecuación 9.27.
Y ±1
ZFD = 1 ± f e−βs (9.29)
BE
s
X
ln Z = ± ln(1 ± e−β(r −µ) ) (9.30)
r
X
ln ZLC = e−β(r −µ) (9.31)
r
X
βµ = ln N − ln e−βr
r
X
ln ZLC = −βµN ± ln(±e−β(r −µ) ) (9.32)
r
| {z }
nr
Z = −βµN + N = N (1 − βµ)
con lo que obtenemos,
X
ZLC = −N ln N + N + N ln e−βr (9.33)
| {z }
− ln N ! r
| {z }
ZMB
ZMB
ZLC = (9.34)
N!
Lo cual resuelve la paradoja de Gibbs.
Clase 10
Gas de electrones libres
El modelo de Drude de la conductividad eléctrica fué propuesto en 1900 por Paul Drude
para explicar las propiedades de transporte de los electrones en materiales (metales). El mo-
delo, que es una aplicación de la teoría cinética supone que el comportamiento microscópico
de los electrones en un sólido puede tratarse clásicamente (similarmente a una máquina de
pinball), con un mar de electrones en constante movimiento golpeando constantemente los
iones positivos más pesados. Este modelo dió algunos resultados que concordaron bastante
con los experimentos, por lo que Hendrik A. Lorentz usó todo el aparato de la teoría cinéti-
ca para investigar el problema más cuidadosamente. Sus resultados no mejoraron el modelo
de Drude, sin embargo, usó la distribución de Boltzmann y la ecuación de Boltzmann para
obtener sus resultados.
Debido a que modelo Drude-Lorentz no decía nada sobre la distribución de energía en los
metales y tampoco tomaba en cuenta el principio de exclusión de Pauli, Arnold Sommerfeld
1
(1868-1951) para eliminar estas deciencias, desarrolló un modelo para los electrones en los
metales que consideró la estadísitica de Fermi-Dirac [9].
ln Z = N (ln ζ − ln N + 1) (10.1)
Podemos suponer además que el gas de electrones está contenido en una caja de lados
Lx, Ly , Lz y que el potencial dentro de la caja es constante. La ecuación de Schrödinger es,
~2 2
− ∇ Ψ(r) = EΨ(r) (10.2)
2m
y su solución es,
1 Seis estudiantes de Sommerfeld: Werner Heisenberg, Wolfgang Pauli, Peter Debye, Hans Bethe, Linus
Pauling and Isidor I. Rabi, ganaron un premio nobel en física. Sommerfeld fué nominado 81 veces pero nunca
ganó
81
1
Ψk (r) = V − 2 eik·r (10.3)
~2 k 2
Ek = . (10.4)
2m
Para evitar dicultades en las fronteras, podemos suponer condiciones períodicas de tal
forma que en x=0 y x = L, la función de onda valga lo mismo, Ψ(x + L) = Ψ(x). Esto nos
lleva a que hay un número entero de longitudes de onda en el interior de la caja, es decir, los
valores permitidos de ki con i = x, y, z satisfacen,
2πni
ki = (10.5)
Li
donde ni = 0, ±1, ±2, · · · . Por lo tanto la energía es,
El número de estados disponibles para una magnitud dada del vector de onda |k| se
encuentra construyendo un cascarón esférico de radio k y grosor dk . El volúmen de este
2
cascarón esférico en el espacio k es 4πk dk . Por lo tanto, el número de estados k dentro del
cascarón esférico, ρ(k) dk es (aproximadamente) el volumen del espacio k multiplicado por
la densidad espacial de estados,
2 V
ρ(k) dk = 4πk dk (10.7)
π3
Por lo tanto, el número de estados en un intervalo de energía,
ρ(E) dE = ρ(k) dk
dk dk V
ρ(E) = ρ(k) ⇒ ρ(E) dE = ρ(k) dE = 2 2 mk dE
dE dE 2π ~
√
tomando en cuenta la ecuación 20.3, obtenemos k= 2mE/~2 , por lo que,
√
V 2mE
ρ(E) dE = 2 2 m dE
2π ~ ~2
Es decir,
V m3/2 √
ρ(E) dE = 2E dE = cteE 1/2 (10.8)
2π 2 ~3
Si efectuamos el mismo procedimiento en una y dos dimensiones obtenemos ρ(E)dE =
−1/2
cteE y ρ(E)dE = cte respectivamente.
z X
2 ~2
(kx2 +ky2 +kz2 ) 2
X ~
Y
−β 2m
ζ= e = e−β 2m ki . (10.9)
kx ,ky ,kz i=x ki
Z ∞ 1/2
X ~
−β 2m
2
ki2 Li ~
−β 2m
2
ki2 Li 2πm
e ≈ e dki =
ki
2π −∞ 2π β~2
1/2
Li 2πm
= (10.10)
2π~ β
3/2
i=x,y,z V 2πm
ζ = 3 , (10.11)
h β
donde hemos sustituido ~ = h/2π . Finalmente la gran función de partición, ecuación 10.1,
V 3 3 2πm
ln Z = N ln + ln β + +1 . (10.12)
N 2 2 h2
Clase 11
Física Estadística Cuántica
En mecánica estadística clásica es conveniente representar el estado de un sistema de f
grados de libertad por la posición de un punto en el espacio fase qp de 2f dimensiones y luego
representar un ensamble de estos sistemas por medio de una nube de puntos en el espacio fase
distribuidos con una densidad ρ1 . Suponiendo que esta densidad está normalizada a uno, es
decir,
Z Z
··· ρdq1 · · · dqf dp1 · · · dpf = 1. (11.1)
A partir de la expresión anterior, podemos calcular el valor medio (para los sistemas en
el ensamble) de cualquier función F (q, p) de las coordenadas y momentos con la ecuación,
Z Z
hF i = ··· F (q, p)ρdq1 · · · dqf dp1 · · · dpf . (11.2)
|ψi = ψ(q)
P
denido en términos de una base ortonormal hψq |ψq0 i = δqq0 y completa q |ψq ihψq | = 1, el
valor de expectación de cualquier operador se denota con hψq |A|ψq i.
Cuando el sistema evoluciona en el tiempo t, el estado puro q sólo cambia de fase, por
lo tanto, el problema mecánico cuántico queda resuelto si conoemos los {A}, es decir, los
valores de expectación de los operadores que conmutan con el Hamiltoniano H . En general
el conjunto completo de observables {A} no se conoce y por lo tanto, el sistema no estará en
un estado cuántico puro. Los promedios hψq |A|ψq i no darán lo mismo.
85
X
hAi = Pi hψi |A|ψi i (11.3)
i
P
con Pi ≥ 0 y i Pi = 1.
Denimos el operador matriz densidad, el cual da la proyección sobre el estado i, pesado
por la probabilidad,
X
ρ̂ = Pi |ψi ihψi |. (11.4)
i
X
Tr(Âρ̂) = hbn |Âρ̂|bn i (11.5)
n
XX
= Pi hbn |Â|ψi ihψi |bn i (11.6)
n i
XX
= Pi hψi |bn ihbn |Â|ψi i (11.7)
n i
X
= Pi hψi |Â|ψi i = hÂi, (11.8)
i
ρ̂† = ρ̂
Es positiva,
X
hbn |ρ̂|bn i = Pi hbn |ψi ihψi |bn i
i
X
= Pi |hbn |ψi i|2 ≥ 0.
i
P
Tr ρ̂ = i pi = 1, ya que los coecientes son probabilidades.
obtenemos la ecuación de Heisenberg, que en este caso es conocida como ecuación de von
Neumann,
∂ ρ̂(t) h i
i~ = Ĥ, ρ̂ . (11.12)
∂t
Por lo tanto, la matriz densidad ρ̂ depende del tiempo y es un operador de Heisenberg.
En un sistema en equilibrio ρ̂ es estacionario y conmuta con Ĥ ,
h i
Ĥ, ρ̂ = 0 en equilibrio (11.13)
En este caso, ρ̂ es una constante de movimiento que solamente depende del hamiltoniano.
Para esribir en términos de la matriz densidad los ensambles, necesitamos encontar la forma
de ρ̂.
X
Θ(E + ∆E + En(α) ) − Θ(E − En(α) )
Ω(E, N, α; ∆E) = (11.15)
n
donde Θ es la función de Heaviside y α representa los parámetros de los que puede depender
Ω, tales como el volumen V el número de partículas N, etc. La matriz densidad,
(α) (α)
Θ(E + ∆E + En ) − Θ(E − En )
ρmn = hψm |ρ̂|ψn i = δmn (11.16)
Ω(E, N, α; ∆E)
En este caso, la matriz es diagonal porque la probabilidad de pasar a otro estado es cero. El
valor de expectación del operador Â, esta dado por,
X XX
hÂi = hψn |Âρ̂|ψn i = hψn |Â|ψm ihψm |ρ̂|ψn i (11.17)
n n m
1X
hψn |Â|ψn i × Θ(E + ∆E − En(α) ) − Θ(E − En(α) ) ,
= (11.18)
Ω n
la suma de los valores de expectación de todos los estados que se encuentran entre los estados
E y E + ∆E . Podemos denir la densidad de estados como,
X
ω(E, α, N ) = δ(E − En(α) ) (11.19)
n
el cuál es el volumen del espacio fase encerrado por la supercie a energía constante. Final-
mente,
(α) (α)
Θ(E + ∆E − En ) − Θ(E − En )
ρmn = δmn (11.21)
Ω(E, N, α; ∆E)
(α)
δmn e−βEn
ρmn = hψm |ρ̂|ψn i = (11.22)
Z
donde,
X (α)
Z(β, α, N ) = i eβEn (11.23)
n
N
X
Ĥ = Ĥ j (11.24)
j=1
X X
Ĥi |ϕi i = i |ϕi i ⇒ Ĥ = i |iihi| = i â†i âi = i ni .
i i
con ↠y â, los operadores de creación y aniquilación respectivamente. Recordemos que un
estado cuántico cualquiera puede ser representado como una excitación del vacío, denido
según,
i
â†i |ϕi = |0, 0, · · · , 1, 0, · · · , 0i = |ii
Similarmente,
X∗
EnN = ni i (11.27)
i
P
donde ∗ i ni = N , es decir, la conservación del número de partí-
representa la restricción,
culas. En el ensamble canónico, obtenemos,
X∗ P
Z(β, α, N ) = e−β i ni i (α)
(11.28)
{ni }
~
= −~µ · H (11.29)
donde µ
~ es el momento magnético de un átomo, denido según,
~ = gµ0 J~
µ (11.30)
e~
con g el factor de Landé, µ0 el magnetón de Bohr, a su vez denido como µ0 = 2mc
, y
ˆ
J = L̂ + Ŝ el momento angular total. En términos de la ecuación 11.30, la energía, ecuación
11.29 puede reescribirse como,
= −gµ0 J~ · H
~ = −gµ0 |H|J
~ z (11.31)
donde hemos supuesto que el campo magnético apunta a lo largo de la dirección z . Recorde-
mos que Jz es una cantidad cuantizada que toma valores Jz = m, con m = 0, ±1, ±2, · · · , ±J ,
es decir un total de 2J + 1 valores. Por lo tanto, los posibles estados cuánticos son,
PJ βgµ0 mH
m=−J (gµ0 m)e
hµz i = PJ . (11.33)
e βgµ0 mH
m=−J
J
X
Z= eβgµ0 mH = e−yJ + e−y(J−1) + · · · + ey(J−1) + eyJ
m=−J
= e−yJ 1 + e1 + e2 + · · · + e2yJ
2J
e−yJ 1 − e2yJ+1
X
−yJ ny
=e e =
n=0
1 − ey
| {z }
suma geométrica nita
1 1
e−yJ − eyJ e−y(J+ 2 ) − ey(J+ 2 )
= = − y2 y
1 − ey e − e 2
1
senh J + 2 y
= . (11.34)
senh y2
senh J + 12 y
Z= . (11.35)
senh y2
Para hacer la conexión con la termodinámica, conviene calcular antes la siguiente canti-
dad,
1 y
ln Z = ln senh J + y − ln senh (11.36)
2 2
Por lo tanto,
1 ∂ ln Z ∂ ln Z
hµz i = ≡ gµ0 (11.37)
β ∂H ∂y
" #
J + 12 cosh J + 12 y 1 cosh y2
hµz i = gµ0 −
senh J + 12 y 2 senh y2
1 1 1 y
= gµ0 J + coth J + y − coth
2 2 2 2
N
f N eEn
ρmn = δmn (11.40)
Q(β, α, N, f )
donde Q es la gran función de partición, denida,
∞ ∞
X X (N ) X
N −βEn (α)
Q= f e = fN Z(β, V, N )
n
| {z }
N =0 N =0
función de partición canónica
∞
X X∗ P
= fN e−β i ni i (α)
N =0 {ni }
∞ X∗ Y
X ni
= f e−βi
N =0 {ni } i
X∞
= C(N ) fN. (11.41)
| {z } |{z}
N =0
coef. desconocidos serie geométrica
La derivada de la gran función de partición, ecuación 11.41 con respecto a N es
∞
∂Q X
= N C(N )f N −1 . (11.42)
∂f N =0
f ∂ ln Q
hN i = . (11.43)
∂f
Notemos lo siguiente,
X X∗ P
fN = f i ni
,
N {ni }
es decir podemos sumar sobre las ni 's y por lo tanto los coecientes C(N ) no afectan la suma.
X P P
ni −β ni i (V )
Q(β, V, f ) = f i e i
{ni }
Por lo tanto,
YX ni
Q(β, V, f ) = f e−βi (V ) (11.44)
i {ni }
Recordemos que en mecánica cuántica la simetría de los estados es importante, para los
fermiones ni = 0, 1, por lo tanto,
Y
1 + f e−βi (V ) ,
QF = (11.45)
i
Y 1
QB = . (11.46)
i
1 − f e−βi (V )
X
ln 1 ± e−β(i −µ)
ln QFD = ± (11.47)
BE
i
O bien,
X
ln 1 + Θe−β(r −µ)
ln Q = Θ (11.48)
r
en términos de,
1 : fermiones
Θ=
−1 : bosones
El número promedio de partículas está dado por,
f e−βi (V )
P
i
hN i = . (11.49)
1 + Θf e−βi (V )
Y por lo tanto, el número de partículas en el estado i,
f e−βi (V )
hni i = . (11.50)
1 + Θf e−βi (V )
Clase 12
Teoría cuántica de gases ideales
12.1. Introducción
Hasta ahora hemos obtenido dos distribuciones fundamentales en Mecánica Estadística:
Fermi-Dirac y Bose-Einstein. Las ecuaciones básicas asociadas con estas distribuciones son,
Y ±1
Q(V, T, f ) = 1 ± f e−βk (12.1)
k
El número de partículas,
X f e−βk
N= (12.2)
k
1 ± f e−βk
f e−βk
nk = (12.3)
1 ± f e−βk
La energía,
X f e−βk k
E= (12.4)
k
1 ± f e−βk
X
ln 1 ± f e−βk
pV = ±kT (12.5)
k
95
f grande a T baja o ρ alta: Comportamiento cuántico
Una onda electromagnética puede considerarse como una partícula sin masa de espín
entero ~ = h/2π , con momento y energía en función de su longitud de onda λ. Notemos lo
siguiente, como el gas se compone de fotones de espín 1 (en unidades de ~), tenemos un gas
de Bose-Einstein.
= hν = ~ω = ~ck (12.6)
h
p= = ~k (12.7)
λ
Consideremos la radiación de cuerpo negro en equilibrio como un sistema de ondas esta-
cionarias en el interior de la cavidad. De la ecuación 12.6 vemos que la energía depende del
vector de onda |~k|, por lo tanto, necesitamos una expresión del número de ondas estacionarias
con energía entre y + d,
π2 2
k2 = 2 2
n x + ny + n z nx , ny , nz = 1, 2, · · · (12.8)
L2
Recordemos que el número de estados con energía menor o igual a es aproximadamente
igual al número de puntos de red cristalina que caben dentro de una esfera de radio R dado
por,
L2 k 2
R2 = n2x + n2y + n2z = (12.9)
π2
Estamos interesados en calcular el número de estados que tienen aproximadamente la misma
energía , y esto se hace contando el número de puntos de red cristalina que están a una
distancia constante del origen. Para 1/8 del volumen de la esfera obtenemos,
4πR3 L3 k 3 V k3
1 1
φ(k) = = π = (12.10)
8 3 6 π3 6π 2
dφ V k 2 dk
g(k)dk = dk = , (12.12)
dk 2π 2
y de la ecuación 12.6, obtenemos,
2 V 2 d
1 1
g()d = V d = (12.13)
~2 c2 2π 2 ~c (~c)3 2π 2
Como los fotones tienen dos polarizaciones, obtenemos nalmente,
V 2
g()d = d, (12.14)
π 2 ~3 c3
el número de ondas estacionarias con energía entre y + d.
La energía total del sistema,
X
E({nk }) = k nk (12.15)
k
X X P
Z(V, T ) = e−βE({nk }) = e−β k k nk (12.16)
{nk } {nk }
∞
!
Y X Y 1
Z(V, T ) = e−βk n = (12.17)
k n=0 k
1 − e−βk
donde hemos considerado una serie geométrica nita para llegar al resultado. Recordemos
que en el ensamble canónico todas las variables termodinámicas están en función del ln Z ,
por lo tanto,
" #
Y 1 1 X
ln Z = ln = ln
k
1 − e−βk k
1 − e−βk
X X
ln 1 − e−βk = − ln 1 − e−β
=− (12.18)
k
Esta sumatoria se puede convertir en una integral, si introducimos la densidad de estados
y tratamos a como una variable continua,
Z ∞
V
ln Z = − 2 3 3 2 ln(1 − e−β )d
π c~ 0
∞
V X 1 ∞ 2 −nβ
Z
= 2 3 3 e d (12.19)
π c ~ n=1 n 0
Z ∞
2
2 e−nβ d =
0 n3 β 3
por lo tanto, la función de partición es,
∞
V 2 X 1
ln Z = 2 3 3 3 (12.20)
π c ~ β n=1 n4
∞
X 1
ζ(s) = s
, (12.21)
n=1
n
V 2
ln Z = ζ(4) (12.22)
π 2 c3 ~3 β3
Obtenemos la energía del sistema a partir de,
2∂ ln Q
E = kT
∂T V
2 ∂ V ζ(4) 3
= kT 2(kT )
∂T π 2 c3 ~3
4 V ζ(4) 6 4 (kT )4 V
= 6(kT ) 2 3 3 = π 2 3 3 (12.23)
π c~ 90 π c ~
nalmente,
π 2 V (kT )4
E= . (12.24)
15(~c)3
Por lo tanto la densidad de energía de un gas de fotones depende de la cuarta potencia en la
temperatura T.
De teoría cinética, el ujo de partículas golpeando una supercie por unidad de área por
unidad de tiempo en el contenedor es,
1 nc
Φ = nhvi = (12.25)
4 4
La potencia emitida es la energía ~ω , multiplicada por el ujo,
n~ωc
P = ~ωΦ = (12.26)
4
Pero la energía total es E = n~ω , por lo tanto,
π 2 V (kT )4 c π 2 V (kT )4
P = = ≡ σT 4 (12.27)
15(~c)3 4 60(~3 c2 )
2(kT )4
∂ ln Z
p = kT = 2 ζ(4) (12.28)
∂V T π (~c)3
π 2 (kT )4
p= (12.29)
45(~c)3
4π 2 V ~(kT )3
∂ ln Z
S = k ln Z + kT = (12.30)
∂T V 45(~c)3
µN = G − T S − pV = 0. (12.31)
X X
ln Z = − ln(1 − e−β ) = − ln(1 − e−β~ω )
ω
2∂ ln Z
E = kT =
∂T V
( )
∂ X
= kT 2 − ln(1 − e−β~ω )
∂T ω
−β~ω
X e
= ~ω (12.32)
ω
1 − e−β~ω
Introduciendo la densidad de estados y transformando la sumatoria en una integral,
∞
V 2 ~ωe−β~ω
Z
E= ω dω
0 π 2 c3 1 − e−β~ω
Z ∞ 3 −β~ω
V~ ω e
= 2 3 dω. (12.33)
π c 0 1 − e−β~ω
La energía termodinámica por unidad de volumen, puede escribirse en términos de la
densidad de energía de cada frecuencia,
Z ∞
E
= ρ(ω, T )dω (12.34)
V 0
donde,
~ ω3
ρ(ω, T )dω = dω (12.35)
π 2 c3 eβ~ω − 1
la cual es la distribución de radiación de cuerpo negro, derivada por Planck.
Pierre Louis Dulong y Alexis Thèrèse Petit efectuaron experimentos en sólidos cristalinos
tridimensionales para determinar la capacidad caloríca de una variedad de éstos. Dulong
y Petit descubrieron que todos los sólidos que estudiaron tienen una capacidad caloríca
4 −1 −1
de aproximadamente 2.49 × 10 J kilomole K a aproximadamente una temperatura de
298 K o temperatura ambiente, véase la gura 12.1. Los resultados de sus experimentos
fueron explicados considerando que cada átomo dentro del sólido se puede considerar como
un pequeño oscilador con seis grados de libertad (el oscilador puede imaginarse como un
resorte conectando todos los átomos dentro de la red cristalina). Estos resortes se extienden
en el espacio tridimensional. Mientras más energía se agrega al sólido, estos resortes vibran
1
más. Cada átomo tiene una energía de kT , donde k es la constante de Boltzmann y T , la
2
temperatura absoluta. Así,
N
cV = 6 k = 3N k.
2
El número 6 en la ecuación anterior es el número de grados de libertad para la molécula.
Petit y Dulong sugirieron que estos resultados fundamentaban sus trabajos experimentales
para la capacidad caloríca de los sólidos. Sin embargo, esta explicación no fué suciente
cuando se descubrió que la capacidad caloríca decrece cuando la temperatura se acerca
al cero absoluto. Los grados de libertad no dejan de contribuir cuando el sólido alcanza
una temperatura lo sucientemente baja. Por lo tanto, se propusieron modelos adicionales
para explicar esta desviación. Dos teorías principales fueron desarrolladas para resolver esta
desviación en los experimentos. La primera, fué construida por Einstein y la segunda por
Debye.
2.5
2.0
Pb
1.5 Ag
cV Zn
Cu
4 J
10 K·mol 1.0 Al
0.5
ΘE
Figura 12.1: Resultados de la medición de la capacidad caloríca para varios sólidos. Expe-
3
rimentalmente se encontró que la temperatura tiende a cero como T .
Einstein hizo tres suposiciones al investigar la capacidad caloríca de los sólidos. Primero,
supuso que todos los sólidos se componen de una estrutura de red cristalina que consiste de
N átomos. Cada átomo, se mueve independientemente en las tres dimensiones de la red
cristalina (3 grados de libertad), lo que equivale a describir el movimiento vibracional de la
red cristalina por 3N grados de libertad. La segunda suposición, fué que los átomos dentro
de la red cristalina del sólido no interactúan entre sí y nalmente, la tercera, que todos los
átomos dentro del sólido vibran a la misma frecuencia. Esta es la diferencia principal entre
este modelo y el de Debye.
1
n = ~νE n+ con n = 0, 1, 2, · · · (12.36)
2
Si cada oscilador está en equilibrio térmico, la función de partición canónica,
∞
X ∞
X
Z= e−βn = e−βhνE (n+1/2)
n=0 n=0
∞
1
X
= e−βhνE n e− 2 βhνE
n=0
∞
x
X
= e− 2 e−xn con x ≡ βhνE . (12.37)
n=0
obtenemos,
x
e− 2
Z(T, V, N ) = (12.39)
1 − e−x
La energía la obtenemos de la expresión,
∂ ln Z ∂ βhνE hνE hνE
u=− = + ln(1 − e−βhνE ) = + βhν (12.40)
∂β ∂β 2 2 e E −1
hνE
donde es la energía del punto cero. Como la energía es una cantidad extensiva, la energía
2
para los 3N osciladores está dada por,
hνE hνE
U = 3N u = 3N + βhν (12.41)
2 e E −1
∂U ∂u ∂β
cV = = 3N (12.42)
∂T V ∂β V ∂T
x2 ex hνE ΘE
cV = 3N k con x≡ = (12.43)
(ex − 1)2 kT T
donde ΘE es la temperatura de Einstein, que es diferente para cada sólido y reeja la rigidez
x
de la red cristalina. Cuanto T ΘE , o bien x 1, e → 1 − x y cV → 3N k , recuperamos
x x
la ley de Dulong-Petit. En el límite de baja temperatura, T ΘE y x 1, e − 1 ∼ e y
obtenemos,
2
ΘE ΘE
cV ∼ 3N k e− T (12.44)
T
por lo tanto, el modelo predice esta cantidad en lugar de T 3 como los datos experimentales. Es
decir, según el modelo de Einstein, la temperatura decae exponencialmente a cero (comparada
3
con T ).
como un medio elástico homogéneo. Debye obtuvo la expresión para el número de modos con
frecuencia entre ν y ν + dν . Retomando el cálculo efectuado en la sección 12.2, particularme
la ecuación 12.12, obtenemos,
V k2
g(k)dk = dk (12.45)
2π 2
vk
y en términos de la velocidad de propagación de la onda v = λν = 2π
, obtenemos,
4πV 2
g(ν)dν = ν dν (12.46)
v3
donde V es el volumen. Considerando que hay dos tipos de ondas en un medio elástico homo-
géneo: ondas transversales y longitudinales. Recordemos qeu podemos dibujar dos vectores
independientes con respecto a ~
k y sólo uno paralelo a ~k , por lo que hay dos ondas transversales
y una longitudinal. En términos de esto,
2 1
g(ν)dν = 3
+ 3 4πV ν 2 dν (12.47)
vt vl
3 2 1
3
≡ 3+ 3 (12.48)
v0 vt vl
Finalmente,
12πV 2
g(ν)dν = ν dν (12.49)
v03
válida para ν bajas o λ grandes, es decir, cuando la naturaleza atómica del sólido es despre-
ciable. La ecuación 12.53 es válida para todas las frecuencias normales, sin embargo, como el
número total de frecuencias normales es 3N , Debye denió una frecuencia máxima νD de tal
forma que la integral de g(ν)dν entre cero y νD iguale a 3N ,
Z νD
g(ν)dν = 3N. (12.50)
0
9N 2
g(ν)dν = 3
ν dν (12.53)
νD
g(ν)dν
N (ν)dν = (12.54)
ehν/kT −1
La energía,
νD νD
ν 3 dν
Z Z
9N h
U= hνN (ν)dν = 3 (12.55)
0 νD 0 ehν/kT − 1
en donde hemos ignorado la energía del punto cero. Deniendo la temperatura de Debye,
hνD
ΘD = (12.56)
k
y calculando,
ehν/kT
∂ 1 hν
= . (12.57)
∂T ehν/kT − 1 kT 2 (ehν/kT − 1)2
Por lo tanto, la capacidad caloríca,
νD
ehν/kT
Z
9N h hν
cV = 3 2 hν/kT 2
ν 3 dν (12.58)
νD 0 kT (e − 1)
hν
Si hacemos el cambio de variable x≡ kT
, obtenemos
3 Z ΘD /T
x4 ex dx
T
cV = 9N k (12.59)
ΘD 0 (ex − 1)2
Z νD 3
2 1 ΘD
x dx = (12.60)
0 3 T
por lo tanto,
∞
x4 ex dx 4π 4
Z
= (12.62)
0 (ex − 1)2 15
Por lo tanto,
3
12π 4
T
cV = Nk Ley T3 de Debye. (12.63)
5 ΘD
Clase 13
Condensación de un gas ideal de bosones
Para un gas de bosones, el número promedio de partículas está dado por la expresión,
X ze−βi
hN i = (13.1)
i
1 − ze−βi (V )
z X0 ze−βi
hN i = + (13.2)
1−z i
1 − ze−βi
| {z }
estados con energía cero
| {z }
contribución de los estados excitados
Cuando la temperatura es cero, sólo sobrevive el primer término del lado derecho en la
ecuación 13.2. Sin embargo, cuando la temperatura aumenta, algunas partículas empiezan a
poblar los estados excitados. En el límite termodinámico,
∞
e−β
Z
z 3 2m
hN i ∼ + (2π) V 1/2 d (13.3)
1−z 0 h2 1 − ze−β
X 1
xq =
q
1−x
es decir,
∞
ze−β X
= zq e−βq (13.4)
1 − ze−β q=1
Denotando las constantes que multiplican a los estados excitados con Λ, obtenemos,
107
∞
V X q ∞
Z
z
hN i = + 3 z d 1/2 e−βq
1 − z Λ q=1 0
∞
z V X zq
= +
1 − z Λ3 q=1 q 3/2
z V
= + 3 g3/2 (‡). (13.5)
1−z Λ
∞
X zq
gl = . (13.6)
i=1
ql
z
=0 z 1. (13.7)
V [1 − z]
Entonces la densidad de partículas queda como,
hN i 1
ρ= = 3 g3/2 (z) z < 1. (13.8)
V Λ
por lo tanto, la densidad de partículas tiene que ver con las partículas que no se encuentran
en el estado base. Si aumentamos z (T baja), manteniendo la densidad ρ constante, la función
g3/2 crece, aunque tiene un límite superior, dado por la función zeta de Riemann.
∞
X 1
ζ(`) = `
. (13.9)
q=0
q
Por lo tanto,
h
Λc (ρ) = p (13.10)
2πmkTc (ρ)
que es una longitud gobernada por la densidad de energía. Si bajamos la temperatura aún
más, por debajo de la crítica, esta aproximación ya no es válida. Habrá una fración λ de
partículas en el estado base,
z
λhN i = (13.11)
1−z
donde 0 < λ < 1, entonces,
λhN i 1
z= = 1 . (13.12)
1 + λhN i 1 + λhN i
En el límite termodinámico,
1 z 1
ρ = LT + 3 g3/2 (z) (13.13)
V 1−z Λ
La densidad de partículas es,
1
g (z)
Λ3 3/2
T > Tc
ρ=
ρ0 + Λ13 ζ( 32 ) T < Tc
Es decir, tenemos una transición de fase, donde el parámetro de orden es la densidad
N0 /N , con N0 el número de partículas en el estado base, como se muestra en la gura 13.1,
Cuando T > Tc no hay en el estado base ninguna partícula, cuando T < Tc estamos
en la fase condensada. Para observar la condensación de Bose, se requiere llevar al sistema
a una temperatura crítica de nano Kelvin. En presencia de un campo magnético oscilante
obtenemos,
3
N0 T
=1− (13.16)
N Tc (ρ)
Para obtener la temperatura crítica,
1/2
N
kTc (N ) = ~ω0 (13.17)
ζ(z)
En el experimento con 1000 átomos de rubidio, la temperatura de condensación fué del
orden de nano Kelvins, como se muestra en la gura 13.2
Ocupación
macroscópica
de un estado con
p=0
∞
X X
Q= zN e−βi ni (13.18)
N =0 {ni }
que es una suma de funciones analíticas que son exponenciales. Si N es nita, en un numero
nito de sumandos, donde cada sumando es analítico, la Q es analítica. Sin embargo, no
existe un teorema que diga que la suma innita de sumandos analíticos es también analítica,
por lo tanto, para que ocurra una transición de fase, se requiere que el sistema sea innito.
Un fenómeno crítico existe si existe una zcrit → 1 cuando hN i → ∞.
3/2 Z ∞
2m
ln Q = − ln(1 − z) − 2πV d 1/2 ln(1 − ze−β ) (13.19)
h2 0
∞
X zq
ln(1 − z) = − (13.20)
q=1
q
V
ln Q = − ln(1 − z) + g5/2 (z) (13.21)
Λ3
hEi 1 ∂ ln Q 3 1
e≡ =− = kT 3 g5/2 (z) (13.22)
N β ∂β 2 ρΛ
Entonces,
3/2
T g5/2 (z)
T > Tc
3
Tc (ρ) ζ( 52 )
e = kT 3/2
2
T ζ(5/2)
Tc (ρ) ζ(3/2)
:x≤0
3/2
15 T g5/2 (z)
cV (−) = k T < Tc (13.23)
4 Tc ζ(3/2)
3/2 3/2
15 T g5/2 (z) 3 T 1 ∂g5/2 (z)
cV (+) = k = k T > Tc (13.24)
4 Tc ζ(5/2) 2 Tc ζ(3/2) ∂T
Podemos escribir,
∂z −z 3 z
= ρΛ
∂T 2T g1/2 (z)
Sustituyendo en la ecuación 13.24, llegamos a,
3/2
9 k T g3/2 (z)
cV (+) = (13.25)
4 ζ(3/2) Tc g1/2 (z)
cuando z→1 obtenemos,
∂cV (−) ∂cV (+) 27 3 k
=− = ζ . (13.27)
∂T ∂T 16π 2 Tc (ρ)
Figura 13.3: Calor especíco de una gas de Bose ideal uniforme, en función de la temperatura.
Para T grande la curva se aproxima al valor clásico 3/2. La curva exhibe un pico en T = Tc .
Clase 14
Modelos de la conductividad eléctrica
3
Zc ρm 1 e/átomo · 1 × 106 g/m
n = NA = 6.02 × 1023 átomos/mol
A 29 g/mol
28 3
= 2 × 10 e/m (14.1)
En el modelo de Drude, se eliminan todas las interacciones entre los electrones y los iones,
1. Las colisiones entre los iones y los electrones son eventos instantáneos y no correlacio-
nados.
2. Ignoraremos cualesquiera otras interacciones, tales como los potenciales de los iones y
otros electrones, a excepción de las debidas a los campos aplicados. Esto signica que
los electrones viajan a lo largo de líneas rectas entre eventos de dispersión.
4. Las colisiones termalizan electrones. Esto signica que después de una colisión los elec-
trones tienen la temperatura del medio local.
113
Figura 14.1: Representación esquemática de un único átomo del metal aislado. El átomo
consiste de un núcleo de carga +Zc rodeado por electrones de las capas internas que proveen
una carga −e(Zc − Z), y Z electrones de valencia de carga −eZ . En el metal, los electrones
de las capas internas permancen ligados al núcleo, pero los electrones de valencia se pueden
mover en el metal como electrones de conducción.
d~p ~ p~ ~ p~
=e E+ ×B − . (14.2)
dt m τ
|{z}
coeciente de viscosidad
Despreciando el campo magnético y considerando una colisión de tal forma que,
∆p ~
= −eE (14.3)
∆t
∆v e ~ e ~
=− E ∆v = − E∆t
∆t m m
Haciendo un promedio,
como hv 0 − v0 i = h∆vi y considerando que hv0 i = 0, ya que la velocidad puede ser cualquiera,
obtenemos,
e ~
hvi = − Eτ (14.4)
m
Usando la ley de Ohm frecuentemente expresada como
V = RI
o de la siguiente manera, en términos de la densidad de corriente ~j
~
~j = σ E (14.5)
~j = ne~v ~
h~ji = σ E
despejando obtenemos una expresión para σ dada por,
ne2
σ= τ (14.6)
m
Experimentalmente, al medir σ se puede calcular τ , el cual resulta del orden de 10−14 seg
(n del orden del número de Avogadro.)
V 1 4π 3
= = r (14.7)
N
|{z} n 3 s
volumen ocupado por un electrón
donde rs es el radio de la esfera que ocupa un electrón, el cual tiene un valor numérico de 2
ó 3 veces el radio de Bohr (rs /a0 ∼ 2, 3).
1
hni = ≡ f (, µ, T ). (14.8)
e(β−µ) + 1
El número de electrones es,
2kF2 kF2
N= V →n= (14.9)
6π 2 3π 2
Introduciendo el radio de Bohr,
~2
a0 =
me2
obtenemos,
1/3
3 V 4π 3
rs = = r
πn N 3 s
(9π/4)1/2 1.92
kF = ∼
rs rs
3.6 −1
kF =
rs /a0
donde rs /a0 , como ya habiamos dicho previamente es el radio de la esfera que aproximada-
mente ocupa un electrón. Reescribiendo,
e2
50.1eV
EF = (kF a0 )2 ∼ (14.10)
2a0 (rs /a0 )2
| {z }
cte. Rydberg (13.6 eV)
X
hN i = ni f ()
i
3/2 Z ∞
2m
= 4πV d 1/2 f (, µ, T )
h20
Z ∞
2 3/2
=A d 1/2 Θ(F − ) = AF (14.11)
0 3
Z ∞
2
hEi = A d 3/2 Θ(F − ) = 5/2
. (14.12)
0 5AF
La energía promedio por electrón,
hEi 3 3
= 0 = F = kTF (14.13)
hN i 5 5
entonces a cero grados, la temperatura del gas es TF ,
µeV
F = kTF = 80 TF (14.14)
K
por lo tanto,
50
TF = × 104 K. (14.15)
(rs /a0 )3
La presión del gas en el estado base,
∂U ∂hEi
P =− =− (14.16)
∂V N ∂V N
3
hEi = hN i F n2/3 = (N/V )2/3
5
2 hEi
F ∼ kF2 P =
3 V
Recalculando,
X ∂i
Pi = − hni i (14.17)
i
∂V
∂i 2 2
i ∼ V −2/3 ∼ − V −5/3 =
∂V 3 3V
Introduciendo el módulo de Young,
5
1 ∂P 10 hEi 2 13.6 dinas
κ= B = −V = = nF = × (14.18)
B ∂V 9 V 3 (rs /a0 ) cm2
( q
m 2m
~2 π 2 ~2
>0
g() = (14.19)
0 <0
Es conveniente escribir,
1/2
3n m
g= = kF
2 F F h2
n
donde
F
es la densidad del gas y F la energía máxima. Para que lo anterior sea congruente
F = µ, recordemos que
F = lı́m µ (14.20)
T →0
∞
hEi
Z
U
u= = = dg()f () (14.21)
N N −∞
donde g() está dada por la ecuación 14.19 y f () es la función de Fermi.
Z ∞
N
n= = dg()f () (14.22)
V −∞
Para calcular la integral nos interesa jarnos alrededor del nivel de Fermi, gura 14.2.
Desarrollando H(), suponiendo que es analítica,
∞
X dn H() ( − µ)n
H() = n
desarrollo de Sommerfeld (14.23)
d n!
=µ
n=0
Figura 14.2: Función de Fermi: La variación es del orden del 1 % alrededor de F .
Z ∞
dκ
κ= H(0 )d0 H() = (14.24)
−∞ d
e integrando por partes,
Z ∞ Z ∞
∂f
H()f ()d = κ() − d (14.25)
−∞ −∞ ∂
Desarrollando en series de Taylor la κ alrededor de µ,
∞
X ( − µ)n dn (κ − )
κ() = κ(µ) + . (14.26)
i=1
n! dn =µ
∞ µ ∞ Z ∞
( − µ)2n d2n−1
Z Z
X ∂f
H()f ()d = H()d + − d 2n−1 H() (14.27)
−∞ −∞ n=1 −∞ (2n)! ∂ d =µ
−µ
Haciendo el cambio de variable x≡ kT
, podemos escribir,
∞ µ ∞
d2n−1 H()
Z Z X
H()f ()d = H()d + an (kT )2n 2n−1
(14.28)
d
−∞ −∞ =µ
| {z } |n=1
término para T=0
{z }
desviaciones de T=0
donde,
∞
x2n ∂
Z
1
an ≡ dx (14.29)
−∞ 2n! ∂x ex + 1
El resultado que obtenemos al integrar la ecuación 14.29 es el siguiente,
2 2 2 2 1
an = 2 1 − 2n + 2n − 2n + 2n + · · · = 2 2 − 2(n−1) ζ(2n) (14.30)
2 3 4 5 2
donde hemos introducido la función zeta de Riemann. Si denimos,
π 2n
ζ(2n) ≡ 22n−1 Bn (14.31)
(2n)!
donde,
1 1 1
B1 = B2 = B3 =
6 30 42
1 5
B4 = B5 =
30 66
los cuales son los números de Bernoulli. Por lo tanto,
∞ ∞
π2 7π 4
Z Z
H()f ()d = H()d + (kT )2 H 0 (µ) + (kT )4 H 000 (µ) + · · · (14.32)
−∞ −∞ 6 360
La energía,
π2
u = F − (kT )2 g 0 (µ) válida para cualquier T. (14.33)
6
Es decir, la termodinámica pinta una millonésima en el problema. El calor especíco,
π2 2
∂U
cV = = k T g(F ). (14.34)
∂T n 3
Recordemos que en un sólido cV = γT + αT 3 , entonces los electrones que contribuyen a
la capacidad caloríca son los que están cerca de la F o del nivel de Fermi.
Clase 15
Magnetismo
En esta clase estudiaremos las propiedades magnéticas de los materiales. La mayoría de
los materiales se consideran no-magnéticos, ya que solamente se magnetizan en presencia de
un campo magnético aplicado (diamagnetismo y paramagnetismo). En muchos casos, estos
efectos son débiles y la magnetización se pierde tan pronto como el campo magnético se
elimina. Sin embargo, un comportamiento más interesante, desde el punto de vista tecnoló-
gico, se observa en materiales que tienen una magnetización grande y que además la retienen
después de que el campo externo se quita. Estos materiales se llaman imanes permanentes
(ferromagnetismo).
Figura 15.1: Tipo de magnetismo de los elementos de la tabla periódica. En los elementos
que no están coloreados, el magnetismo es muy pequeño o no ha sido explorado.
La gura 15.1 ilustra el tipo de magnetismo de los elementos de la tabla periódica. Sólo el
erro (Fe), níquel (Ni), cobalto (Co) y gadolinio (Gd) exhiben ferromagnetismo. La mayoria
de los materiales magnéticos son aleaciones u óxidos de estos elementos mencionados, o los
121
contienen de alguna manera.
Hemos obtenido previamente, cuando despreciamos las interacciones entre las partículas,
a T = 0, la magnetización está dada por la expresión,
1 ∂E0 (H)
M (H) = − (15.1)
V ∂H S,V
Mn (H)e−En /kT
P
nP
M (H, T ) = −En /kT
(15.2)
ne
1 ∂F (H, T )
M =− (15.3)
V ∂H
S,V
La suceptibilidad magnética,
∂M (H) 1 ∂ 2 E(H)
χ= =− (15.4)
∂H S,V V ∂H 2 S,V
y a temperaturas nitas,
∂M (H) 1 ∂ 2 F (H, T )
χ= =− (15.5)
∂H S,V V ∂H 2
S,V
∂F ∂H
dF = F [H(x + ∆x) − H(x)] = = −V M dx (15.6)
∂H ∂x
1 ∂F ∂H
f =− =M .
V ∂V ∂χ
En el modelo de capas atómicas, los posibles estados cuánticos de los electrones se eti-
quetan con n, l, ml , donde n es el número cuántico principal, l el número cuántico órbital y
ml el numero cuántico orbital magnético. Para cualquier n dada, que dene una capa dada,
l sólo puede tomar valores enteros entre 0 y n − 1. Para l = 0, 1, 2, 3, · · · generalmente se
utilizan las letras s, p, d, f, etc. Dentro de una sub-capa n l , el número cuántico órbital ml
puede tomar (2l + 1) valores enteros entre −l y l . El último número cuántico, el numero
cuántico de espín magnético ms , toma los valores de −1/2 y 1/2. Por ejemplo, las primeras
dos capas nos llevan a dos estados 1s, dos estados 2s y seis estados 2p.
Cuando un átomo tiene más de un electrón, el principio de exclusión de Pauli, dice que
cada estado cuántico especícado por el conjunto de números cuánticos n l ml ms sólo puede
ser ocupado por un electrón. En casi todos los átomos, a excepción de los iones más pesados,
el acoplamiento espín-órbita
1 es despreciable. En este caso el hamiltoniano no depende del
espín o el momento orbital y por lo tanto conmuta con estos números cuánticos (acoplamiento
Russel-Saunders). El momento angular total orbital y de espín para una sub-capa dada están
dados por,
X X
L= ml S= ms
Si una sub-capa está completamente llena, es fácil vericar que L = S = 0. Por lo tanto, el
momento angular total electrónico de un átomo J = L+S se determina por las sub-capas que
están parcialmente llenas. La ocupación de los estados cuánticos en una capa parcialmente
llena se determina por las reglas de Hund:
1. Los estados están ocupados de tal manera que la mayoría de los electrones (con las
limitaciones del principio de exclusión), tienen sus espines alineandos paralelamente
entre sí, i.e., de tal manera que el valor de S es el más grande posible.
2. Cuando se determina cómo se asignan los espines, los electrones ocupan los estados de
tal manera que L toma un valor máximo.
a ) si la sub-capa está llena menos de la mitad (i.e. el número de electrones es < 2l+1),
entonces J = L − S.
b ) si la sub-capa está llena más de la mitad (i.e. el número de electrones es > 2l + 1),
entonces J = L + S.
c ) si la sub-capa está llena a la mitad (i.e. el número de electrones es 2l +1), entonces
L = 0, J = S .
X p2
i
T0 = (15.7)
i
2m
e~
p~i → p~i + A(~
r) (15.8)
c
donde A ~ , con H
~ = − 1 ~r × H ~ = ∇×A
~ y usando la norma de Coulomb, ∇ · A
~ = 0. El operador
2
de energía cinética total se puede escribir como,
1 X 2 e ~ 2 1 Xh 2 e ~
i2
T = p~i + A = p~i − (~ri × H) (15.9)
2m i c 2m i 2c
desarrollando el cuadrado,
2
~ + e H2
X
~ ·H
T = T0 +µB L (x2i + yi2 ) (15.10)
|{z} 8mc i
~2
p
i
2m
p~ · A~=A
~ ~
donde hemos usado
~ P · p~. Si ∇A = 0, podemos escribir el operador momento orbital
electrónico total como L = ri × p~i . Por lo tanto la variación
i~ del operador energía cinética
debido al campo magnético es,
2
~ + e H2
X
~ ·H
∆T = µB L (x2i + yi2 ). (15.11)
8mc i
Si éste fuera el único efecto del campo magnético sobre el hamiltoniano, se puede de-
mostrar que la magnetización en equilibrio término siempre es cero (teorema de Bohr-van
Leeuwen). Esto se debe a que el potencial vectorial sólo introduce un cambio en p~ que se
puede integrar al sumar sobre todos los momentos. La energía libre es independiente de ~
H y
la magnetización da cero. Sin embargo, en realidad la magnetización no es cero. El problema
surge porque estamos utilizando el operador energía cinética incorrecto (el problema debe
resolverse apropiadamente a través de la ecuación de Dirac). Por lo tanto, debemos introducir
heurísticamente el espín del electrón que emerge de un tratamiento relativista completo. La
nueva energía de interacción es,
H = H + ∆H (15.12)
donde
∆H = g0 µB HSz (15.13)
e~
siz .
P
ya que el campo está dirigido a lo largo de z, donde Sz = i Recordemos que µ= 2mc
∼
10−8 eV .
Gauss
El término de espín añade otro término,
~ + g0 S)
∆H = µB (L ~ · H.
~ (15.14)
2
~ + e H2
X
~ + g0 S)
H = µB ( L ~ ·H (x2i + yi2 ), (15.15)
8mc i
donde el primer término dentro del paréntesis viene de la contribución orbital y el segundo
de la contribución de espín.
En → En + ∆En (15.16)
con,
X |hn|∆H|n0 i|2
∆En = h∆Hi + (15.17)
n0 6=n
En − En0
Sustituyendo,
~ · (L
X |hn|µB H ~ + g0 S)|ni|
~ 2
~ · hn|L
∆En = µB H ~ + g0 S|ni
~ +
| {z }
n0 6=n
En − En0
(1) | {z }
(2)
2
e X
+ H 2 hn| (x2i + yi2 )|ni . (15.18)
8mc i
| {z }
(3)
~H
O(µB N ) ∼ ∼ ~ωc ∼ 10−4 eV,
mc
por lo tanto todos los fenómenos magnéticos en sólidos son muy pequeños.
15.2.1. Capas electrónicas llenas
~ˆ = L|0i
J|0i ~ˆ + S|0i
~ˆ (15.19)
es decir las partes (1) y (2) de la ecuación 15.18 son cero, y sólo contribuye la parte (3), el
estado base se modica de acuerdo a,
e2 H 2 X 2
∆E0 = h0| (xi + yi2 )|0i (15.20)
8mc i
2
x2i + yi2 + zi2 = ri2 → x2i + yi2 = ri2
3
podemos aproximar la energía de estado base como,
e2 H 2 X
∆E0 = h0|ri2 |0i (15.21)
12mc i
N ∂ 2 ∆E0 e2 N X
χ=− = − h0| ri2 |0i ∼ 10−6 . (15.22)
V ∂H 2 6mc2 V i
1 X
hri i = h0|ri2 |0i (15.23)
Zi i
obtenemos,
2 2
e2
Z NA 2 NA 3 r
χmolec
Larmor =− hr i = −Zi ah i (15.24)
6 mc2 ~c 6 0 a0
e21
donde
137
~c
=
es la constante de estructura na. Este término se llama de Larmor o diamag-
−6 cm3
netismo de Langevin, cuya magnitud es aproximadamente 10 . Por lo tanto, el término
moles
es diamagnético χ < 0.
Cuando hay electrones en la capa externa del átomo, podemos tener dos subcasos:
Momento angular total J~ = 0
El término (1) en la ecuación 15.18 es cero, sin embargo el (2) no lo es, por lo tanto,
positivo
z }| {
e2 X ~ · (L
X |h0|µB H ~ + g0 S)
~ |0i|2
2
∆E0 = H h0| (x2i + yi2 )|0i − (15.25)
8mc2 i n
En − E0
donde el segundo término del lado derecho es intrínsecamente paramagnético. En este caso,
la suceptibilidad es,
En este caso en término (1) en la ecuación 15.18 no es cero. El estado base tiene degene-
ración 2J + 1 en campo cero, es decir,
donde Jz y Jz0 pueden tomar valores −J, · · · , J . El teorema de Wigner-Eckart nos dice que,
~ + g0 S|i
h|L ~ = g(JLS)h|J|i, (15.28)
nos dice que sólo importa el momento angular total, donde el factor numérico en la ecuación
15.28 es el factor de Landé,
1 1 L(L + 1) − S(S + 1)
g(JLS) = (g0 + 1) − (g0 − 1) . (15.29)
2 2 J(J + 1)
~ = −gµB J~ · · ·
µ (15.30)
La magnetización,
N
M =− gµB JBj (βg0 µB JH) (15.31)
V
por lo tanto, la contribución más fuerte es la paramagnética de Curie:
(gµB )2 J(J + 1)
χCurie = NA Ley de Curie (15.32)
3 kT
Sin embargo, experimentalmente no se observa paramagnetismo en los metales, debido a
que el término diamagnético (que expulsa al campo) es el que cuenta, ya que los metales son
buenos conductores. La respuesta del por qué no se observa el paramagnetismo de Curie en
los metales yace en el hecho de que los electrones son fermiones y no pueden ocupar cualquier
nivel cuántico.
Habiendo determinado las propiedades magnéticas de los electrones ligados a los iones,
es importante considerar el extremo opuesto y analizar las propiedades de los electrones
cuando se mueven libremente en un metal. Suponemos que los electrones de conducción
son no localizados, sin embargo, si estuvieran libres el metal sería un diamagneto perfecto.
Los electrones de conducción no responden de manera independiente a ~
H y además están
sujetos a principio de Pauli. El término (1) en la ecuación 15.18 es el de espín (contribución
paramagnética) y en él está el principio de Pauli.
El hamiltoniano,
p2 2
~ = p~ − µB ~σ · H
~
H= −µ
~ ·H (15.34)
2m 2m
Los eigenvalores de ~
~σ · H son S = ±1, es decir,
p2
p,s = − SµB H = P − SµB H (15.35)
2m
La densidad de estados, con espín arriba y abajo entre y + d es la mitad, es decir,
1 1
Si H=0 ⇒ ρ± () = ρ() = ρ( ∓ µB H ) (15.36)
2 2 | {z }
(∗)
con,
1
F () = (15.38)
eβ(−µ) +1
Haciendo la integral con la condición n = n+ + n− y eliminando µ podemos hallar M (n).
TAREA: Demostrar que la magnetización de un gas de electrones no degenerado es la ley
de Curie con J= 1
2
. Hint: Para bajas densidades F ≈ e−β(−mu) .
Retomando el cálculo,
1 1
ρ± () = ρ() ± µB Hρ0 () (15.39)
2 2
Z Z
1 1
n± = ρ()F ()d ± µB H dρ0 ()F () (15.40)
2 2
donde la primera integral del lado derecho corresponde a todos los estados. El potencial
químico tiene que ser igual al potencial químico a T = 0, es decir,
2
kT
µ = F + O (15.41)
F
Z
∂F
M= µ2B H ρ() − d (15.42)
∂
∂F
donde
∂
es cero en todas partes, excepto en el nivel de Fermi F donde es la delta de Dirac
(una buena aproximación hasta temperaturas de 100 000 K).
Por lo tanto,
donde,
mkF
ρ(F ) = (15.45)
~2 π 2
Finalmente,
α 2
χPauli = (a0 kF ) (15.46)
2π
con un valor numérico de aproximadamente 10−6 , del mismo orden que la suceptibilidad
paramagnética de Curie, excepto que no depende de la temperatura.
" #
Y X
ze−βn
Z= (15.47)
λ n
I
e ~ 1
p~ − A · d~r = j + h (15.49)
c 2
con j = 0, 1, 2, · · · , la cual da la cuantización de los orbitales. Si el campo magnético está
dirigido a lo largo del eje z, ~ = H ẑ ,
H
I Z Z
~ · d~r =
H ~ · ds = πr2 H
(∆ × A)n̂ (15.50)
πr2 e
1
2πmv → 2πmω → H= j+ h
c 2
entonces,
2 2mc 1
r = h j+
eH 2
sustituyendo,
1 e ~ 2 1 2 e~ 1
p~ − A = m|~v | = H j+ (15.51)
2m c 2 mc 2
los niveles de energía,
p2
e~H 1
λ (pz , j) = z + j+ (15.52)
2m mc 2
como pz también está cuantizado,
2π~
pz = ` ` = 0, ±1, ±2, · · · (15.53)
V 1/3
Por lo tanto la degeneración g es el número de estados tales que,
V 2/3 eH
g= (15.54)
2π ~c
Calculando la función de partición,
g ∞ X
X X
ln Z = ln(1 + f e−β(pz ,k,α) ) (15.55)
α=1 j=0 pz
donde α es la degeneración. El número promedio de partículas es,
∞ ∞
gV 1/3
Z X 1
hN i = dp (15.56)
h −∞ j=0
f eβ +1
suma geométrica
z }| {
∞ ∞
ln Z
Z
eH 2
X
= 2 2 f e−βp /2m e−2xj e−x
V 4π ~ c −∞ j=0
πm e−x
r
f eH
= 2 2 (15.57)
2π ~ c β 1 − e−2x
e~H
con x≡ 2mc
β . Para campos pequeños x ∝ H, entonces,
e−x 1 x 7x3
1 1 1
−2x
≈ x −x
= = − + + ···
1−e e −e 2 senh x 2 x 6 360
Entonces,
1 2 H2
ln Z f
∼ √ 1 − µB (15.58)
V 2 2λ3 6 kT
q
β
con λ≡h m . Podemos identicar,
N ln Z f 1
∼ ∼ √ =
V V 2 2λ 3 v
1
χLandau = − µ2 (15.59)
3vkT B
Por lo tanto, el diamagnetismo de Landau, debido a la cuantización de las órbitas es
1
χLandau = − χPauli . (15.60)
3
Clase 16
Interacciones magnéticas
Hasta ahora hemos explicado el origen del paramagnetismo y diamagnetismo en los ma-
teriales. Sin embargo, muchas aplicaciones interesantes de los materiales magnéticos surjen
del ferromagnetismo, cuando los momentos magnéticos de los espines permanecen alineados
aún en la ausencia de un campo magnético externo. Para explicar este fenónemo, tenemos
que considerar no solamente las interacciones entre los momentos magnéticos individuales
y el campo externo aplicado, sino también introducir las interacciones entre los momentos
magnéticos, véase la gura 16.1.
Figura 16.1: Esquema de la interacción dipolar de dos partículas (espines) via el mecanismo
de interacción dipolo-dipolo
1
U= ~1·m
[m ~ 2 − 3(m
~ 1 · r̂)(m
~ 2 · r̂)] , (16.1)
3|~r|3
133
donde r̂ es un vector unitario paralelo a la línea que une los centros de los dos dipolos y ~r
es la distancia entre los centros de m
~1 y m
~ 2. Como esta energía de interacción está dada en
términos de los cuadrados de los momentos magnéticos, un cálculo a grosso modo arroja,
2
(gµ0 )2 e2 e2
a0 2
U∼ ∼ 10−4 eV (16.2)
r3 ~c r a0
2
e
donde es la constante de estructura na también conocida como constante de Sommer-
~c
1 e2
feld (∼ ), a0 es el radio de Bohr (a0 ∼ 0.5), µ0 es el magnetón de Bohr y es la constante
137 2a0
de Rydberg. Además hemos considerado r ∼ 2 − 3. Es decir, el valor numérico obtenido en
la ecuación 16.2, no es suciente para explicar que el ferromagnetismo exista a temperatura
−4
ambiente, ya que 10 eV es pequenísimo comparado con las diferencias de energía electros-
tática entre dos electrones, que es del orden de eV, entonces el origen del ferromagnetismo se
debe al principio de Pauli.
La interacción de intercambio entre dos espínes surje cuando las funciones de onda de los
dos partículas se traslapan en el espacio, los casos más importantes en los átomos son,
cuando esto ocurre, las funciones de onda se traslapan, y la aproximación dipolar puntual ya
no es válida.
J~ = L
~ +S
~
~2
∇21 + ∇22 Ψ + V (r1 , r2 )Ψ = EΨ
HΨ = − (16.3)
2m
donde Ψ es la función de onda de dos electrones.
Figura 16.2: El problema del electrón atrapado en el campo de un agujero (a) se reduce a
calcular el problema de un átomo de H, pero en este caso la masa del hueco es la del electrón,
no el protón (b). El espectro de absorción del óxido de cobre (Cu2 O) a 77K, muestra las
líneas de excitón correspondientes a varios valores del número cuántico n [11].
El electrón y el hueco pueden tener espines paralelos a antiparalelos. Los espines están
acoplados por la degeneración de intercambio (exchange degeneration), lo que da lugar a la
estructura na del excitón, véase la gura 16.2(c).]
~2
H=− (∇21 + ∇22 )Ψ + V (r1 , r2 )Ψ = EΨ (16.4)
2m
escribimos la función de onda en términos de la combinación lineal de los estados de espín:
| + +i | + −i | − +i | − −i
por el principio de Pauli, la función de onda total del electrón es antisimétrica. Suponiendo
que el eigenvalor del singulete y triplete son Es y Et respectivamente. Estamos interesados
en saber cuál de estos estados tiene el eigenvalor más pequeño: Si consideramos el problema
de dos electrones, obtenemos que Es < Et , lo cual se puede demostrar fácilmente haciendo
el siguiente cálculo sencillo,
H1 V
H= (16.5)
V H2
resolviendo obtenemos,
E − H1 −V
|(E − H)| = =0 (16.6)
−V E − H2
(E − H1 )2 − V 2 = 0 E − H = ±V E = E0 ± V (16.7)
Por lo tanto,
Es < Et , (16.8)
donde c ≡ hΨs |Ψs i y c0 ≡ hΨt |Ψt i. La integral de intercambio (exchange) está dada por la
expresión,
Z
1
(Es − Et ) = 2 dr1 dr2 [φ1 (r1 )φ2 (r2 )]∗ ×
2
e2 e2 e2 e2
× + − − [φ1 (r1 )φ2 (r2 )] (16.12)
r1 − r2 R1 − R2 r1 − R1 r2 − R2
donde hemos introducido los términos de energía de interacción electrostática (e-e repulsiva),
iones (repulsiva), e1 con el átomo 1 y e2 con el átomo 2. La interpretación de la integral
de intercambio es la diferencia entre las energías entre el singulete y triplete; su orígen es
puramente electrostático (ley de Coulomb) y el principio de exclusión de Pauli es importante,
aunque está escondido en la función de onda electrónica total (antisimétrica).
1 1 3
Si2 = +1 =
2 2 4
~ 2 = (S
S ~2 )2 = 3 + 2S
~1 + S ~1 · S
~2
2
~ ~ 1 3
S1 · S2 = s(s + 1) −
2 2
con lo que obtenemos,
3
−
singulete
4
1
triplete
4
Lo que sigue es inventar un hamiltoniano que tenga eigenvalores Es en el singulete y Et
en el triplete.
S1 S2
~1 · S
Uint ∼ S ~2
Figura 16.4: Izquierda: Diferencia entre las energías del singulete y triplete. Derecha: Esquema
de la interacción entre dos partículas con espínes ~1
S y ~2 .
S
1 ~1 · S
~2
Hespín = (Es − 3Et ) − (Es − Et )S (16.13)
4
con lo que llegamos al modelo de Heisenberg, el cual dice,
~1 · S
H12 = −j S ~2 (16.14)
X
HHeisenberg = − ~1 · S
jij S ~2 (16.15)
ij
1X~ ~ 0 )j(R
~ −R
~ 0 ) − gµ0 H
X
~
H=− S(R) · S(R Sz (R) (16.16)
2 RR0 R
donde el último término viene del campo magnético externo que cada ion siente debido al
campo aplicado más el campo debido a los espines.
Y
|0i = |SiR
R
~
Sz (R)|SiR = S|SiR
~ ± iSy (R)
S± (R) = Sx (R) ~ (16.17)
p
S± |Sz i = (S ∓ Sz )(S + 1 ± Sz )|Sz ± 1i (16.18)
Entonces,
" #
1 X X X
H=− Iij Szi Szj + S−i S+j − gµ0 H Sz (16.19)
2 ij ij i
donde el primer y tercer término del lado derecho sólo dependen de la componente z (com-
ponente de Ising), mientras que el segundo término únicamente depende de xy (componente
xy ). Recordando,
X X
HIsing = Iij σi σj y HXY = Jij cos(θi − θj ) (16.20)
hiji hiji
recordemos que el modelo de Ising describe espines discretos, normalmente apuntando en dos
direcciones σz = ±1 y el modelo XY describe vectores de espín situados en un plano con una
longitud S = 1, véase la gura 16.5.
Figura 16.5: (a) Modelo de Ising: espines discretos. (b) Modelo xy: vectores de espín planares.
1 X
E0 = − S 2 Jij − N gµ0 HS (16.21)
2 ij
1X ~i · S
~j ) − gµ0 H
X 1 2X
E00 ≥ − Jij max(S maxhSz i ≥ − S Jij − gµ0 HhSi = E0 (16.22)
2 ij i
2 ij
1 El teorema de Goldstone dice que en un sistema con una simetría continua y cuyo estado base es degene-
rado, si se rompe esta simetría, las excitaciones de longitud de onda muy larga (modos de Goldstone) existen
arbitrariamente cercanas a cero.
ocurre en el níquel, material que presenta un orden ferromagnético a primeros vecinos y un
orden antiferromagnético a segundos vecinos. Como el estado base tiene que estar acotado,
1 X 1 X
− S(S + 1) Jij ≤ E ≤ − S 2 Jij (16.23)
2 i,j
2 ij
1
E0 = −N J ln Z − . (16.24)
4
Cuando T = 0, la magnetización es,
N
M = gµ0 s (16.25)
V
o en términos de la función de partición,
e−βHi
P
i
M = hµi = . (16.26)
Z
Consideremos un estado,
volteamos un espín en el sitio R. El estado base es aquél en el que todos los espines están
apuntando hacia arriba:
~ + (R)|Ri
S( R)S ~ = 2S|Ri (16.28)
entonces,
(
S|Ri si R0 6= R
Sz (R0 )|Ri =
(s − 1)|Ri si R = R0
X
H = E0 |Ri + gµ0 H|Ri + S J(R − R0 )[|Ri − |R0 i] (16.29)
R0
donde se considera que las R's están sobre una red cristalina. Denimos el estado k,
1 X i~k·R~
|ki = √ e |Ri (16.30)
N R
~ ~
X
Ek = E0 + gµ0 H + S J(R)(1 − eik·R ) (16.32)
R
reescribiendo,
X
2 1~ ~
Ek − E0 = (k) = 2s J(R) sen k · R + gµ0 H (16.33)
R
2
Por lo tanto, hay un espín que no está alineado del todo al campo. Se pueden ver oscila-
ciones de las componentes transversales del espín, como se muestra en la gura 16.7. Estas
ondas de espín son eigenestados exactos del hamiltoniano de Heisenberg y pueden tratarse
como quasipartículas, bosones, en una primera aproximación.
X
(k)nk (16.35)
k
1
hnk i = (16.36)
eβ (k) −1
Cada onda de espín reduce el espín total,
" # Z
1 X V dk
M (T ) = M (0) 1 − hnk i ∼ M (0) 1 − (16.37)
| {z } Ns k Ns (2π)3 (eβ(k)−1 )
T =0
sX ~
k≈0 (k) ≈ J(k · ~r)2 . (16.38)
2 R
| {z }
contribución parabólica
M (T ) − M (0)
Z
V dq
= − (kT )3/2 P . (16.39)
M (0) Ns 2
(2π) exp s 1,2 J(R)
Este teorema nos dice que el modelo xy en dos dimensiones no presenta orden ferromag-
nético, la integral diverge para estos casos [15].
Clase 17
Hamiltonianos modelo
En ausencia de interacciones H, tiene eigenvalores Eα (`), podemos escribir,
X XX
H= = Eα (`)a†α (`)aα (`) + Wαα0 (``0 )a†α (`)aα0 (`0 ) + c.c. (17.1)
α` αα0 ``0
este hamiltoniano se escribe igual para electrones, fotones, fonones, magnones, etc.
donde,
X
~ ·
hR = −~s(R) ~ −R
j(R ~ 0 )~s(R
~ 0 ) + gµ0 H
~ (17.3)
~ =R
R6 ~0
sólo se puede resolver analíticamente en casos especiales, como el modelo de Ising en dos
dimensiones. Este hamiltoniano se resuelve en general con teoría de perturbaciones, ya que
j es pequeño.
~ · He gµ0
hR = ~s(R) (17.4)
145
donde,
P
h R0 j si hs(R)i X
He = H̄ + = H̄ + jR (17.5)
gµ0 gµ0 R
V M~
hs(R)i = (17.6)
N gµ0
es decir, podemos ver el problema como uno de teoría de perturbaciones,
~ V j0
hHe i = H̄ + λM λ≡ (17.7)
N N (gµ0 )2
P
con j0 = R jR .
La magnetización como función de la temperatura es,
H
M (T ) = M (η) η= (17.8)
T
la cual es la razón de la energía magnética con la energía térmica. La magnetización en campo
medio del problema es, véase el esquema de la gura 17.1,
He
M (T ) = M0 con M0 (x) = · · · BJ (T ) (17.9)
T
que es una solución de espines independientes, con BJ la función de Brillouin. Cuando H = 0,
sistema sin campo, el campo efectivo únicamente se debe al campo de los espines,
!
λM̂
M (T ) = M0 (17.10)
T
λM̄ (T )
la cual es una ecuación trascendente autoconsistente. Renombrando χ≡ T
, llegamos a,
M (T ) = M0 (χ) (17.11)
Por lo tanto, la magnetización del átomo central es la magnetización del sistema completo
(Ejemplo Hartree-Fock). Esta aproximación tiene solución y esa solución es exacta en la red
de Bethe.
Como la gura 17.2 lo indica, para temperaturas muy altas hay un aumento en la pen-
diente, para cierta T hay una transición de fase. Un ejemplo de esto es la temperatura de Néel
o temperatura de ordenamiento magnético, que corresponde a la temperatura sobre la que
o
un material antiferromagnético, se vuelve paramagnético (para el erro 700 C), es decir, la
energía térmica es lo sucientemente grande como para destruir el ordenamiento magnético
macroscópico dentro del material. Esta transición sólo existe cuando,
T ∂M0
< (17.12)
λ ∂χ
en términos de la suceptibilidad,
∂M0
∂M0 ∂M0 ∂χ ∂χ
χ0 = = = . (17.13)
∂χ H=0 ∂χ ∂H T
N (gµ0 )2 s(s + 1)
χ0 = (17.14)
V 3 kT
Tc N (gµ20 )
= T χ0 = s(s + 1). (17.15)
λ V 3k
Sin embargo, es importante notar que la temperatura crítica y el exponente crítico no son
del todo correctos, ya que estamos efectuando una aproximación por campo medio,
∂M ∂M0
χ= = = χ0 (1 + λχ) (17.16)
∂H ∂He
χ0 χ0
χ= = Ley de Curie-Weiss. (17.17)
1 − λχ0 1 − TTc
Finalmente,
cte
χ= (17.18)
(T − Tc )
por lo tanto, el exponente crítico es 1. En general, en una transición de fase, la suceptibilidad
sigue la forma,
Suceptibilidad = (T − Tc )α . (17.19)
con α = −1.
La teoría resultante de calcular exponentes críticos ha clasicado a los sistemas en clases de
universalidad, esto quiere decir que los exponentes críticos de sistemas totalmente diferentes
son los mismos. Por ejemplo, el modelo de Ising, ha sido útil para estudiar fenómenos como la
transición líquido-vapor, sólido-líquido y la transición de atascamiento (jamming transition),
que corresponde a un sistema en el que la velocidad depende de la densidad (tráco).
Otra técnica, además de la de campo medio, para resolver este tipo de problemas es la
de grupo de renormalización, o escalamiento de Leo Philip Kadano, quien hizo suposicio-
nes razonables que resultaron en un escenario plausible para el mecanismo del escalamiento
crítico: Cerca del punto crítico, emergen uctuaciones muy grandes, con una escala espacial
característica dada por la longitud de correlación λa (mucho más grande que el espacia-
miento de la red cristalina). Si estas uctuaciones de gran escala dominan el comportamiento
crítico, es razonable que los detalles del sistema, en escalas pequeñas (forma de la red o
alcance de la interacción) sean irrelevantes, ya que las uctuaciones enormes eliminan estos
detalles. Si esto es cierto, entonces todos los sistemas en la región crítica deben comportarse
cualitativamente de la misma manera (i.e., deben tener los mismos exponentes críticos) y
deben estar descritos por la misma teoría efectiva [16]. La aproximación de Kadano para el
modelo de Ising en 2D se muestra en la gura 17.3
Concepto previamente conocido en las matemáticas como árbol de Cayley, que corres-
ponde a una red en la que no hay circuitos cerrados, como se muestra en la gura 17.4. El
número de sitios conectados en N pasos es,
N
X −1
N (z) = 1 + z(z − 1)N −1 , (17.20)
n=1
Ns z−2
= , (17.21)
NT z−1
2
por lo tanto, un cálculo sencillo con z = 4 nos indica que
3
de los átomos están en la supercie.
El límite de percolación en la Red de Bethe es fácil de obtener, ya que cortando un sólo enlace
se divide la red en dos redes separadas. para garantizar el paso de información (percolación
en un sitio, se necesitan al menos dos enlaces activos: el que entra y el que sale) de los z sitios
que hay, es decir, el límite es cuando todos los N sitios tienen en promedio N (2)/z enlaces
activos, Entonces se pueden cortar hasta N (1 − 2/z) = (z − 2)/z enlaces y seguir teniendo
ujo de información. Observe que la cadena lineal tiene el límite de percolación en cero.
" #
X X X X
H= i a†i ai + ti (a†i aj + a†j ai ) = |iihi| + t |iihj| + c.c. (17.22)
i i,j i j
que corresponde a crear una excitación en el electrón en el sitio i. Resolviendo por el método
de la función de Green,
Figura 17.4: Red de Bethe, también conocida como árbol de Cayley con z = 2.
obtenemos,
X |nihn|
g(E) = . (17.24)
n
E − En
g0,n+1
kg0n = g0,n+1 k= (17.26)
g0n
y sustituyendo en la ecuación 17.25, obtenemos,
1 h p i
k= (E − ) ± (E − )2 − 4(z − 1)t2 (17.28)
2(z − 1)t
considerando la condición inicial,
1
g00 (E) = h p i. (17.30)
z
E − + z(z−1) E − ± (E − )2 − 4(z − 1)t2
La densidad de estados esta dada por la parte imaginaria de la ecuación 17.30 (dentro de
la raíz),
1 1
ρ(E) = − Im{Trg} = − Im{g00 }. (17.31)
π π
Por lo tanto,
( √
0 si |E − | ≥ 2 z − 1t
ρ(E) = √ 1
de cualquier otra forma,
4(z−1)t2 −(E−)2
Figura 17.5: (a) Banda semi-elíptica con z =2 para la cadena lineal (densidad de estados
electrónica).(b) Densidad de estados electrónica para z = 4.
1
g00 (E) = (17.32)
E − − zΣ
donde Σ es la autoenergía. Entonces, considerando el átomo central y sus z vecinos conectados
al resto por un campo medio Σ,
1
g00 (E) = (z−1)t2
. (17.33)
E−− E−−(z−1)Σ
Exigiendo que el campo medio sea el mismo en la ecuación 17.32 y en la ecuación 17.33
(aproximación de Bethe-Peierls), obtenemos la ecuación 17.3. Por lo tanto la solución para
la aproximación de Bethe-Peierls es,
donde,
(
J si j =i±1
Jij =
0 de cualquier otra forma
N N
1X X
=− si si+1 − H si . (17.36)
2 i=1 i=1
(
1 0
n= +s=
2 1
XX X
Z= ··· eβ(gsi si+1 +Hsi ) (17.37)
s1 s2 sN
PN
[Jsi si+1 − H2 (si +si+1 )] .
XX X
Z= ··· eβ i=1 (17.38)
s1 s2 sN
H
hs|P |s0 i = eβ [Jss + 2 (s+s )] ,
0 0
(17.39)
donde s y s0 valen ±1, podemos escribir,
eβ(J+H) e−βJ
P = (17.41)
e−βJ eβ(J−H)
Entonces la función de partición, ecuación 17.38, queda,
XXX X
Z= ··· hs1 |P |s2 ihs2 |P |s3 i · · · hsN −1 |P |sN i, (17.42)
s1 s2 s3 sN
P
donde se debe cumplir que tenemos un conjunto completo si |si ihsi | = 1. Finalmente,
X
Z= hsi |P N |si i = Tr P N = λN N
+ + λ− . (17.43)
si
donde λ± son los dos eigenvalores de la matriz 17.41. Si N es muy grande, sólo el eigenvalor
máximo es relevante.
17.2.1. Eigenvalores
q
βJ 2 −2βJ
λ=e cosh βH ± cosh βH − 2 sinh 2βJe (17.45)
λN N
+ > λ− . (17.46)
ln Z
lı́m = ln λ+ . (17.47)
N →∞ N
∂H N sen βH
M= = p . (17.49)
∂N cosh βH + cosh2 βH − 2 sinh 2βJe−2βJ
Por lo tanto, el modelo de Ising, nunca exhibe una transición de fase, es decir, no hay
magnetización espontánea de los espines.
Clase 18
Transiciones de fase
Por ejemplo, si se enfría agua lentamente por debajo del punto de congelación, ésta no
se congela inmediatamente y cae en el mínimo local. Un fenómeno similar ocurre con el
agua supercalentada, la cual puede burbujear súbitamente en un vaso [17, 18]. Debido a
que los parámetros del sistema uctúan, la barrera entre los dos mínimos es pequeña y el
sistema eventualmente saltará al mínimo global de la derecha. Podemos inducir esta transición
golpeando al contenedor en el caso del agua sobreenfriada, donde los fonones proveen la
energía suciente para remontar la barrera mostrada en la gura 18.1. En general, estos
mínimos local y global dependen de la temperatura, gura 18.2(a), y corresponden a las fases
sólida y líquida, respectivamente de la sustancia en consideración. Cuando el sistema está
en equilibrio, siempre tomará el valor más bajo en la energía libre de Gibbs. Es ilustrativo
dibujar la posición de los mínimos como función de la temperatura, véase la gura 18.2(b).
155
Figura 18.1: Potencial de Gibbs: El mínimo de la izquierda corresponde a una fase con
densidad más alta que el mínimo de la derecha.
Cuando el sistema esta en equilibrio, su energía cumple con el siguiente criterio de esta-
bilidad,
∂U ∂ 2U
=0 > 0. (18.1)
∂x ∂x2
Supongamos un sistema termodinámico, controlado por cierto parámetro x. Cuando el
parámetro x se acerca al punto crítico xc el sistema está en un estado de equilibrio estable
Σ1 , una vez que x alcanza o excede xc , el estado Σ1 se vuelve inestable, y ocurre en el sistema
una transición a otro estado estable Σ2 . El principio básico, es que existem uctuaciones en
el sistema que llevan a desviaciones de los estados de equilibrio, y el proceso de transición de
fase es un comportamiento dinámico.
Cuando ocurre en un sistema una transición de fase, la energía de Gibbs toma el valor
más bajo mientras se varía la temperatura,
G = H − T S. (18.2)
Una sustancia en la fase sólida, si comparamos con un gas ideal bajo condiciones equivalen-
tes, tiene una entalpía más negativa debido a las fuerzas de enlace entre las moléculas. Sin
embargo, la entropía es muy pequeña porque las moléculas están ordenadas. Es decir, la fase
sólida tiene una energía de Gibbs más pequeña y es la fase estable a bajas temperaturas.
Figura 18.2: (a) Dependencia en el volúmen de la energía libre de Gibbs a diferentes tempe-
raturas. (b) Mínimo de la función de Gibbs como función de la temperatura.
Figura 18.3: Diagramas de fase de sustancias típicas (a) y del agua (b).
A temperaturas altas, la fase gaseosa tiene poca entalpía pero una entropía grande, por lo
tanto, es la fase estable. Esto se ilustra mejor en la gura 18.4.
En la gura 18.5 se muestra una curva de coexistencia o diagrama p−T entre dos fases,
líquido y gas de una sustancia. La pendiente de la curva está directamente determinada
por las propiedades de las fases. A continuación derivaremos una expresión que relaciona la
pendiente de la curva con el calor latente y el cambio en el volúmen que ocurre en el sistema.
Figura 18.4: Energía de Gibbs como función de la temperatura. El diagrama esquematiza el
valor de G conforme el sistema sufre transiciones de fase.
Figura 18.5: Curva de coexistencia de las fases líquida y gaseosa de una sustancia.
Los potenciales químicos de los estados A y A', así como los de B y B' en la gura
18.5, están en equilibrio. Suponemos que las diferencias en la presión y temperatura entre
los estados A y B son innitesimales, de tal forma que dP = PB − PA y dT = TB − TA . La
dP
pendiente de la curva es , y los potenciales químicos en ambos lados de la frontera de la
dT
fase son iguales,
µA = µA 0
µB = µB 0 (18.3)
µB − µA = µB 0 − µA 0 (18.4)
en donde s y s0 son las entropías molares y v y v0 los volúmenes molares en cada fase.
Sustituyendo las ecuaciones 18.5 en 18.4, obtenemos,
dP s0 − s ∆s
= 0 = . (18.6)
dT v −v ∆v
en donde ∆s y ∆v son las discontinuidades en las entropías molares y volúmenes molares
asociadas con la transición de fase. Como ` = ∆h = T ∆S , obtenemos,
dP l
= . (18.7)
dT T ∆v
Podemos obtener la ecuación 18.7 a partir de la ecuación de Gibbs-Duhem,
X
Nj dµj = −SdT + V dP. (18.8)
j
Utilizaremos nuevamente una sustancia que consiste en dos fases, como la mostrada en
la gura 18.5 y nos interesa encontrar las condiciones bajos las que estas fases existen en
equilibrio. Hemos dicho ya, que en una transición de fase, el sistema alcanza el equilibrio de
tal forma que la energía libre de Gibbs toma el valor mínimo posible y para que esto ocurra
la energía de Gibbs debe tener el mismo valor en ambos lados de la curva de coexistencia. Si
N partículas cruzan en un punto dado la curva de equilibrio, tenemos a partir de la ecuación
18.8,
dµ = −sdT + vdP
dµ = vdP. (18.9)
Z B
µB − µA = vdP. (18.10)
A
donde los subíndices indican las derivadas con respecto a la variable en cuestion. La concen-
tración de líquido-gas,
(xD + x0 ) = xD vD + x0 v0
x0 vD − vT
= , (18.12)
xD vT − v0
ver puntos en las guras 18.6(b-c). Con esto podemos concluir que hay una discontinuidad
en v y consecuentemente también en s, por lo tanto, podemos escribir el calor latente,
` = T (sD − s0 ). (18.13)
Considerando,
∂S P
ds = dv = dv (18.14)
∂V T T
Z
1 ∆P ∆v
∆s = ∆P dv ≈ (18.15)
T ∆T
dP `
= . (18.17)
dT T ∆v
Recordemos que la distinción entre líquido y vapor no puede hacerse por encima de la
presión y temperatura críticas. Consideremos el calor latente de vaporización,
∂g
∆hvap = Tvap ∆svap = −Tvap ∆ (18.18)
∂T p,N
∂g
∆ = ∆v. (18.19)
∂p T,N
Notemos que si el calor latente y el cambio en el volumen son cero por encima del punto
crítico, las supercies de energía libre de Gibbs G para la fase líquida no se intersectan. En
lugar de esto el sistema pasa continuamente a lo largo de una supercie G. Queremos saber
cómo ocurre esta transición entre dos supercies de G, por debajo del punto crítico a una
única supercie por encima del punto crítico. Usaremos el uido ideal de van der Waals para
ilustrar esto, véase la gura 18.6(a).
RT a
p= − 2, (18.20)
(v − b) v
satisface los criterios de estabilidad,
∂ 2U
2
≥0
∂V
∂ 2U
∂ ∂U ∂p
2
= =− ≥0
∂V ∂V ∂V T,N ∂V T,N
∂p
≤ 0. (18.21)
∂V T,N
Esto criterios se violan en la región MLKJF de la gura 18.6(b-c). Debido a esto, esta
sección del diagrama de fases no puede describir un sistema físico real. Otros procesos pueden
reemplazar la isoterma en esta región, estos procesos son uctuaciones entre las fases de vapor
y líquido.
Z B
µB − µA = v(p)dp. (18.24)
A
Figura 18.7: Potencial de Gibbs para las isotermas de van der Waals.
U = U (s, x1 , x2 , · · · , xt ) (18.25)
sustituyendo,
U s xJ
u= x0 = xj =
xt xt xt
obtenemos a la ecuación 18.25, en forma molar,
Ya que la suma de las fracciones molares igual a uno, sólo t − 1 variables son independientes.
En equilibrio, todos los potenciales, la energía interna, la entalpía, la energía libre de Gibbs
y la energía libre de Helmholtz son funciones convexas de las fracciones molares. Si, no
se satisfacen los criterios de estabilidad en un sistema multicomponente, pueden ocurrir
transiciones de fase. La compocisión química, la entalpía o el volumen molar pueden diferir
en cada fase. Las condiciones que debe cumplir la ecuación 18.26 son,
u00 > 0
u(P0 )11 > 0
u(P0 , P1 )2 > 0 (18.27)
.
.
. (18.28)
donde Pi = ∂U/∂xi son las fuerzas generalizadas. Cada transformada de Legendre dará un
criterio de estabilidad. Calculado en diferendial d(du),
t−1
X
2
d u= ujk dxj dxk (18.29)
j,k=0
y el primer diferencial de P0 ,
t−1
X
dP0 = u00 dx0 + u0k dxk . (18.30)
k=1
Separando la sumatoria de la ecuación 18.29 obtenemos,
t−1
X t−1
X
2 2
d u = u00 (dx0 ) + u0k dxk dx0 + ujk dxj dxk (18.31)
k=1 j,k=1
t−1
X t−1
X
(dP0 )2 = u200 (dx0 )2 + 2u00 u0k dx0 dxk + u0j u0k dxj dxk (18.32)
k=1 j,k=1
ψ 0 ≡ u − P0 x 0 , (18.34)
entonces,
0 0
ψij0 ψik
0
ψjk = ψjk − . (18.36)
ψii0
Por lo tanto, podemos escribir la energía,
t−1
1X 1
du2 = 2
j−1 dPj (18.38)
2 j=0 ψjj
donde,
k
X
j−1
uψjj =u− Pi xi = u(P0 , P1 , · · · , Pk , xk+1 , · · · ) (18.39)
i=0
j−1 ∂Pj
ψjj = >0 ∀j (18.40)
∂xj
Cuando alguna de estas condiciones no se satisface, hay una transición de fase. Cada fase
es un sistema simple y entre ellas pueden intercambiar número de partículas.
T P
G(T, P, N1 , N2 ) = N µ , , x1 (18.41)
N N
L
denotamos el potencial químico de la primer componente en la fase líquida con µ1 y su fase
S
sólida como µ1 . Las condiciones de equilibrio con respecto a la transferencia de la primer
componente (1) y la segunda componente (2) de fase a fase son,
µL1 (T, P, N1 , N2 ) = µS1 (T, P, xS1 )
µL2 (T, P, N1 , N2 ) = µS2 (T, P, xS1 ), (18.42)
L S
respectivamente, donde x1 + x2 = 1
en cada fase. Estas dos ecuaciones determinan x1 y x1
L S
Por lo tanto hay que resolver dos ecuaciones con dos incógnitas x1 , x1 , que corresponden a la
cantidad de la sustancia que se transforma de líquido a gas. Supongamos que se observan tres
fases coexistiendo en el sistema anterior, denotadas con I , II y III , por lo tanto, tenemos
para la primer componente,
y un par de ecuaciones similares para la segunda componente. Por lo tanto, tenemos cuatro
I II III
ecuaciones con tres incógnitas:x1 , x1 y x1 . Por lo tanto, no podemos especicar T y
P a priori, pero si especicamos T entonces las cuatro ecuaciones determinan P, xI1 , xII1 y
III
x1 . Aunque es posible seleccionar tanto T como P de manera arbitraria para encontrar un
estado de dos fases, un estado de tres fases sólo puede existir para una presión particular si
se especica la temperatura.
La regla de las fases nos dice cuántas fases son posibles en un sistema de N componentes,
lo que está relacionado con el número de grados de libertad, en términos del número de fases
diferentes y el número de constituyentes químicos del mismo. Fué deducida en términos de
principios termodinámicos por J. W. Gibbs.
Una fase puede contener distintos componentes químicos, que pueden o no estar presentes
en las otras fases. El número de fases en el sistema se representa por M. Los componentes
químicos se representan por los distintos compuestos (o elementos) involucrados en las ecua-
ciones del sistema. Si algunos de estos componentes permanecen en equilibrio entre sí, sin
importar el estado del sistema, deben considerarse como un único constituyente. El numero
de componentes se representa con r.
En un sistema con r componentes, los potenciales químicos en la primera fase son fun-
I I I
ciones de T, P, x1 , x2 , · · · , xr−1 . Los potenciales químicos en la segunda fase son funciones de
T, P, xII II II
1 , x2 , · · · , xr−1 Si tenemos M fases, el conjunto completo de variables independientes
consiste de T, P y M (r − 1) fracciones molares, en total 2 + M (r − 1) variables. Hay M − 1
ecuaciones de igualdad del potencial químico para cada componente, o un total de r(M − 1)
ecuaciones. Por lo tanto, el número f de variables que pueden asignarse arbitrariamente es
[2 + M (r − 1)] − r(M − 1) o,
f = r − M + 2. (18.44)
la cual es la regla de las fases de Gibbs. Para un sistema de una sóla componente, r = 1
y f = 0, si M = 3. Esto está de acuerdo con el hecho de que el punto triple es el único
estado para un sistema de una sóla componente. De manera similar, para un sistema de dos
componentes, cuatro fases pueden existir en un único punto, f = 0, r = 2 y M = 4, y la
temperatura puede ser asignada arbitrariamente para un sistema de tres fases, f = 1, r = 2,
y M = 3, y que ambas, T y P pueden asignarse arbitrariamente para un sistema con dos
fases, f = 2, r = 2 y M = 2.
La regla de las fases de Gibbs, provee las bases para el estudio de los diagramas de fases.
Para un sistema de una componente, la función de Gibbs por mol es una función de la
temperatura y la presión, como se muestra en la gura 18.8. El diagrama de fases en el plano
P − T, como los mostrados en las guras 18.3, es una proyección de la curva de intersección
de la supercie µ consigo misma en el plano P − T.
Consideremos una mezcla con una composición inicial x1` . La mezcla se enfria desde la
temperatura T0 por encima del liquidus a la temperatura T1 en el liquidus, que se muestra en
la gura 18.9 (b). A las temperaturas entre el liquidus y solidus para una composición inicial
dada x1` , la mezcla espontáneamente se separa en dos fases con fracciones molerares x1` y
x1s . Las fases líquida y sólida tienen diferentes composiciones. La fase sólida es más rica en
la sustancia B que la líquida. Consecuentemente, el líquido va careciendo de la sustancia B.
Cuando la temperatura baja aún más, las fracciones molares de ambas fases decaen cómo se
indica con las echas azules, en la gura 18.9 (b). El líquido y sólido tienen composiciones
iguales únicamente a las temperaturas TmA y TmB .
En este caso, los diagramas de fase pueden ser más complicados que el mostrado en la
gura 18.9. En este caso las fases líquida y sólida pueden tener un gap de solubilidad . Puede
1
haber más de una fase sólida, por lo tanto, las aleaciones tendrán una fase líquida homogénea
debido a la movilidad de los átomos. Sin embargo, varias estructuras cristalinas pueden existir
con diferentes composiciones químicas. El potencial de Gibbs para estos sistemas se muestra
en la gura 18.10(a).
A altas temperaturas el potencial químico del líquido es más bajo que el potencial químico
de la fase sólida, que puede verse en términos de que el líquido es menos ordenado que el
sólido. Mientras la temperatura disminuye, el potencial químico del sólido B se traslapa con
el del líquido. Las fases se separan a lo largo de la tangente 1. A temperaturas aún más
bajas, occure una separación adicional de fases a lo largo de la tangente 2. Dependiendo de
las composiciones iniciales de las fases sólida y líquida A o B están en equilibrio con el líquido.
1 Un gap de solubilidad ocurre en un sistema de dos componentes cuando hay una energía de mezclado
positiva y cuando la temperatura es lo sucientemente baja de tal forma que la contribución de la energía de
mezclado a la energía libre 'gana' sobre la contribución de entropía de mezclado.
Cuando la temperatura decae aún más, las tangentes rotan (tangentes 3 y 4) hasta que se
únen en la tangente 5. Esta temperatura dene una temperatura mínima única en la cual el
líquido puede existir. Esta es la temperatura eutéctica. A temperaturas más bajas todavía,
sólo ocurren transiciones de fase entre las fases sólidas. El diagrama eutéctico correspondiente
se muestra en la gura 18.10(b).
Figura 18.10: (a) Potencial de Gibbs para aleaciones. (b) Diagrama de fases eutéctico.
Hemos visto en la lectura previa, que las líneas que denen la frontera entre las fases se
llaman líneas de coexistencia, gura 18.11. Cuando el sistema cruza las líneas de coexistencia,
ocurre una transición de fase de primer orden, que se caracteriza por un cambio discontinuo en
algunas cantidades termodinámicas tales como el volumen, entalpía o magnetización. Nótese
en la gura 18.11, que la curva de fusión puede extenderse hasta el innito, mientras que la
curva de ebullición termina en un punto, más allá de este punto, las dos fases (gas-líquida)
no pueden distinguirse. Este punto se llama punto crítico y por encima de él, el sistema se
encuentra en un estado uido supercrítico.
1 ∂v ∂S
κT = − → ∞, CP = T → ∞, etc. (18.45)
v ∂P T ∂T P
Estas divergencias ocurren de la misma manera para una gran mayoría de los sistemas, a
estos sistemas se les dice que pertenecen a la misma clase de universalidad.
P = g(ρ, T ), (18.46)
∂ 2A
∂U
CV = = −T (18.47)
∂T V ∂T 2 V
CV ∼ |T − TC |α . (18.48)
3. La compresibilidad isotérmica,
1 ∂V 1 ∂ρ
κT = − = (18.50)
V ∂P T ρ ∂T T
κT ∼ |T − TC |γ . (18.51)
Lev Landau (1908-1968) fué un físico ruso quién ganó el premio Nobel de física en 1962
por sus teorías pioneras en el estudio de la materia condensada, especialmente el helio líquido.
Fué el primero en identicar el papel del parámetro de orden
2 en las transiciones de fases. El
comportamiento típico del parámetro de orden φ(P, T ) se muestra en la gura 18.13. Para una
2 Un parámetro de orden es alguna cantidad física observable que permite distinguir dos fases distintas del
sistema que describe. La elección del parámetro de orden, depende de las características de cada sistema. El
parámetro de orden es cero en la fase desordenada, de alta temperatura, y es nito en la fase ordenada.
transición de fase de segundo orden o transición de fase continua, φ se acerca continuamente
a cero en la transición.
Figura 18.13: Comportamiento típico del parámetro de orden φ como función de la tempe-
ratura. Por debajo de la temperatura crítica Tc hay valor nito del parámetro de orden, el
cual se hace cero para T > Tc .
∂ 2g ∂ 2g
<0 <0 (18.53)
∂T 2 P ∂P 2
∂ 2g ∂ 2g ∂ 2g
− >0 (18.54)
∂P 2 T ∂T 2 P ∂T ∂P
donde la última expresión da la concavidad de la g. En el punto crítico, las tres condiciones
fallan y las suceptibilidades divergen.
Como la energía libre de Gibbs varía con la temperatura, entonces el mínimo también
cambia con la temperatura. Supongamos que podemos escribir la energía libre de Gibbs
G(P, T, φ), cerca de la transición de fase, como un desarrollo en serie en términos de φ
G = G0 + G1 φ + G2 φ2 + G3 φ3 + G4 φ4 + G5 φ5 + · · · (18.55)
La condición,
requiere que la serie de potencias en la ecuación 18.55, sólo tenga potencias pares en Q. Por
lo tanto, truncando la serie, obtenemos,
G = G0 + G2 Q2 + G4 Q4 . (18.57)
el cual es válido cerca de Tc . La condición de que φ sea nita por debajo de Tc requiere que
G4 (P, T ) > 0 de tal forma que la energía libre puede escribirse como,
∂G
El comportamiento de φ se encuentra minimizando G, es decir calculando ∂φ
= 0, lo cual
resulta en,
2a(T − Tc )φ = −4G4 φ3
a(Tc − T )
φ2 = (T < Tc )
2G4
φ=0 (T > Tc ) (18.60)
3 En la clasicación de Ehrenfest una transición de fase de n-ésimo orden tiene una discontinuidad en la
∂nG
n-ésima derivada de la energía libre con respecto a la temperatura
∂T n .
Clase 19
Sistemas fuera de equilibrio
La mecánica estadística de no equilibrio estudia la evolución de los sistemas hacia el
estado de equilibrio, a diferencia de la mecánica estadística de equilibrio, que en ocasiones
se reere como estadística estática. Únicamente los sistemas que están cerca del equilibrio
pueden ser estudiados por la mecánica estadística de no equilibrio. En este caso el término
cerca se reere que el equilibrio se alcanzará a través de un proceso que se puede describir
por un conjunto de ecuaciones lineales. Si el sistema está lejos del equilibrio, no existe un
formalismo general aplicable y la mecánica estadística lejos del equilibrio es un tema abierto
e interesante para la investigación moderna.
Al principio del curso denimos el equilibrio termodinámico: Dos sistemas están en equi-
librio cuando entre ellos hay equilibrio mecánico, químico y térmico. Ahora supongamos que
tenemos dos sistemas a diferente temperatura. Cuando estos sistemas se ponen en contacto
entre sí, la temperatura de ambos cuerpos cambiará: El sistema caliente se enfriará y el frío
se calentará. Eventualmente, ambos sistemas alcanzarán la misma temperatura y entonces se
dice que ambos están en equilibrio entre sí. Un sistema aislado que no experimenta cambio
en alguna en sus propiedades macroscópicas, tales como la entropía o energía interna, está en
equilibrio termodinámico. El estado del sistema se determina por los parámetros intensivos
(temperatura, presión, volumen).
19.1. No equilibrio
Un sistema que este en un estado transitorio está en un estado de no equilibrio (o puede
estar en un estado estacionario de equilibrio dinámico). Un ejemplo interesante es un sistema
en contacto con dos baños calorícos que están a distinta temperatura.
Las características que pueden asociarse con el no equilibrio son la dinámica (por ejemplo
la relajación transiente hacia el equilibrio) y ujo de corriente en las cantidades conservadas
desde un lugar del sistema a otro. El tiempo de vida de un estado de no equilibrio puede ser
muy corto a menos que haya perturbaciones macroscópicas en las cantidades conservadas que
las alejen de la distribución de equilibrio. En todos los casos, habrá corrientes macroscópicas
de las cantidades conservadas acompañando a estas perturbaciones.
175
uyendo. Ya que la dinámica de estos sistemas es disipativa, habrá una inyección de energía,
ujo de energía dentro del sistema y en ocasiones una transformación entre diferentes formas
de energía (por ejemplo, energía mecánica o química a calor), seguidas por una eliminación
de esta energía para mantener el estado estacionario. Un ejemplo sencillo es un sistema en
contacto con dos baños calorícos a temperaturas constantes, pero distintas, que exhibirá
ujos de energía que transportan calor entre los dos baños.
2. La dinámica está dada por las ecuaciones de movimiento, que por un lado son ecuacio-
nes fenomenológicas (en el ejemplo la corriente de calor es proporcional a la diferencia
en las temperaturas) y por otro lado, son derivables de leyes fundamentales de la termo-
dinámica. Necesariamente las ecuaciones de movimiento son consistentes con las leyes
de la termodinámica.
19.3. Fluctuaciones
Cuando sacamos a un sistema del equilibrio, notamos que ocurren en él dos cosas:
H 0 = H + Hi (19.1)
H − E Hi
Hi = (H − E)2 − Hi2 = 0
H − E
tiene por solución,
E = H ± Hi , (19.2)
donde se ha considerado que H es hermitiano. Por lo tanto, están dictadas directamente por
la reversibilidad microcópica.
Sea Pr (t) la probabilidad de que el sistema al tiempo t esté en el estado r. Si consideramos
las interacciones, el sistema va a evolucionar de la siguiente manera,
dPr X X X
= Ps Wsr − Pr Wrs = (Ps Wsr − Pr Wrs ) (19.5)
dt s s s
dPr
6= 0 (19.6)
dt
la ecuación 19.5 no tiene simetría de Kramer (t → −t) y es irreversible en el tiempo.
H|ψr i = r |ψr i
dPr
=0 (19.9)
dt
es decir, la ecuación maestra describe correctamente el equilibrio. La condición,
se conoce como balance detallado, es una condición suciente (pero no necesaria) para decir
que el sistema esta en equilibrio. También puede ser que la ecuación 19.9 sea válida, sin que
se cumpla el balance detallado. Nótese que las relaciones de Onsager se cumplen, aunque esto
sucede independientemente de si el sistema está o no en equilibrio (Pr = Ps ⇒ Wrs = Wsr ).
0
Ahora supongamos que colocamos al sistema A en un baño térmico A , más grande que
el sistema mismo. Entonces, las ecuaciones se modican de la siguiente manera,
A0 = A + A0
H0 = H + Hi + H0 . (19.11)
Podemos escribir,
H|ψr i = r |ψr i
H0 |ψr i = 0r |ψr i (19.12)
0
Prr 0 = Pr Pr 0 (19.13)
0
considerados como eventos independientes. Entonces para todo Wrr 0 ss0 y por conservación si,
Pr ∼ Ω0 (E 0 − Er0 ) ∼ e−βEr0
∂ ln Ω0
β= (19.15)
∂E 0
Pr Ps 0 Pr e−βEs0 0 0
= = −βE 0 = e−β(Es0 −Er0 ) , (19.17)
Ps Pr 0 Ps e r
obtenemos,
Pr
= e−β(Er −Es ) distribución canónica. (19.19)
Ps
Cuando sacamos al sistema del equilibrio y consideramos a A0 tan grande que siempre
0 −βE 0
está en equilibrio interno, p = e
0
X X X
Wrs = 0
Pr0 Wrr 0 ss0 = C e−βEr0 Wrr
0
0 ss0 = C e−βEs0 Wrr0 ss0 (19.20)
r 0 s0 r 0 s0 r 0 s0
donde,
X X
Wsr = Pr0 W 0 (rr0 → ss0 ) = C e−βEr0 W 0 (rr0 → ss0 )
r 0 s0 r 0 s0
X
Wsr = C e−βEs0 W 0 (ss0 → rr0 ) (19.22)
r 0 s0
Wsr
= e−β(Er −Es ) . (19.23)
Wrs
con β>0 y Es > Er .
La distribución canónica de W , dada por la ecuación 19.23 es la misma que la distribución
canónica dada por la ecuación 19.17. Por lo tanto, la A satisface la ecuación maestra,
dPr X
λsr Ps eβEs − Pr eβEr
= (19.24)
dt sr
con,
λsr ≡ λrs = e−βEr Wrs = e−βEs Wsr ,
y esto garantiza el regreso al equilibrio con estas probabilidades canónicas. Si el sistema no
esta aislado el regreso al equilibrio es a través de las distribuciones canónicas.
Clase 20
Sistemas fuera de equilibrio II
dPr X
λsr Ps eβEs − Pr eβEr
= (20.1)
dt s
para un sistema en contacto con un reservorio. Nuestro objetivo es investigar cómo el sistema
regresa al equilibrio estacionario (no necesariamente estático).
± = ∓µH. (20.3)
Figura 20.1: Transiciones del estado + al − y viceversa para el ejemplo de resonancia mag-
nética.
Debido a que el estado de mínima energía es −µH , el estado+ está más poblado. Sin
embargo, debido a las uctuaciones hay transiciones del estado − al + y viceversa, véase la
gura 20.1. El hamiltoniano del sistema,
181
donde en el lado derecho, el primer término da la interacción del espín con el campo, el
segundo considera el hecho de que los núcleos se mueven en una red cristalina y nalmente
el tercero la interacción de la red cristalina con un espín.
N = n+ + n− . (20.5)
W−+
= e−β(− ++ ) → β(− + + ) = 2βµH. (20.6)
W+−
con una distancia de separación de 2µH . La magnitud de estas interacciones se puede obte-
ner por medio de un cálculo sencillo, considerando los siguientes valores numéricos para los
parámetros involucradas,
µ ∼ 5 × 10−24 erg/gauss
H ∼ 104 gauss
5 × 10−4
βµH = 1 (20.7)
T
por lo que βµH es muy pequeño hasta temperaturas de 103 K. Reescribiendo W+− ≡ W , y
haciendo un desarrollo en serie de Taylor,
~ω ≡ − − + = 2µH,
dn+
= n− (W−+ + $) − n+ (W+− + $)
dt
dn−
= n+ (W+− + $) − n− (W−+ + $) (20.10)
dt
dn
= −2n+ (W+− + $) + 2n− (W−+ + $) con W+− = W. (20.12)
dt
Simplicando,
dn
= −2 (W + $) + 2βµHW N (20.13)
dt
1
4βµHW n− = 4βHW N −n ≈ 2βHW N (20.14)
2
ya que n N si la temperatura es baja. Estudiemos el siguiente caso, si ω = 0, no hay
dn
radiofrecuencia,
dt
= 0, esto implica que,
n0 = N βµH, (20.15)
N e±βµH N
n± = βµH −βµH
≈ (1 ± βµH) (20.16)
e +e 2
si consideramos βµH 1, entonces,
n0 = n+ − n− = N βµH, (20.17)
por lo tanto se obtiene el mismo resultado que con la ecuación maestra. Finalmente la ecuación
20.13 se convierte en,
dn
= −2W (n − n0 ) − 2$n (20.18)
dt
y en ausencia de campo oscilante ω=0 se puede integrar, la solución de la ecuación 20.18
es,
n(t) = n0 + [n(0) − n0 ]e−2W t (20.19)
1
τ= . (20.20)
2W
Cuanto mayor sea la interacción entre los espines (W) el sistema llega más rápido al
equilibrio. Si no hay interacción entre los espines, éstos sólo responden al campo. Cuando
encendemos el campo de la resonancia, pero con una interacción de espines pequeña W ≈ 0,
dn
= −2$n n(t) = n(0)e−2$t (20.21)
dt
por lo tanto, la red llega al equilibrio en un tiempo característico dado por,
1
τ= (20.22)
2$
donde $ es la interacción introducida por la radiación electromagnética. Cuando introduci-
mos esta radiación el sistema absorbe energía,
W (n − n0 ) = −$n,
es decir,
n0
n= $
(20.24)
1+ W
el número de espines desviados del equilibrio es más pequeño que n0 , i.e. n < n0 . Si $ W ,
tenemos que n → n0 , pero si$ N , n → 0 y este es el punto de saturación.
La energía absorbida tiene que ver con $ y la del espín con el resto de la red cristalina
(entorno químico) y por lo tanto, podemos saber las propiedades de este entorno. Ejemplos de
las aplicaciones de esto es el desplazamiento de Knight y el desplazamiento químico [19, 20].
Algunos núcleos atómicos poseen un momento magnético (espín nuclear), que da lugar
a diferentes niveles de energía y frecuencias de resonancia en presencia de un campo mag-
nético. El campo magnético total que siente el núcleo incluye los campos magnéticos locales
inducidos por las corrientes de electrones en los orbitales moleculares ( electrones con mo-
mento magnético). La distribución electrónica del mismo tipo de núcleo varía de acuerdo
a la geometría local (longitudes de enlace, ángulos entre los enlaces, etc.), y con el campo
magnético local en cada núcleo. Esto se reeja en los niveles de energía de los espínes (y
las frecuencias de resonancia). Las variaciones en la frecuencia de la resonancia magnética
nuclear para un mismo tipo de núcleo, debido a las variaciones en la distribución electrónica
se llaman desplazamiento químico. El tamaño de este desplazamiento está dado con respecto
a una frecuencia de referencia o muestra de referencia y permite conocer la identidad química
de una muestra.
Clase 21
Transporte y la ecuación de Boltzmann
Z
m= ρdV, (21.1)
V0
y la masa uyendo a través del elemento de supercie dS que encierra este volumen es ρv ·dS,
donde la magnitude de dS es igual al área del elemento y se considera que está dirigido a lo
largo de la normal hacia afuera y es una cantidad es positiva si el uido sale.
H
La masa total que abandona el elemento de volumen por unidad de tiempo es ρv · ds,
∂
R
mientras que el decremento en la masa, − ρdV . Por lo tanto,
∂t
Z I
∂
− ρdV = ρv · dS, (21.2)
∂t
por el teorema de Green, podemos escribir,
I Z
ρv · ds = ∇ · (ρv)dv
∂ρ
+ ∇ · (ρv) = 0, (21.3)
∂t
la cual es la ecuación de continuidad, donde el ujo de masa se puede denotar con j = ρv.
187
21.1.2. La derivada total
Df d
= f (x(t), y(t), z(t), t)
Dt dt
∂f dx ∂f dy ∂f dz ∂f
= + + +
∂t dt ∂x dt ∂y dt ∂z
∂f ∂f ∂f ∂f
= + vx + vy + vz
∂t ∂x ∂y ∂z
∂f
= + v · ∇f. (21.4)
∂t
∂f
La ecuación 21.4 dice que aún en un ujo independiente del tiempo (
∂t
= 0), cualquier
elemento de volumen puede sufrir cambios en f por medio de v· ∇f , mientras se mueve en
el espacio.
Dρ
+ ρ∇ · v = 0. (21.5)
Dt
Para un uido incompresible ρ =constante, independiente del espacio y tiempo,
Dρ
= 0, ∇ · v = 0. (21.6)
Dt
Z Z
Dv
ρvdV = dV ρ , (21.7)
V V Dt
donde hemos considerado que la masa ρdV de cada elemento material es constante. La
ecuación 21.7 debe ser igual a la fuerza neta sobre el elemento.
f = σ · n̂. (21.8)
Z Z
F= dV ρg + σ · dS
ZV S
Por la segunda ley de Newton, las ecuaciones 21.7 y 21.9 deben igualarse para cualquier
V,
Dv
ρ = ρg + ∇ · σ. (21.10)
Dt
I Z
− pdS = − ∇pdV, (21.11)
por lo tanto, el uido que rodea al elemento de volumen dV ejerce una fuerza −∇p, la fuerza
por unidad de volumen. La ecuación de movimiento de Newton se escribe (en la vecindad del
volumen),
dv
ρ = −∇p, (21.12)
dt
pero como v = v(r, t), entonces,
dv ∂v ∂v ∂xi ∂v ∂v ∂v
= + = + vi = + (v · ∇)v, (21.13)
dt ∂t ∂xi ∂t ∂t ∂xi ∂t
∂v 1
+ (v · ∇)v = − ∇p, (21.14)
∂t ρ
Habíamos dicho que en general, el uido está sujeto a fuerzas debidas a un campo externo
(fuerzas volúmétricas) más las fuerzas de contacto. Denotemos las fuerzas volumétricas con
f y a las fuerzas de contacto de deformación descritas por medio del tensor de esfuerzos σ,
Fd = ∇ · σ. (21.15)
Es importante notar que en general el tensor de esfuerzos se puede expresar como la suma
de dos tensores de esfuerzos,
σ = pI + σ 0 , (21.16)
Dv
= −∇p + ∇ · σ + f (21.17)
Dt
la cual es la ecuación de Navier-Stokes.
Dρ ∂ρ
= ρ(∇ · v) = + ∇ · (ρv) = 0. (21.18)
Dt ∂t
• El tensor de esfuerzos diagonal (p) se modela usando la ecuación de estado (por ejemplo,
en un uido incompresible) a volumen constante el campo de velocidad cumple,
∇ · v = 0. (21.19)
σ 0 = α(∇v), (21.20)
∂vi ∂vj ∂vl
σij0 =η + +ξ δij (21.22)
∂xj ∂xi ∂xl
X ∂vi
∇·v = = 0, (21.23)
i
∂x i
∂vi ∂vj
σij0 =η + , (21.24)
∂xj ∂xi
y cuando i 6= j es el tensor de corte o deformación.
∂vi ∂vj
σij = −pδij + η + (21.25)
∂xj ∂xi
en la ecuación de Euler 21.14 y obtenemos,
viscosidad
convección
∂v z }| { z }| {
ρ + v · ∇v = −∇p + η∇2 v + f . (21.27)
∂t |{z}
fuerzas externas
| {z }
|{z} fuerza del uido
aceleración
21.3. Transporte
Cualquier probabilidad de transporte de masa se obtiene en términos de la función dis-
tribución de probabilidad f = f (r, v, t), que da el número de partículas localizadas entre r y
r + dr, con una velocidad entre v y v + dv, en el tiempo t,
Z
ρ(r, t) = d3 vf (r, v, t). (21.28)
Z
1
u = hv(r, t)i = d3 vf (r, v, t)v, (21.29)
n(r, t)
donde u es la velocidad hidrodinámica. Denimos la velocidad peculiar como,
U = v − u, con hU i = 0 (21.30)
que nos dice cómo la velocidad del uido se desvía del promedio en cada punto. El ujo χ,
de cualquier cantidad,
Z Z
fnχ (r, t) = 3
d v χ f |n · u| − d3 v χ f |n · u| (21.31)
n·u>0 n·u<0
Z
fnχ (r, t) = d3 v f (n · u)χ. (21.32)
df ∂f X ∂f ∂xi X ∂f ∂vi
= + + (21.34)
dt ∂t i
∂xi ∂t i
∂vi ∂t
que en equilibrio tiene que ser cero, caso especial del teorema de Liouville,
Df ∂f ∂f ∂f
= +v· +v
Dt ∂t ∂r ∂v
∂f F ∂f
= + v · ∇f + · (21.35)
∂t m ∂v
∂ P
L≡ + · ∇x + F · ∇P (21.36)
∂t m
con P = mv. De manera general, el operador de Liouville se escribe en forma tensorial,
∂ ∂
L̂ = pα α
− Γαβγ pβ pγ α , (21.37)
∂x ∂p
donde Γαβγ son los símbolos de Christoel. En el equilibrio tenemos L̂[f ] = 0.
Si hay transporte verdadero entonces se tienen que considerar las colisiones. Boltzmann
razonó que el número de partículas entre r y r + dr, v y v + dv al tiempo t es en realidad las
que calculamos más las que lleguen ahí como resultado de las colisiones. Entonces la ecuación
de Boltzmann es,
3/2
mβ 1 2
0
f =n e− 2 βm(v0 −u) , (21.39)
2π
la cual es la distribución de Maxwell-Boltzmann. Sea P (t) la probabilidad de que una molécula
no haya experimentado un choque durante el intervalo temporal t = 0 a t, y ω la probabilidad
de que una molécula choque en una única ocasión en el intervalo t + t + dt. Nos interesa la
probabilidad combinada, probabilidad Bayesiana,
de que la partícula no haya chocado y que choque una sóla vez. La probabilidad de chocar
hasta el tiempo t + dt ,
dP 1
= −P ω P = e−ωt ω= (21.42)
dt τ
Z ∞
τ = hti = P(t)t dt
0
Z ∞
= e−ωt ωt dt
0
1 ∞ −y
Z
1
=− e dy = . (21.43)
ω 0 ω
t0
e− τ
P(t)dt = dt (21.44)
τ
que es el tiempo de relajación o tiempo promedio entre colisiones. Si no hubieran colisiones,
0 0
las moléculas llegarían a f . Ahora, jémonos en un intervalo t − t = t0 , tiempo que tardan
las moléculas en llegar al equilibrio,
∞
dt0
Z
0 0
f (r, v, t) = f (r0 , v0 , t − t ) . (21.45)
0 τ
Para tiempos muy cercanos, tenemos que esperar un tiempo t0 para que lleguen al no
equilibrio. Las moléculas que entraron a la vecindad f − f0 , es el número de moléculas que si
chocaron. Integrando por partes,
Z ∞
t0
f (r, v, t) = f 0 (t0 )e− τ dt0
0
∞
0 0 − tτ
0
∞ Z df 0 (t) − t0 0
= −f (t )e + e τ dt . (21.46)
0 0 dt
Reordenando términos,
∞
df 0 (t) − t0 0
Z
0
∆f = f − f = e τ dt . (21.47)
0 dt
Entonces el término de colisiones es,
f − f0
Ĉ[f ] = − (21.48)
τ0
f − f0
L̂[f ] = . (21.49)
τ0
Clase 22
Teoría del transporte de Boltzmann
En clase pasada habíamos visto que el operador del Liouville cuando el sistema está fuera
del equilibrio está dado por la expresión,
(f − f 0 )
L̂[f ] = C[f ] = − , (22.1)
τ
donde,
∂f ∂f
L̂ = + fm ∇ r f + F . (22.2)
∂t ∂p
En las siguientes secciones veremos dos ejemplos, en donde aplicamos las ecuaciones 22.1
y 22.2.
f − f0
∂f δf
=− =− , (22.3)
∂t col τ τ
modelo que se conoce como la aproximación del tiempo de relajación, donde f 0 = f 0 (r, p, t)
es una función de distribución que describe el equilibrio local a cada posición r y tiempo t. La
cantidad τ se llama tiempo de relajación, puede ser dependiente del momento. En ausencia
de términos de ujo, tenemos,
∂δf δf −t
=− ⇒ δf (r, p, t) = δf (r, p, 0)e τ . (22.4)
∂t τ
La distribución f se relaja a la distribución de equilibrio f0 en una escala de tiempo τ.
195
describe al sistema es,
3/2
mβ
0
f (r, v, t) = ρ(), ρ() = n e−β . (22.5)
2π
es decir, la distribución de Maxwell-Boltzmann. En el caso de electrones, la distribución
1
de Fermi-Dirac, g ∼ β(−µ) . En presencia del campo eléctrico, la distribución cambia a
e +1
??
f (r, v, t), y aplicando la ecuación de Boltzmann, ecuación , considerando Fext = eE = eEẑ,
eE f − f0
L̂[f ] = =− (22.6)
m τ
El operador de Liouville aplicado a f,
∂f ∂f eE ∂f
L̂f = + eE + z (22.7)
∂t ∂z m ∂vz
Si el campo eléctrico E es pequeño, ∆f es chico (corriente pequeña),
<<1
z }| {
0
∂f ∂f ∂∆f
f − f0 1 ⇒ = +E = 0, (22.8)
∂vz ∂vz ∂vz
esto haciendo un desarrollo de Taylor y considerando únicamente el término lineal. Lo cual
resulta en,
τ eE ∂f 0 τ eE 0
∂f ∂ ,
∆f ≈ − =− (22.9)
m ∂vz m ∂ ∂vz
|{z}
mvz
∂f 0
∆f = −τ vz eE . (22.10)
∂
Por lo tanto la corriente debida al campo, en la dirección ẑ es,
Z
jz = e d3 v f vz , (22.11)
∂f 0
Z Z
3 0 2
jz = e d v f vz −e E d3 v vz2 τ (22.12)
∂
| {z }
en equilibrio hvz i=0
∂f 0 2
Z
jz
σel = = −e2 d3 v τv (22.13)
E ∂ z
Denimos,
3/2
df 0
mβ
= −βn e−β = −βf 0 ,
d 2π
entonces,
Z
2
σel = β d3 v f 0 τ vz2 (22.14)
ne2
σel = τ (22.15)
m
expresión que nos da conocimiento del tiempo promedio entre choques.
Electrones en un metal
En un metal, el gas de electrones sigue la distrubición de Fermi-Dirac, y si el gas es muy
degenerado,
0
∂fFD
6= 0, (22.16)
∂
cerca del nivel de Fermi. Sólo los electrones cerca del nivel de Fermi contribuyen a la integreal
de la conductividad electrónica, lo que corresponde a τ = τF ,
ne2
σel = τF (22.17)
m
pero n es el número total de electrones, véase,
df 0
Z
2
σel = −e τF d3 v vz2 (22.18)
d
la integral de la ecuación 22.18, se puede escribir como,
∞ ∞ ∞
df 0 2 0
dvz df 0 1 ∞
Z Z Z ∞ Z
df dvz
dvz v = dvz vz2 = vz = f vz − f dvz
−∞ d z −∞ dvz d −∞ m dvz −∞
| {z } | m −∞
{z }
0 n
m
Figura 22.1: Fluido moviéndose entre dos placas. La placa superior se mueve con velocidad
u0 , mientras que la inferior esta ja. Debido a esto se forma un gradiente de velocidad en el
uido.
La velocidad peculiar,
U = v − u,
por lo tanto hU i = 0, ya que u = v. El primer término del lado derecho corresponde a la
velocidad hidrodinámica y el segundo término a la velocidad promedio de una molécula. Por
lo tanto U = 0, ya que u = hvi.
Consideremos el ujo de la cantidad χ transportada por unidad de tiempo, por unidad
de área, a lo largo de una supercie con normal n̂,
σ χ (r, t) = nhn̂ · Uχi. (22.20)
En este caso la cantidad transportada es la componente x del momento mvx mientras que
la normal es n̂ · U = Uz . La fuerza por unidad de área, con normal ẑ aplicada por el uido
debajo de una supercie en x̂ es,
Z
Pzx = m d3 v f Uz Ux . (22.22)
R
De igual manera, la presión a lo largo de z es Pzz = p = m d3 v f vz2 .
En ausencia del gradiente de velocidades (cuando el sistema está en equilibrio), el uido
está moviéndose a velocidad constante ux . La función distribución de probababilidad que
describe el sistema es,
3/2
mβ β 2
0
f (U ) = m e− 2 mU (22.23)
2π
donde U = U (vx − ux , vy , vz ) es la velocidad peculiar. Nótese que hU i = 0. La ecuación 22.23
satisface, el operador de Liouville,
∂f 0
L̂[f 0 ] = + v · ∇f 0 + F · ∇ψ f 0 (22.24)
∂t
donde el primero y tercer términos del lado derecho valen cero. La ecuación de Boltzmann
es,
∂f (f − f 0 ) ∆f
vz =− =− . (22.25)
∂z τ τ
∂ux
Si consideramos que
∂z
1, entonces,
∂f 0 ∂f 0 ∂ux
∆f = −τ = −τ vz . (22.26)
∂z ∂ux ∂z
Z
d3 vf 0 Uz Ux = 0,
∂ux
Pzx = −η (22.28)
∂z
la cual es la ecuación de Poiseuille. El signo menos en la ecuación 22.28 viene de que el
sistema debe regresar al equilibrio. Despejando η y sustituyendo Pzx por la ecuación 22.27,
obtenemos,
∂f 0 ∂f 0
Z Z
3
η = −m dU Ux Uz τ vz = −m d3 U Ux Uz2 τ, (22.29)
∂Ux ∂Ux
e integrando por partes,
∞
∂f 0
Z Z Z Z
η = −mτ dUy dUz Uz2 dUx Ux = mτ d3 U Uz2 f 0 = mτ hUz2 i. (22.30)
−∞ ∂Ux
n
η= mτ hU 2 i. (22.32)
3
Clase 23
Movimiento Browniano y la ecuación de
Langevin
23.1. Introducción
En 1827 el botánico Robert Brown descubrió que bajo el microscópio, los granos de polen
otando sobre un líquido experimentaban un movimiento irregular. Fué hasta 1905, cuando
los trabajos de Albert Einstein dieron una explicación teórica a este fenómeno, el cual podía
vericarse cuantitativamente por medio de experimentos, lo que dió lugar al origen de la
teoría atómica de la materia.
dv
m = F(t) + Fext (23.1)
dt
donde las fuerzas impulsivas F (t) son funciones que uctúan en el tiempo, debido a las
colisiones con las moléculas del medio.
hF (t)iens = 0 (23.2)
201
Figura 23.1: Movimiento Browniano causado por los impactos incesantes de las moléculas del
gas en contra de un espejo suspendido en un gas diluido [21].
Z t+τ
m[v(t + τ ) − v(t)] = Fext τ + F (t0 )dt0 , (23.3)
t
donde la integral del lado derecho contribuye muy poco, porque F cambia de signo (uctúa)
muy rápido. Notemos que F es la función que tiende a restaurar el equilibrio, si Fext = 0 y
hvi =
6 0, a cierto tiempo F produce hvi = 0, por lo tanto, F debe contener una parte lenta
que restaure el equilibrio. Sea,
F = hF iens + F 0 ,
donde para una uctuación rápida hF 0 i = 0, entonces la parte lenta debe ser una función de
hviens de tal manera que hF iens = F , lo que lleva a F (0) = 0 en el equilibrio. Por lo tanto F
puede desarrollarse en serie de Taylor y a primer orden obtenemos,
F = −αhviens (23.4)
hvi
m = Fext − αhvi,
dt
e incluyendo la parte rápida, obtenemos,
dhvi
m = Fext − αv + F 0 (t), (23.5)
dt
0
la cual es la ecuación de Langevin, donde F (t) es una función aleatoria con media cero
0
(hF (t)i = 0). Además, en el segundo término del lado derecho, aparecen las fuerzas disipa-
tivas que rompen la simetría de inversión en el tiempo (irreversibilidad)
23.2. Desplazamiento cuadrático medio
Considerando la ecuación de Langevin, ecuación 23.5, para el caso en una dimensión,
multiplicando la ecuación de Langevin por x, obtenemos,
dẋ 1 d(xẋ)
mx = m − ẋ − αxẋ + xF 0 (t)
2
dt 2 dt
Hagámos el promedio en el ensamble de realizaciones hF 0 i = 0, independiente de v y x, es
decir,
1 1
mhẋ2 i = kT
2 2
Entonces,
d(xẋ) dhxẋi
m = kT − αhxẋi = m
dt dt
Integrando obtenemos,
α kT
hxẋi = Ce− mt + (23.7)
α
α
donde γ ≡ m
tiene unidades de inverso de tiempo. Suponiendo que a t = 0, tenemos que
x= 0, y obtenemos el valor de C ,
kT
C+ =0
α
Por lo tanto, sustituyendo en la ecuación 23.7, obtenemos,
kT
hxẋi = (1 − e−γt ). (23.8)
α
El desplazamiento cuadrático medio está dado por,
2 2kT 1 −γt
hx i = t− e (23.9)
α γ
1
expresión que para t γ
y α = γm se reduce a,
kT 2
hx2 i = t (23.10)
m
por lo tanto, la partícula se mueve como si fuera libre para un tiempo muy pequeño, con
21
velocidad v= kT
m
. Cuando t 1
γ
, e−γt → 0, por lo tanto,
2kT
hx2 i = t = 2Dt, (23.11)
α
la partícula se difunde como una caminante al azar, con una constante de difusión,
2kT
D≡ (23.12)
α
Para un electrón, con carga e, moviéndose en un campo eléctrico E, tenemos que la
ecuación de Langevin,
dv
m = eE − αv + F 0 (23.13)
dt
para
dv
dt
= 0, obtenemos heE − αv + F 0 i = 0, que resulta en,
e
eE − αhvi = 0, hvi = E
α
por lo tanto, la movilidad es,
hvi
µ≡ (23.14)
ξ
Por lo tanto, la relación de Einstein del problema es,
µ e
= . (23.15)
D kT
Clase 24
Ecuación de Fokker-Planck
Las uctuaciones en un sistema dan lugar a las disipaciones, y éstas a su vez a correlaciones
temporales entre diversas partes del sistema. Sea P (v, t) la probabilidad de encontrar a una
partícula con una velocidad entre v y v + dv al tiempo t. Estamos interesados en saber cómo
depende esta función del tiempo, cómo evoluciona. Para esto utilizaremos el ejemplo del
caminante al azar, descrito en términos de un proceso de Markov,
32
mβ 1 2
Ps→∞ (v, s|v0 ) → e− 2 mv . (24.3)
2π
La probabilidad P, al evolucionar en t tiene que obedecer a una ecuación maestra en un
espacio continuo de velocidades. Para τ pequeño,
Z Z
dP
τ dv = − P (v, s|v0 )P (v1 , τ |v) dv dv1 + P (v1 , s|v0 )P (v, τ |v1 ) dv dv1
dt
Z
= −P (v, s|v0 )dv + P (v − ξ, s|v0 )P (v, τ |v − ξ)dξ, (24.4)
205
La diferencia con la ecuación de Boltzmann esta en que la velocidad no puede cambiar
drásticamente. El segundo término del lado derecho de la ecuación 24.4, no decae tan drás-
ticamente con respecto a ξ , a menos que ξ 1 y podemos desarrollar en serie de Taylor
alrededor de P (v, s|v2 )P (v + ξ, τ |v),
∞
X (−ξ)n ∂ n
P (v − ξ, s|v0 )P (v, τ |v − ξ) = [P (v, s|v0 )P (v + ξ, τ |v)] (24.5)
n=0
n! ∂v n
El primer término se anula con el primer término del lado derecho de la ecuación 24.4, los
siguientes términos son los momentos de la velocidad,
Z ∞
µn = dξ ξ n P (v + ξ, τ |v). (24.6)
−∞
µn
Mn = , (24.7)
τ
obtenemos,
∞
X (−1)n ∂ n
∂P
(v, s|v0 ) = n
Mn P (v, s|v0 ), (24.8)
∂s n=1
n! ∂v
∂P ∂ 1 ∂2
= − (M1 P ) + (M2 P ) (24.9)
∂S ∂v 2 ∂v 2
la cual es la ecuación de Fokker-Planck. Estos momentos se pueden calcular para el movi-
α
miento Browniano con la ecuación de Langevin, con γ ≡ ,
m
1
h∆v(τ ) = −γv
M1 =
τ
1 2kT
M2 = h[∆v(τ )]i = γ (24.10)
τ m
∂P ∂ γkT ∂ 2 P
= γ (vP ) + , (24.11)
∂s ∂v m ∂v 2
o bien,
∂P ∂P γkT ∂ 2 P
= γP + γv + , (24.12)
∂s ∂v m ∂v 2
que nos dice la evolución de la probabilidad asociada a la velocidad en el tiempo.
La ecuación de Langevin investiga la evolución de la velocidad media de una partícula
en el tiempo. La ecuación de Fokker-Planck investiga la evolución de la probabilidad de que
una partícula tenga cierta velocidad, por lo tanto, la ecuación de Fokker-Planck puede verse
como un ensamble de ecuaciones de Langevin.
Apéndice A
Sistema en no-equilibrio
Consideremos un ejemplo simple de un sistema dividido a su vez en dos subsistemas por
medio de una partición que permite un ujo débil de energía entre ambos, pero no el ujo
de cualquier otra cantidad conservada. El equilibrio entre los dos subsitemas está dado por
la igualdad en las temperaturas T1 = T2 . Si preparamos este sistema, de tal manera que
los subsistemas estén a distintas temperaturas, el sistema total estará en un estado de no
equilibrio y por lo tanto habrá una corriente de energía uyendo entre los subsistemas que
lleve al sistema al equilibrio. El problema es simple si la diferencia en las temperaturas es
pequeña (δT = T2 − T1 ), alrededor de una temperatura promedio T2 ≈ T1 ≈ T . Considerando
un desarrollo de Taylor, la corriente de energía JE entre los subsistemas será proporcional a
δT . En el equilibrio se debe cumplir que JE es cero cuando δT = 0. Entonces
JE = −KδT (A.1)
dT1 1 dE1 JE
= =−
dt C1 dt C1
dT2 1 dE2 JE
= = , (A.2)
dt C2 dt C2
donde Cx es la capacidad caloríca del subsistema x, la cual es una constante de proporcio-
nalidad que relaciona pequeños cambios en la temperatura a pequeños cambios en la energía.
Es importante notar lo siguiente, ya que la relajación entre los subsistemas es lenta, cada
subsistema puede considerarse en equilibrio interno, de tal forma que la constante de propor-
cionalidad entre los cambios de la energía y temperatura es el valor de equilibrio del calor
especíco:
dT K 1 1 1
δ =− δT con = + , (A.3)
dt C C C1 C2
209
con C la capacidad caloríca combinada efectiva. Integrando la ecuación A.3, obtenemos un
relajamiento exponencial en el tiempo, caracterizado por un tiempo de relajación,
C
τ= , (A.4)
K
dado en términos de cantidades macroscópicas.
donde en el último paso nos quedamos únicamente con términos a primer orden en δT .
Entonces considerando la segunda ley de la termodinámica, que nos dice que la entropía se
incrementa cuando un sistema aislado regresa al equilibrio, el coeciente cinético K debe ser
positivo.
Estos resultados pueden ser fácilmente generalizados para un sistema continuo. Conside-
rando que únicamente que la temperatura y energía varían, un sistema macroscópico está
en equilibrio cuando la temperatura es uniforme en el espacio. Cuando la temperatura varía
espacialmente habrá un ujo de energía, y para perturbaciones pequeñas y que varían lenta-
mente la corriente en la energía será proporcional a los gradientes de la temperatura. Es útil
introducir una densidad en la energía e (energía por unidad de volúmen), y la densidad de
Rcorriente de energía jE (de tal forma que la energía que uje a través de la supercie S es
j · dS). La conservación de la energía es,
S E
∂e
= −∇ · jE (A.6)
∂t
donde la corriente de energía es proporcional al gradiente espacial de la temperatura,
jE = −k∇T (A.7)
Las ecuaciones A.6 y A.7 son cerradas si conocemos cómo depende la densidad de ener-
gía en la temperatura. Esta relación es la misma que en el equilibrio, considerando el calor
especíco apropiado. Las ecuaciones dinámicas son lineales y para un sistema físico nito la
evolución será la suma de los modos (decayendo exponencialmente) del sistema. Es impor-
tante notar que un sistema innito tienen un número innito de modos, y la relajación puede
ser no exponencial.
∂T
= κ∇2 T (A.8)
∂t
donde κ = k/C . Esta ecuación es una ecuación de difusión dependiente del tiempo para la
temperatura. De igual manera, la densidad de energía e satisface una ecuación idéntica. El
coeciente κ es la difusividad térmica (dimensiones de una constante de difusión).
Apéndice B
Teorema de uctuación disipación
En el siguiente ejemplo consideraremos una partícula Browniana inmersa en un uido y
conectada a un resorte, véase la gura B.1. La variable x también podría denotar la posición
del centro de masa de la carga eléctrica, como veremos a continuación.
Habíamos dicho ya que el teorema de uctuación disipación establece que una uctuación
espontánea del equilibrio decae como una perturbación impuesta externamente. Considere-
mos una pequeña perturbación h kT al hamiltoniano H del sistema. Para t < 0 el sistema
esta gobernado por el hamiltoniano H + h, mientras que para t > 0, está gobernado por H .
Sea h = −F x, donde F es una fuerza externa, que podríamos considerar F = QE , con Q
una carga eléctrica y E un campo eléctrico. La traza de x está dada por,
Z X
Tr x= dωx = hn|x|ni, (B.1)
n
Tr {x(q, p)e−βH }
hxi = Tr {x(q, p)f (q, p)} = (B.2)
Tr e−βH
donde f (q, p), representa la distribución de probabilidad en el espacio fase y x puede ser
cualquiera de las q 's. La variable x se dene de tal forma que hxi = 0. La función de correlación
es,
213
Z
c(t) = hx(t)x(0)i = dω x(t; q, p) x(0; q, p)f (q, p) (B.3)
Tr {x(t; q, p)e−β(H−F x) }
x(t) = (B.4)
Tr e−β(H−F x)
Tr {x(t; q, p)e−βH }
= hx(t)i = hxi = 0 (B.6)
Tr e−βH
1 1 − F hxi 1
≈ = . (B.7)
Tr e−β(H−F x) Tr e−βH Tr e−βH
para t > 0. La ecuación B.8 tiene la forma del teorema de uctuación disipación. Sin embargo,
la perturbación h = −F x no es macroscópica, ya que la consideramos más pequeña que kT ,
y por lo tanto, x no es más grande que cualquier uctuación espontánea. Sin embargo, si el
sistema es lineal, de tal forma que x ∝ F , aún cuando h kT , entonces,
x = F r(t),
donde r(t) es una función respuesta (si F está en el régimen lineal). Esta relación debe ser
válida para F pequeño, de tal forma que,
Esto signica que esta función r(t) es válida para toda F siempre y cuando la perturbación
macroscópica sea lineal, lo que signica que F debe ser tan pequeña de tal forma que no exceda
el régimen lineal del resorte y no genere efectos hidrodinámicos no lineal cuando la fuerza
externa se anule. Bajo estas condiciones, el teorema de uctuación disipación está dado por
la ecuación B.8.
Apéndice C
Relaciones de reciprocidad de Onsager
Consideremos dos contenedores conectados por un hueco pequeño a través del cual puede
uir un gas. Si el ancho y altura del hueco es del orden del camino libre medio del gas, no
se observarán efectos hidrodinámicos. Si hay diferencia de presiones entre los subsistemas
puede haber ujo de masa, similarmente la diferencia en las temperaturas ocasionará ujo
de calor. Esto se conoce como efecto termomecánico y representa el efecto de un fenómeno
cruzado donde la fuerza de conddución de una corriente impulsa otra fuerza y viceversa.
Las relaciones de reciprocidad de Onsager establecen que estos acoplamientos cruzados son
iguales (o recíprocos) en un sentido cuantitativo. Otro ejemplo de fenómeno de acoplamiento
cruzado ocurre entre líquidos como el aceite y agua, que uye en un medio poroso y son
forzados por diferencias individuales en las presiones.
Lars Onsager, gura C.1 estudió el acoplamiento cruzado entre un ujo de calor en una
dirección y los gradientes de temperatura en la otra dirección en un cristal anisotrópico.
En 1931 publicó un resultado más general que relaciona los ujos y fuerzas en sistemas
termodinámicos fuera de equilibrio, pero donde existe una noción de equilibrio local. Este
resultado está basado en el hecho de que la microdinámica subyacente es reversible en el
tiempo (esto prueba la reciprocidad en fenómenos macroscópicos e irreversibles). Por estos
trabajos, Onsager recibió el premio nobel de química en 1968.
Denotemos las cantidades que están acopladas en el sistema con xi . Por simplicidad,
supondremos que estas cantidades aparecen linealmente en el hamiltoniano, de tal manera
que el teorema de uctuación-disipación sea aplicable. En el caso de un ujo de dos fases,
215
la velocidad del ujo puede identicarse con la posición de un pistón sujeto a una fuerza
externa constante.
∂S(x)
Ṡ = ẋi = fi ẋi (C.1)
∂xi
donde fi es la fuerza termodinámica y ẋi es el ujo termodinámico conjugado. Si el sistema
está aislado, la probabilidad de encontrar al sistema a un valor particular x es proporcional
al número de microestados compatibles con,
eS(x)/k
P (x) = R ∞ (C.2)
−∞
dx eS(x)/k
donde la integración se efectúa sobre todas las xi 's. Se puede obtener una relación conveniente
entre xi y fi . Calculando el promedio en el equilibrio, a partir de la distribución anterior
obtenemos,
R∞ R∞
−∞
dx xi fj eS(x)/k −∞
dx xi ∂S(x)
∂xi
eS(x)/k
hxi fj i = R∞ = R∞
−∞
dx eS(x)/k −∞
dx eS(x)/k
∞
xi eS(x)/k |∞
R S(x)/k
−∞ − kδij −∞ dx e
= R∞
−∞
dx eS(x)/k
= −kδij (C.3)
que corresponden a leyes macroscópicas lineales. Podemos obtener información sobre los
coecientes Lik a partir de la naturaleza de las funciones de correlación hxi (t)xj (0)i. Es
importante notar que en la descripción microscópica, la evolución temporal de xi (t) y todos
los grados de libertad microscópicos están gobernados por un Hamiltoniano que garantiza la
reversibilidad temporal,
hxi (t)xj (0)i = hxi (−t)xj (0)i = hxi (t − t)xj (t)i = hxi (0)xj (0)i. (C.6)
Entonces,
xi (τ − xi (0)) xj (τ − xj (0))
xj (0) = xi (0) (C.8)
τ 0 τ 0
donde τ representa un tiempo mucho más grande que el tiempo libre medio molecular y más
pequeño que los tiempos de decaimientos macroscópicos. Entonces, identicamos,
xi (τ ) − xi (0)
= ẋi , (C.9)
τ
y sustituyendo la ecuación C.4, obtenemos,
las cuales son las relaciones de reciprocidad de Onsager. La característica más importante
de estas relaciones es que ligan una simetría de respuesta macroscópica irreversible a la
reversibilidad de la microdinámica subyacente.
Para aplicar las relaciones de Onsager, primero se deben identicar los ujos y fuerzas
y esto se hace determinando la producción de entropía, ecuación C.1. Como esta ecuación
involucra sólo los productos f i xi , existe una libertad para denir los ujos y fuerzas.
Apéndice D
Teoría cinética
df ∂f
= + {f, H} = 0,
dt ∂t
donde f = f (q i , pi , t) es la densidad de puntos en el espacio fase (o bien, una distribución
de probabilidad), H es la función Hamiltoniana del sistema y el símbolo {·, ·} se reere al
paréntesis de Poisson. Podemos pensar en un ensemble del sistema cuyo número de réplicas
forman una densidad de puntos arbitraria en el espacio fase. Cada uno de los puntos traza
una trayectoria y esto se reere a una partícula interactuando con un potencial exterior.
Si se sobrepusieran todas las réplicas del ensemble sin permitir interacción entre ellas, la
dinámica de las partículas correspondería a un sistema ideal. En el momento de considerar
las interacciones entre las partículas tendemos que el teorema de Liouville ya no es aplicable
y por lo tanto,
df ∂f ∂f
= + {f, H} = , (D.1)
dt ∂t ∂t colisiones
el segundo miembro de la ecuación, que describe el cambio de densidad en el espacio fase
debido a las colisiones o interacciones entre partículas, en general es distinto de cero.
219
Posterior a la colisión, ambas partículas aún permanecen dentro de la misma celda del
espacio fase, sin embargo, intercambiarán momento y al nalizar la interacción sus momentos
0
serán P y P . Estos momentos de cada partícula, posteriores a la interacción, dependen de
los momentos iniciales, de la geometría y de los potenciales de interacción entre ellas.
df
= C[f ] := −δR− + δR+ ,
dt
con
Z
δR− = F[(p, p0 ) 7→ (p00 , p000 )]dpdp00 ,
Z
δR+ = F[(P, P 0 ) 7→ (p, p00 )]dP dP 00 ;
que describen al primer y segundo tipo de ujo respectivamente. Podemos dar una expresión
de la distribución de los pares de partículas F(p1 , p2 ) suponiendo que la probabilidad de
encontrar a las partículas con momentos p1 y p2 no está correlacionada, es decir, la podemos
separar en un producto de probabilidades,
Z Z
0 0
δR− = f (p)f (p )σdΩgdp y δR+ = f (P )f (P 0 )σdΩgdP 0
Z h
∂f X ∂H ∂f ∂H ∂f i
+ i
− i = f (P )f (P 0 ) − f (p)f (p0 ) σdΩgdp0 , (D.2)
∂t i
∂pi ∂q ∂q ∂pi
que también se puede escribir de forma compacta con coordenadas cartesianas y en forma
vectorial de la siguiente forma,
Z h
∂f 1 i
+ v · ∇x f + F · ∇v f = f (P )f (P 0 ) − f (p)f (p0 ) σdΩgdp0 ;
∂t m
para cualquier fuerza F, no necesariamente proveniente de un potencial, donde m denota la
masa de las partículas.
R
A(q, p)f (q, p) dq dp
hAi = R .
f (q, p) dq dp
Naturalmente, para que las cantidades físicas tenga el signicado usual, en muchas ocasiones
será necesario hacer la traducción de coordenadas generalizadas a cartesianas. Para este
propósito adoptaremos el sistema cartesiano de aquí en adelante dejando coordenadas y
momentos generalizados para posición y velocidad como cantidades vectoriales,
(q i , pi ) 7→ (x, v).
Z
f (x, v)d3 xd3 v = N,
por lo tanto, podemos deducir que integrando únicamente sobre los momentos, tendremos la
densidad de partículas,
Z
n(x) := f (x, v)d3 v. (D.3)
mn(x) = ρ(x).
El siguiente caso, o el primer momento de la distribución de partículas, está relacionado
con la velocidad peculiar u(x), esto es,
Z
n(x)u(x) := vf (x, v)d3 v. (D.4)
Z
3
mkB T (x) = ∆v 2 = (v 2 − u2 )f d3 v = TrΠ, (D.6)
2
donde kB = 86.17 µeV K−1 es la constante de Boltzmann y T es la temperatura local.
Z
C[f ] = [f 0 f10 − f f1 ]σdΩgd3 v1 ,
Z
I[φ] := φ(v)C[f ]d3 v. (D.7)
Esto proviene de las simetrías de las colisiones, cada una de las permutaciones anteriores
tiene representación física, como simetría ante inversión temporal en el segundo caso, e in-
distinguibilidad de las partículas en los demás casos. Esto implica que el funcional se puede
expresar para diferentes variables como
1
I[φ] = I[φ + φ1 − φ0 − φ01 ].
4
De esta manera, cualquier función ψ = ψ(v) que satisface
ψ + ψ1 = ψ 0 + ψ10 ,
tendrá como consecuencia que I[ψ] = 0, entonces a ψ se le llama invariante colisional. Las
cantidades conservadas en una colisión son,
m + m = m + m,
mv + mv1 = mv0 + mv10 ,
1 2 1 2 1 02 1 02
mv + mv1 = mv + mv1 ;
2 2 2 2
esto es, la masa, el momento y la energía total resultan hacer al funcional nulo,
Z
df
m = C[f ] d3 v.
dt
El segundo miembro de la ecuación resulta ser un invariante colisional y directamente lo
podemos igualar a cero. Para el primer miembro tenemos
Z
∂f 1
m + v · ∇x f + F · ∇v f d3 v
∂t m
En el primer término, la parcial puede ser intercambiada con la integral, entonces tenemos
que,
Z
∂ ∂ρ
mf d3 v 7→ .
∂t ∂t
El segundo término lo podemos expresar como
Z
∇ · (mf v)d3 v 7→ ∇ · (ρu),
Z Z Z
3 3
F · ∇v f d v = ∇v · (f F)d v − f ∇v · Fd3 v
I
f F · ds = 0.
Juntando todo tenemos,
∂ρ
+ ∇ · (ρu) = 0, (D.8)
∂t
que es la ecuación de la conservación de la masa conocida como la ecuación de continuidad.
Z
df
mv = C[f ] d3 v.
dt
Desarrollando la derivada total y simplicando de igual manera que en caso del ujo de masa,
Z
∂f 3 ∂
mv d v 7→ (ρu),
∂t ∂t
Z
mv(v · ∇f )d3 v →7 ∇ · Π + ∇ · (ρuu),
Z
ρ
vF · ∇v f d3 v → 7 − F;
m
∂ ρ
(ρu) + ∇ · (ρuu) = F − ∇ · Π.
∂t m
Usando la ecuación de continuidad e identicando al tensor de ujo de momento de la si-
guiente forma,
Π = P 1 − σ,
Z
1 2 3
mv f d v = eK (x).
2
Por un análisis similar a los anteriores se puede mostrar que,
∂eK
+ ∇ · q = ρg · u, (D.10)
∂t
R
donde q := mv 2 f d3 v / 2 es el vector de ujo de calor.
D.4. Equilibrio
D.4.1. El teorema H de Boltzmann
Considere el funcional
Z
H [f ] = f ln f d3 v d3 x,
para conocer la evolución en el tiempo de este funcional, aplicaremos la derivada total respecto
al tiempo, resultando en
dH δH df
= = (1 + ln f )C[f ],
dt δf dt
por regla de la cadena de la derivada funcional. Ahora bien, vamos a demostrar que la cantidad
(1 + ln f )C[f ] siempre es menor o igual a cero. Tomando la integral respecto a las velocidades
tenemos que
Z
(1 + ln f )C[f ]d3 v = I[1 + ln f ] = I[1] + I[ln f ];
con I la integral de colisiones. Por un lado I[1] = 0 por ser un invariante colisional y por el
otro,
f 0 f10
1 0 0 1 f f1 1
I[ln f ] = (I[ln f ] + I[ln f1 ] − I[ln f ] − I[ln f1 ]) = I ln 0 0 = − I ln .
4 4 f f1 4 f f1
f 0 f10
Z
1
− [f 0 f10 − f f1 ] ln σdΩgd3 v1 d3 v,
4 f f1
podemos observar que el integrando es de la forma (X − Y ) ln(X/Y ) el cual, para todo valor
de X > 0 y Y > 0 es una cantidad mayor o igual a cero. Comparando los integrandos,
podemos decir que
f 0 f10
Z
1
(1 + ln f )C[f ] = − [f 0 f10 − f f1 ] ln σdΩgd3 v1 ≤ 0.
4 f f1
En conclusión,
dH
≤ 0, (D.11)
dt
lo cual implica que H es una cantidad que decrece en el tiempo y por lo tanto la dinámica
de f describe un proceso irreversible.
El funcional H está relacionado con la entropía (de Shannon) dado que podemos rela-
cionar f 7→ N p, con p = p(x, v), la probabilidad de tener a una partícula del sistema en una
celda del espacio fase. Entonces, tenemos que
Z
H = (N p) ln(N p)d3 xd3 v = N ln N − N S,
H
S = kB ln N − kB . (D.12)
N
No es de sorprender que la cantidad H sea una función que alcance el mínimo en equilibrio
al estar asociada a la entropía, sin embargo, lo que es sorprendente es que esto surja de
una teoría que en sus fundamentos es ulteriormente reversible dado que las colisiones son
invariantes ante inversiones temporales.
dH
= 0,
dt
podemos decir que la distribución ha alcanzado el equilibrio al menos localmente. Buscaremos
entonces la función f eq tal que H [f eq ] sea un extremal. La distribución de equilibrio, al igual
que cualquier otra que satisfaga la ecuación de Boltzmann, debe cumplir con las cantidades
físicas que incluiremos en la búsqueda del extremal de H como constricciones. Entonces,
denimos
Z Z Z
H[f, λν ] := H [f ] − λ1 N − f d 3 3
xd v − λ2 · nud x − 3 3 3
vf d xd v
Z Z
3kB T 3 1 2 2 3 3
−λ3 d x+ (v − u )f d xd v .
2m 2
Lo que lleva a
δH = 0 = (1 + ln f ) + λ1 + λ2 · v + λ3 v 2 + cte.,
es decir,
f eq = exp[−A − B · v − Cv 2 ],
para algunas constantes A, B y C que se pueden obtener al evaluar las constricciones, esto
es, de los primeros momentos de la distribución. Uno puede vericar que la expresión para
la distribución de equilibrio es,
[2] Charles Poole Herbert Goldstein and John Safko. Classical Mechanics. Addison-Wesley,
2010.
[4] Henri Poicaré. Science and Method, 1908. Available online at http://www.stat.cmu.
edu/~cshalizi/462/readings/Poincare.pdf.
[5] Frederick Reif. Fundamentals of statistical and thermal physics. Waveland Pr Inc, 2008.
[6] Richard C. Tolman. The principles of Statistical Mechanics. Dover Publications, 2010.
[7] Ya. G. Sinai. On the foundation of the ergodic hypothesis for a dynamical system of
statistical mechanics. Doklady Akademii Nauk SSSR, 153:12611264, 1963.
[9] A. Sommerfeld. Zur elektronentheorie der metalle auf grund der fermischen statistik.
Zeitschrift für Physik, 47(1-2):132, 1928.
[11] Philip W. Baumeister. Optical absorption of cuprous oxide. Physical Review, 121:359,
1961.
[14] A. Trias and Felix Yndurain. Exact solution of the bethe lattice with long-range inter-
actions: Application to a heisenberg ferromagnet. Physical Review B, 28:2839, 1983.
229
[17] Youtube link. Supercooled Water, 2011. Available online at https://youtu.be/
Fot3m7kyLn4.
[18] Youtube link. Superheated Water Explodes in Microwave, 2010. Available online at
https://youtu.be/2FcwRYfUBLM.
[19] Wikipedia link. Knight Shift, 2015. Available online at http://en.wikipedia.org/
wiki/Knight_shift.
[20] Wikipedia link. Chemical Shift, 2015. Available online at http://en.wikipedia.org/
wiki/Chemical_shift.
[21] R. Kubo, M. Toda, and N. Hashitsume. Statistical Physics II: Nonequilibrium Statistical
Mechanics. Springer-Verlag, 2003.
[22] R. L. Libo. Kinetic Theory: Classical, Quantum, and Relativistic Descriptions. Sprin-
ger; 3rd edition, 2003.