Documentos de Académico
Documentos de Profesional
Documentos de Cultura
UNIVERSIDAD DE CHILE
Roberto Acevedo
Andrés Soto
a = ∑ei ai
i
Los vectores { ei } satisfacen la relación:
λ1e1 + λ21e2 + + λN eN = 0
∀λi = 0
es decir, son linealmente independientes, y constituyen una basé Vn (también conocida como
generadores de Vn).
En Vn podemos escribir, matricialmente un vector a como vector columna.
a1
a2
Entonces, sí: a =
a
N
Entonces, los vectores en el espacio dual, a + corresponden a los transpuestos y conjugados de
a , es decir:
a + = ( a1 * a2 * a N *)
De modo que definimos, el producto escalar a +a , como:
a1
+ a
a a = ( a1 * a2 * aN *) 2 = a1 * a1 + a2 * a2 + aN * aN = ∑ an
2
n
a
N
Observemos: a = ∑
+
ei ai , entonces +
a + = ∑ei ai = ∑ai * ei , con lo cual:
i i i
+ +
a a = ∑ ai *ei * ∑ ajej = ∑ ai *ajei ej
i j i, j
Extendamos estas ideas y definamos las llamadas bases ortonormales:
Al respecto:
Un conjunto de N-vectores { ei } forma una base ortonormal, sí se satisfacen 2 condiciones en
forma simultánea:
Los { ei } son linealmente independientes (l.i)
Los { ei } son mutuamente ortogonales de dos en dos, es decir:
+
ei e j = δij
i, j i i
De igual forma, sí a = ∑
i
ei ai entonces:
+
e j a = ∑e j ⋅ ei ai = ∑∂ ji ai = a j
i i
es decir:
si a = ∑
i
ei ai , entonces: a = e + ⋅ a
i i y por lo tanto:
+ +
a = ∑ei ei ⋅ a = ∑ei ei ⋅ a =1 ⋅ a
i i
donde 1 = ∑ei ei se conoce como una dyada unitaria (operador tensorial de segundo
+
orden).
( )
O xa + yb = xO a + yO b
Al respecto, escribamos: Oei = ∑
j
e j O ji con lo cual:
+ +
en Oei = ∑en e j O ji = ∑δnj O ji = Oni
j j
También sí: Oa = b , tenemos:
b =O ∑ ei ai = ∑ (Oei )ai = ∑∑
e j O ji ai = ∑
e j O ji ai
i i i j i , j
pero b = ∑e j b j , entonces:
j
∑e b
j
j j = ∑e j O ji ai → b j = ∑O ji ai
i, j i
Si b = Oa
entonces: bi = ∑Oij a j
j
ANTI-CONMUTADORES:
[Aˆ , Bˆ ] = Aˆ Bˆ + Bˆ Aˆ
[ A, B ] = AB + BA
Observe (A )
+
ij = A * ji
Propiedad: ( AB ) + = B + A+
e) tr AB = tr BA
( AB ) −1 = B −1 A−1
- A−1 =( A )
−1
A ( A ) =1
*
- Si AA+=1, entonces:
+ + +
- si U OU = Ω y U U = UU =1 , entonces :0 = Ω
Entonces: a = ∑
i
i ai
También: a a = a a =?
Observe: a = ∑i ei ai y también: a + = ∑i ai*ei+
*
a +a = ∑ai*ei+
∑a j e j = ∑ai
2
De modo que:
i j i
a = ∑ i ai
i
Note que:
a + = ∑ai* i
i
a +a = ∑ai* i
∑ j a j
i j
Entonces:
= ∑ai*a j i j = ∑ai*a jδij = ∑ai
2
i, j i, j i
a +a = a a
Tenemos:
e j+ei = j i = δ ji
De igual forma:
j a = ∑ j i ai = ∑δ ji ai = a j
i i
*
De igual manera: j a = a j , lo cual fluye de las dos identidades
Observe: a = ∑ i ai
i
Y j a = ∑ j i ai = a j , entonces
i
→ a ∑i i
i a ,lo cual sugiere: ∑i
i
i = 1 (este es el denominado Teorema de
expansión).
En el caso de los operadores: Sea 0a = b , es decir 0 a =b
y entonces, si:
0 i = ∑ j 0 ji
j
↓
k 0 i = ∑ k j 0 ji = 0 ki →
j
0 ji = j 0 i
De modo que: 0 i = ∑
j
j 0 ji = ∑ j
j
j0i
También, si:
Cˆ = A
ˆ Bˆ →C = i Cˆ j = i A
ij
ˆ Bˆ j = i A
ˆ1Bˆ j =
∑ i Aˆ k k Bˆ j k
Entonces, sí: Cˆ = A
ˆBˆ fluye que: ∑ i A
ˆ k ˆ j
k B
k
Entonces, si: 0 a = b → a 0+ = b
y observe: 0 a =b
c0a = c b ( A)
También como: a 0+ = b → a 0+ c = b c ( B)
*
Entonces, como c b = b c se deduce de A y B que:
*
a 0+ c = c 0 a
+
Busquemos otras identidades: i 0 j = 0
+
( ) ij = 0* ji
*
a 0 b = a 0+ b = b 0 a
a 0b =b 0 a
Acá utilizaremos letras latinas i, j, k, ... y letras griegas α, β, χ, , con el propósito de
diferenciar bases distintas.
Entonces: i j = δij ∑i i =1
y el análogo: α β = δα β ∑α α =1
escribamos: α = 1 α = ∑ i i α = ∑ i U iα
i = 1 i = ∑α α i = ∑α i α = ∑ α U i*α = ∑ α Uα*i
*
También:
α α
*
observe: α i = i α = U i*α = Uα+i
Note que en el caso de bases ortonormales:
i j = δ ij = ∑ i α α j = ∑U iαUα+j = UU + ( ) ij , es decir:
α α
0̂ i = ∑ j j i = ∑ j 0 ji
j j
Entonces:
0̂ α = ∑ β β α = ∑ β Ωβα
β β
es decir: Ω = U + 0U → 0 = UΩU +
Ωαβ = wαδαβ
Es de la forma:
0 α = wα α
Acá decimos que α es un vector propio del operador 0 con valor propio wα . Sí { α } es
un set ortonormal, entonces:
wα = α 0 α
Propiedades de operadores Hermíticos: (0 = 0+)
Sea 0 β = wβ β → β 0 = β wβ = β wβ
+ *
β 0 + = β wβ
es decir:
β 0 + α = β α wβ
pero: β 0+ α = β 0 α
wα β α = β α wβ
con lo cual:
→ ( wβ − wα ) β α = 0
entonces, sí: wβ ≠ wα → β α = 0
"Es decir, los vectores propios de un operador hermítico, correspondientes a distintos valores
propios son ortogonales".
0 1 =w 1
Supongamos: 0 2 =w 2
observe que: 0( x 1 +y 2 ) = w( x 1 +y 2 )
es decir, una combinación lineal de vectores propios degenerados, es también vector propio de
0 con el mismo valor propio.
Existen diversas formas de encontrar combinaciones lineales de los vectores 1 y 2 que
sean ortogonales entre sí.
Al respecto, revisemos el llamado método de ortogonalización de Schmidt.
Sea { i } una base de vectores. A partir de las { i } es posible construir una nueva base,
digamos ortogonal con la original.
También, sea: γ = 3 + k 2 β + k1 α
Con lo cual:
k1 = − α 3
k2 = − β 3
Entonces:
α =1
β = 2 −α2 1
γ = 3 − β 3 β −α3 α
α β = δαβ
V. FUNCIONES DE MATRICES.
Dada una matriz hermítica A, es posible definir una función de A, es decir f(A).
∞
Escribamos: f ( A) = ∑Cn An
n =0
1 1
Así por ejemplo: exp ( A) = 1 + A + A2 +
1! 2!
a1n 0 0
An = 0 a2n 0
0 0 a n
N
Con lo cual:
∑ Cn a1n 0 0 f ( a1 ) 0 0
∞
f ( A ) = ∑ Cn An = 0 ∑ n2
C a n
0 = 0 f ( a2 ) 0
0 n
∑ Cn aN 0 f ( aN )
n=0
0 0
a 1 2 0 0
1
A 2 = 0 a2 2 0
1 1
1
0 0 a N 2
b) Sí A es no diagonal:
U + AU = a → a = UAU +
También: A2 = AA = (UaU +
)(UaU ) = Ua (U U )aU
+ + +
= Ua 2U +
y en general: An = Ua nU +
De modo que:
∞
f ( A) = ∑Cn An = ∑CnUa nU + = U ∑Cn a n U + = Uf ( a )U +
n =0 n n
f ( a1 ) 0 0
= U 0 f ( a2 ) 0 U +
0 0 f ( a3 )
De modo que:
f ( a1 ) 0 0
Calculamos f ( a ) = ∑ Cn a = 0 f ( a2 )
n
0 , lo cual es simple, puesto que ‘a’
n 0 0 f ( a N )
es diagonal.
c) Finalmente, obtenemos f ( A) = Uf ( a )U +
1 1
Ejemplo: A 2 = U a 2U + , puesto que
1 1 1 1
A 2 A 2 = U a 2U +U a 2U + = U aU+ = A
Ejercicios:
Demostrar, dado
a1 0 0
+
U AU = a = 0 a2 0
0 0 a3
AC α = aα C α , α = 1, 2, , N
1.- A = a1 a2 aN
n n n n
N
2.- trA = ∑ aα
n n
α =1
3.- Si G ( w) = ( w1 − A) −1 , entonces:
N U iα U *jα N Ciα C αj *
G ( w) ij = ∑ w− a = ∑ w− a
α =1 α α =1 α
0 X ≠ 0
δ( X ) =
∞ X = 0
+∞
Con la propiedad: ∫δ ( X ) dX
−∞
=1
+∞
∫δ ( X ) f ( X ) dX
−∞
+∞ +ε +ε
∫ δ ( X ) f ( X ) dX = ∫δ ( X ) f ( X ) dX ≅ f ( 0) ∫δ ( X ) dX
−∞ −ε −ε
+ε
Sin embargo ∫δ ( X ) f ( X ) dX
−ε
= 1 ∀ε , puesto que δ ( X ) = 0 para
∫δ ( X ) f ( X ) dX
−∞
= f ( 0)
Note que δ ( X ) actúa como un proyector, en el sentido que de todos los valores posibles
que puede tomar f(X) proyecta el valor de la función en X = 0.
Observación: los limites − ∞ y + ∞ , pueden ser reemplazados por cualquier par de
números a y b, con la condición a < 0 < b.
La aseveración que:
0 ( X ≠ 0)
δ(X) =
∞ ( X = 0)
+∞
∫δ ( X ) f ( X ) dX
−∞
= f ( 0)
por todo el continuo de f ( X ) . Esta tampoco es una definición, por cuanto es posible
demostrar que no existe una función con esta propiedad.
a) Existe una secuencia de funciones "strongly peaked", las cuales tienen la propiedad de
proyectar de todos los valores posibles de la función, su valor en X = 0.
Tomemos la secuencia: Φn ( X ) { n = 1, 2, } , entonces:
+∞
lim ∫ φ ( X ) f ( X ) dX
n →∞ −∞
n = f ( 0)
Ejemplo:
1
0 X ≥
n
Φn( X ) = n =1, 2, 3,
n 1
X <
2 n
1 1
+ +
+∞ n n
n n
∫ φ ( X ) f ( X ) dX
−∞
n = ∫ 2 f ( X ) dX
1
= ∫ f ( X ) dX
2 − 1
−
n n
Haciendo uso del teorema del valor medio para integrales, escribimos:
+∞
n 1 1
∫ φ ( X ) f ( X ) dX
−∞
n = + f ( ε ) = f ( ε )
2 n n
1 1
donde − ≤ε ≤+
n n
+∞
lim
n →∞ ∫φ ( X ) f ( X ) dX
−∞
n = f ( 0)
Es conveniente, utilizar secuencias delta construidas a partir de funciones, las cuales son
continuas y diferenciables. Algunas secuencias son del tipo:
n 1
* φn ( X ) =
π 1+ n2 X 2
n −n 2 X 2
* φn ( X ) = e
π
1 sen 2 nX
* φn ( X ) =
nπ X2
+∞
∫φ ( X ) dX
−∞
n =1
+∞
lim
n →∞ ∫φ ( X ) f ( X ) dX
−∞
n = f ( 0) , siempre y cuando f ( X ) sea continua y la integral
converja.
+∞
al poner f ( X ) = 1 .
d) Investiguemos la integral: Φ n ( X ) = ∫ φn ( ε ) dε
−∞
n 1
Para la secuencia φ n ( X ) = , tenemos las siguientes representaciones gráficas.
π 1+ n 2 X 2
Escribamos: lim Φ n ( X ) = S ( X )
n →∞
dφn
Sea φn ( X ) =
n
π
e −n
2
X2
, entonces =
n −n 2 X 2
e ( )
− n2 ( 2 X )
dX π
dφn − 2n 3 2 2
⇒ = Xe −n X
dX π
Ahora consideremos la integral:
+∞
dφn
∫ dX f ( X ) dX siendo f ( X ) diferenciable.
−∞
Tenemos:
dφn df ( X )
+∞ +∞ +∞
∫ f ( X ) dx = φn f ( X ) − ∫φn dX
−∞
dX −∞ −∞
dX
u = f (X )
dV = φn ' dX →V = φn
+∞ +∞
n
Por otra parte φn f ( X ) f (X)
2
X2
= e −n = 0 , por cuanto se supone que
−∞ π −∞
+∞
converge.
Entonces:
dφn df ( X )
+∞ +∞ +∞
∫ dX f ( X ) dX = − ∫ n dX
φ dX = ∫φn f ' ( X ) dX
−∞ −∞ −∞
dφn
+∞ +∞
n →∞ ∫ dX
lim f ( X ) dX = −
n →∞ ∫
lim φn ( X ) f `' ( X ) dX = − f ' ( 0 )
−∞ −∞
+∞
+∞
∫δ ( X ) f ( X ) dX = ( −1) f m ( 0)
m m
−∞
Es preciso enfatizar en este punto que el estricto sentido de las dos identidades anteriores
es el dado por:
d m Φn ( X ) m d f ( 0)
+∞ m
n →∞ ∫
l im f ( X ) dX = ( − 1)
−∞ dX m dX m
Donde, se supone que las funciones involucradas son diferenciables ‘m’ veces y que las
integrales:
d k Φn ( X )
+∞
∫ dX k f ( X ) dX
−∞
Algunas Reglas:
+∞
∫δ ( X ) f ( X ) dX
−∞
= f ( 0)
d
δ( X ) = S( X )
dX
0 X ≠ 0 +∞
δ(X) = con ∫ δ ( X ) dX = 1
∞ X = 0 −∞
Ejemplos: (1) Xδ ( X ) = 0
+∞
∫ Xδ ( X ) f ( X ) dX
−∞
con f ( X ) continua en X = 0.
+∞ +∞
∫ Xδ ( X ) f ( X ) dX = ∫δ ( X ) g ( X ) dX = g ( 0) = 0
−∞ −∞
+∞
⇒ ∫ Xδ ( X ) f ( X ) dX
−∞
=0
+∞
−∞
∫δ ( X − a ) f ( X ) dX
Sea X − a = ε
entonces:
+∞ +∞ +∞
∫ δ ( X − a ) f ( X ) dX =
−∞ −∞
∫ δ ( ε ) f ( ε + a ) dε = ∫ δ ( ε ) g ( ε ) dε = g ( 0)
−∞
donde: g ( ε ) = f ( ε + a ) → g ( 0) = f ( a )
+∞
y por lo tanto:
−∞
∫δ ( X − a ) f ( X ) dX = f ( a)
1
(3) Verifique la regla: δ ( aX ) = a δ ( X ), a ≠ 0
( )
+∞ +∞ +∞
ε 1 dε = 1 δ ε ε
∫ δ ( aX ) f ( X ) dX =
−∞
∫
−∞
δ ( ε ) f
a a a −∫∞
f dε
a
Si a < 0 y ε = aX → dε = adX
∫ δ ε f (ε a ) a dε = − a f ( 0)
+∞ +∞
1 1
∫ δ ( aX ) f ( X ) dX =
−∞ −∞
+∞
1 1
∫ δ ( aX ) f ( X )dX
−∞
=
a
f ( 0) a≠0 y δ ( aX ) =
a
δ(X)
δ ( X 2 − a 2 ) = (1 2 a ) δ ( X + a ) + δ ( X − a ) para a > 0.
Es interesante, observar que esta regla no es cierta para a = 0, de modo que no existe forma
conocida de interpretar δ ( X 2 )
Escribamos: δ ( X 2 − a 2 ) = δ ( X + a )( X − a )
+∞ −a +ε a +ε
∫ δ ( X − a ) f ( X ) dX = ∫ δ ( X + a )( X − a ) f ( X ) dX + ∫δ ( X + a )( X − a ) f ( X ) dX
2 2
−∞ −a −ε a −ε
para a > 0
∫ δ ( X + a )( X − a ) f ( X ) dX = ∫δ ( X − a )( − 2a ) f ( X ) dX =
−a −ε −a −ε
−a +ε
1 1 +∞
∫ δ ( X + a ) f ( X ) dX = δ ( X + a ) f ( X ) dX
− 2a −a −ε
2a −∫∞
En forma similar:
a +ε +∞
1
∫ δ ( X + a )( X − a ) f ( X ) dX = δ ( X − a ) f ( X ) dX
a −ε 2a −∫∞
(2) a( X ) = ∑Ψi ( X ) ai → Ψj ( X ) a( X ) = ∑δ ji ai = a j
i i
i i
Introduzcamos:
(4) δ ( X − X ') = ∑ Ψi ( X ) Ψi* ( X ') , conocida como la δ -de Dirac, con lo cual:
i
(5) a ( X ) = ∫dX 'δ( X − X ')a ( X ') = ∫dX 'δ( X '−X )a ( X ')
escribamos: ε = X '−X
+∞ +∞ +∞
pero b( ε ) = a( ε + X ) → b( 0 ) = a( X )
De modo que:
+∞
+∞
Tenemos Ψi ( X ) = i Ψi* ( X ) = i
También a( X ) = a y a* ( X ) = a
Relación de ortogonalidad:
∫a ( X )b( X )dX = a b
*
aj = j a
a = ∑i i a
i
Los operadores "Nonlocal" son frecuentemente designados como "integral operators". Acá
podemos, considerar a O(X, X') como una matriz continua. Sí deseamos encontrar b(X) en
X – X0 , precisamos conocer a(X) para todo X.
*
pero 0 = 0* con lo cual a 0̂ b = b 0̂ a
Ψj 0̂ Ψi = ∑δkj 0 ji → 0 ki , es decir:
j
sí 0̂ i = ∑
j
j 0 ji → 0 ji = j 0̂ i
Observaciones:
∑C
i
i j 0 i = ∑Ci wδ ji = wC
i
j
∑C
i
i 0 ji − wδ ji = 0
∑i
I =1
i =1 y i j = δ ij
∫X X dX =1
a* ( X ) = a X y b( X ) = X b
a) ∫X X dX =1 →∫ i X X j dX = i j
entonces: Ψi ( X ) = i X Ψj ( X ) = X j
*
y
b) ∑i
i
j =1 →∑ X i
i
j X' = X X'
y definimos anteriormente:
entonces:
δ( X − X ') = X X '
e) Sí 0ij = i 0 j , entonces:
(2) H Φ =ε Φ
Observaciones:
* Dado el operador H, existe un set infinito de soluciones exactas { α } , tal que:
H α = εα α ,α = 1, 2,
tal que: ε0 ≤ ε1 ≤ ε2 etc . (suponiendo que las energías son directas). Como H es
hermítico, entonces, sus funciones propias forman un set ortonormal completo, es decir:
α β = δαβ
Entonces: β H α = εαδαβ
Como las funciones propias de H forman un set ortonormal completo, entonces, cualquier
función Φ con las mismas condiciones de borde, puede ser expresada como:
~ ~
Φ ∑
α
Φα Cα = ∑ Φα Φα Φ
α
y también:
~
ˆ = ∑Cα* < Φα = ∑ Φ
Φ Φα Φα
α α
Principio Variacional:
Teorema Variacional:
"Dada una funci6n de onda normalizada III> que satisface las condiciones de borde,
entonces el valor de esperanza del Hamiltoniano es una cota superior a la energía exacta del
estado fundamental"
~ ˆ
Si ΦΦ =1
~ ~
Entonces ΦH Φ ≥ε0
observe:
~ ~ ~ ~
Φ Φ = 1 = ∑ Φ Φα Φα Φβ Φβ Φ =
α, β
~ ~
= ∑ Φ Φα δαβ Φβ Φ
α, β
~ ~ * ~
=∑ Φ
ˆ Φα Φα Φ = ∑ Φα Φ Φα Φ
α α
~ 2
=∑ Φα Φ
α
Entonces:
~ ~ ~ ~ ~ 2
Φ H Φ = ∑ Φ Φα Φα H Φβ Φβ Φ = ∑εα Φα Φ
α, β α
~ ~
ΦH Φ ≥ε0
Conclusión: El principio variacional para el estado fundamental, nos dice que la energía de
una funci6n de onda aproximada es
siempre muy alta. De modo que la calidad de una función de prueba se mide en términos de
su energía, en el sentido en que mientras menor (más negativa) sea la energía asociada,
mejor será la función como aproximación.
Esta es la base del método variacional, en el cual escogemos una función de prueba
~
normalizada Φla cual depende de ciertos parámetros, de modo que procedemos a variar
~ ~
estos parámetros hasta que el valor de esperanza ΦH Φ alcance un mínimo y este
~ ~
valor mínimo de ΦH Φ corresponderá a nuestra estimación variacional de la energía
exacta del estado basal.
complicada como para determinar estos parámetros bajo la condición que el valor de
~ ~
esperanza ΦH Φsea mínimo.
Sin embargo, sí sólo se permiten variaciones lineales de la función de prueba, es decir, sí
N
~
Φ ∑C
i =1
i Ψi
donde las { Ψ i , i = 1, 2, ... N} , entonces, el problema de determinar los coeficientes
Ψi Ψj = Ψj Ψi =δij =δji
+ *
y H ij = Ψi H Ψj = Ψi H Ψj = Ψj H Ψi = H *ji
~ ~
* Escojemos la función normalizada ΦΦ ∑C
i
i
2
=1
~ ~
* Valor de esperanza: Φ H Φ = ∑
i, j
Ci C j H ij , resulta ser función de los coeficientes
de expansión.
~ ~
* Debemos encontrar el set de parámetros para los cuales Φ H Φ es mínimo. Esto no
nos permite simplemente resolver el set de ecuaciones.
∂ ~ ~
ΦH Φ =0 k = 1, 2, N
∂Ck
por cuanto, los N-parámetros no son independientes, están relacionados por la condición de
normalización ∑C
i
i
2
= 1 , de modo que sólo N - 1 de ellos son independientes.
~ ~ ~ ~
b) Φ Φ = ∑Ci = 1 → Φ Φ −1 = 0
2
Formemos la función:
~ ~ ~ ~
L( C1 , C2 , C N , ε ) = Φ H Φ −ε Φ Φ −1 ( )
= ∑Ci C j H ij −ε∑(Ci2 −1)
i, j i
~ ~
Observe que ΦΦ −1 =0 , puesto que la función de prueba se escoge normalizada, de
modo que el segundo término del miembro de la derecha es cero y por lo tanto, el mínimo
~ ~
de L(C1 , C2 , C N , ε) y ΦH Φ ocurre para los mismos valores de los coeficientes
de expansión.
Supongamos arbitrariamente que C1, C2 ... CN-1 son independientes y por lo tanto que CN
puede ser determinado a partir de la condición de normalización ∑C
i
i
2
= 1 , entonces:
∂L
=0 k = 1, 2, N −1
∂Ck
pero
∂L
∂C N no necesariamente es nulo. Sin embargo, escogeremos el multiplicador
∂L
indeterminado ε , de modo que ∂Ck
=0 ∀k . (k = 1, 2, ...... N-1, N)
Entonces:
∂L
= 0 = ∑C j H kj + ∑C j H jk − 2εCk = 2∑C j H kj − 2εCk ⇒
∂Ck j j j
∑H
j
ij C j − εCi = 0
HC = CE
Resultados:
N
~
a) Se encuentran N-soluciones del tipo: Φ α = ∑Ciα Ψi , i =1
las cuales son ortogonales entre sí, es decir:
~ ~
Φα Φβ =δαβ
b) Observe:
~ ~
Φβ H Φα = ∑C βΨ H ∑C αΨ
i
i i
j
j j
=∑Ci*β H ij C jα = ∑ *
Cβi H ij C jα , notación matricial.
i, j i, j
~ ~
Φβ H Φα = C β ( ) +
( )
H C α = EαC β +C α = Eαδαβ .