Está en la página 1de 29

FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS

UNIVERSIDAD DE CHILE

ELEMENTOS INTRODUCTORIOS EN QUIMICA


CUANTICA

Roberto Acevedo
Andrés Soto

I. ELEMENTOS DEL ALGEBRA LINEAL.



Sea Vn un espacio vectorial complejo N-dimensional, y sea a ∈Vn y entonces, dada una base

de N-vectores { e j} podemos escribir:

 
a = ∑ei ai
i


Los vectores { ei } satisfacen la relación:
  
λ1e1 + λ21e2 + + λN eN = 0
∀λi = 0

es decir, son linealmente independientes, y constituyen una basé Vn (también conocida como
generadores de Vn). 
En Vn podemos escribir, matricialmente un vector a como vector columna.

 a1 
 
  a2 
Entonces, sí: a =  

 
a 
 N


Entonces, los vectores en el espacio dual, a + corresponden a los transpuestos y conjugados de

a , es decir:


a + = ( a1 * a2 *  a N *)

 
De modo que definimos, el producto escalar a +a , como:

 a1 
 
+  a 
a a = ( a1 * a2 *  aN *)  2  = a1 * a1 + a2 * a2 +  aN * aN = ∑ an
2


  n
a 
 N

 
Observemos: a = ∑
+
ei ai , entonces     +
a + = ∑ei ai  = ∑ai * ei , con lo cual:
i  i  i
+       + 
a a =  ∑ ai *ei *  ∑ ajej  = ∑ ai *ajei ej
 i   j  i, j
Extendamos estas ideas y definamos las llamadas bases ortonormales:
Al respecto:

Un conjunto de N-vectores { ei } forma una base ortonormal, sí se satisfacen 2 condiciones en
forma simultánea:

Los { ei } son linealmente independientes (l.i)

Los { ei } son mutuamente ortogonales de dos en dos, es decir:

+
ei e j = δij

Entonces, para bases ortonormales:


 
a +a = ∑ai * a jδij = ∑ai * ai = ∑ ai
2

i, j i i

 
De igual forma, sí a = ∑
i
ei ai entonces:

 +  
e j a = ∑e j ⋅ ei ai = ∑∂ ji ai = a j
i i

es decir:

 
si a = ∑
i
ei ai , entonces: a = e + ⋅ a
i i y por lo tanto:
  +    +   
a = ∑ei ei ⋅ a = ∑ei ei  ⋅ a =1 ⋅ a
i  i 


donde 1 = ∑ei ei se conoce como una dyada unitaria (operador tensorial de segundo
+

orden).

Introduzcamos a continuación, el concepto de operador: Un operador 0 corresponde a una



entidad,

la cual al actuar sobre, digamos un vector , da como resultado un vector, digamos
a
b ,es decir:
 
Oa = b
Sean x e y, dos escalares cualquiera, entonces, 0 es un operador lineal, sí se satisface que:

( )
   
O xa + yb = xO a + yO b

 
Al respecto, escribamos: Oei = ∑
j
e j O ji con lo cual:

+  +
en Oei = ∑en e j O ji = ∑δnj O ji = Oni
j j

 
También sí: Oa = b , tenemos:

   
b =O ∑ ei ai = ∑ (Oei )ai = ∑∑

e j O ji ai = ∑


e j O ji ai
i i i  j  i , j

 
pero b = ∑e j b j , entonces:
j

 
∑e b
j
j j = ∑e j O ji ai → b j = ∑O ji ai
i, j i

Con lo cual, escribimos:


Si b = Oa

entonces: bi = ∑Oij a j
j

Veamos al pasar, algunas propiedades:

Sí A y B corresponden a las representaciones matriciales de dos operadores, Â y B̂


respectivamente, entonces si Cˆ = Aˆ Bˆ , fluye:

Cˆ = Aˆ Bˆ → C = AB → Cij = ∑ Aik Bkj


k

b) Dos operadores o dos matrices, no necesariamente conmutan, es decir ˆ Bˆ ≠ Bˆ A


A ˆ o
AB ≠ BA
Definamos: CONNUTADORES:
[Aˆ , Bˆ ] = Aˆ Bˆ − Bˆ Aˆ
[ A, B ] = AB − BA

ANTI-CONMUTADORES:
[Aˆ , Bˆ ] = Aˆ Bˆ + Bˆ Aˆ
[ A, B ] = AB + BA

c) Adjunto de una matriz A, se denota por A+

Observe (A )
+
ij = A * ji
Propiedad: ( AB ) + = B + A+

d) En el caso de matrices cuadradas:

A es diagonal sí: Aij = Aii δij


Traza de A : trA = ∑ Aii
i

Matriz unidad : A1 =1A, donde (1) ij = δij

Matriz unitaria : A−1 = A+


(Sí A es real, entonces cuando A−1 = A' la matriz se dice ortogonal)

Matriz hermítica: A = A+ → Aij* = A ji (Una matriz real y hermítica, es simétrica).

e) tr AB = tr BA
( AB ) −1 = B −1 A−1

Si U es unitaria y B =U+ AU entonces: A = U B U+

Si el producto C = A B de dos matrices hermíticas, da como resultado una matriz también


hermítica, entonces [ A, B ] = 0 .

f) - Algunas propiedades elementales de los determinantes. Sí dos líneas (filas y/o


columnas) son iguales, entonces, el determinante se anula.

- A−1 =( A )
−1

A ( A ) =1
*
- Si AA+=1, entonces:
+ + +
- si U OU = Ω y U U = UU =1 , entonces :0 = Ω

II. INTRODUCCION A LA NOTACION DE DIRAC.



i →ei

i →ei+

Entonces: a = ∑
i
i ai


También: a a = a a =?

  
Observe: a = ∑i ei ai y también: a + = ∑i ai*ei+

     * 
a +a = ∑ai*ei+ 
∑a j e j  = ∑ai
2
De modo que: 
 i  j  i


a = ∑ i ai
i
Note que: 
a + = ∑ai* i
i

    
a +a = ∑ai* i 
∑ j a j 

 i  j 
Entonces:
= ∑ai*a j i j = ∑ai*a jδij = ∑ai
2

i, j i, j i

 
a +a = a a
Tenemos:  
e j+ei = j i = δ ji

De igual forma:

j a = ∑ j i ai = ∑δ ji ai = a j
i i

a j = ∑ai* i j = ∑ai*δij = a*j


i i

*
De igual manera: j a = a j , lo cual fluye de las dos identidades

Observe: a = ∑ i ai
i

Y j a = ∑ j i ai = a j , entonces
i

→ a ∑i i
i a ,lo cual sugiere: ∑i
i
i = 1 (este es el denominado Teorema de

expansión).

 
En el caso de los operadores: Sea 0a = b , es decir 0 a =b

y entonces, si:

0 i = ∑ j 0 ji
j


k 0 i = ∑ k j 0 ji = 0 ki →
j

0 ji = j 0 i
De modo que: 0 i = ∑
j
j 0 ji = ∑ j
j
j0i

También, si:

Cˆ = A
ˆ Bˆ →C = i Cˆ j = i A
ij
ˆ Bˆ j = i A
ˆ1Bˆ j =
∑ i Aˆ k k Bˆ j k

Entonces, sí: Cˆ = A
ˆBˆ fluye que: ∑ i A
ˆ k ˆ j
k B
k

Procedamos a continuación a introducir el adjunto:

Entonces, si: 0 a = b → a 0+ = b

y observe: 0 a =b

c0a = c b ( A)

También como: a 0+ = b → a 0+ c = b c ( B)

*
Entonces, como c b = b c se deduce de A y B que:
*
a 0+ c = c 0 a

+
Busquemos otras identidades: i 0 j = 0
+
( ) ij = 0* ji

En el caso de un operador hermítico: 0 = 0 + , entonces:

*
a 0 b = a 0+ b = b 0 a

Para operadores hermíticos:

a 0b =b 0 a

III. CAMBIO DE BASES.

Acá utilizaremos letras latinas i, j, k, ... y letras griegas α, β, χ, , con el propósito de
diferenciar bases distintas.

Entonces: i j = δij ∑i i =1

y el análogo: α β = δα β ∑α α =1

escribamos: α = 1 α = ∑ i i α = ∑ i U iα

i = 1 i = ∑α α i = ∑α i α = ∑ α U i*α = ∑ α Uα*i
*
También:
α α

*
observe: α i = i α = U i*α = Uα+i
Note que en el caso de bases ortonormales:

i j = δ ij = ∑ i α α j = ∑U iαUα+j = UU + ( ) ij , es decir:
α α

Con lo cual, concluimos:

"Dos bases ortonormales, se relacionan por medio de una transformación unitaria".

De igual forma; supongamos que 0 es la representación matricial de 0̂ en la base { i } y Ω


es su representación en la base { a } .

0̂ i = ∑ j j i = ∑ j 0 ji
j j
Entonces:
0̂ α = ∑ β β α = ∑ β Ωβα
β β

Observe: Ωαβ = α 0 β = α 101 β = ∑


i, j
α i i 0 j j β = ∑Uα+i 0ij U jβ
i, j

es decir: Ω = U + 0U → 0 = UΩU +

Las ecuaciones Ω = U + 0U y 0 = UΩU + , muestran que las matrices 0 y Ω están


relacionadas por medio de una transformación unitaria.

Veamos algunas propiedades:

a) La traza de una matriz, es invariante frente a una transformación unitaria.

Sí Ω = U + 0U , entonces trΩ = tr 0 (UU +


= U +U = 1)

La importancia de las transformaciones unitarias, yace en el hecho que para cualquier


operador hermítico cuya representación matricial en la base { i } es no diagonal, entonces
haciendo uso de una transformación unitaria, es siempre posible encontrar una base { α } en
la cual la representación matricial del operador sea diagonal, es decir:

Ωαβ = wαδαβ

IV. ECUACIONES DE VALORES PROPIOS.

Es de la forma:

0 α = wα α

Acá decimos que α es un vector propio del operador 0 con valor propio wα . Sí { α } es
un set ortonormal, entonces:
wα = α 0 α
Propiedades de operadores Hermíticos: (0 = 0+)

Los valores propios son reales.


*
wα = α 0 α = α 0 + α = α 0 α = wα* → wα = wα*

2. Los vectores propios son ortogonales.

Sea 0 β = wβ β → β 0 = β wβ = β wβ
+ *

β 0 + = β wβ
es decir:
β 0 + α = β α wβ

pero: β 0+ α = β 0 α

wα β α = β α wβ
con lo cual:
→ ( wβ − wα ) β α = 0

entonces, sí: wβ ≠ wα → β α = 0

"Es decir, los vectores propios de un operador hermítico, correspondientes a distintos valores
propios son ortogonales".

Examinemos el caso degenerado:

0 1 =w 1
Supongamos: 0 2 =w 2

observe que: 0( x 1 +y 2 ) = w( x 1 +y 2 )

es decir, una combinación lineal de vectores propios degenerados, es también vector propio de
0 con el mismo valor propio.
Existen diversas formas de encontrar combinaciones lineales de los vectores 1 y 2 que
sean ortogonales entre sí.
Al respecto, revisemos el llamado método de ortogonalización de Schmidt.

Sea { i } una base de vectores. A partir de las { i } es posible construir una nueva base,
digamos ortogonal con la original.

Al respecto: Sea α = 1 , de modo que α α = 1 1 =1


Definamos: β = 2 +k 1
Impongamos la condición: α β = 0 = 1 2 +k →k = − 1 2
α =1
Con lo cual: β = 2 −1 2 1 = 2 −α2 1

También, sea: γ = 3 + k 2 β + k1 α

Entonces, impongamos las condiciones:


0= αγ
0= βγ
0 = α γ = α 3 + k 2 α β + k1 α α = α 3 + k1
0 = β γ = β 3 + k 2 β β + k1 β α = β 3 + k 2

Con lo cual:

k1 = − α 3
k2 = − β 3

Entonces:

α =1
β = 2 −α2 1
γ = 3 − β 3 β −α3 α

Y así sucesivamente. De modo que a partir de los vectores base {1 , 2 , } podemos


construir un nuevo set de vectores { α , β , γ , } los cuales constituyen una base
ortonormal.

a) De modo que, los vectores propios { α } de un operador hermítico pueden ser


escogidos, de modo tal que formen un set ortonormal.

α β = δαβ

b) Volvemos al problema de diagonalización de la representación matricial de un


operador hermítico.

Sea 0 la representación matricial, de un operador hermítico 0̂ en la base ortonormal { i } .


Supongamos a continuación que deseamos encontrar una base ortonormal { α } tal que la
representación matricial Ω de 0̂ sea diagonal, es decir Ωαβ = wαδαβ Como sabemos, las 2
representaciones matriciales del operador 0̂ , están relacionados por medio de la
transformación unitaria.
 w1 0 0 
+
 
Ω = U 0U =  0 w2  0 
0 0 wN 

V. FUNCIONES DE MATRICES.

Dada una matriz hermítica A, es posible definir una función de A, es decir f(A).


Escribamos: f ( A) = ∑Cn An
n =0

1 1
Así por ejemplo: exp ( A) = 1 + A + A2 + 
1! 2!

a) Sí_A_es_diagonal, entonces: Aij = aiδij , de modo que:

 a1n 0 0 
 
An =  0 a2n  0 
 0 0 a n 
 N

Con lo cual:

 ∑ Cn a1n 0 0   f ( a1 ) 0 0 
∞    
f ( A ) = ∑ Cn An =  0 ∑ n2
C a n
 0 = 0 f ( a2 )  0 
 0 n 
∑ Cn aN   0 f ( aN ) 
n=0
 0 0

De igual forma A1/2 está dado por:

 a 1 2 0 0 
 1 
A 2 =  0 a2 2  0 
1 1

 1 
 0 0 a N 2 
 

b) Sí A es no diagonal:

Como A es hermítica, nosotros podemos encontrar una transformación unitaria que la


diagonalice, es decir:

U + AU = a → a = UAU +
También: A2 = AA = (UaU +
)(UaU ) = Ua (U U )aU
+ + +
= Ua 2U +

y en general: An = Ua nU +

De modo que:

 
f ( A) = ∑Cn An = ∑CnUa nU + = U  ∑Cn a n U + = Uf ( a )U +
n =0 n  n 

 f ( a1 ) 0 0 
 
= U 0 f ( a2 )  0 U +
 0 0 f ( a3 ) 

De modo que:

Para calcular, cualquier funci6n de una matriz hermítica A, procedemos de la forma:

Diagonalizamos A, haciendo uso de la transformaci6n U+AU, con lo cual obtenemos una


matriz diagonal a cuyos elementos sobre la diagonal, corresponden a los valores propios de A.

 f ( a1 ) 0 0 
 
Calculamos f ( a ) = ∑ Cn a =  0 f ( a2 ) 
n
0  , lo cual es simple, puesto que ‘a’
n  0 0 f ( a N ) 

es diagonal.

c) Finalmente, obtenemos f ( A) = Uf ( a )U +

1 1
Ejemplo: A 2 = U a 2U + , puesto que
1 1 1 1
A 2 A 2 = U a 2U +U a 2U + = U aU+ = A

Nota: Sí el procedimiento anteriormente descrito, nos conduce a un resultado para f(A)


infinito, entonces, diremos que f(A) no existe.

Ejercicios:

Demostrar, dado
 a1 0 0 
+
 
U AU = a =  0 a2  0 
0 0 a3 

AC α = aα C α , α = 1, 2,  , N
1.- A = a1 a2  aN
n n n n

N
2.- trA = ∑ aα
n n

α =1

3.- Si G ( w) = ( w1 − A) −1 , entonces:

N U iα U *jα N Ciα C αj *
G ( w) ij = ∑ w− a = ∑ w− a
α =1 α α =1 α

VI. FUNCION δ -DE DIRAC.

Dirac propuso la función δ (X) la cual es representativa de una función infinitamente


aguda, dada simbolicamente por:

0 X ≠ 0
δ( X ) = 
∞ X = 0

+∞

Con la propiedad: ∫δ ( X ) dX
−∞
=1

Sea f(X) una funci6n continua y consideremos la integral:

+∞

∫δ ( X ) f ( X ) dX
−∞

Como δ ( X ) = 0 , para X ≠ 0 , entonces, los límites tic integración pueden cambiarse


a − ε y + ε , donde, ε es un pequeño número positivo. Como f(X) es continua en X = 0,
sus valores en el intervalo ( −ε, +ε) no van a diferir sustancialmente de f ( 0 ) , de modo
que:

+∞ +ε +ε

∫ δ ( X ) f ( X ) dX = ∫δ ( X ) f ( X ) dX ≅ f ( 0) ∫δ ( X ) dX
−∞ −ε −ε

Sin embargo ∫δ ( X ) f ( X ) dX
−ε
= 1 ∀ε , puesto que δ ( X ) = 0 para

X ≠0 y δ ( X ) está normalizada a la unidad. Entonces cuando ε→∞.


+∞

∫δ ( X ) f ( X ) dX
−∞
= f ( 0)

Note que δ ( X ) actúa como un proyector, en el sentido que de todos los valores posibles
que puede tomar f(X) proyecta el valor de la función en X = 0.
Observación: los limites − ∞ y + ∞ , pueden ser reemplazados por cualquier par de
números a y b, con la condición a < 0 < b.

La aseveración que:

0 ( X ≠ 0)
δ(X) = 
∞ ( X = 0)

es sólo una representación simbólica de la funci6n f ( X ) y por supuesto no es una


representación correcta para una función.
En forma alternativa podemos intentar definir δ ( X ) como la función que satisface
la propiedad.

+∞

∫δ ( X ) f ( X ) dX
−∞
= f ( 0)

por todo el continuo de f ( X ) . Esta tampoco es una definición, por cuanto es posible
demostrar que no existe una función con esta propiedad.

a) Existe una secuencia de funciones "strongly peaked", las cuales tienen la propiedad de
proyectar de todos los valores posibles de la función, su valor en X = 0.
Tomemos la secuencia: Φn ( X ) { n = 1, 2,  } , entonces:

+∞

lim ∫ φ ( X ) f ( X ) dX
n →∞ −∞
n = f ( 0)

Secuencias de funciones con esta propiedad, se llaman secuencias delta

Ejemplo:
 1
0 X ≥
n

Φn( X ) =  n =1, 2, 3, 
n 1
 X <
2 n

1 1
+ +
+∞ n n
n n
∫ φ ( X ) f ( X ) dX
−∞
n = ∫  2  f ( X ) dX
1
=   ∫ f ( X ) dX
 2 − 1

n n

Haciendo uso del teorema del valor medio para integrales, escribimos:
+∞
 n  1 1 
∫ φ ( X ) f ( X ) dX
−∞
n =   +  f ( ε ) = f ( ε )
 2  n n 

1 1
donde − ≤ε ≤+
n n

También, sí n → ∞ entonces ε → 0 . Por la condición de continuidad de f ( X ) se


deduce que f ( ε ) → f ( 0 ) , entonces:

+∞
lim
n →∞ ∫φ ( X ) f ( X ) dX
−∞
n = f ( 0)

Es conveniente, utilizar secuencias delta construidas a partir de funciones, las cuales son
continuas y diferenciables. Algunas secuencias son del tipo:

n 1
* φn ( X ) =
π 1+ n2 X 2
n −n 2 X 2
* φn ( X ) = e
π
1 sen 2 nX
* φn ( X ) =
nπ X2

Todas estas funciones satisfacen la propiedad, de estar normalizadas a la unidad, es decir:

+∞

∫φ ( X ) dX
−∞
n =1

y cada una de estas secuencias posee la propiedad:

+∞
lim
n →∞ ∫φ ( X ) f ( X ) dX
−∞
n = f ( 0) , siempre y cuando f ( X ) sea continua y la integral

converja.

+∞

La normalización de φn , tal como ∫φ ( X ) dX


−∞
n =1 , no es requisito para una secuencia

δ , sólo es preciso que se cumpla:


+∞
lim
n→∞ ∫φ ( X ) dX
−∞
n =1
+∞

lo cual se obtiene de la condición lim


n →∞ ∫φ ( X ) f ( X ) dX
−∞
n = f ( 0)

al poner f ( X ) = 1 .

d) Investiguemos la integral: Φ n ( X ) = ∫ φn ( ε ) dε
−∞

n 1
Para la secuencia φ n ( X ) = , tenemos las siguientes representaciones gráficas.
π 1+ n 2 X 2

* Los gráficos anteriores, se han dibujado para valores relativamente grandes de n.

Escribamos: lim Φ n ( X ) = S ( X )
n →∞

donde S(X) se conoce como "step function” (función escalón)


dS ( X ) dS ( X )
Acá se cumple que = 0 ∨ X ≠ 0 , sin embargo
dX dX
no existe para X = 0.

Cálculo con la función- δ

dφn
Sea φn ( X ) =
n
π
e −n
2
X2
, entonces =
n −n 2 X 2
e ( )
− n2 ( 2 X )
dX π

dφn − 2n 3 2 2
⇒ = Xe −n X
dX π
Ahora consideremos la integral:

+∞
dφn
∫ dX f ( X ) dX siendo f ( X ) diferenciable.
−∞

Tenemos:

dφn df ( X )
+∞ +∞ +∞

∫ f ( X ) dx = φn f ( X ) − ∫φn dX
−∞
dX −∞ −∞
dX

u = f (X )
dV = φn ' dX →V = φn

+∞ +∞
n
Por otra parte φn f ( X ) f (X)
2
X2
= e −n = 0 , por cuanto se supone que
−∞ π −∞
+∞

estamos trabajando con funciones para las cuales la integral ∫φ f ( X )dX


−∞
n

converge.

Entonces:
dφn df ( X )
+∞ +∞ +∞

∫ dX f ( X ) dX = − ∫ n dX
φ dX = ∫φn f ' ( X ) dX
−∞ −∞ −∞

dφn
+∞ +∞

n →∞ ∫ dX
lim f ( X ) dX = −
n →∞ ∫
lim φn ( X ) f `' ( X ) dX = − f ' ( 0 )
−∞ −∞

+∞

Lo anterior da origen a la propiedad: ∫δ ' ( X ) f ( X ) dX


−∞
= − f ' ( 0)

lo cual puede ser extendido al resultado general:

+∞

∫δ ( X ) f ( X ) dX = ( −1) f m ( 0)
m m

−∞

Es preciso enfatizar en este punto que el estricto sentido de las dos identidades anteriores
es el dado por:

d m Φn ( X ) m d f ( 0)
+∞ m

n →∞ ∫
l im f ( X ) dX = ( − 1)
−∞ dX m dX m

Donde, se supone que las funciones involucradas son diferenciables ‘m’ veces y que las
integrales:

d k Φn ( X )
+∞

∫ dX k f ( X ) dX
−∞

convergen para todo n y para todo k ( 0 ≤ k ≤ m )

Algunas Reglas:
+∞

∫δ ( X ) f ( X ) dX
−∞
= f ( 0)

d
δ( X ) = S( X )
dX
0 X ≠ 0 +∞
δ(X) =  con ∫ δ ( X ) dX = 1
∞ X = 0 −∞

Ejemplos: (1) Xδ ( X ) = 0
+∞

∫ Xδ ( X ) f ( X ) dX
−∞
con f ( X ) continua en X = 0.

Sea X f ( X ) = g ( X ) entonces: g ( 0) = 0 y por lo tanto

+∞ +∞

∫ Xδ ( X ) f ( X ) dX = ∫δ ( X ) g ( X ) dX = g ( 0) = 0
−∞ −∞

+∞
⇒ ∫ Xδ ( X ) f ( X ) dX
−∞
=0

(2) Determinar el significado de δ ( X − a )

+∞

−∞
∫δ ( X − a ) f ( X ) dX

Sea X − a = ε

entonces:

+∞ +∞ +∞

∫ δ ( X − a ) f ( X ) dX =
−∞ −∞
∫ δ ( ε ) f ( ε + a ) dε = ∫ δ ( ε ) g ( ε ) dε = g ( 0)
−∞

donde: g ( ε ) = f ( ε + a ) → g ( 0) = f ( a )

+∞

y por lo tanto:
−∞
∫δ ( X − a ) f ( X ) dX = f ( a)
1
(3) Verifique la regla: δ ( aX ) = a δ ( X ), a ≠ 0

Sea a > 0 y ε = aX → dε = adX

( )
+∞ +∞ +∞
ε  1 dε = 1 δ ε ε 
∫ δ ( aX ) f ( X ) dX =
−∞

−∞
δ ( ε ) f
a a a −∫∞
f  dε
a

Si a < 0 y ε = aX → dε = adX

∫ δ ε f (ε a ) a dε = − a f ( 0)
+∞ +∞
1 1
∫ δ ( aX ) f ( X ) dX =
−∞ −∞

Es evidente que si a < 0 → − a > 0 , por lo tanto se infiere:

+∞
1 1
∫ δ ( aX ) f ( X )dX
−∞
=
a
f ( 0) a≠0 y δ ( aX ) =
a
δ(X)

(4) Verifique la regla:

δ ( X 2 − a 2 ) = (1 2 a ) δ ( X + a ) + δ ( X − a ) para a > 0.

Es interesante, observar que esta regla no es cierta para a = 0, de modo que no existe forma
conocida de interpretar δ ( X 2 )

Escribamos: δ ( X 2 − a 2 ) = δ ( X + a )( X − a )

Es evidente que δ ( X 2 − a 2 ) = 0 , excepto para los puntos X = ±a , entonces,


escribamos:

+∞ −a +ε a +ε

∫ δ ( X − a ) f ( X ) dX = ∫ δ ( X + a )( X − a ) f ( X ) dX + ∫δ ( X + a )( X − a ) f ( X ) dX
2 2

−∞ −a −ε a −ε

para a > 0

Acá 0 < ε < 2a y ε es arbitrariamente pequeño.

* En la proximidad de X = −a , el factor ( X − a ) puede ser reemplazado por -2a.


−a +ε −a +ε

∫ δ ( X + a )( X − a ) f ( X ) dX = ∫δ ( X − a )( − 2a ) f ( X ) dX =
−a −ε −a −ε

−a +ε
1 1 +∞
∫ δ ( X + a ) f ( X ) dX = δ ( X + a ) f ( X ) dX
− 2a −a −ε
2a −∫∞

En forma similar:

a +ε +∞
1
∫ δ ( X + a )( X − a ) f ( X ) dX = δ ( X − a ) f ( X ) dX
a −ε 2a −∫∞

VIII. FUNCIONES ORTOGONALES, FUNCIONES PROPIAS Y OPERADORES.

Consideremos un set infinito de funciones { Ψi ( X ), i = 1, 2,} el cual satisface la


condición de ortonormalidad.

(1) Ψi(X ) Ψj ( X ) =δij

Si la base es completa, entonces:

(2) a( X ) = ∑Ψi ( X ) ai → Ψj ( X ) a( X ) = ∑δ ji ai = a j
i i

Con lo cual, podemos escribir:

(3) a( X ) =∑Ψi ( X )∫Ψi ( X ')a ( X ')dX


*
' =∫dX ' ∑Ψ( X )Ψ( X ') a ( X ')
i i
*

i i

Introduzcamos:

(4) δ ( X − X ') = ∑ Ψi ( X ) Ψi* ( X ') , conocida como la δ -de Dirac, con lo cual:
i
(5) a ( X ) = ∫dX 'δ( X − X ')a ( X ') = ∫dX 'δ( X '−X )a ( X ')

La función δ ( X − X ') goza de la propiedad: δ ( X − X ') = δ ( X '−X ) y es una


generalización continua de la familiar δij ( = δ ji )
Interpretemos δ( X '−X ) :
+∞

∫δ( X '−X )a( X ')dX '


−∞

escribamos: ε = X '−X

+∞ +∞ +∞

∫δ ( X '−X ) a( X ') dX ' = ∫δ ( ε ) a( ε + X ) dε = ∫δ ( ε )b( ε ) dε = b( 0)


−∞ −∞ −∞

pero b( ε ) = a( ε + X ) → b( 0 ) = a( X )

De modo que:

+∞

∫δ ( X '−X )a( X ')dX ' = a( X )


−∞

Con lo cual, sí X = 0, obtenemos:

+∞

∫δ ( X ') a( X ') dX ' = a( 0 )


−∞

Veamos a continuación, notación para funciones y operadores:

Tenemos Ψi ( X ) = i Ψi* ( X ) = i

También a( X ) = a y a* ( X ) = a

Relación de ortogonalidad:

∫a ( X )b( X )dX = a b
*

aj = j a
a = ∑i i a
i

En el caso de operadores: 0̂ a ( X ) = b( X ) →0̂ a = b


Algunas Definiciones:

A) Un operador 0̂ es "no local", sí se cumple:

b( X ) = 0̂ a ( X ) = ∫dX ' 0( X , X `)a ( X ')

Los operadores "Nonlocal" son frecuentemente designados como "integral operators". Acá
podemos, considerar a O(X, X') como una matriz continua. Sí deseamos encontrar b(X) en
X – X0 , precisamos conocer a(X) para todo X.

B) Un operador 0̂ es "local”, cuando para conocer b(X) en X = X0, sólo precisamos


conocer a(X) en un intervalo infinitesimal de X0

Por otra parte: sí 0̂Φα ( X ) = wαΦα ( X ) → 0̂ α = wα α , de donde:


wα = α 0̂ α si α α =1.

También, en el caso de operadores hermíticos tenemos:


*
0 a = b → a 0+ = b → a 0 + b = b 0 a

*
pero 0 = 0* con lo cual a 0̂ b = b 0̂ a

es decir: ∫a ( X )0̂b( X )dX


*
= (∫b ( X )0̂a( X )dX )
*
*

Ejercicio: Sea 0̂Ψi ( X ) = ∑


j
Ψj ( X )0 ji , de donde

Ψj 0̂ Ψi = ∑δkj 0 ji → 0 ki , es decir:
j

sí 0̂ i = ∑
j
j 0 ji → 0 ji = j 0̂ i

Observaciones:

* Sea 0̂Φ( X ) = wΦ( X ) y escribamos Φ( X ) = ∑ Ci Ψi ( X ) , entonces:


i
   
0̂∑Ci Ψi  = w∑Ci Ψi 
 i   i 
∑C 0̂Ψ = ∑C wΨ
i
i i
i
i i

∑C
i
i j 0 i = ∑Ci wδ ji = wC
i
j

∑C
i
i 0 ji − wδ ji = 0

Lo cual nos conduce a las ecuaciones seculares: OC = wC observe:

a) 0̂ es en principio, una matriz infinita. En la práctica, no es posible trabajar con


este tipo de matrices, de modo que lo usual es truncar las bases y hacer uso de
sub-conjuntos finitos de funciones { Ψi ( X )} con i = 1, 2, .... N. Al resolver, las ecuaciones
seculares, obtenemos un set de N-valores propios, los cuales representan sólo
aproximaciones a los valores propios reales. En particular, procederemos a demostrar que
el valor propio asociado al estado basal de la base truncada, es mayor o a lo sumo igual al
valor propio exacto asociado.

** Consideremos un conjunto ortonormal infinito de vectores base, a saber:

∑i
I =1
i =1 y i j = δ ij

Introduzcamos, un set continuo infinito y completo de


vectores bases, denotado por X, entonces escribimos:

∫X X dX =1

Como ∫ X X dX =1 →∫ a X X b dX = a b , que corresponde a la condición de


ortonormalidad, por lo tanto, es obvio que:

a* ( X ) = a X y b( X ) = X b

De igual forma podemos inferir:

a) ∫X X dX =1 →∫ i X X j dX = i j

entonces: Ψi ( X ) = i X Ψj ( X ) = X j
*
y
b) ∑i
i
j =1 →∑ X i
i
j X' = X X'

y definimos anteriormente:

δ ( X − X ') = ∑Ψi ( X ) Ψi* ( X ')


i

entonces, sí: Ψi ( X ) = X i y Ψi* ( X ') = i X ' ,

entonces:

δ( X − X ') = X X '

c) También: ∫X X dX =1 →∫ X ' X X a dX = X ' a

∫δ( X '−X )a( X )dX = a ( X ') → X ↔ X '

∫δ( X − X ')a ( X ')dX ' = a ( X )

d) Considere un operador 0̂ . Sus elementos matriciales en la base continua X


son:

X 0̂ X ' =0( X , X ')

Entonces sí: 0̂ a = 0̂1 a ∫0 X X a dX = b , de donde:


∫ X ' 0 X X a dX = X ' b
∫0( X ' , X )a( X )dX = b( X ') →X ↔X '

b( X ) = ∫0( X , X ')a ( X ')dX '

e) Sí 0ij = i 0 j , entonces:

0( X , X ') = X 0 X ' = X 101 X ' = ∑ X i i 0 j j X'


i, j

0( X , X ') = ∑Ψi ( X )0ij Ψ*j ( X ')


i, j

VIII. METODO VARIACIONAL.

Acá examinaremos un método de cálculo, que nos permitirá encontrar soluciones


aproximadas a la ecuación de valores propios:

(1) 0̂Φ( X ) = wΦ( X )

Nuestro interés en la resolución de ecuaciones tipo (1), radica en el hecho en que la


ecuación de ondas de Schrödinger sin tiempo, es de la forma:

(2) H Φ =ε Φ

donde H es un operador hermítico (Hamiltoniano) y ε es el valor propio (Energía). La


ecuación (2) puede ser resuelta exactamente, sólo para situaciones físicas muy simples,
nace aquí, entonces, la necesidad de encontrar soluciones aproximadas.

Observaciones:
* Dado el operador H, existe un set infinito de soluciones exactas { α } , tal que:

H α = εα α ,α = 1, 2, 

tal que: ε0 ≤ ε1 ≤ ε2  etc . (suponiendo que las energías son directas). Como H es
hermítico, entonces, sus funciones propias forman un set ortonormal completo, es decir:

α β = δαβ

Entonces: β H α = εαδαβ

Como las funciones propias de H forman un set ortonormal completo, entonces, cualquier
función Φ con las mismas condiciones de borde, puede ser expresada como:
~ ~
Φ ∑
α
Φα Cα = ∑ Φα Φα Φ
α

y también:
~
ˆ = ∑Cα* < Φα = ∑ Φ
Φ Φα Φα
α α

Principio Variacional:

Teorema Variacional:

"Dada una funci6n de onda normalizada III> que satisface las condiciones de borde,
entonces el valor de esperanza del Hamiltoniano es una cota superior a la energía exacta del
estado fundamental"
~ ˆ
Si ΦΦ =1

~ ~
Entonces ΦH Φ ≥ε0

observe:
~ ~ ~ ~
Φ Φ = 1 = ∑ Φ Φα Φα Φβ Φβ Φ =
α, β
~ ~
= ∑ Φ Φα δαβ Φβ Φ
α, β
~ ~ * ~
=∑ Φ
ˆ Φα Φα Φ = ∑ Φα Φ Φα Φ
α α
~ 2
=∑ Φα Φ
α

Entonces:

~ ~ ~ ~ ~ 2
Φ H Φ = ∑ Φ Φα Φα H Φβ Φβ Φ = ∑εα Φα Φ
α, β α

Puesto que: εα ≥ ε0 para todo α , entonces:


~ ~ ~ 2 ~ 2
Φ H Φ = ∑ε0 Φα Φ = ε0 ∑ Φα Φ = ε0 , es decir:
α α

~ ~
ΦH Φ ≥ε0

Conclusión: El principio variacional para el estado fundamental, nos dice que la energía de
una funci6n de onda aproximada es
siempre muy alta. De modo que la calidad de una función de prueba se mide en términos de
su energía, en el sentido en que mientras menor (más negativa) sea la energía asociada,
mejor será la función como aproximación.
Esta es la base del método variacional, en el cual escogemos una función de prueba
~
normalizada Φla cual depende de ciertos parámetros, de modo que procedemos a variar
~ ~
estos parámetros hasta que el valor de esperanza ΦH Φ alcance un mínimo y este
~ ~
valor mínimo de ΦH Φ corresponderá a nuestra estimación variacional de la energía
exacta del estado basal.

Problema de Variación Lineal.


~
Dada una función de prueba Φ, la cual depende de un conjunto de parámetros, entonces
~ ~
Φ H Φ será función de estos parámetros.. En general, la función es extremadamente

complicada como para determinar estos parámetros bajo la condición que el valor de
~ ~
esperanza ΦH Φsea mínimo.
Sin embargo, sí sólo se permiten variaciones lineales de la función de prueba, es decir, sí

N
~
Φ ∑C
i =1
i Ψi
donde las { Ψ i , i = 1, 2, ... N} , entonces, el problema de determinar los coeficientes

óptimos se reduce a una diagonalización matricial.

Sea { Ψi , i = 1, 2, ... N} un set real y ortonormal de funciones

Ψi Ψj = Ψj Ψi =δij =δji

+ *
y H ij = Ψi H Ψj = Ψi H Ψj = Ψj H Ψi = H *ji

Puesto que H = H + y la base es real, entonces H es simétrico, es decir H ij = H ji

~ ~
* Escojemos la función normalizada ΦΦ ∑C
i
i
2
=1
~ ~
* Valor de esperanza: Φ H Φ = ∑
i, j
Ci C j H ij , resulta ser función de los coeficientes
de expansión.

~ ~
* Debemos encontrar el set de parámetros para los cuales Φ H Φ es mínimo. Esto no
nos permite simplemente resolver el set de ecuaciones.

∂ ~ ~
ΦH Φ =0 k = 1, 2,  N
∂Ck

por cuanto, los N-parámetros no son independientes, están relacionados por la condición de
normalización ∑C
i
i
2
= 1 , de modo que sólo N - 1 de ellos son independientes.

En resumen nuestro problema, consiste en resolver:


~ ~
a) Minimizar Φ H Φ = ∑
i, j
Ci C j H ij con el vínculo (o ligazón)

~ ~ ~ ~
b) Φ Φ = ∑Ci = 1 → Φ Φ −1 = 0
2

Hagamos uso del método de los multiplicadores indeterminados de Lagrange.

Formemos la función:
~ ~ ~ ~
L( C1 , C2 ,  C N , ε ) = Φ H Φ −ε Φ Φ −1 ( )
= ∑Ci C j H ij −ε∑(Ci2 −1)
i, j i

~ ~
Observe que ΦΦ −1 =0 , puesto que la función de prueba se escoge normalizada, de
modo que el segundo término del miembro de la derecha es cero y por lo tanto, el mínimo
~ ~
de L(C1 , C2 ,  C N , ε) y ΦH Φ ocurre para los mismos valores de los coeficientes
de expansión.

Supongamos arbitrariamente que C1, C2 ... CN-1 son independientes y por lo tanto que CN
puede ser determinado a partir de la condición de normalización ∑C
i
i
2
= 1 , entonces:

∂L
=0 k = 1, 2, N −1
∂Ck
pero
∂L
∂C N no necesariamente es nulo. Sin embargo, escogeremos el multiplicador
∂L
indeterminado ε , de modo que ∂Ck
=0 ∀k . (k = 1, 2, ...... N-1, N)

Entonces:

∂L
= 0 = ∑C j H kj + ∑C j H jk − 2εCk = 2∑C j H kj − 2εCk ⇒
∂Ck j j j

∑H
j
ij C j − εCi = 0

En notación matricial HC = EC, que corresponde a un problema standard de valores


propios.
Introduciendo la matriz diagonal E, que contenga los valores propios εα (es decir:
εαβ = εαδαβ ), escribimos, siendo C la matriz de vectores propios, con
Ciα = Ciα (α = 0,1, 2, N −1)

HC = CE

Resultados:
N
~
a) Se encuentran N-soluciones del tipo: Φ α = ∑Ciα Ψi , i =1
las cuales son ortogonales entre sí, es decir:
~ ~
Φα Φβ =δαβ

b) Observe:

~ ~
Φβ H Φα = ∑C βΨ H ∑C αΨ
i
i i
j
j j

=∑Ci*β H ij C jα = ∑ *
Cβi H ij C jα , notación matricial.
i, j i, j

~ ~
Φβ H Φα = C β ( ) +
( )
H C α = EαC β +C α = Eαδαβ .

También podría gustarte