Está en la página 1de 33

Apuntes Fı́sica cuántica

CHAPTER 1 - Mathematical Introduction (Shankar R.)

En esta sección, se te presentarán los espacios vectoriales lineales. Usted seguramente familiarizado
con las vectores de la fı́sica elemental que codifica el módulo y dirección de velocidad * fuerza,
desplazamiento, torque, etc. Sabes cómo agregarlos y multiplicarlos por escalares y las reglas obe-
decidas por estas operaciones. Por ejemplo, usted sabe que la multiplicación escalar es asociativa:
el múltiplo de una suma de dos vectores es la suma de los múltiplos. Lo que queremos hacer es
abstraer de esto simple caso un conjunto de caracterı́sticas básicas o axiomas, y decir que cualquier
conjunto de objetos obedeciendo la misma forma de un espacio vectorial lineal. La astucia radica
en decidir cuál de las propiedades mantener en la generalización. Si conserva demasiados, no habrá
otros ejemplos; si conserva muy pocos, no habrá resultados interesantes para desarrollar a partir de
los axiomas.
La siguiente es la lista de propiedades que los matemáticos han elegido sabiamente como requisito
para un espacio vectorial. Mientras los lees, por favor compáralos con el mundo de los vectores y
asegúrese de que estas son propiedades poseı́das por estos familiares vectores. Pero obsérvese también
que lo que brilla por su ausencia son los requisitos que todo vector tiene una módulo y dirección, que
fue la primera y más destacada caracterı́stica perforado en nuestras cabezas cuando escuchamos sobre
ellos por primera vez. Entonces podrı́as pensar que dejando caer este requisito, el bebé ha sido expul-
sado con el agua del baño. Sin embargo, tendrá tiempo suficiente para apreciar la sabidurı́a detrás
de esta elección a medida que avance y verá una gran unificación y sı́ntesis de diversas ideas bajo el
encabezado de espacios vectoriales. Verá ejemplos de espacios vectoriales que involucran entidades
que intuitivamente no puedes percibir que tiene una magnitud o una dirección. Si bien debe estar
debidamente impresionado con todo esto, recuerde que no duele en todo para pensar en estas general-
izaciones en términos de flechas y para usar la intuición para probar teoremas o al menos anticiparlos.

Definición 1

Un espacio vectorial lineal V es una colección de objetos:

|1i, |2i, ..., |V i, ..., |W i..., llamados vectores, para los cuales existe:

1. Una regla definida para formar la suma del vector expresada |V i + |W i

2. Una regla definida para la multiplicación por escalares a, b, c, ...expresada como a|V i con las
siguientes caracterı́sticas:

– El resultado de estas operaciones es otro elemento del espacio, una caracterı́stica llamada
cierre: |V i + |W i ∈ V
– La multiplicación escalar es distributiva en los vectores:a(|V i + |W i) = a|V i + a|W i
– La multiplicación escalar es distributiva en los escalares: (a + b)|V i = a|V i + b|V i
– La multiplicación escalar es asociativa: a(b|V i) = ab|V i
– la suma es asociativa |V i + (|W i + |Zi) = (|V i + |W i) + |Zi
– la suma es conmutativa |V i + |W i = |W i + |V i
– Existe un vector nulo |0i tal que: |V i + |0i = |V i
– Para todo vector |V i existe un inverso | − V i tal que: |V i + | − V i = |0i

1
Apuntes Fı́sica cuántica

Definición 2

Los números a, b, ... se llaman el campo sobre el cual el vector está definido en el espacio.
Si el campo consta de todos los números reales, tenemos un espacio vectorial real, si son complejos,
tenemos un espacio vectorial complejo. Los vectores en sı́ mismos no son ni reales ni complejos;
el adjetivo se aplica solo a los escalares. Notemos que los axiomas anteriores implican:

• |0i es único, es decir, si |00 i tiene todas las propiedades de |0i, entonces |0i = |00 i
• 0|V i = |0i.
• | − V i = −|V i.
• | − V i es el único aditivo inverso de |V i.

Las pruebas quedan en cuanto al siguiente ejercicio. No tienes que saber las pruebas, pero tienes que
saber las declaraciones.

Ejercicio 1.1.1. Verificar los siguientes reclamos.


- Para el primero, considere |0i + |00 i y utilice las propiedades anunciadas de los dos vectores nulos
sucesivamente.
- Para el segundo comience con |0i = (0 + 1)|V i + | − V i.
- Para el tercero, comience con |V i + (−|V i) = 0|V i = |0i.
- Para el último, deja |W i también satisface |V i + |W i = |0i. Como |0i es único, esto significa
|V i + |W i = |V i + | − V i. Tómelo desde aquı́.

Observe que estamos usando un nuevo sı́mbolo |V i para denotar un vector genérico. Este objeto
se llama ket V y esta nomenclatura se debe a Dirac cuya notación se analizará más adelante. No
utilizamos deliberadamente el sı́mbolo V~ para denotar los vectores como el primer paso para alejarlo
del concepto limitado del vector como una flecha. Sin embargo, no se desalienta a asociarse con |V i
la flecha como objeto hasta que hayas visto suficientes vectores que no son flechas y estás listo para
soltar la muleta.
Se le pidió que verificara que el conjunto de flechas calificara como un espacio vectorial al leer los
axiomas. Estas son algunas de las ideas clave que deberı́a haber revisado. El espacio vectorial
consiste en flechas, las tı́picas son V~ y V~ 0 . La regla de adición es familiar: tome la cola de la segunda
flecha, colóquela en la punta de la primera y ası́ sucesivamente, como en la Fig. 1.1.

2
Apuntes Fı́sica cuántica

Ejercicio 1.1.2 . Considere el conjunto de todas las entidades de la forma (a, b, c) donde las entradas
son números reales. La suma y la multiplicación escalar se definen de la siguiente manera:

(a, b, c) + (d, e, f ) = (a + d, b + e, c + f )
α(a, b, c) = (αa, αb, αc)
Escriba el vector nulo y el inverso de (a, b, c). Demuestre que los vectores de la forma (a, b, 1) no
forman un espacio vectorial.

La multiplicación escalar por a corresponde a estirar el vector por un factor a. Este es un espacio vec-
torial real ya que estirar por un número complejo no tiene sentido. (Si a es negativo, lo interpretamos
como cambiando el sentido del vector y volviéndola a calcular |a|.) Dado que estas operaciones
que actúan sobre vectores dan más vectores, tenemos cierre. La suma y la multiplicación
escalar claramente tienen todas las caracterı́sticas asociativas y distributivas deseadas. El vector nulo
es el vector de longitud cero, mientras que el inverso de una vector es el vector invertido en sentido,
entonces el conjunto de todos los vectores califica como un espacio vectorial. Pero no podemos ma-
nipularlo. Por ejemplo, el conjunto de todos los vectores con componentes z positivos no forma un
espacio vectorial: no hay inverso. Tenga en cuenta que hasta el momento, no se ha hecho referencia
al módulo o dirección. El punto es que si bien los vectores tienen estas cualidades, los miembros
de un espacio vectorial no necesitan.
Esta afirmación no tiene sentido a menos que pueda darte ejemplos, ası́ que aquı́ hay dos. Considere
el conjunto de todas las matrices 2 × 2. Sabemos cómo agregarlos y multiplicarlos por escalares
(multiplicar los cuatro elementos de la matriz por ese escalar). Las reglas correspondientes obedecen
al cierre, la asociatividad y los requisitos distributivos. La matriz nula tiene todos los ceros y la
inversa al agregar una matriz es la matriz con todos los elementos negativos. Debes aceptar que aquı́
tenemos un espacio vectorial genuino que consiste en cosas que no tienen una longitud o dirección
obvia asociadas con ellas. Cuando queremos resaltar el hecho de que la matriz M es un elemento de
un espacio vectorial, podemos referirnos a ella como, por ejemplo, ket número 4 o: |4i.

Como segundo ejemplo, considere todas las funciones f (x) definidas en un intervalo de 0 ≤ x ≤ L.
Definimos la multiplicación escalar por a simplemente como af (x) y la suma como la suma puntual:
la suma de dos funciones f y g tiene el valor f (x) + g(x) en el punto x. La función nula es cero en
todas partes y la inversa aditiva de f es −f .

Ejercicio 1.1.3. ¿Las funciones que desaparecen en los puntos finales x = 0 y x = L forman un
espacio vectorial? ¿Qué hay de las funciones periódicas que obedecen a f (0) = f (L)? ¿Qué hay de
las funciones que obedecen f (0) = 4? Si las funciones no califican, enumere las cosas que salen mal.

El siguiente concepto es el de la independencia lineal de un conjunto de vectores |1i, |2i, ..., |ni.
Considere primero una relación lineal de la forma:
n
X
ai |ii = |0i (1)
i=1

Podemos suponer sin pérdida de generalidad que el lado izquierdo no contiene ningún múltiplo de
|0i, ya que si lo hiciera, podrı́a desplazarse hacia la derecha y combinarse con el |0i allı́ para dar |0i

3
Apuntes Fı́sica cuántica

una vez más. (Estamos utilizando el hecho de que cualquier múltiplo de |0i es igual a |0i)

Definición 3

Se dice que el conjunto de vectores es linealmente independiente si la única relación lineal tal como
(1) es el trivial con todos ai = 0. Si el conjunto de vectores no es linealmente independiente, decimos
que son linealmente dependientes.
La ecuación (1) nos dice que no es posible escribir ningún miembro del conjunto linealmente indepen-
diente en términos de los demás. Por otro lado, si el conjunto de vectores es linealmente dependiente,
existirá tal relación, y debe contener al menos dos coeficientes distintos de cero. Digamos a3 6= 0.
Entonces podrı́amos escribir:
n
X −ai
|3i = |ii (2)
i=1,i6=3
a3

expresando ası́ |3i en términos de los demás.


Como ejemplo concreto, considere dos vectores no paralelos |1i y |2i en un plano. Estos forman un
conjunto linealmente independiente. No hay forma de escribir uno como un múltiplo del otro, o de
manera equivalente, no hay manera de combinarlos para obtener el vector nulo. Por otro lado, si los
vectores son paralelos, podemos escribir claramente uno como un múltiplo del otro o jugarlos uno
contra el otro para obtener 0.
Supongamos que traemos un tercer vector |3i también en el plano. Si es paralelo a cualquiera de los
dos primeros, ya tenemos un conjunto linealmente dependiente. Entonces, supongamos que no lo es.
Pero incluso ahora los tres son linealmente dependientes. Esto se debe a que podemos escribir uno
de ellos, digamos |3i, como una combinación lineal de los otros dos. Para encontrar la combinación,
dibuje una lı́nea desde la cola de |3i en la dirección de |1i. Luego trace una lı́nea antiparalela a |2i
desde la punta de |3i. Estas lı́neas se cruzan ya que |1i y |2i no son paralelas por suposición. El
punto de intersección P determinará la cantidad de |1i y |2i nosotros: pasaremos de la cola de |3i a
P utilizando el múltiplo apropiado de |1i y pasaremos de P a la punta de |3i utilizando el múltiplo
apropiado de |2i.

Ejercicio 1.1.4.
Considere tres elementos del espacio vectorial de matrices reales 2x2:
     
0 1 1 1 −2 −1
|1i = |2i = |2i =
0 0 0 1 0 −2

¿Son linealmente independientes? Apoye su respuesta con detalles. (Nótese que estamos llamando a
estos vectores de matrices y usando kets para representarlos para enfatizar su papel como elementos
de un espacio vectorial)

Ejercicio 1.1.5.
Demuestre que los siguientes vectores de fila son linealmente dependientes: (1, 1, 0), (1, 0, 1) y (3, 2, 1).
Muestra el opuesto de (1, 1, 0), (1, 0, 1) y (3, 1, 1).

4
Apuntes Fı́sica cuántica

Definición 4.
Un espacio vectorial tiene dimensión n si puede acomodar un máximo de n vectores linealmente
independientes. Se denotará por Vn (R) si el campo es real y por Vn (C) si el campo es complejo.

En vista de las discusiones anteriores, el plano es bidimensional y el conjunto de todas las flechas
no están limitadas al plano, definen un espacio vectorial tridimensional. ¿Cómo alrededor de 2x2
matrices? Forman un espacio vectorial de cuatro dimensiones. Aquı́ hay una prueba. Los siguientes
vectores son linealmente independientes:
       
1 0 0 1 0 0 0 0
|1i = |2i = |3i = |4i =
0 0 0 0 1 0 0 1

ya que es imposible formar combinaciones lineales de cualquiera de los tres para dar el cuarto, tres
de ellos tendrán un cero en el único lugar donde el cuarto no. Entonces el espacio es al menos en
cuatro dimensiones. ¿Podrı́a ser más grande? No, ya que cualquier matriz arbitraria 2 × 2 se puede
escribir en términos de ellos:
 
a b
= a|1i + b|2i + c|3i + d|4i
c d
Si los escalares a, b, c, d son reales, tenemos un espacio real de cuatro dimensiones; si son complejos,
tenemos un espacio de cuatro dimensiones complejo.
Teorema 1. Cualquier vector |V i en un espacio de n dimensiones se puede escribir como una
combinación lineal de n vectores linealmente independientes |1i...|ni.

La prueba es la siguiente: si hubiera un vector |V i para lo cual esto no fuera posible, se unirı́a al
conjunto dado de vectores y formarı́a un conjunto de n + 1 vectores linealmente independientes, lo
cual no es posible en un espacio n dimensiones por definición.

Definición 5 .

Un conjunto de n vectores linealmente independientes en un espacio de n dimensiones es llamado


una base.
Por lo tanto, teniendo en cuenta lo anterior podemos escribir:
n
X
|V i = vi |ii (3)
i=1

donde los vectores |ii forman una base

Definición 6.
Los coeficientes de expansión vi de un vector en términos de bases lineales independientes (|ii) se
llaman los componentes del vector en esa base.
Teorema 2.
La expansión en la ecuación (1) ni=1 ai |ii = |0i es único.
P
Supongamos que la expansión no es única. Entonces debemos tener una segunda expansión:
n
X
|V i = vi0 |ii (4)
i=1

5
Apuntes Fı́sica cuántica

Restando (4) y (3) obtenemos: X


|0i = (vi − vi0 )|ii (5)
i

lo que implica que:


vi = vi0 (6)

ya que los vectores de base son linealmente independientes y solo puede existir una relación lineal
trivial entre ellos. Tenga en cuenta que, dados los fundamentos, los componentes son únicos, pero si
cambiamos la base, los componentes cambiarán. Nos referimos a |V i como el vector en el resumen,
teniendo una existencia propia y satisfaciendo varias relaciones que involucran otros vectores. Cuando
elegimos una base, los vectores adoptan formas concretas en términos de sus componentes y la relación
entre vectores es satisfecha por los componentes. Imagine, por ejemplo, tres flechas en el plano,
~ B,
A, ~ C~ que satisfagan A~ +B~ =C ~ según las leyes para agregar flechas. Hasta ahora no se ha elegido
ninguna base y no necesitamos una base para hacer la afirmación de que los vectores provienen de un
triángulo cerrado. Ahora elegimos una base y escribimos cada vector en términos de los componentes.
Los componentes satisfarán Ci = Ai +Bi con i = 1, 2. Si elegimos una base diferente, los componentes
~ a la suma de
cambiarán en valor numérico, pero la relación entre ellos que expresa la igualdad de C
los otros dos todavı́a se mantendrá entre el nuevo conjunto de componentes.
En el caso de vectores que no son flechas, para sumarlos en términos de componentes se procede
como en el caso elemental gracias a los axiomas.
X
|V i = vi |ii (7)
i
X
|W i = wi |ii (8)
i
X
|V i + |W i = (vi + wi )|ii (9)
i

donde hemos usado los axiomas para llevar a cabo la reagrupación de términos. Aquı́ está la con-
clusión: Para sumar dos vectores, sume sus componentes.
No hay ninguna referencia a tomar la cola de uno y ponerlo en la punta del otro, etc., ya que en
general los vectores no tienen cabeza ni cola. Por supuesto, si se trata de flechas, podemos agregarlas
usando la rutina de cola y punta o simplemente agregando sus componentes en una base.
De la misma manera, tenemos:
X X
a|V i = a vi |ii = avi |ii (10)
i i

en otras palabras, al multiplicar el vector por un escalar, se multiplica todas sus componentes por el
escalar.

1.2. Espacios de productos internos

Los ejemplos de matriz y función deben haberlo convencido de que podemos tener un espacio vectorial
sin una definición de longitud o dirección preasignada para los elementos. Sin embargo, podemos
inventar cantidades que tengan las mismas propiedades que las longitudes y los ángulos en el caso
de las flechas. El primer paso es definir un análogo sensible del producto escalar, porque en el caso
de las flechas, del producto escalar:
~B
A. ~ = |A||B|.cos θ (11)

6
Apuntes Fı́sica cuántica

~ como |A|.|B| y el coseno del ángulo entre dos vectores como


p
podemos leer la longitud de decir A
~ B/|A||B|.
A. ~ Ahora puedes objetar legı́timamente: ¿cómo puedes usar el producto punto para definir
la longitud y los ángulos, si el producto en sı́ mismo requiere conocimiento de las longitudes y ángulos?
La respuesta es esta. Recuerde que el producto escalar tiene una segunda expresión equivalente en
términos de los componentes:
~B
A. ~ = Ax Bx + Ay By + Az Bz (12)
Nuestro objetivo es definir una fórmula similar para el caso general donde tenemos la noción de
componentes en una base. Para este fin, recordamos las principales caracterı́sticas del producto
punto anterior:

~B
1.A. ~ = B.
~ A~ (simetrı́a)
~A
2. A. ~ > 0 si A
~=0 (semidefinidad positiva)
~ B
3. A(b ~ + cC)
~ = b.A.
~B ~ + cA.~C
~ (linealidad)

La linealidad del producto escalar se ilustra en la figura 1.2.

Queremos inventar una generalización llamada producto interno o producto escalar entre dos vectores
cualquiera |V i y |W i. Lo denotamos con el sı́mbolo hV |W i. Es una vez más un número (generalmente
complejo) que depende de los dos vectores. Exigimos que obedezca los siguientes axiomas:

- hV |W i = hW |V i∗ (simetrı́a oblicua)
- hV |V i > 0 0 iff |V i = |0i (semidefinidad positiva)
- hV |(a|W i + b|Zi) = hV |aW + bZi = ahV |W i + bhV |Zi (linealidad en ket)

Definición 7.

Un espacio vectorial con un producto interno se denomina producto interno espacio.

Tenga en cuenta que aún no hemos dado una regla explı́cita para evaluar realmente el producto
escalar, simplemente estamos exigiendo que cualquier regla que surja debe tener estas propiedades.
Con el objetivo de encontrar tal regla, familiaricémonos con los axiomas. La primera difiere de la
correspondiente para el producto escalar y hace que el producto interno sea sensible al orden de
los dos factores, y las dos opciones conducen a conjugados complejos. En un espacio vectorial real,
este axioma establece la simetrı́a del producto punto bajo el intercambio de los dos vectores. Por el
momento, notemos que este axioma asegura que hV |V i es real.

7
Apuntes Fı́sica cuántica

El segundo axioma dice que hV |V i no es solo real sino también semidefinido positivo, desapareciendo
solo si el vector también lo hace. Si vamos a definir la longitud del vector como la raı́z cuadrada de
su producto interno consigo mismo (como en el producto escalar), esta cantidad deberı́a ser real y
positiva para todos los vectores distintos de cero.
El último axioma expresa la linealidad del producto interno cuando aparece una superposición lineal
a|W i + b|Zi ≡ |aW + bZi como el segundo vector en el producto escalar. Hemos discutido su
validez para el caso de las flechas (Fig. 1.2). ¿Qué pasa si el primer factor en el producto es una
superposición lineal, es decir, qué es haW + bZ|V i? Esto está determinado por el primer axioma:

haW + bZ|V i = hV |aW + bZi∗


haW + bZ|V i = (ahV |W i + bhV |Zi)∗
haW + bZ|V i = (ahV |W i + bhV |Zi)∗
haW + bZ|V i = a∗ hV |W i∗ + b∗ hV |Zi∗
haW + bZ|V i = a∗ hV |W i + b∗ hV |Zi (13)
que expresa la antilinealidad del producto interno con respecto al primer factor en el producto interno
En otras palabras, el producto interno de una superposición lineal con otro vector es la superposición
correspondiente de productos internos si la superposición ocurre en el segundo factor, mientras que es
la superposición con todos los coeficientes conjugados si la superposición ocurre en el primer factor.
Esta asimetrı́a, desconocida en espacios vectoriales reales, llegó para quedarse y te acostumbrarás
a medida que avanzas. Continuemos con productos internos. A pesar de que estamos tratando
de deshacernos de la noción restringida de un vector como una flecha y buscar una generalización
correspondiente del producto escalar, aún usamos algo de la misma terminologı́a.

Definición 8.
Decimos que dos vectores son ortogonales o perpendiculares si su producto interno se desvanece.
p
Definición 9. Nos referiremos a hV |V i ≡ |V | como la norma o longitud del vector. Un vector
normalizado tiene una norma de unidad.
Definición 10. Un conjunto de vectores base, todos de la norma de la unidad, que son ortogonales
por pares se denominarán base ortonormal.

También nos referiremos con frecuencia al producto escalar o interno como el producto escalar.
Ahora estamos listos para obtener una fórmula concreta para el producto interno en términos de los
componentes. Dado |V i y |V i
X
|V i = |ii
i

X
|W i = |ji
j

Siguiendo los axiomas del producto interno obtenemos:


XX
hV |W i = vi∗ wj hi|ji (14)
i j

8
Apuntes Fı́sica cuántica

Para ir más lejos, tenemos que saber hi|ji, es el producto interno entre vectores base. Estos dependen
de los detalles de los vectores de base y todo lo que sabemos con certeza es que son linealmente
independientes. Esta situación también existe para las flechas. Considere un problema bidimensional
donde los vectores de base son dos vectores linealmente independientes pero no perpendiculares. Si
escribimos todos los vectores en términos de esta base, el producto punto de cualquiera de ellos será
también una suma doble con cuatro términos (determinados por los cuatro posibles productos de
puntos entre los vectores de base), ası́ como también el vector componentes. Sin embargo, si usamos
una base ortonormal tal como î, ĵ, solo los términos diagonales como hi|ii sobrevivirán y obtendremos
el resultado familiar A~+B ~ = Ax Bx + Ay By dependiendo solo de los componentes.

Teorema 3 (Gram-Schmidt).
Dada una base lineal independiente, podemos formar combinaciones lineales de los vectores básicos
para obtener una base ortonormal.
Posponiendo la prueba por un momento, supongamos que el procedimiento ha sido implementado y
que la base actual es ortonormal:


1 si i = j
hi|ji = ≡ δij
0 si i 6= j
vi∗ wj hi|ji
P P
donde δij se llama el sı́mbolo delta Kronecker. agragando esto a la ecuación (14) hV |W i = i j
encontramos que la suma doble colapsa a una sola debido al delta Kronecker, para dar:
X
hV |W i = vi∗ wi (15)
i

Esta es la forma del producto interno que usaremos a partir de ahora. Ahora puedes apreciar el
primer axioma; pero para la compleja conjugación de los componentes del primer vector, hV |V i ni
siquiera serı́a real, por no mencionar positivo. Pero ahora está dado por
X
hV |V i = |vi |2 ≥ 0 (16)
i

y desaparece solo para el vector nulo. Esto hace que sea razonable referirse a hV |V i como la longitud
o la norma al cuadrado de un vector.
Considera la ecuación (15). Desde el vector |V i queda especificado de forma única por sus compo-
nentes en una base determinada, podemos, en esta base, escribirlo como un vector de columna:
 
v1
 v2 
 
|V i →  ...  en esta base (17)
 
 
 
vn

de igual forma  
w1
 w2 
 
|W i →  ...  en esta base (18)
 
 
 
wn

9
Apuntes Fı́sica cuántica

El producto interno hV |W i viene dado por el producto matriz del conjugado de transposición del
vector de columna que representa |V i con el vector de columna representando |W i:
 
w1
 w2 
 
hV |W i = [v1∗ , v2∗ , · · · , vn∗ ]  ...  (19)
 
 
 
wn

Espacio dual y notación de Dirac

Hay un punto técnico aquı́. El producto interno es un número que intentamos generar a partir de
dos kets |V i y |W i, que están representados por vectores de columna en alguna base. Ahora no hay
forma de hacer un número de dos columnas mediante la multiplicación directa de matrices, pero hay
una forma de hacer un número multiplicando la matriz de una fila por una columna. Nuestro truco
para producir un número de dos columnas ha sido asociar un vector de fila único con una columna
(su conjugado de transposición) y formar su producto de matriz con la columna que representa al
otro. Esto tiene la caracterı́stica de que la respuesta depende de cuál de los dos vectores vamos a
convertir a la fila, las dos opciones (hV |W i y hW |V i) que conducen a respuestas relacionadas por
conjugación compleja según el axioma l (h )
Pero uno también puede tomar la siguiente vista alternativa. Los vectores de columna son mani-
festaciones concretas de un vector abstracto |V i o ket en una base. También podemos trabajar hacia
atrás y pasar de los vectores de columna a los códigos abstractos. Pero también es posible traba-
jar hacia atrás y asociar con cada vector de fila un objeto abstracto hW |, llamado bra - W. Ahora
podemos nombrar bra como queramos, pero hagamos lo siguiente. Asociado con cada ket |V i hay
un vector de columna. Tomemos su adjunto, o transpongamos el conjugado, y formemos un vector
de fila. El bra abstracto asociado con esto llevará la misma etiqueta, es decir, se llamará hV |. Ası́,
hay dos espacios vectoriales, el ritmo de kets y un espacio dual de bras , con un ket para cada bra
y viceversa (los componentes están relacionados por la operación conjunta). Los productos internos
están realmente definidos solo entre bras y kets y, por lo tanto, a partir de elementos de dos espacios
vectoriales distintos pero relacionados. Hay una base de vectores |ii para expandir kets y una base
similar hi| para expandir bras. La base ket |ii está representada en la base que estamos usando por
un vector de columna con todos los ceros, excepto por un 1 en la i-ésima fila, mientras que la base
bra hi| es un vector de fila con todos ceros a excepción de un 1 en la i-ésima columna.
Todo esto puede resumirse de la siguiente manera
 
v1
 v2 
 
|V i ↔  ...  ↔ [v1∗ , v2∗ , ..., vn∗ ] ↔ hV | (20)
 
 
 
vn
donde ↔ significa “dentro de una base”
en el caso de un espacio de vector general sin flecha:
• A los vectores todavı́a se les pueden asignar componentes en una base ortonormal, al igual que con
las flechas, pero estos pueden ser complejos.
• El producto
P ∗interno de dos vectores se da en términos de estos componentes por ecuación (15)
hV |W i = i vi wi . Este producto obedece a todos los axiomas.

10
Apuntes Fı́sica cuántica

1.3.1. Expansion of Vectors in an Orthonormal Basis

Supongamos que deseamos expandir un vector |V i en una base ortonormal. Para encontrar los
componentes que entran en la expansión procedemos de la siguiente manera. Tomamos el producto
punto de ambos lados de la expansión asumida con |ji: (o hj| si eres un purista)
X
|V i = vi |ii (21)
i
X X
hj|V i = vi hj|ii = vi δij = vj (22)
i i

hj|V i = vj (23)
es decir, el para hallar el j-ésimo componente de un vector, tomamos el producto punto con el j-ésimo
vector unitario, exactamente como con las flechas. Usando este resultado, podemos escribir:
X
|V i = |iihi|V i (24)
i

Asegurémonos de que los vectores base se vean como deberı́an. Si establecemos |V i = |ji en la
ecuación (24), encontramos la respuesta correcta: el i-ésimo componente del j-ésimo vector base es
δij . Ası́, por ejemplo, la columna que representa el vector de base número 4 tendrá un 1 en la 4a fila
y cero en todos los demás. La relación abstracta:
X
|V i = vi |ii (25)
i

se convierte en esta base


       
v1 1 0 0
 v2  0 1 0
       
 ..   ..  0 .
. = v1 . + v2  + v n  ..  (26)
     ..   
    .  
vn 0 0 1

1.3.2. Operación adjunta

Hemos visto que podemos pasar de la columna que representa un ket a la fila que representa el bra
correspondiente por la operación conjunta, es decir, la conjugación de transposición. Preguntémonos
ahora: si hV | es el bra correspondiente al ket |V i ¿qué bra corresponde a a|V i donde a es un escalar?
Al ir cualquier base, se encuentra fácilmente que:
 
av1
 av2 
 
a|V i →  ...  → [a∗ v1∗ , a∗ v2∗ , ..., a∗ vn∗ ] → hV |a∗ (27)
 
 
 
avn

Es habitual escribir a |V i como |aV i y el correspondiente bra como haV |. Lo que hemos encontrado
es que:
haV | = hV |a∗ (28)

11
Apuntes Fı́sica cuántica

Dado que la relación entre bras y kets es lineal, podemos decir que si tenemos un ecuación entre kets
como:
a|V i = b|W i + c|Zi + ... (29)
esto implica otra entre los bras correspondientes:

hV |a∗ = hW |b∗ + hZ|c∗ + ... (30)

Las dos ecuaciones anteriores se dice que son adjuntos uno del otro. Ası́ como cualquier ecuación
que involucre números complejos implica otra obtenida tomando los complejos conjugados de ambos
lados, una ecuación entre (bras) kets implica otra entre (kets) bras. Si piensas en una base, verás
que esto se sigue simplemente del hecho de que si dos columnas son iguales, también lo son sus
conjugados de transposición.
Aquı́ está la regla para tomar el adjunto:
Para tomar el adjunto de una ecuación lineal relacionada con kets (bras), reemplace cada ket (bra)
por su bra (ket) y conjugue complejo todos los coeficientes. Podemos extender esta regla de la
siguiente manera.
Supongamos que tenemos una expansión para un vector:
X
|V i = vi |ii (31)
i

En términos de vectores base, el adjunto es:


X
hV | = hi|vi∗ (32)
i

Renombrando vi = hi|V i y vi∗ = hV |ii se deduce que el adjunto de:


n
X
|V i = |iihi|V i (33)
i=1

es n
X
hV | = hV |iihi| (34)
i=1

de donde viene la regla:


Para tomar el adjunto de una ecuación que implica bras y kets y coeficientes, invierta el orden de
todos los factores, intercambiando bras y kets y conjugando los complejos de todos los coeficientes.

Gram-Schmidt Theorem
Tomemos ahora el procedimiento de Gram-Schmidt para convertir una base linealmente indepen-
diente en una ortonormal. La idea básica se puede ver con un simple ejemplo. Imagine el espacio
bidimensional de flechas en un plano. Tomemos dos vectores no paralelos, que califican como base.
Para obtener una base ortonormal de estos, hacemos lo siguiente:
• Cambie la escala del primero por su propia longitud, por lo que se convierte en un vector
unitario. Este será el primer vector base.

• Reste del segundo vector su proyección a lo largo del primero, solo dejando atrás la parte
perpendicular a la primera. (Tal parte permanecerá ya que, por suposición, los vectores no son
paralelos).

12
Apuntes Fı́sica cuántica

• Cambie la escala del sobrante por su propia longitud. Ahora tenemos el segundo vector base:
es ortogonal al primero y a la longitud de la unidad.

Este simple ejemplo cuenta toda la historia detrás de este procedimiento, que ahora ser discutido en
términos generales en la notación de Dirac.
Si |Ii, |IIi, ... son una base linealmente independiente. El primer vector de la base ortonormal será:

|Ii p
|1i = donde |I| = hI|Ii (35)
|I|

claramente:
hI|Ii
h1|1i = =1 (36)
|I|2
como segundo vector base considere

|20 i = |IIi − |1ih1|IIi (37)

Ahora dividimos |20 i por su norma para obtener |2i que será ortogonal al primero y normalizado a
la unidad. Finalmente, considere

|30 i = |IIIi − |1ih1|IIIi − |2ih2|IIIi (38)

que es ortogonal a |1i y |2i. Dividiendo por su norma obtenemos |3i, el tercer miembro de la base
ortogonal. No hay nada nuevo con la generación del resto de la base.
¿Dónde usamos la independencia lineal de la base original? ¿Qué pasarı́a si hubiésemos comenzado
con una base linealmente dependiente? Entonces, en algún momento, un vector como |20 i o |30 i se
habrı́a desvanecido, poniendo fin al proceso completo. Por otro lado, la independencia lineal nos
asegurará que tal cosa nunca sucederá ya que equivale a tener una combinación lineal no trivial de
vectores linealmente independientes que suma el vector nulo. (Regrese a las ecuaciones para |20 i o
|30 i y asegúrese de que estas son combinaciones lineales de los viejos vectores base).

Ejercicio 1.3.1.
Forme una base ortogonal en dos dimensiones comenzando con A~ = 3î + 4ĵ y B
~ = 2î − 6ĵ.
¿Puedes generar otra base ortonormal comenzando con estos dos vectores? Si es ası́, produce otro.

Ejercicio 1.3.2.
Mostrar como ir desde la base:
     
3 0 0
|Ii = 0
 |IIi = 1
 |IIIi = 2

0 2 5

a la base ortonormal
     
1 0√ 0√
|1i = 0
 |2i = 1/√5 |3i = −2/√ 5
0 2/ 5 1/ 5

13
Apuntes Fı́sica cuántica

Cuando aprendimos acerca de la dimensionalidad, la asociamos con el número de direcciones per-


pendiculares. En este capı́tulo, definimos en términos del número máximo de vectores linealmente
independientes. El siguiente teorema conecta las dos definiciones.
Teorema 4. La dimensionalidad de un espacio es igual a n⊥ , el número máximo de vectores
mutuamente ortogonales en él.
Para mostrar esto, primero tenga en cuenta que cualquier conjunto mutuamente ortogonal es también
linealmente independiente. Supongamos que tenemos una combinación lineal de vectores ortogonales
que suman cero. Al tomar el producto escalar de ambos lados con un miembro y usar la ortogonalidad,
podemos demostrar que el coeficiente que multiplica ese vector debe desaparecer. Esto se puede hacer
claramente para todos los coeficientes, mostrando que la combinación lineal es trivial.
Ahora n⊥ solo puede ser igual a, mayor o menor que n, la dimensionalidad del espacio. El pro-
cedimiento de Gram-Schmidt elimina el último caso por construcción explı́cita, mientras que la
independencia lineal de los vectores perpendiculares descarta la penúltima opción.

Desigualdades de Schwarz y Triangular.


Dos poderosos teoremas se aplican a cualquier espacio de producto interno que obedece a nuestros
axiomas:
Teorema 5. La desigualdad de Schwarz

|hV |W i| ≤ |V ||W | (39)

Teorema 6. La desigualdad del triángulo

|V + W | ≤ |V | + |W | (40)

Se proporcionará la prueba de la primera para que pueda acostumbrarse a trabajar con bras y kets.
El segundo quedará como un ejercicio.
Antes de probar algo, observe que los resultados son obviamente verdaderos para las flechas: la
desigualdad de Schwarz dice que el producto escalar de dos vectores no puede exceder
el producto de sus longitudes y la desigualdad del triángulo dice que la longitud de una
suma no puede exceder la suma de las longitudes . Este es un ejemplo que ilustra los méritos
de pensar en vectores abstractos como flechas y adivinar qué propiedades podrı́an compartir con las
flechas. La prueba, por supuesto, tendrá que depender únicamente de los axiomas. Para probar la
desigualdad de Schwarz, considere el axioma 1 (i) aplicado a

hW |V i
|Zi = |V i − |W i (41)
|W |2
donde:
hW |V i hW |V i
hZ|Zi = hV − W |V − Wi
|W |2 |W |2

hW |V ihV |W i hW |V i∗ hW |V i hW |V i∗ hW |V ihW |W i
hZ|Zi = hV |V i − − + ≥0 (42)
|W |2 |W |2 |W |4

donde hemos utilizado la antilinealidad del producto interno con respecto a bra.
Utilizando
hW |V i = hV |W i∗

14
Apuntes Fı́sica cuántica

encontramos
hW |V ihW |V i
hV |V i > (43)
|W |2

Ejercicio 1.3.3 .
¿Cuándo se satisfará esta desigualdad? ¿Esto está de acuerdo con tu experiencia con las flechas?

Ejercicio 1.3.4.
Demuestre la desigualdad triangular comenzando con |V + W |2 . Debe usar RehV |W i ≤ |hV |W i| y
la desigualdad de Schwarz. Demuestre que la desigualdad final se convierte en una igualdad solo si
|V i = a|W i donde a es un escalar positivo real.

1.4. Subespacios

Definición 11.
Dado un espacio vectorial V, un subconjunto de sus elementos que forman un espacio vectorial entre
ellos (La suma de vectores y la multiplicación escalar se definen de la misma manera en el subespacio
que en V) se denomina subespacio. Denotaremos un subespacio particular i de dimensionalidad ni
como Vini .

Ejemplo 1.4.1.
En el espacio V3 (R), los siguientes son algunos ejemplos de subespacios:
(a) Todos los vectores a lo largo del eje x, forman el espacio Vx1 .
(b) Todos los vectores a lo largo del eje y, están en el espacio Vy1 .
2
(c) Todos los vectores en el plano xy, están en el espacio Vxy .
Observe que todos los subespacios contienen el vector nulo y que cada vector va acompañado de
su inverso para cumplir los axiomas de un espacio vectorial. Por lo tanto, el conjunto de todos los
vectores a lo largo del eje x positivo solo no forma un espacio vectorial.

Definición 12.
m mj
Dados dos subespacios Vini y Vj j , definimos su suma Vini ⊕ Vj = Vkmk como el conjunto que
contiene:
(1) todos los elementos de Vini ,
m
(2) todos los elementos de Vj j ,
(3) todas las posibles combinaciones lineales de las anteriores, pero para los elementos (3), se perderá
el cierre.

Ejemplo 1.4.2.
Si, por ejemplo, Vx1 ⊕ Vy1 contuviera solo vectores a lo largo de los ejes x e y, podrı́amos, agregando
dos elementos, uno de cada dirección, generar uno a lo largo de ninguno. Por otro lado, si también
incluimos todas las combinaciones lineales, obtendrı́amos la respuesta correcta, Vx1 ⊕ Vy1 = Vxy 2

15
Apuntes Fı́sica cuántica

Ejercicio 1.4.1
En un espacio Vn , compruebe que el conjunto de todos los vectores {|V⊥1 i, |V⊥2 i, ...} ortogonales a
6 |0i, forma un subespacio Vn−1 .
cualquier |V i =

Ejercicio 1.4.2.
Supongamos que Vn1 y Vn2 son dos subespacios, de modo que cualquier elemento de V1 es ortogonal a
cualquier elemento de V2 . Demuestre que la dimensionalidad de V1 ⊕ V2 es n1 + n2 (Pista: Teorema
6.)

1.5. Operadores lineales


Un operador Ω es una instrucción para transformar cualquier vector dado |V i en otro, |V 0 i. La
acción del operador se representa de la siguiente manera:

Ω|V i = |V 0 i (44)

Uno dice que el operador Ω ha transformado el ket |V i en el ket |V 0 i. Restringiremos nuestra atención
a los operadores Ω que no nos saquen del espacio vectorial, es decir, si |V i es un elemento de un
espacio V, también lo es Ω|V i = |V 0 i.
Los operadores también pueden actuar en los bras:

hV 0 |Ω = hV 00 | (45)

Solo nos ocuparemos de los operadores lineales, es decir, los que obedezcan las siguientes reglas:

Ωα|Vi i = αΩ|Vi i (46)


Ω{α|Vi i + β|Vj i} = αΩ|Vi i + βΩ|Vj i (47)

hVi |αΩ = hVi |Ωα (48)


(hVi |α + hVj β)Ω = αhVi |Ω + βhVj |Ω (49)

Ejemplo 1.5.1. El operador más simple es el operador de identidad, I, que lleva la instrucción:

I → ¡Deja el vector solo!


Ası́,
I|V i = |V i para todos los kets |V i (50)
y
hV |I = hV | para todos los bras hV | (51)
A continuación, pasamos a un operador más interesante en V3 (R):

R( 21 πi) → (Girar vector por 12 π sobre el vector unitario î)

[De manera más general, R(θ) representa una rotación con un ángulo θ = |θ| sobre el eje paralelo al
~
vector unitario θ̂ = θ/θ. Consideremos la acción de este operador en los tres vectores unitarios î, ĵ y
k̂, que en nuestra notación se denotarán con |1i, |2i y |3i (ver Fig. 1.3).

16
Apuntes Fı́sica cuántica

De la figura, está claro que:


1
R( πi)|1i = |1i (52)
2
1
R( πi)|2i = |3i (53)
2
1
R( πi)|3i = −|2i (54)
2
Claramente R( 21 πi) es lineal. Por ejemplo, está claro de la misma figura que: R[|2i+|3i] = R|2i+R|3i
La caracterı́stica interesante de los operadores lineales es que una vez que se conoce su acción sobre
los vectores de base, se determina su acción sobre cualquier vector en el espacio. Si:

Ω|ii = |i0 i

para una base |1i, |2i, ..., |ni en Vn , luego para cualquier |V i = i vi |V i
P

X X X
Ω|V i = Ωvi |ii = vi Ω|ii = vi |i0 i (55)
i i i

Este es el caso en el ejemplo Ω = R( 21 πi). Si

|V i = v1 |1i + v2 |2i + v3 |3i

es cualquier vector, luego:

R|V i = v1 R|1i + v2 R|2i + v3 R|3i = v1 |1i + v2 |3i − v3 |2i

El producto de dos operadores representa la instrucción de que las instrucciones correspondientes a


los dos operadores se lleven a cabo en secuencia

ΛΩ|V i = Λ(Ω|V i) = Λ|ΩV i (56)

donde |ΩV i es el ket obtenido por la acción de Ω on |V i. El orden de los operadores en un producto
es muy importante: en general,
ΩΛ − ΛΩ ≡ [Ω, Λ]
llamado el conmutador de Ω y Λ no es cero. Por ejemplo R( 21 πi) y R( 21 πj) no conmutan, es decir,
su conmutador es distinto de cero.
Dos identidades útiles que involucran conmutadores son

[Ω, ΛΘ] = Λ[Ω, Θ] + [Ω, Λ]Θ (57)

17
Apuntes Fı́sica cuántica

[ΛΩ, Θ] = Λ[Ω, Θ] + [Λ, Θ]Ω (58)


Tenga en cuenta que, aparte del énfasis en ordenar, estas reglas se asemejan a la regla de la cadena
en cálculo para la derivada de un producto.
El inverso de Ω, denotado por Ω−1 , satisface:

ΩΩ−1 = Ω−1 Ω = I (59)

No todos los operadores tienen una inversa. La condición para la existencia de la inversa se da en
el Apéndice A.I.I El operador R( 21 πi) tiene una inversa: es R(− 12 πi). El inverso de un producto de
operadores es el producto de los inversos en reversa:

(ΩΛ)−1 = Λ−1 Ω−1 (60)

porque solo entonces tenemos

(ΩΛ)(ΩΛ)−1 = (ΩΛ)(Λ−1 Ω−1 ) = ΩΛΛ−1 Ω−1 = ΩΩ−1 = I (61)

1.6. Elementos de matriz de operadores lineales


Ahora estamos acostumbrados a la idea de que un vector abstracto esté representado en una base
por una n-tupla de números, llamados sus componentes, en términos de los cuales se pueden llevar
a cabo todas las operaciones vectoriales. Ahora veremos que de la misma manera un operador lineal
puede ser representado en una base por un conjunto de n2 números, escrito como una matriz n × n,
y llamando a sus elementos de matriz en esa base. Aunque los elementos de la matriz, al igual
que los componentes del vector, dependen de la base, facilitan el cálculo de todas las cantidades
independientes de la base, haciendo que el operador abstracto sea más tangible.
Nuestro punto de partida es la observación anterior, de que la acción de un operador lineal está
completamente especificada por su acción en los vectores de base. Si los vectores de base sufren un
cambio
Ω|ii = |i0 i
0
(donde |i i se conoce), entonces cualquier vector en este espacio sufre un cambio que es fácilmente
calculable:
X X X
Ω|V i = Ω vi |ii = vi Ω|ii = vi |i0 i
i i i

Cuando decimos que |i0 i es conocido, nos referimos a sus componentes en la base original

hj|i0 i = hj|Ω|ii ≡ Ωji (62)


son conocidos. Los n2 números, Ωij son los elementos de matriz de Ω en esta base. Si

Ω|V i = |V 0 i
entonces los componentes del ket transformado |V 0 i son expresables en términos de Ωij y los compo-
nentes de |V 0 i:
X  X
vi0 = hi|V 0 i = hi|Ω|V i = hi|Ω vj |ji = vj hi|Ω|ji
j j

18
Apuntes Fı́sica cuántica

X
vi0 = Ωij vj (63)
j

Ecuación (63) se puede moldear en forma de matriz:


    
v10 h1|Ω|1i h1|Ω|2i . . . h1|Ω|ni v1
 v 0   h2|Ω|1i   v2 
 2 
 ..  =  .. (64)
 
..   .. 
.  . .  . 
0
vn hn|Ω|1i ... hn|Ω|ni vn

Un mnemónico: los elementos de la primera columna son simplemente los componentes del primer
0
vector base transformado |1 i = Ω|1i en la base dada. Del mismo modo, los elementos de la j-ésima
columna representan la imagen del j-ésimo vector base después de que Ω actúa sobre él.
Convéncete de que la misma matriz Ωij , actuando a la izquierda en el vector de fila correspondiente
a cualquier hv 0 | da el vector de fila correspondiente a hv 00 | = hv 0 |Ω.

Ejemplo 1.6.1.
Combinando nuestro mnemotécnico con el hecho de que el operador R( 12 πi) tiene el siguiente efecto
en los vectores de base:
1
R( πi)|1i = |1i
2

1
R( πi)|2i = |3i
2

1
R( πi)|3i = −|2i
2
podemos escribir la matriz que lo representa en la base |1i, |2i, |3i:
 
1 0 0
1
R( πi) ↔ 0 0 −1 (65)
2
0 1 0

Por ejemplo, el −1 en la tercera columna nos dice que R rota |3i en −|2i. Uno también puede ignorar
el mnemónico por completo y simplemente usar la definición Rij = hi|R|ji para calcular la matriz.

Ejercicio 1.6.1.
Un operador Ω, viene dado por la matriz
 
0 0 1
1 0 0
0 1 0

¿Cuál es su acción?

19
Apuntes Fı́sica cuántica

Consideremos ahora ciertos operadores especı́ficos y veamos cómo aparecen en forma de matriz.
1) El operador de identidad I.

Iij = hi|I|ji = hi|ji = δij (66)

Por lo tanto, I está representado por una matriz diagonal con 1 a lo largo de la diagonal. Deberı́a
verificar que nuestro mnemónico le da el mismo resultado.
2) Los operadores de proyección.
Primero, conozcamos a los operadores de proyección. Considere la expansión de un ket arbitrario
|V i en una base:

n
X
|V i = |iihi|V i
i=1

En términos de los objetos |iihi|, que son operadores lineales, y que, por definición, actúan en |V i
para dar |iihi|V i, podemos escribir lo anterior como:
n
X 
|V i = |iihi| |V i (67)
i=1

Desde (67) es verdadero para todos |V i, el objeto entre paréntesis debe identificarse con la identidad
(operador)
Xn n
X
I= |iihi| = Pi (68)
i=1 i=1

El objeto Pi = |iihi| se llama operador de proyección para ket |ii. La ecuación (68), que se llama
relación de completitud, expresa la identidad como una suma de operadores de proyección y serán
invaluables para nosotros. (Si cree que el tiempo dedicado a la identidad, que parece no hacer nada,
es una pérdida de tiempo, solo espere y vea).
Considere
Pi |V i = |iihi|V i = |iivi (69)

Claramente Pi , es lineal. Tenga en cuenta que lo que sea |V i es, Pi |V i es un múltiplo de |ii con
un coeficiente (vi ) que es el componente de |V i a lo largo de |ii. Como Pi proyecta el componente
de cualquier ket |V i a lo largo de la dirección |ii, se llama operador de proyección. La relación de
completitud (68),dice que la suma de las proyecciones de un vector a lo largo de todas las direcciones
n es igual al vector en sı́. Los operadores de proyección también pueden actuar sobre bras de la
misma manera:

hV |Pi = hV |iihi| = vi∗ h1| (70)

Los operadores de proyección correspondientes a los vectores base obedecen:

Pi Pj = |iihi|jihj| = δij Pj (71)

El siguiente ejemplo de óptica puede arrojar algo de luz sobre la discusión. Considere un haz de
luz que se desplaza a lo largo del eje z y se polariza en el plano xy con un ángulo θ con respecto al
eje (figura 1.4). Si un polarizador Py , que solo admite luz polarizada a lo largo del eje y, se coloca

20
Apuntes Fı́sica cuántica

en el camino, se transmite la proyección Ecosθ a lo largo del eje y. Un polarizador adicional Py


colocado en el camino no tiene ningún efecto adicional en el haz. Podemos equiparar la acción del
polarizador con la del operador de proyección Py que actúa sobre el vector de campo eléctrico E.
Si Py es seguido por un polarizador Px , el haz está completamente bloqueado. Por lo tanto, los
polarizadores obedecen la ecuación Pi Pj = δij Pj esperado de los operadores de proyección.

Pasemos ahora a los elementos de la matriz de Pi . Hay dos enfoques, el primero, algo indirecto, nos
da una idea de qué tipo de objeto es |iihj|.
Sabemos:  
0
0
 
0
.
|ii ↔  .. 
 
1
 
.
 .. 
0
y
hi| ↔ (0, 0, ..., 0, 0, ..., 0)

lo que corresponde a:
 
 
0 0 ... 0
0  ... 
   
0 
 0


. .
. 
|iihi| ↔  .  (0, 0, ..., 0, 0, ..., 0) =  ..
 1 
 (72)
1
 
.

 0 

 ..   .. 
 . 
0 0 0

por las reglas de la multiplicación de la matriz. Mientras que hV |V 0 i = (1 × n matriz) × (n ×


1 matriz) = (1 × 1 matriz) es un escalar, |V ihV 0 | = (n × 1 matriz) × (1 × n matriz) = (n × n matriz)
es un operador. El producto interno hV |V 0 i representa un bra y ket que se han encontrado, mientras

21
Apuntes Fı́sica cuántica

que |V ihV 0 |, a veces llamado el producto externo, tiene los dos factores mirando hacia otro lado para
un bra o un ket con puntos.
El enfoque más directo a los elementos de la matriz da

(Pi )kl = hk|iihi|li = δki δil = δkl δli (73)

que es, por supuesto, idéntico a la ecuación (72). El mismo resultado también se sigue de mnemotécnico.
Cada operador de proyección tiene solo un elemento de matriz que no Pnse desvanece,Pnun 1 en el ele-
mento i-ésimo en la diagonal. La relación de completitud, (68) I = i=1 |iihi| = i=1 Pi , dice que
cuando se agregan todos los Pi , la diagonal se llena para dar la identidad. Si formamos la suma
sobre solo algunos de los operadores de proyección, obtenemos el operador que proyecta un vector
dado en el subespacio abarcado por solo los vectores de base correspondientes.

Matrices correspondientes a productos de operadores


Considere a continuación las matrices que representan un producto de los operadores. Estos están
relacionados con las matrices que representan a los operadores individuales mediante la aplicación
de ecuación (68) I = ni=1 |iihi| = ni=1 Pi :
P P

(ΩΛ)ij = hi|ΩΛ|ji = hi|ΩIΛ|ji

X
(ΩΛ)ij = hi|Ω|kihk|Λ|ji
k
X
(ΩΛ)ij = Ωik Λkj (74)
k

Por lo tanto, la matriz que representa el producto de los operadores es el producto de las matrices
que representan los factores.

El adjunto de un operador
Recuerde que dado un ket α|V i ≡ |αV i el correspondiente bra es:

hαV | = hV |α∗ (y no hV |α)


De la misma manera, dado un ket

Ω|V i = |ΩV i
el bra correspondiente es:

hΩV | = hV |Ω† (75)


que define el operador Ω† . Se puede establecer esta ecuación en palabras: si Ω convierte al ket |V i
en |V 0 i, luego Ω† convierte el bra hV | en hV 0 |. justo como α y α∗ , |V i y hV | son objetos relacionados
pero distintos, ası́ como Ω y Ω† . La relación entre Ω y Ω† , llamada el adjunto de Ω u omega dagger,
se ve mejor en una base:

(Ω† )ij = hi|Ω† |ji = hΩi|ji = hj|Ωii∗ = hj|Ω|ii∗

de manera que:
Ω†ij = Ω∗ji (76)

22
Apuntes Fı́sica cuántica

En otras palabras, la matriz que representa Ω† es el conjugado de transposición de la matriz que


representa Ω. (Recuerde que el vector de fila que representa hV | es el conjugado de transposición
del vector de columna que representa |V i. En una base dada, la operación adjunta es lo mismo que
tomar el conjugado de transposición).
El adjunto de un producto es el producto de los adjuntos en reversa:

(ΩΛ)† = Λ† Ω† (77)

Para probar esto consideramos hΩΛV |. Primero tratamos ΩΛ como un operador y obtenemos:

hΩΛV | = h(ΩΛ)V | = hV |(ΩΛ)†


A continuación, tratamos (ΛV ) como otro vector y escribimos

hΩΛV | = hΩ(ΛV )| = hΛV |Ω†


A continuación, sacamos Λ, empujando Ω† más hacia fuera:

hΛV |Ω† = hV |Λ† Ω†

Comparando este resultado con el obtenido unas pocas lı́neas arriba, obtenemos el resultado deseado.
Considere ahora una ecuación que consta de kets, escalares y operadores, tales como:

α1 |V1 i = α2 |V2 i + α3 |V3 ihV4 |V5 i + α4 ΩΛ|V6 i (78)

¿Cuál es su adjunto? Nuestra vieja regla nos dice que es:

hV1 α1∗ = hV2 |α2∗ + hV5 |V4 ihV3 |α3∗ + hΩΛV6 |α4∗

En el último término podemos reemplazar hΩΛV6 | por:

hV6 |(ΩΛ)† = hV6 |Ω† Λ†

de modo que finalmente tenemos el adjunto de la ecuación (78):

hV1 α1∗ = hV2 |α2∗ + hV5 |V4 ihV3 |α3∗ + hV6 |Λ† Ω† α4∗ (79)
La regla final para tomar el adjunto de la ecuación más general que tendremos que encontrar es :
Cuando se encuentra un producto de operadores, bras, kets y coeficientes numéricos explı́citos,
invierta el orden de todos los factores y realice las sustituciones Ω ↔ Ω† , |i ↔ h|, α ↔ α∗
(Por supuesto, no existe una necesidad real de revertir la ubicación de los escalares α, excepto en
aras de la uniformidad).

Operadores hermı́ticos, antihermı́ticos y unitarios

Ahora dirigimos nuestra atención a ciertas clases especiales de operadores que jugarán un papel
importante en la mecánica cuántica.
Definición 13. Un operador Ω es hermı́tico si Ω† = Ω.
Definición 14. Un operador Ω es antihermı́tico si Ω† = −Ω.

23
Apuntes Fı́sica cuántica

El adjunto es para un operador lo que el conjugado complejo es para los números. Los operadores
hermitianos y antihermitianos son como números imaginarios puros y reales puros. Ası́ como cada
número puede descomponerse en una suma de partes imaginarias puras y reales puras,

α + α∗ α − α∗
α= +
2 2
podemos descomponer a cada operador en sus partes hermitiana y antihermitiana:

Ω + Ω† Ω − Ω†
Ω= + (80)
2 2

Ejercicio 1.6.2 Dado Ω y Λ Hermı́ticos ¿qué puedes decir sobre (1) ΩΛ;(2) ΩΛ + λΩ; (3) [Ω, Λ]; y
(4) i[Ω, Λ]?

Definición 15. Un operador U es unitario si:

UU† = I (81)

Esta ecuación nos dice que U y U † son inversas entre sı́. En consecuencia, de la ecuación (59)
ΩΩ−1 = Ω−1 Ω = I,
U †U = I (82)
Siguiendo la analogı́a entre operadores y números, los operadores unitarios son como números com-
plejos de módulo uno, u = eiθ . Igual que u∗ u = 1, también lo es U † U = I

Ejercicio 1.6.3. Demuestre que un producto de operadores unitarios es unitario.

Teorema 7. Los operadores unitarios conservan el producto interno entre los vectores sobre los que
actúan.
Prueba:
|V10 i = U |V1 i
y
|V20 i = U |V2 i
entonces:
hV20 |V10 i = hU V2 |U V1 i
hV20 |V10 i = hV2 |U † U |V1 i
hV20 |V10 i = hV2 |V1 i (83)

Los operadores unitarios son las generalizaciones de los operadores de rotación de V3 (R) a Vn (C),
ya que al igual que los operadores de rotación en tres dimensiones, conservan la longitud de los
vectores y sus productos punto. De hecho, en un espacio vectorial real, la condición de unitariedad
se convierte en U −1 = U T (T significa transposición), que define una matriz ortogonal o de rotación.
[R( 21 πi) es un ejemplo.]

24
Apuntes Fı́sica cuántica

Teorema 8. Si uno trata las columnas de una matriz unitaria n × n como componentes de n
vectores, estos vectores son ortonormales. De la misma manera, las filas se pueden interpretar como
componentes de n orthonormal vectores.

Prueba 1.
De acuerdo con nuestra mnemotécnica, la columna de la matriz que representa U es la imagen
del vector de la base j-ésima después de que U actúe sobre ella. Como U conserva los productos
internos, el conjunto rotado de vectores también es ortonormal. Considera a continuación las filas.
Ahora usamos el hecho de que U † es también una rotación. (¿De qué otra forma puede neutralizar
U para dar U † U = I?) Dado que las filas de U son las columnas de U † (pero para una conjugación
compleja global que no afecta la cuestión de la ortonormalidad), el resultado que ya tenemos para
las columnas de una matriz unitaria que nos dice que las filas de U son ortonormales.
Prueba 2.
ya que U † U = I,
δij = hi|I|ji = hi|U † U |ji
X
δij = hi|U † |kihk|U |ii
k
X †
X

δij = Uik Ukj = Uki Ukj (84)
k k

que demuestra el teorema de las columnas. Un resultado similar para las filas se da si comenzamos con
la ecuación U U † = I. Tenga en cuenta que U † U = I y U U † = I no son condiciones independientes.

Ejercicio 1.6.4.
Se supone que usted sabe (1) qué es un determinante, (2) que det ΩT = det Ω (T denota trans-
posición), (3) que el determinante de un producto de matrices es el producto de los determinantes.
[Si no lo hace, verifique estas propiedades para un caso bidimensional
 
α β
Ω=
γ δ

con det Ω = (αδ)−(βγ) Demostrar que el determinante de una matriz unitaria es un número complejo
de módulo de unidad.

Ejercicio 1.6.5.
Verifique que R( 12 πi) sea unitario (ortogonal) examinando su matriz.

Ejercicio 1.6.6.
Verifique que las siguientes matrices sean unitarias:
   
1 1 i 1 1+i 1−i
,
21/2 i 1 2 1−i 1+i

Verifique que el determinante sea de la forma eiθ en cada caso. ¿Alguna de las matrices anteriores
es hermı́tica?

25
Apuntes Fı́sica cuántica

1.7. Transformaciones activas y pasivas


Supongamos que sometemos todos los vectores |V i en un espacio a una transformación unitaria

|V i → U |V i (85)

Bajo esta transformación, los elementos de la matriz de cualquier operador Ω se modifican como
sigue:
hV 0 |Ω|V i → hU V 0 |Ω|U V i = hV 0 |U † ΩU |V i (86)

Está claro que el mismo cambio se verı́a afectado si dejáramos los vectores solos y sometiéramos a
todos los operadores al cambio.
Ω → U † ΩU (87)

El primer caso se llama transformación activa y el segundo una transformación pasiva. La presente
nomenclatura se refiere a los vectores: se ven afectados en una transformación activa y se los deja solos
en el caso pasivo. La situación es exactamente la opuesta desde el punto de vista de los operadores.
Más adelante veremos que la fı́sica en la teorı́a cuántica reside en los elementos de matriz de los
operadores, y que las transformaciones activas y pasivas nos proporcionan dos formas equivalentes
de describir la misma transformación fı́sica.

Ejercicio 1.7.1.
La traza de una matriz se define como la suma de sus elementos de matriz diagonal.
X
Tr Ω = Ωii
i

Muestre que:
(1) - T r(ΩΛ) = T r(ΛΩ)
(2) - T r(ΩΛΘ) = T r(ΛΘΩ) = T r(ΘΩΛ) (Las permutaciones son cı́clicas).
(3) La traza de un operador no se ve afectado por un cambio de base unitario |ii → U |ii [Equiva-
lentemente, muestre Tr Ω = Tr(U † ΩU ).]

Ejercicio 1.7.2.
Demuestre que el determinante de una matriz no se ve afectado por un cambio de base unitario.
[Equivalentemente muestre det Ω = det(U † ΩU )]

1.8 - El problema de autovalores

Considere la posibilidad de que un operador lineal Ω actúe sobre un ket arbitrario distinto de cero
|V i:
Ω|V i = |V 0 i (88)
A menos que el operador resulte ser trivial, como la identidad o su múltiple, ket sufrirá un cambio
no trivial, es decir, |V 0 i no estará simplemente relacionado con |V i. Tanto para un ket arbitrario.
Cada operador, sin embargo, tiene ciertos kets propios, llamados autokets, en los cuales su acción
es simplemente la de reescalar:
Ω|V i = ω|V i (89)

26
Apuntes Fı́sica cuántica

La ecuación (89) es una ecuación de autovalores: |V i es un autoket de Ω con autovalor ω. En


este capı́tulo veremos cómo, dado un operador Ω, uno puede determinar sistemáticamente todos
sus autovalores y autovectores. ¿Cómo una ecuación de ese tipo entra en la fı́sica? se ilustrará con
algunos ejemplos de mecánica al final de esta sección, y una vez que lleguemos a la mecánica cuántica
propiamente dicha, será eigen, eigen, eigen en todo momento.

Ejemplo 1.8.1.
Para ilustrar cuán fácil es en realidad el problema de autovalores, comenzaremos con un caso que
estará completamente resuelto: el caso Ω = I. Ya que

I|V i = |V i
para todos |V i, concluimos que:
1) el único autovalor de I es 1;
2) todos los vectores son sus autovectores con este autovalor

Ejemplo 1.8.2.

Después de este éxito no calificado, nos animamos a asumir un caso un poco más difı́cil: Ω = PV , el
operador de proyección asociado con un ket normalizado |V i. Claramente:
1) cualquier ket α|V i, paralelo a |V i es un autovector con autovalor 1:

PV |αV i = |V ihV |αV i = α|V i|V |2 = 1.|αV i

2) cualquier ket |V⊥ i, perpendicular a |V i, es un autovector con autovalor 0:

PV |V⊥ i = |V ihV |V⊥ i = 0 = 0|V⊥ i

3) kets de la forma α|V i + β|V⊥ i, simplemente no son autovectores:

PV (α|V i + β|V⊥ i) = |αV i =


6 γ(α|V i + β|V⊥ i)
Como cada ket en el espacio corresponde a una de las clases anteriores, hemos encontrado todos los
autovalores y autovectores.

Ejemplo 1.8.3.
Considere ahora el operador R( 21 πi). Ya sabemos que tiene un autovector, el vector base |1i a lo
largo del eje x:

1
R( πi)|1i = |1i
2
¿Hay otros? Por supuesto, cualquier vector α|1i a lo largo del eje x tampoco se ve afectado por la
rotación de x. Esta es una caracterı́stica general de la ecuación autovalor y refleja la linealidad del
operador:
Si
Ω|V i = ω|V i

27
Apuntes Fı́sica cuántica

entonces

Ωα|V i = αΩ|V i = αω|V i = ωα|V i

para cualquier múltiplo de α. Como la ecuación autovalores corrige el autovector solo hasta un
factor de escala global, no trataremos los múltiplos del autovector como autovectores distintos. Con
este entendimiento en mente, preguntémonos si R( 21 πi) tiene autovectores además de |1i. Nuestra
intuición dice que no, porque cualquier vector que no esté a lo largo del eje x necesariamente se gira
por R( 12 πi) y no puede transformarse en un múltiplo de sı́ mismo. Como cada vector es paralelo a
|1i o no, hemos resuelto completamente el problema del autovalor. ¡El problema con esta conclusión
es que está mal! R( 12 πi) tiene otros dos autovectores además de |1i. Pero no debemos culpar a
nuestra intuición, ya que estos vectores están en V3 (C) y no V3 (R). A partir de este ejemplo, resulta
claro que necesitamos un método confiable y sistemático para resolver el problema de autovalores
en V n (C). Ahora dirigimos nuestra atención a esta misma pregunta.

La ecuación caracterı́stica y la solución al problema de autovalores

Comenzamos reescribiendo Ω|V i = ω|V i como:

(Ω − ωI)|V i = |0i (90)

Operando ambos lados con (Ω − ωI)−1 suponiendo que existe, obtenemos:

|V i = (Ω − ωI)−1 |0i (91)


Ahora, cualquier operador finito (un operador con elementos de matriz finita) que actúa sobre el
vector nulo solo puede darnos un vector nulo. Por lo tanto, parece que al solicitar un vector propio
diferente de cero |V i, estamos tratando de obtener algo por nada de ec.(91). Esto es imposible. Se
deduce que nuestra suposición de que el operador (Ω − ωI)−1 existe (como un operador finito) es
falsa. Entonces preguntamos cuándo se obtendrá esta situación. La teorı́a de la matriz básica nos
dice (ver Apéndice I) que la inversa de cualquier matriz M está dada por:

cof actorM T
M −1 = (92)
det M
Ahora el cofactor de M es finito si M lo es. Por lo tanto, lo que necesitamos es la desaparición del
determinante. La condición para autovectores distintos de cero es por lo tanto

det(Ω − ωI) = 0 (93)


Esta ecuación determinará los autovalores ω. Para encontrarlos, proyectamos la (90) sobre una base.
Punteando ambos lados con una base bra hi|, obtenemos:

hi|Ω − ωI|i = 0

y al introducir la representación de la identidad (68) I = ni=1 |iihi| = ni=1 Pi , a la izquierda de


P P
|V i, obtenemos la siguiente imagen de (90) (Ω − ωI)|V i = |0i:
X
(Ωij − ωδij )vj = 0 (94)
j

28
Apuntes Fı́sica cuántica

Establecer el determinante a cero nos dará una expresión de la forma:


n
X
cm ω m = 0 (95)
m=0

La ecuación (95) se llama ecuación caracterı́stica y


n
X
P n (ω) = cm ω m (96)
m=0

se llama el polinomio caracterı́stico. Aunque el polinomio se determina en una base particular, los
autovalores, que son sus raı́ces, son independientes de la base, ya que están definidos por la ecuación
abstracta (90) (Ω − ωI)|V i = |0i, que no hace referencia a ninguna base. Ahora, un resultado
fundamental en el análisis es que cada polinomio de n-orden tiene n raı́ces, no necesariamente distintas
y no necesariamente reales. Por lo tanto, cada operador en Vn (C) tiene n autovalores. Una vez que se
conocen los autovalores, se pueden encontrar los autovectores, al menos para operadores hermı́ticos
y unitarios, utilizando un procedimiento ilustrado por el siguiente ejemplo. [Los operadores con
Vn (C) que no sean de la variedad anterior pueden no tener n autovectores -vea el Ejercicio 1.8.4.-
Los teoremas 10 y 12 establecen que los operadores hermı́ticos y unitarios en Vn (C) tendrán n
autovectores.]

Ejemplo 1.8.4.
Usemos las técnicas generales desarrolladas anteriormente para encontrar todo los autovectores y
autovalores de R( 21 πi). Recuerde que la matriz que lo representa es:
 
1 0 0
1
R( πi) ↔ 0 0 −1
2
0 1 0

Por lo tanto, la ecuación caracterı́stica es:



1 − ω 0 0

det(R − ωI) = 0 −ω −1 =0

0 1 −ω
es decir:
(1 − ω)(ω 2 + 1) = 0 (97)
con raı́ces ω = 1, ±i. Sabemos que ω P = 1 corresponde a |1i. Veamos esto salir del formalismo.
Alimentando ω = 1 en la ecuación (94) j (Ωij − ωδij )vj = 0 encontramos que las componentes x1 ,
x2 y x3 del autovector correspondiente deben obedecer las ecuaciones:
    
1−1 0 0 x1 0 0 = 0)
 0 0 − 1 −1  x2  = 0 → −x2 − x3 = 0 → x2 = x3 = 0
0 1 0 − 1 x3 0 x2 − x3 = 0

Por lo tanto, cualquier vector de la forma


 
x1
x1 |1i ↔  0 
0

29
Apuntes Fı́sica cuántica

es aceptable, como se esperaba. Es convencional usar la libertad en escala para normalizar los au-
tovectores. Por lo tanto, en este caso, una elección es:

 
1
|ω = 1i = |1i = 0

0

Digo una elección, y no la elección, ya que el vector se puede multiplicar por una unidad de módulo
sin cambiar la norma. No existe una convención universalmente aceptada para eliminar esta libertad,
excepto tal vez para elegir el vector con componentes reales cuando sea posible. Tenga en cuenta que
de las tres ecuaciones simultáneas anteriores, la primera no es una ecuación real. En general, solo
habrá (n − 1) ecuaciones LI. Esta es la razón por la cual la norma del vector no está fija y, como se
muestra en el (Apéndice A.I), la razón por la cual el determinante desaparece.
Considere a continuación las ecuaciones correspondientes a ω = i. Los componentes del vector propio
obedecen a las ecuaciones:

(1 − i)x1 = 0 (es decir, x1 = 0)


−ix2 − x3 = 0 (es decir, x2 = ix3 )
x2 − ix3 = 0 (es decir, x2 = ix3 )
Observe una vez más que tenemos solo n − 1 ecuaciones útiles. Una solución correctamente normal-
izada a lo anterior es:  
0
1  
|ω = 1i ↔ 1/2 i
2
1
Un procedimiento similar produce el tercer vector propio:
 
0
1  
|ω = −1i ↔ 1/2 −i
2
1

En el ejemplo anterior, hemos introducido una convención popular: etiquetar los autovectores por
el autovalor. Por ejemplo, el ket correspondiente a ω = ωi es etiquetado |ω = ωii o simplemente
ωi . Esta notación supone que por cada ωi , solo hay un vector etiquetado por este. Aunque este no
es siempre el caso, solo será necesario un ligero cambio en esta notación para cubrir el caso general.
El fenómeno de un único autovalor que representa más de un autovector se llama degeneración y
corresponde a raı́ces repetidas para el polinomio caracterı́stico. En vista de la degeneración, debemos
modificar no solo el etiquetado, sino también el procedimiento utilizado en el ejemplo anterior para
obtener los vectores propios. Imagine que en lugar de R( π2 i) estuviéramos tratando con otro operador
Ω en V3 (R) con raı́ces ω1 y ω2 = ω3 . Parece que podemos obtener dos autovectores, por el método
descrito anteriormente, uno para cada ω distinto. ¿Cómo obtenemos un tercero? ¿O no hay tercero?
Estas ecuaciones se responderán con toda generalidad en breve cuando examinemos la cuestión de
la degeneración en detalle. Ahora dirigimos nuestra atención a dos teoremas centrales sobre los
operadores hermı́ticos. Estos juegan un papel vital en la mecánica cuántica.

Teorema 9. Los valores propios de un operador hermı́tico son reales.


Prueba.
Ω|ωi = ω|ωi

30
Apuntes Fı́sica cuántica

multiplique ambos lados con hΩ|:


hω|Ω|ωi = ωhω|ωi (98)
Tome el adjunto para obtener:
hω|Ω† |ωi = ω ∗ hω|ωi

Como Ω = Ω† , esto se convierte


hω|Ω|ωi = ω ∗ hω|ωi
restando de la ecuación (98)
0 = (ω − ω ∗ )hω|vi

ω = ω∗

Teorema 10. Para cada operador hermı́tico ω, existe (al menos) una base que consiste en sus
autovectores ortonormales. Es diagonal en esta base propia y tiene sus autovalores como entradas
diagonales.

Prueba.
Comencemos con la ecuación caracterı́stica. Debe tener al menos una raı́z, llámalo ω1 . Correspon-
diente a ω1 debe existir al menos un vector propio distinto de cero |ω1 i. [Si no, el Teorema (AII)
n−1
implicarı́a que (Ω−ω1 I) es invertible.] Considere el subespacio V⊥1 de todos los vectores ortogonales
a ω1 . Elijamos como base el vector |ω1 i (normalizado a la unidad) y cualquier vector n − 1 vectores
1 2 n−1 n−1
ortonormales {V⊥1 , V⊥1 , . . . , V⊥1 } en V⊥i . En esta base Ω tiene la siguiente forma:

(99)

La primera columna es solo la imagen de |ω1 i después de que Ω ha actuado en ella. Dada la primera
columna, la primera fila se sigue de la Hermiticidad de Ω. La ecuación caracterı́stica ahora toma la
forma

(ω1 − ω).(determinante de la submatriz encuadrada) = 0


n−1
X
(ω1 − ω) cm ω m = (ω1 − ω)P n−1 (ω) = 0
0
n−1
Ahora el polinomio P también debe generar una raı́z, ω2 , y un vector propio normalizado |ω2 i.
n−2 n−1
Defina el subespacio V⊥1,2 de vectores en V⊥1 ortogonal a |ω2 i (y automáticamente a |ω2 i) y repita
el mismo procedimiento que antes. Finalmente, la matriz Ω se convierte, en la base |ω1 i, |ω2 i, ..., |ωn i

31
Apuntes Fı́sica cuántica

Como cada |ωi i se eligió de un espacio que era ortogonal a los anteriores, |ω1 i, |ω2 i, ..., |ωi−1 i; la base
de los vectores propios es ortonormal. (Aviso que en ninguna parte tenı́amos que suponer que los
valores propios eran todos distintos).
[La analogı́a entre números reales y operadores hermitianos se ve reforzada por el hecho de que en
cierta base (de vectores propios) el operador hermitiano puede ser representado por una matriz con
todos los elementos reales.]
Al establecer el teorema 10, se indicó que podrı́a existir más de una base de vectores propios que
diagonalizaran Ω. Esto sucede si hay alguna degeneración. Supongamos que ω1 = ω2 = ω. Entonces
tenemos dos vectores ortonormales que obedecen:
Ω|ω1 i = ω|ω1 i
Ω|ω2 i = ω|ω2 i
Resulta que

Ω[α|ω1 i + β|ω2 i] = αω|ω1 i + βω|ω2 i = ω[α|ω1 i + β|ω2 i]

para cualquier α y β. Como los vectores |ω1 i y |ω2 i son ortogonales (y por lo tanto LI), encontramos
que hay un subespacio bidimensional completo abarcado por |ω1 i y |ω2 i, los elementos de los cuales
son vectores propios de Ω con valor propio ω. Uno se refiere a este espacio como un espacio propio de
Ω con valor propio ω. Además de los vectores |ω1 i y |ω2 i, existe una infinidad de pares ortonormales
|ω10 i, |ω20 i obtenidos por una rotación rı́gida de |ω1 i y |ω2 i a partir de la cual podemos seleccionar
cualquier par para formar la base propia de Ω.
En general, si un valor propio ocurre mi veces, es decir, si la ecuación caracterı́stica tiene mi de
sus raı́ces igual a algunos ωi , habrá un espacio propio Vωmii ; de donde podemos elegir cualquier mi ,
vectores ortonormales para formar la base referida en el Teorema 10.
En ausencia de degeneración, podemos probar el Teorema 9 y 10 muy fácilmente. Comencemos con
dos vectores propios:

Ω|ωi i = ωi |ωi i (100)


Ω|ωj i = ωj |ωj i (101)
multiplicando hωj | y el segundo por hωi |, obtenemos:
hωj |Ω|ωi i = ωi hωj |ωi i (102)
hωi |Ω|ωj i = ωj hωi |ωj i (103)

Tomando el adjunto de la última ecuación y usando la naturaleza hermı́tica de Ω, obtenemos:


hωj |Ω|ωi i = ωj∗ hωj |ωi i

32
Apuntes Fı́sica cuántica

sustrayendo de esta ecuación la ecuación (102), obtenemos:

0 = (ωi − ωj∗ )hωj |ωi i (104)

si i = j, ya que, hωj |ωi i =


6 0, obtenemos:
ωi = ωi∗ (105)
si i 6= j obtenemos
hωi |ωj i = 0 (106)
desde ωi − ωj∗ = ωi − ωj 6= 0 por supuesto. Que la prueba de ortogonalidad se rompe por ωi = ωj
no es sorprendente, para dos vectores etiquetados por un valor propio degenerado podrı́an ser dos
miembros del espacio degenerado que no necesariamente tienen que ser ortogonales. La modificación
de esta demostración en este caso de degeneración exige argumentos que son esencialmente los que
se usan para probar el Teorema 10. La ventaja en la forma en que se demostró primero el Teorema
10 es que no sufre ninguna modificación en el caso degenerado.

33

También podría gustarte