En esta sección, se te presentarán los espacios vectoriales lineales. Usted seguramente familiarizado
con las vectores de la fı́sica elemental que codifica el módulo y dirección de velocidad * fuerza,
desplazamiento, torque, etc. Sabes cómo agregarlos y multiplicarlos por escalares y las reglas obe-
decidas por estas operaciones. Por ejemplo, usted sabe que la multiplicación escalar es asociativa:
el múltiplo de una suma de dos vectores es la suma de los múltiplos. Lo que queremos hacer es
abstraer de esto simple caso un conjunto de caracterı́sticas básicas o axiomas, y decir que cualquier
conjunto de objetos obedeciendo la misma forma de un espacio vectorial lineal. La astucia radica
en decidir cuál de las propiedades mantener en la generalización. Si conserva demasiados, no habrá
otros ejemplos; si conserva muy pocos, no habrá resultados interesantes para desarrollar a partir de
los axiomas.
La siguiente es la lista de propiedades que los matemáticos han elegido sabiamente como requisito
para un espacio vectorial. Mientras los lees, por favor compáralos con el mundo de los vectores y
asegúrese de que estas son propiedades poseı́das por estos familiares vectores. Pero obsérvese también
que lo que brilla por su ausencia son los requisitos que todo vector tiene una módulo y dirección, que
fue la primera y más destacada caracterı́stica perforado en nuestras cabezas cuando escuchamos sobre
ellos por primera vez. Entonces podrı́as pensar que dejando caer este requisito, el bebé ha sido expul-
sado con el agua del baño. Sin embargo, tendrá tiempo suficiente para apreciar la sabidurı́a detrás
de esta elección a medida que avance y verá una gran unificación y sı́ntesis de diversas ideas bajo el
encabezado de espacios vectoriales. Verá ejemplos de espacios vectoriales que involucran entidades
que intuitivamente no puedes percibir que tiene una magnitud o una dirección. Si bien debe estar
debidamente impresionado con todo esto, recuerde que no duele en todo para pensar en estas general-
izaciones en términos de flechas y para usar la intuición para probar teoremas o al menos anticiparlos.
Definición 1
|1i, |2i, ..., |V i, ..., |W i..., llamados vectores, para los cuales existe:
2. Una regla definida para la multiplicación por escalares a, b, c, ...expresada como a|V i con las
siguientes caracterı́sticas:
– El resultado de estas operaciones es otro elemento del espacio, una caracterı́stica llamada
cierre: |V i + |W i ∈ V
– La multiplicación escalar es distributiva en los vectores:a(|V i + |W i) = a|V i + a|W i
– La multiplicación escalar es distributiva en los escalares: (a + b)|V i = a|V i + b|V i
– La multiplicación escalar es asociativa: a(b|V i) = ab|V i
– la suma es asociativa |V i + (|W i + |Zi) = (|V i + |W i) + |Zi
– la suma es conmutativa |V i + |W i = |W i + |V i
– Existe un vector nulo |0i tal que: |V i + |0i = |V i
– Para todo vector |V i existe un inverso | − V i tal que: |V i + | − V i = |0i
1
Apuntes Fı́sica cuántica
Definición 2
Los números a, b, ... se llaman el campo sobre el cual el vector está definido en el espacio.
Si el campo consta de todos los números reales, tenemos un espacio vectorial real, si son complejos,
tenemos un espacio vectorial complejo. Los vectores en sı́ mismos no son ni reales ni complejos;
el adjetivo se aplica solo a los escalares. Notemos que los axiomas anteriores implican:
• |0i es único, es decir, si |00 i tiene todas las propiedades de |0i, entonces |0i = |00 i
• 0|V i = |0i.
• | − V i = −|V i.
• | − V i es el único aditivo inverso de |V i.
Las pruebas quedan en cuanto al siguiente ejercicio. No tienes que saber las pruebas, pero tienes que
saber las declaraciones.
Observe que estamos usando un nuevo sı́mbolo |V i para denotar un vector genérico. Este objeto
se llama ket V y esta nomenclatura se debe a Dirac cuya notación se analizará más adelante. No
utilizamos deliberadamente el sı́mbolo V~ para denotar los vectores como el primer paso para alejarlo
del concepto limitado del vector como una flecha. Sin embargo, no se desalienta a asociarse con |V i
la flecha como objeto hasta que hayas visto suficientes vectores que no son flechas y estás listo para
soltar la muleta.
Se le pidió que verificara que el conjunto de flechas calificara como un espacio vectorial al leer los
axiomas. Estas son algunas de las ideas clave que deberı́a haber revisado. El espacio vectorial
consiste en flechas, las tı́picas son V~ y V~ 0 . La regla de adición es familiar: tome la cola de la segunda
flecha, colóquela en la punta de la primera y ası́ sucesivamente, como en la Fig. 1.1.
2
Apuntes Fı́sica cuántica
Ejercicio 1.1.2 . Considere el conjunto de todas las entidades de la forma (a, b, c) donde las entradas
son números reales. La suma y la multiplicación escalar se definen de la siguiente manera:
(a, b, c) + (d, e, f ) = (a + d, b + e, c + f )
α(a, b, c) = (αa, αb, αc)
Escriba el vector nulo y el inverso de (a, b, c). Demuestre que los vectores de la forma (a, b, 1) no
forman un espacio vectorial.
La multiplicación escalar por a corresponde a estirar el vector por un factor a. Este es un espacio vec-
torial real ya que estirar por un número complejo no tiene sentido. (Si a es negativo, lo interpretamos
como cambiando el sentido del vector y volviéndola a calcular |a|.) Dado que estas operaciones
que actúan sobre vectores dan más vectores, tenemos cierre. La suma y la multiplicación
escalar claramente tienen todas las caracterı́sticas asociativas y distributivas deseadas. El vector nulo
es el vector de longitud cero, mientras que el inverso de una vector es el vector invertido en sentido,
entonces el conjunto de todos los vectores califica como un espacio vectorial. Pero no podemos ma-
nipularlo. Por ejemplo, el conjunto de todos los vectores con componentes z positivos no forma un
espacio vectorial: no hay inverso. Tenga en cuenta que hasta el momento, no se ha hecho referencia
al módulo o dirección. El punto es que si bien los vectores tienen estas cualidades, los miembros
de un espacio vectorial no necesitan.
Esta afirmación no tiene sentido a menos que pueda darte ejemplos, ası́ que aquı́ hay dos. Considere
el conjunto de todas las matrices 2 × 2. Sabemos cómo agregarlos y multiplicarlos por escalares
(multiplicar los cuatro elementos de la matriz por ese escalar). Las reglas correspondientes obedecen
al cierre, la asociatividad y los requisitos distributivos. La matriz nula tiene todos los ceros y la
inversa al agregar una matriz es la matriz con todos los elementos negativos. Debes aceptar que aquı́
tenemos un espacio vectorial genuino que consiste en cosas que no tienen una longitud o dirección
obvia asociadas con ellas. Cuando queremos resaltar el hecho de que la matriz M es un elemento de
un espacio vectorial, podemos referirnos a ella como, por ejemplo, ket número 4 o: |4i.
Como segundo ejemplo, considere todas las funciones f (x) definidas en un intervalo de 0 ≤ x ≤ L.
Definimos la multiplicación escalar por a simplemente como af (x) y la suma como la suma puntual:
la suma de dos funciones f y g tiene el valor f (x) + g(x) en el punto x. La función nula es cero en
todas partes y la inversa aditiva de f es −f .
Ejercicio 1.1.3. ¿Las funciones que desaparecen en los puntos finales x = 0 y x = L forman un
espacio vectorial? ¿Qué hay de las funciones periódicas que obedecen a f (0) = f (L)? ¿Qué hay de
las funciones que obedecen f (0) = 4? Si las funciones no califican, enumere las cosas que salen mal.
El siguiente concepto es el de la independencia lineal de un conjunto de vectores |1i, |2i, ..., |ni.
Considere primero una relación lineal de la forma:
n
X
ai |ii = |0i (1)
i=1
Podemos suponer sin pérdida de generalidad que el lado izquierdo no contiene ningún múltiplo de
|0i, ya que si lo hiciera, podrı́a desplazarse hacia la derecha y combinarse con el |0i allı́ para dar |0i
3
Apuntes Fı́sica cuántica
una vez más. (Estamos utilizando el hecho de que cualquier múltiplo de |0i es igual a |0i)
Definición 3
Se dice que el conjunto de vectores es linealmente independiente si la única relación lineal tal como
(1) es el trivial con todos ai = 0. Si el conjunto de vectores no es linealmente independiente, decimos
que son linealmente dependientes.
La ecuación (1) nos dice que no es posible escribir ningún miembro del conjunto linealmente indepen-
diente en términos de los demás. Por otro lado, si el conjunto de vectores es linealmente dependiente,
existirá tal relación, y debe contener al menos dos coeficientes distintos de cero. Digamos a3 6= 0.
Entonces podrı́amos escribir:
n
X −ai
|3i = |ii (2)
i=1,i6=3
a3
Ejercicio 1.1.4.
Considere tres elementos del espacio vectorial de matrices reales 2x2:
0 1 1 1 −2 −1
|1i = |2i = |2i =
0 0 0 1 0 −2
¿Son linealmente independientes? Apoye su respuesta con detalles. (Nótese que estamos llamando a
estos vectores de matrices y usando kets para representarlos para enfatizar su papel como elementos
de un espacio vectorial)
Ejercicio 1.1.5.
Demuestre que los siguientes vectores de fila son linealmente dependientes: (1, 1, 0), (1, 0, 1) y (3, 2, 1).
Muestra el opuesto de (1, 1, 0), (1, 0, 1) y (3, 1, 1).
4
Apuntes Fı́sica cuántica
Definición 4.
Un espacio vectorial tiene dimensión n si puede acomodar un máximo de n vectores linealmente
independientes. Se denotará por Vn (R) si el campo es real y por Vn (C) si el campo es complejo.
En vista de las discusiones anteriores, el plano es bidimensional y el conjunto de todas las flechas
no están limitadas al plano, definen un espacio vectorial tridimensional. ¿Cómo alrededor de 2x2
matrices? Forman un espacio vectorial de cuatro dimensiones. Aquı́ hay una prueba. Los siguientes
vectores son linealmente independientes:
1 0 0 1 0 0 0 0
|1i = |2i = |3i = |4i =
0 0 0 0 1 0 0 1
ya que es imposible formar combinaciones lineales de cualquiera de los tres para dar el cuarto, tres
de ellos tendrán un cero en el único lugar donde el cuarto no. Entonces el espacio es al menos en
cuatro dimensiones. ¿Podrı́a ser más grande? No, ya que cualquier matriz arbitraria 2 × 2 se puede
escribir en términos de ellos:
a b
= a|1i + b|2i + c|3i + d|4i
c d
Si los escalares a, b, c, d son reales, tenemos un espacio real de cuatro dimensiones; si son complejos,
tenemos un espacio de cuatro dimensiones complejo.
Teorema 1. Cualquier vector |V i en un espacio de n dimensiones se puede escribir como una
combinación lineal de n vectores linealmente independientes |1i...|ni.
La prueba es la siguiente: si hubiera un vector |V i para lo cual esto no fuera posible, se unirı́a al
conjunto dado de vectores y formarı́a un conjunto de n + 1 vectores linealmente independientes, lo
cual no es posible en un espacio n dimensiones por definición.
Definición 5 .
Definición 6.
Los coeficientes de expansión vi de un vector en términos de bases lineales independientes (|ii) se
llaman los componentes del vector en esa base.
Teorema 2.
La expansión en la ecuación (1) ni=1 ai |ii = |0i es único.
P
Supongamos que la expansión no es única. Entonces debemos tener una segunda expansión:
n
X
|V i = vi0 |ii (4)
i=1
5
Apuntes Fı́sica cuántica
ya que los vectores de base son linealmente independientes y solo puede existir una relación lineal
trivial entre ellos. Tenga en cuenta que, dados los fundamentos, los componentes son únicos, pero si
cambiamos la base, los componentes cambiarán. Nos referimos a |V i como el vector en el resumen,
teniendo una existencia propia y satisfaciendo varias relaciones que involucran otros vectores. Cuando
elegimos una base, los vectores adoptan formas concretas en términos de sus componentes y la relación
entre vectores es satisfecha por los componentes. Imagine, por ejemplo, tres flechas en el plano,
~ B,
A, ~ C~ que satisfagan A~ +B~ =C ~ según las leyes para agregar flechas. Hasta ahora no se ha elegido
ninguna base y no necesitamos una base para hacer la afirmación de que los vectores provienen de un
triángulo cerrado. Ahora elegimos una base y escribimos cada vector en términos de los componentes.
Los componentes satisfarán Ci = Ai +Bi con i = 1, 2. Si elegimos una base diferente, los componentes
~ a la suma de
cambiarán en valor numérico, pero la relación entre ellos que expresa la igualdad de C
los otros dos todavı́a se mantendrá entre el nuevo conjunto de componentes.
En el caso de vectores que no son flechas, para sumarlos en términos de componentes se procede
como en el caso elemental gracias a los axiomas.
X
|V i = vi |ii (7)
i
X
|W i = wi |ii (8)
i
X
|V i + |W i = (vi + wi )|ii (9)
i
donde hemos usado los axiomas para llevar a cabo la reagrupación de términos. Aquı́ está la con-
clusión: Para sumar dos vectores, sume sus componentes.
No hay ninguna referencia a tomar la cola de uno y ponerlo en la punta del otro, etc., ya que en
general los vectores no tienen cabeza ni cola. Por supuesto, si se trata de flechas, podemos agregarlas
usando la rutina de cola y punta o simplemente agregando sus componentes en una base.
De la misma manera, tenemos:
X X
a|V i = a vi |ii = avi |ii (10)
i i
en otras palabras, al multiplicar el vector por un escalar, se multiplica todas sus componentes por el
escalar.
Los ejemplos de matriz y función deben haberlo convencido de que podemos tener un espacio vectorial
sin una definición de longitud o dirección preasignada para los elementos. Sin embargo, podemos
inventar cantidades que tengan las mismas propiedades que las longitudes y los ángulos en el caso
de las flechas. El primer paso es definir un análogo sensible del producto escalar, porque en el caso
de las flechas, del producto escalar:
~B
A. ~ = |A||B|.cos θ (11)
6
Apuntes Fı́sica cuántica
~B
1.A. ~ = B.
~ A~ (simetrı́a)
~A
2. A. ~ > 0 si A
~=0 (semidefinidad positiva)
~ B
3. A(b ~ + cC)
~ = b.A.
~B ~ + cA.~C
~ (linealidad)
Queremos inventar una generalización llamada producto interno o producto escalar entre dos vectores
cualquiera |V i y |W i. Lo denotamos con el sı́mbolo hV |W i. Es una vez más un número (generalmente
complejo) que depende de los dos vectores. Exigimos que obedezca los siguientes axiomas:
- hV |W i = hW |V i∗ (simetrı́a oblicua)
- hV |V i > 0 0 iff |V i = |0i (semidefinidad positiva)
- hV |(a|W i + b|Zi) = hV |aW + bZi = ahV |W i + bhV |Zi (linealidad en ket)
Definición 7.
Tenga en cuenta que aún no hemos dado una regla explı́cita para evaluar realmente el producto
escalar, simplemente estamos exigiendo que cualquier regla que surja debe tener estas propiedades.
Con el objetivo de encontrar tal regla, familiaricémonos con los axiomas. La primera difiere de la
correspondiente para el producto escalar y hace que el producto interno sea sensible al orden de
los dos factores, y las dos opciones conducen a conjugados complejos. En un espacio vectorial real,
este axioma establece la simetrı́a del producto punto bajo el intercambio de los dos vectores. Por el
momento, notemos que este axioma asegura que hV |V i es real.
7
Apuntes Fı́sica cuántica
El segundo axioma dice que hV |V i no es solo real sino también semidefinido positivo, desapareciendo
solo si el vector también lo hace. Si vamos a definir la longitud del vector como la raı́z cuadrada de
su producto interno consigo mismo (como en el producto escalar), esta cantidad deberı́a ser real y
positiva para todos los vectores distintos de cero.
El último axioma expresa la linealidad del producto interno cuando aparece una superposición lineal
a|W i + b|Zi ≡ |aW + bZi como el segundo vector en el producto escalar. Hemos discutido su
validez para el caso de las flechas (Fig. 1.2). ¿Qué pasa si el primer factor en el producto es una
superposición lineal, es decir, qué es haW + bZ|V i? Esto está determinado por el primer axioma:
Definición 8.
Decimos que dos vectores son ortogonales o perpendiculares si su producto interno se desvanece.
p
Definición 9. Nos referiremos a hV |V i ≡ |V | como la norma o longitud del vector. Un vector
normalizado tiene una norma de unidad.
Definición 10. Un conjunto de vectores base, todos de la norma de la unidad, que son ortogonales
por pares se denominarán base ortonormal.
También nos referiremos con frecuencia al producto escalar o interno como el producto escalar.
Ahora estamos listos para obtener una fórmula concreta para el producto interno en términos de los
componentes. Dado |V i y |V i
X
|V i = |ii
i
X
|W i = |ji
j
8
Apuntes Fı́sica cuántica
Para ir más lejos, tenemos que saber hi|ji, es el producto interno entre vectores base. Estos dependen
de los detalles de los vectores de base y todo lo que sabemos con certeza es que son linealmente
independientes. Esta situación también existe para las flechas. Considere un problema bidimensional
donde los vectores de base son dos vectores linealmente independientes pero no perpendiculares. Si
escribimos todos los vectores en términos de esta base, el producto punto de cualquiera de ellos será
también una suma doble con cuatro términos (determinados por los cuatro posibles productos de
puntos entre los vectores de base), ası́ como también el vector componentes. Sin embargo, si usamos
una base ortonormal tal como î, ĵ, solo los términos diagonales como hi|ii sobrevivirán y obtendremos
el resultado familiar A~+B ~ = Ax Bx + Ay By dependiendo solo de los componentes.
Teorema 3 (Gram-Schmidt).
Dada una base lineal independiente, podemos formar combinaciones lineales de los vectores básicos
para obtener una base ortonormal.
Posponiendo la prueba por un momento, supongamos que el procedimiento ha sido implementado y
que la base actual es ortonormal:
1 si i = j
hi|ji = ≡ δij
0 si i 6= j
vi∗ wj hi|ji
P P
donde δij se llama el sı́mbolo delta Kronecker. agragando esto a la ecuación (14) hV |W i = i j
encontramos que la suma doble colapsa a una sola debido al delta Kronecker, para dar:
X
hV |W i = vi∗ wi (15)
i
Esta es la forma del producto interno que usaremos a partir de ahora. Ahora puedes apreciar el
primer axioma; pero para la compleja conjugación de los componentes del primer vector, hV |V i ni
siquiera serı́a real, por no mencionar positivo. Pero ahora está dado por
X
hV |V i = |vi |2 ≥ 0 (16)
i
y desaparece solo para el vector nulo. Esto hace que sea razonable referirse a hV |V i como la longitud
o la norma al cuadrado de un vector.
Considera la ecuación (15). Desde el vector |V i queda especificado de forma única por sus compo-
nentes en una base determinada, podemos, en esta base, escribirlo como un vector de columna:
v1
v2
|V i → ... en esta base (17)
vn
de igual forma
w1
w2
|W i → ... en esta base (18)
wn
9
Apuntes Fı́sica cuántica
El producto interno hV |W i viene dado por el producto matriz del conjugado de transposición del
vector de columna que representa |V i con el vector de columna representando |W i:
w1
w2
hV |W i = [v1∗ , v2∗ , · · · , vn∗ ] ... (19)
wn
Hay un punto técnico aquı́. El producto interno es un número que intentamos generar a partir de
dos kets |V i y |W i, que están representados por vectores de columna en alguna base. Ahora no hay
forma de hacer un número de dos columnas mediante la multiplicación directa de matrices, pero hay
una forma de hacer un número multiplicando la matriz de una fila por una columna. Nuestro truco
para producir un número de dos columnas ha sido asociar un vector de fila único con una columna
(su conjugado de transposición) y formar su producto de matriz con la columna que representa al
otro. Esto tiene la caracterı́stica de que la respuesta depende de cuál de los dos vectores vamos a
convertir a la fila, las dos opciones (hV |W i y hW |V i) que conducen a respuestas relacionadas por
conjugación compleja según el axioma l (h )
Pero uno también puede tomar la siguiente vista alternativa. Los vectores de columna son mani-
festaciones concretas de un vector abstracto |V i o ket en una base. También podemos trabajar hacia
atrás y pasar de los vectores de columna a los códigos abstractos. Pero también es posible traba-
jar hacia atrás y asociar con cada vector de fila un objeto abstracto hW |, llamado bra - W. Ahora
podemos nombrar bra como queramos, pero hagamos lo siguiente. Asociado con cada ket |V i hay
un vector de columna. Tomemos su adjunto, o transpongamos el conjugado, y formemos un vector
de fila. El bra abstracto asociado con esto llevará la misma etiqueta, es decir, se llamará hV |. Ası́,
hay dos espacios vectoriales, el ritmo de kets y un espacio dual de bras , con un ket para cada bra
y viceversa (los componentes están relacionados por la operación conjunta). Los productos internos
están realmente definidos solo entre bras y kets y, por lo tanto, a partir de elementos de dos espacios
vectoriales distintos pero relacionados. Hay una base de vectores |ii para expandir kets y una base
similar hi| para expandir bras. La base ket |ii está representada en la base que estamos usando por
un vector de columna con todos los ceros, excepto por un 1 en la i-ésima fila, mientras que la base
bra hi| es un vector de fila con todos ceros a excepción de un 1 en la i-ésima columna.
Todo esto puede resumirse de la siguiente manera
v1
v2
|V i ↔ ... ↔ [v1∗ , v2∗ , ..., vn∗ ] ↔ hV | (20)
vn
donde ↔ significa “dentro de una base”
en el caso de un espacio de vector general sin flecha:
• A los vectores todavı́a se les pueden asignar componentes en una base ortonormal, al igual que con
las flechas, pero estos pueden ser complejos.
• El producto
P ∗interno de dos vectores se da en términos de estos componentes por ecuación (15)
hV |W i = i vi wi . Este producto obedece a todos los axiomas.
10
Apuntes Fı́sica cuántica
Supongamos que deseamos expandir un vector |V i en una base ortonormal. Para encontrar los
componentes que entran en la expansión procedemos de la siguiente manera. Tomamos el producto
punto de ambos lados de la expansión asumida con |ji: (o hj| si eres un purista)
X
|V i = vi |ii (21)
i
X X
hj|V i = vi hj|ii = vi δij = vj (22)
i i
hj|V i = vj (23)
es decir, el para hallar el j-ésimo componente de un vector, tomamos el producto punto con el j-ésimo
vector unitario, exactamente como con las flechas. Usando este resultado, podemos escribir:
X
|V i = |iihi|V i (24)
i
Asegurémonos de que los vectores base se vean como deberı́an. Si establecemos |V i = |ji en la
ecuación (24), encontramos la respuesta correcta: el i-ésimo componente del j-ésimo vector base es
δij . Ası́, por ejemplo, la columna que representa el vector de base número 4 tendrá un 1 en la 4a fila
y cero en todos los demás. La relación abstracta:
X
|V i = vi |ii (25)
i
Hemos visto que podemos pasar de la columna que representa un ket a la fila que representa el bra
correspondiente por la operación conjunta, es decir, la conjugación de transposición. Preguntémonos
ahora: si hV | es el bra correspondiente al ket |V i ¿qué bra corresponde a a|V i donde a es un escalar?
Al ir cualquier base, se encuentra fácilmente que:
av1
av2
a|V i → ... → [a∗ v1∗ , a∗ v2∗ , ..., a∗ vn∗ ] → hV |a∗ (27)
avn
Es habitual escribir a |V i como |aV i y el correspondiente bra como haV |. Lo que hemos encontrado
es que:
haV | = hV |a∗ (28)
11
Apuntes Fı́sica cuántica
Dado que la relación entre bras y kets es lineal, podemos decir que si tenemos un ecuación entre kets
como:
a|V i = b|W i + c|Zi + ... (29)
esto implica otra entre los bras correspondientes:
Las dos ecuaciones anteriores se dice que son adjuntos uno del otro. Ası́ como cualquier ecuación
que involucre números complejos implica otra obtenida tomando los complejos conjugados de ambos
lados, una ecuación entre (bras) kets implica otra entre (kets) bras. Si piensas en una base, verás
que esto se sigue simplemente del hecho de que si dos columnas son iguales, también lo son sus
conjugados de transposición.
Aquı́ está la regla para tomar el adjunto:
Para tomar el adjunto de una ecuación lineal relacionada con kets (bras), reemplace cada ket (bra)
por su bra (ket) y conjugue complejo todos los coeficientes. Podemos extender esta regla de la
siguiente manera.
Supongamos que tenemos una expansión para un vector:
X
|V i = vi |ii (31)
i
es n
X
hV | = hV |iihi| (34)
i=1
Gram-Schmidt Theorem
Tomemos ahora el procedimiento de Gram-Schmidt para convertir una base linealmente indepen-
diente en una ortonormal. La idea básica se puede ver con un simple ejemplo. Imagine el espacio
bidimensional de flechas en un plano. Tomemos dos vectores no paralelos, que califican como base.
Para obtener una base ortonormal de estos, hacemos lo siguiente:
• Cambie la escala del primero por su propia longitud, por lo que se convierte en un vector
unitario. Este será el primer vector base.
• Reste del segundo vector su proyección a lo largo del primero, solo dejando atrás la parte
perpendicular a la primera. (Tal parte permanecerá ya que, por suposición, los vectores no son
paralelos).
12
Apuntes Fı́sica cuántica
• Cambie la escala del sobrante por su propia longitud. Ahora tenemos el segundo vector base:
es ortogonal al primero y a la longitud de la unidad.
Este simple ejemplo cuenta toda la historia detrás de este procedimiento, que ahora ser discutido en
términos generales en la notación de Dirac.
Si |Ii, |IIi, ... son una base linealmente independiente. El primer vector de la base ortonormal será:
|Ii p
|1i = donde |I| = hI|Ii (35)
|I|
claramente:
hI|Ii
h1|1i = =1 (36)
|I|2
como segundo vector base considere
Ahora dividimos |20 i por su norma para obtener |2i que será ortogonal al primero y normalizado a
la unidad. Finalmente, considere
que es ortogonal a |1i y |2i. Dividiendo por su norma obtenemos |3i, el tercer miembro de la base
ortogonal. No hay nada nuevo con la generación del resto de la base.
¿Dónde usamos la independencia lineal de la base original? ¿Qué pasarı́a si hubiésemos comenzado
con una base linealmente dependiente? Entonces, en algún momento, un vector como |20 i o |30 i se
habrı́a desvanecido, poniendo fin al proceso completo. Por otro lado, la independencia lineal nos
asegurará que tal cosa nunca sucederá ya que equivale a tener una combinación lineal no trivial de
vectores linealmente independientes que suma el vector nulo. (Regrese a las ecuaciones para |20 i o
|30 i y asegúrese de que estas son combinaciones lineales de los viejos vectores base).
Ejercicio 1.3.1.
Forme una base ortogonal en dos dimensiones comenzando con A~ = 3î + 4ĵ y B
~ = 2î − 6ĵ.
¿Puedes generar otra base ortonormal comenzando con estos dos vectores? Si es ası́, produce otro.
Ejercicio 1.3.2.
Mostrar como ir desde la base:
3 0 0
|Ii = 0
|IIi = 1
|IIIi = 2
0 2 5
a la base ortonormal
1 0√ 0√
|1i = 0
|2i = 1/√5 |3i = −2/√ 5
0 2/ 5 1/ 5
13
Apuntes Fı́sica cuántica
|V + W | ≤ |V | + |W | (40)
Se proporcionará la prueba de la primera para que pueda acostumbrarse a trabajar con bras y kets.
El segundo quedará como un ejercicio.
Antes de probar algo, observe que los resultados son obviamente verdaderos para las flechas: la
desigualdad de Schwarz dice que el producto escalar de dos vectores no puede exceder
el producto de sus longitudes y la desigualdad del triángulo dice que la longitud de una
suma no puede exceder la suma de las longitudes . Este es un ejemplo que ilustra los méritos
de pensar en vectores abstractos como flechas y adivinar qué propiedades podrı́an compartir con las
flechas. La prueba, por supuesto, tendrá que depender únicamente de los axiomas. Para probar la
desigualdad de Schwarz, considere el axioma 1 (i) aplicado a
hW |V i
|Zi = |V i − |W i (41)
|W |2
donde:
hW |V i hW |V i
hZ|Zi = hV − W |V − Wi
|W |2 |W |2
hW |V ihV |W i hW |V i∗ hW |V i hW |V i∗ hW |V ihW |W i
hZ|Zi = hV |V i − − + ≥0 (42)
|W |2 |W |2 |W |4
donde hemos utilizado la antilinealidad del producto interno con respecto a bra.
Utilizando
hW |V i = hV |W i∗
14
Apuntes Fı́sica cuántica
encontramos
hW |V ihW |V i
hV |V i > (43)
|W |2
Ejercicio 1.3.3 .
¿Cuándo se satisfará esta desigualdad? ¿Esto está de acuerdo con tu experiencia con las flechas?
Ejercicio 1.3.4.
Demuestre la desigualdad triangular comenzando con |V + W |2 . Debe usar RehV |W i ≤ |hV |W i| y
la desigualdad de Schwarz. Demuestre que la desigualdad final se convierte en una igualdad solo si
|V i = a|W i donde a es un escalar positivo real.
1.4. Subespacios
Definición 11.
Dado un espacio vectorial V, un subconjunto de sus elementos que forman un espacio vectorial entre
ellos (La suma de vectores y la multiplicación escalar se definen de la misma manera en el subespacio
que en V) se denomina subespacio. Denotaremos un subespacio particular i de dimensionalidad ni
como Vini .
Ejemplo 1.4.1.
En el espacio V3 (R), los siguientes son algunos ejemplos de subespacios:
(a) Todos los vectores a lo largo del eje x, forman el espacio Vx1 .
(b) Todos los vectores a lo largo del eje y, están en el espacio Vy1 .
2
(c) Todos los vectores en el plano xy, están en el espacio Vxy .
Observe que todos los subespacios contienen el vector nulo y que cada vector va acompañado de
su inverso para cumplir los axiomas de un espacio vectorial. Por lo tanto, el conjunto de todos los
vectores a lo largo del eje x positivo solo no forma un espacio vectorial.
Definición 12.
m mj
Dados dos subespacios Vini y Vj j , definimos su suma Vini ⊕ Vj = Vkmk como el conjunto que
contiene:
(1) todos los elementos de Vini ,
m
(2) todos los elementos de Vj j ,
(3) todas las posibles combinaciones lineales de las anteriores, pero para los elementos (3), se perderá
el cierre.
Ejemplo 1.4.2.
Si, por ejemplo, Vx1 ⊕ Vy1 contuviera solo vectores a lo largo de los ejes x e y, podrı́amos, agregando
dos elementos, uno de cada dirección, generar uno a lo largo de ninguno. Por otro lado, si también
incluimos todas las combinaciones lineales, obtendrı́amos la respuesta correcta, Vx1 ⊕ Vy1 = Vxy 2
15
Apuntes Fı́sica cuántica
Ejercicio 1.4.1
En un espacio Vn , compruebe que el conjunto de todos los vectores {|V⊥1 i, |V⊥2 i, ...} ortogonales a
6 |0i, forma un subespacio Vn−1 .
cualquier |V i =
Ejercicio 1.4.2.
Supongamos que Vn1 y Vn2 son dos subespacios, de modo que cualquier elemento de V1 es ortogonal a
cualquier elemento de V2 . Demuestre que la dimensionalidad de V1 ⊕ V2 es n1 + n2 (Pista: Teorema
6.)
Ω|V i = |V 0 i (44)
Uno dice que el operador Ω ha transformado el ket |V i en el ket |V 0 i. Restringiremos nuestra atención
a los operadores Ω que no nos saquen del espacio vectorial, es decir, si |V i es un elemento de un
espacio V, también lo es Ω|V i = |V 0 i.
Los operadores también pueden actuar en los bras:
hV 0 |Ω = hV 00 | (45)
Solo nos ocuparemos de los operadores lineales, es decir, los que obedezcan las siguientes reglas:
Ejemplo 1.5.1. El operador más simple es el operador de identidad, I, que lleva la instrucción:
[De manera más general, R(θ) representa una rotación con un ángulo θ = |θ| sobre el eje paralelo al
~
vector unitario θ̂ = θ/θ. Consideremos la acción de este operador en los tres vectores unitarios î, ĵ y
k̂, que en nuestra notación se denotarán con |1i, |2i y |3i (ver Fig. 1.3).
16
Apuntes Fı́sica cuántica
Ω|ii = |i0 i
para una base |1i, |2i, ..., |ni en Vn , luego para cualquier |V i = i vi |V i
P
X X X
Ω|V i = Ωvi |ii = vi Ω|ii = vi |i0 i (55)
i i i
donde |ΩV i es el ket obtenido por la acción de Ω on |V i. El orden de los operadores en un producto
es muy importante: en general,
ΩΛ − ΛΩ ≡ [Ω, Λ]
llamado el conmutador de Ω y Λ no es cero. Por ejemplo R( 21 πi) y R( 21 πj) no conmutan, es decir,
su conmutador es distinto de cero.
Dos identidades útiles que involucran conmutadores son
17
Apuntes Fı́sica cuántica
No todos los operadores tienen una inversa. La condición para la existencia de la inversa se da en
el Apéndice A.I.I El operador R( 21 πi) tiene una inversa: es R(− 12 πi). El inverso de un producto de
operadores es el producto de los inversos en reversa:
Cuando decimos que |i0 i es conocido, nos referimos a sus componentes en la base original
Ω|V i = |V 0 i
entonces los componentes del ket transformado |V 0 i son expresables en términos de Ωij y los compo-
nentes de |V 0 i:
X X
vi0 = hi|V 0 i = hi|Ω|V i = hi|Ω vj |ji = vj hi|Ω|ji
j j
18
Apuntes Fı́sica cuántica
X
vi0 = Ωij vj (63)
j
Un mnemónico: los elementos de la primera columna son simplemente los componentes del primer
0
vector base transformado |1 i = Ω|1i en la base dada. Del mismo modo, los elementos de la j-ésima
columna representan la imagen del j-ésimo vector base después de que Ω actúa sobre él.
Convéncete de que la misma matriz Ωij , actuando a la izquierda en el vector de fila correspondiente
a cualquier hv 0 | da el vector de fila correspondiente a hv 00 | = hv 0 |Ω.
Ejemplo 1.6.1.
Combinando nuestro mnemotécnico con el hecho de que el operador R( 12 πi) tiene el siguiente efecto
en los vectores de base:
1
R( πi)|1i = |1i
2
1
R( πi)|2i = |3i
2
1
R( πi)|3i = −|2i
2
podemos escribir la matriz que lo representa en la base |1i, |2i, |3i:
1 0 0
1
R( πi) ↔ 0 0 −1 (65)
2
0 1 0
Por ejemplo, el −1 en la tercera columna nos dice que R rota |3i en −|2i. Uno también puede ignorar
el mnemónico por completo y simplemente usar la definición Rij = hi|R|ji para calcular la matriz.
Ejercicio 1.6.1.
Un operador Ω, viene dado por la matriz
0 0 1
1 0 0
0 1 0
¿Cuál es su acción?
19
Apuntes Fı́sica cuántica
Consideremos ahora ciertos operadores especı́ficos y veamos cómo aparecen en forma de matriz.
1) El operador de identidad I.
Por lo tanto, I está representado por una matriz diagonal con 1 a lo largo de la diagonal. Deberı́a
verificar que nuestro mnemónico le da el mismo resultado.
2) Los operadores de proyección.
Primero, conozcamos a los operadores de proyección. Considere la expansión de un ket arbitrario
|V i en una base:
n
X
|V i = |iihi|V i
i=1
En términos de los objetos |iihi|, que son operadores lineales, y que, por definición, actúan en |V i
para dar |iihi|V i, podemos escribir lo anterior como:
n
X
|V i = |iihi| |V i (67)
i=1
Desde (67) es verdadero para todos |V i, el objeto entre paréntesis debe identificarse con la identidad
(operador)
Xn n
X
I= |iihi| = Pi (68)
i=1 i=1
El objeto Pi = |iihi| se llama operador de proyección para ket |ii. La ecuación (68), que se llama
relación de completitud, expresa la identidad como una suma de operadores de proyección y serán
invaluables para nosotros. (Si cree que el tiempo dedicado a la identidad, que parece no hacer nada,
es una pérdida de tiempo, solo espere y vea).
Considere
Pi |V i = |iihi|V i = |iivi (69)
Claramente Pi , es lineal. Tenga en cuenta que lo que sea |V i es, Pi |V i es un múltiplo de |ii con
un coeficiente (vi ) que es el componente de |V i a lo largo de |ii. Como Pi proyecta el componente
de cualquier ket |V i a lo largo de la dirección |ii, se llama operador de proyección. La relación de
completitud (68),dice que la suma de las proyecciones de un vector a lo largo de todas las direcciones
n es igual al vector en sı́. Los operadores de proyección también pueden actuar sobre bras de la
misma manera:
El siguiente ejemplo de óptica puede arrojar algo de luz sobre la discusión. Considere un haz de
luz que se desplaza a lo largo del eje z y se polariza en el plano xy con un ángulo θ con respecto al
eje (figura 1.4). Si un polarizador Py , que solo admite luz polarizada a lo largo del eje y, se coloca
20
Apuntes Fı́sica cuántica
Pasemos ahora a los elementos de la matriz de Pi . Hay dos enfoques, el primero, algo indirecto, nos
da una idea de qué tipo de objeto es |iihj|.
Sabemos:
0
0
0
.
|ii ↔ ..
1
.
..
0
y
hi| ↔ (0, 0, ..., 0, 0, ..., 0)
lo que corresponde a:
0 0 ... 0
0 ...
0
0
. .
.
|iihi| ↔ . (0, 0, ..., 0, 0, ..., 0) = ..
1
(72)
1
.
0
.. ..
.
0 0 0
21
Apuntes Fı́sica cuántica
que |V ihV 0 |, a veces llamado el producto externo, tiene los dos factores mirando hacia otro lado para
un bra o un ket con puntos.
El enfoque más directo a los elementos de la matriz da
que es, por supuesto, idéntico a la ecuación (72). El mismo resultado también se sigue de mnemotécnico.
Cada operador de proyección tiene solo un elemento de matriz que no Pnse desvanece,Pnun 1 en el ele-
mento i-ésimo en la diagonal. La relación de completitud, (68) I = i=1 |iihi| = i=1 Pi , dice que
cuando se agregan todos los Pi , la diagonal se llena para dar la identidad. Si formamos la suma
sobre solo algunos de los operadores de proyección, obtenemos el operador que proyecta un vector
dado en el subespacio abarcado por solo los vectores de base correspondientes.
X
(ΩΛ)ij = hi|Ω|kihk|Λ|ji
k
X
(ΩΛ)ij = Ωik Λkj (74)
k
Por lo tanto, la matriz que representa el producto de los operadores es el producto de las matrices
que representan los factores.
El adjunto de un operador
Recuerde que dado un ket α|V i ≡ |αV i el correspondiente bra es:
Ω|V i = |ΩV i
el bra correspondiente es:
de manera que:
Ω†ij = Ω∗ji (76)
22
Apuntes Fı́sica cuántica
(ΩΛ)† = Λ† Ω† (77)
Para probar esto consideramos hΩΛV |. Primero tratamos ΩΛ como un operador y obtenemos:
Comparando este resultado con el obtenido unas pocas lı́neas arriba, obtenemos el resultado deseado.
Considere ahora una ecuación que consta de kets, escalares y operadores, tales como:
hV1 α1∗ = hV2 |α2∗ + hV5 |V4 ihV3 |α3∗ + hΩΛV6 |α4∗
hV1 α1∗ = hV2 |α2∗ + hV5 |V4 ihV3 |α3∗ + hV6 |Λ† Ω† α4∗ (79)
La regla final para tomar el adjunto de la ecuación más general que tendremos que encontrar es :
Cuando se encuentra un producto de operadores, bras, kets y coeficientes numéricos explı́citos,
invierta el orden de todos los factores y realice las sustituciones Ω ↔ Ω† , |i ↔ h|, α ↔ α∗
(Por supuesto, no existe una necesidad real de revertir la ubicación de los escalares α, excepto en
aras de la uniformidad).
Ahora dirigimos nuestra atención a ciertas clases especiales de operadores que jugarán un papel
importante en la mecánica cuántica.
Definición 13. Un operador Ω es hermı́tico si Ω† = Ω.
Definición 14. Un operador Ω es antihermı́tico si Ω† = −Ω.
23
Apuntes Fı́sica cuántica
El adjunto es para un operador lo que el conjugado complejo es para los números. Los operadores
hermitianos y antihermitianos son como números imaginarios puros y reales puros. Ası́ como cada
número puede descomponerse en una suma de partes imaginarias puras y reales puras,
α + α∗ α − α∗
α= +
2 2
podemos descomponer a cada operador en sus partes hermitiana y antihermitiana:
Ω + Ω† Ω − Ω†
Ω= + (80)
2 2
Ejercicio 1.6.2 Dado Ω y Λ Hermı́ticos ¿qué puedes decir sobre (1) ΩΛ;(2) ΩΛ + λΩ; (3) [Ω, Λ]; y
(4) i[Ω, Λ]?
UU† = I (81)
Esta ecuación nos dice que U y U † son inversas entre sı́. En consecuencia, de la ecuación (59)
ΩΩ−1 = Ω−1 Ω = I,
U †U = I (82)
Siguiendo la analogı́a entre operadores y números, los operadores unitarios son como números com-
plejos de módulo uno, u = eiθ . Igual que u∗ u = 1, también lo es U † U = I
Teorema 7. Los operadores unitarios conservan el producto interno entre los vectores sobre los que
actúan.
Prueba:
|V10 i = U |V1 i
y
|V20 i = U |V2 i
entonces:
hV20 |V10 i = hU V2 |U V1 i
hV20 |V10 i = hV2 |U † U |V1 i
hV20 |V10 i = hV2 |V1 i (83)
Los operadores unitarios son las generalizaciones de los operadores de rotación de V3 (R) a Vn (C),
ya que al igual que los operadores de rotación en tres dimensiones, conservan la longitud de los
vectores y sus productos punto. De hecho, en un espacio vectorial real, la condición de unitariedad
se convierte en U −1 = U T (T significa transposición), que define una matriz ortogonal o de rotación.
[R( 21 πi) es un ejemplo.]
24
Apuntes Fı́sica cuántica
Teorema 8. Si uno trata las columnas de una matriz unitaria n × n como componentes de n
vectores, estos vectores son ortonormales. De la misma manera, las filas se pueden interpretar como
componentes de n orthonormal vectores.
Prueba 1.
De acuerdo con nuestra mnemotécnica, la columna de la matriz que representa U es la imagen
del vector de la base j-ésima después de que U actúe sobre ella. Como U conserva los productos
internos, el conjunto rotado de vectores también es ortonormal. Considera a continuación las filas.
Ahora usamos el hecho de que U † es también una rotación. (¿De qué otra forma puede neutralizar
U para dar U † U = I?) Dado que las filas de U son las columnas de U † (pero para una conjugación
compleja global que no afecta la cuestión de la ortonormalidad), el resultado que ya tenemos para
las columnas de una matriz unitaria que nos dice que las filas de U son ortonormales.
Prueba 2.
ya que U † U = I,
δij = hi|I|ji = hi|U † U |ji
X
δij = hi|U † |kihk|U |ii
k
X †
X
∗
δij = Uik Ukj = Uki Ukj (84)
k k
que demuestra el teorema de las columnas. Un resultado similar para las filas se da si comenzamos con
la ecuación U U † = I. Tenga en cuenta que U † U = I y U U † = I no son condiciones independientes.
Ejercicio 1.6.4.
Se supone que usted sabe (1) qué es un determinante, (2) que det ΩT = det Ω (T denota trans-
posición), (3) que el determinante de un producto de matrices es el producto de los determinantes.
[Si no lo hace, verifique estas propiedades para un caso bidimensional
α β
Ω=
γ δ
con det Ω = (αδ)−(βγ) Demostrar que el determinante de una matriz unitaria es un número complejo
de módulo de unidad.
Ejercicio 1.6.5.
Verifique que R( 12 πi) sea unitario (ortogonal) examinando su matriz.
Ejercicio 1.6.6.
Verifique que las siguientes matrices sean unitarias:
1 1 i 1 1+i 1−i
,
21/2 i 1 2 1−i 1+i
Verifique que el determinante sea de la forma eiθ en cada caso. ¿Alguna de las matrices anteriores
es hermı́tica?
25
Apuntes Fı́sica cuántica
|V i → U |V i (85)
Bajo esta transformación, los elementos de la matriz de cualquier operador Ω se modifican como
sigue:
hV 0 |Ω|V i → hU V 0 |Ω|U V i = hV 0 |U † ΩU |V i (86)
Está claro que el mismo cambio se verı́a afectado si dejáramos los vectores solos y sometiéramos a
todos los operadores al cambio.
Ω → U † ΩU (87)
El primer caso se llama transformación activa y el segundo una transformación pasiva. La presente
nomenclatura se refiere a los vectores: se ven afectados en una transformación activa y se los deja solos
en el caso pasivo. La situación es exactamente la opuesta desde el punto de vista de los operadores.
Más adelante veremos que la fı́sica en la teorı́a cuántica reside en los elementos de matriz de los
operadores, y que las transformaciones activas y pasivas nos proporcionan dos formas equivalentes
de describir la misma transformación fı́sica.
Ejercicio 1.7.1.
La traza de una matriz se define como la suma de sus elementos de matriz diagonal.
X
Tr Ω = Ωii
i
Muestre que:
(1) - T r(ΩΛ) = T r(ΛΩ)
(2) - T r(ΩΛΘ) = T r(ΛΘΩ) = T r(ΘΩΛ) (Las permutaciones son cı́clicas).
(3) La traza de un operador no se ve afectado por un cambio de base unitario |ii → U |ii [Equiva-
lentemente, muestre Tr Ω = Tr(U † ΩU ).]
Ejercicio 1.7.2.
Demuestre que el determinante de una matriz no se ve afectado por un cambio de base unitario.
[Equivalentemente muestre det Ω = det(U † ΩU )]
Considere la posibilidad de que un operador lineal Ω actúe sobre un ket arbitrario distinto de cero
|V i:
Ω|V i = |V 0 i (88)
A menos que el operador resulte ser trivial, como la identidad o su múltiple, ket sufrirá un cambio
no trivial, es decir, |V 0 i no estará simplemente relacionado con |V i. Tanto para un ket arbitrario.
Cada operador, sin embargo, tiene ciertos kets propios, llamados autokets, en los cuales su acción
es simplemente la de reescalar:
Ω|V i = ω|V i (89)
26
Apuntes Fı́sica cuántica
Ejemplo 1.8.1.
Para ilustrar cuán fácil es en realidad el problema de autovalores, comenzaremos con un caso que
estará completamente resuelto: el caso Ω = I. Ya que
I|V i = |V i
para todos |V i, concluimos que:
1) el único autovalor de I es 1;
2) todos los vectores son sus autovectores con este autovalor
Ejemplo 1.8.2.
Después de este éxito no calificado, nos animamos a asumir un caso un poco más difı́cil: Ω = PV , el
operador de proyección asociado con un ket normalizado |V i. Claramente:
1) cualquier ket α|V i, paralelo a |V i es un autovector con autovalor 1:
Ejemplo 1.8.3.
Considere ahora el operador R( 21 πi). Ya sabemos que tiene un autovector, el vector base |1i a lo
largo del eje x:
1
R( πi)|1i = |1i
2
¿Hay otros? Por supuesto, cualquier vector α|1i a lo largo del eje x tampoco se ve afectado por la
rotación de x. Esta es una caracterı́stica general de la ecuación autovalor y refleja la linealidad del
operador:
Si
Ω|V i = ω|V i
27
Apuntes Fı́sica cuántica
entonces
para cualquier múltiplo de α. Como la ecuación autovalores corrige el autovector solo hasta un
factor de escala global, no trataremos los múltiplos del autovector como autovectores distintos. Con
este entendimiento en mente, preguntémonos si R( 21 πi) tiene autovectores además de |1i. Nuestra
intuición dice que no, porque cualquier vector que no esté a lo largo del eje x necesariamente se gira
por R( 12 πi) y no puede transformarse en un múltiplo de sı́ mismo. Como cada vector es paralelo a
|1i o no, hemos resuelto completamente el problema del autovalor. ¡El problema con esta conclusión
es que está mal! R( 12 πi) tiene otros dos autovectores además de |1i. Pero no debemos culpar a
nuestra intuición, ya que estos vectores están en V3 (C) y no V3 (R). A partir de este ejemplo, resulta
claro que necesitamos un método confiable y sistemático para resolver el problema de autovalores
en V n (C). Ahora dirigimos nuestra atención a esta misma pregunta.
cof actorM T
M −1 = (92)
det M
Ahora el cofactor de M es finito si M lo es. Por lo tanto, lo que necesitamos es la desaparición del
determinante. La condición para autovectores distintos de cero es por lo tanto
hi|Ω − ωI|i = 0
28
Apuntes Fı́sica cuántica
se llama el polinomio caracterı́stico. Aunque el polinomio se determina en una base particular, los
autovalores, que son sus raı́ces, son independientes de la base, ya que están definidos por la ecuación
abstracta (90) (Ω − ωI)|V i = |0i, que no hace referencia a ninguna base. Ahora, un resultado
fundamental en el análisis es que cada polinomio de n-orden tiene n raı́ces, no necesariamente distintas
y no necesariamente reales. Por lo tanto, cada operador en Vn (C) tiene n autovalores. Una vez que se
conocen los autovalores, se pueden encontrar los autovectores, al menos para operadores hermı́ticos
y unitarios, utilizando un procedimiento ilustrado por el siguiente ejemplo. [Los operadores con
Vn (C) que no sean de la variedad anterior pueden no tener n autovectores -vea el Ejercicio 1.8.4.-
Los teoremas 10 y 12 establecen que los operadores hermı́ticos y unitarios en Vn (C) tendrán n
autovectores.]
Ejemplo 1.8.4.
Usemos las técnicas generales desarrolladas anteriormente para encontrar todo los autovectores y
autovalores de R( 21 πi). Recuerde que la matriz que lo representa es:
1 0 0
1
R( πi) ↔ 0 0 −1
2
0 1 0
29
Apuntes Fı́sica cuántica
es aceptable, como se esperaba. Es convencional usar la libertad en escala para normalizar los au-
tovectores. Por lo tanto, en este caso, una elección es:
1
|ω = 1i = |1i = 0
0
Digo una elección, y no la elección, ya que el vector se puede multiplicar por una unidad de módulo
sin cambiar la norma. No existe una convención universalmente aceptada para eliminar esta libertad,
excepto tal vez para elegir el vector con componentes reales cuando sea posible. Tenga en cuenta que
de las tres ecuaciones simultáneas anteriores, la primera no es una ecuación real. En general, solo
habrá (n − 1) ecuaciones LI. Esta es la razón por la cual la norma del vector no está fija y, como se
muestra en el (Apéndice A.I), la razón por la cual el determinante desaparece.
Considere a continuación las ecuaciones correspondientes a ω = i. Los componentes del vector propio
obedecen a las ecuaciones:
En el ejemplo anterior, hemos introducido una convención popular: etiquetar los autovectores por
el autovalor. Por ejemplo, el ket correspondiente a ω = ωi es etiquetado |ω = ωii o simplemente
ωi . Esta notación supone que por cada ωi , solo hay un vector etiquetado por este. Aunque este no
es siempre el caso, solo será necesario un ligero cambio en esta notación para cubrir el caso general.
El fenómeno de un único autovalor que representa más de un autovector se llama degeneración y
corresponde a raı́ces repetidas para el polinomio caracterı́stico. En vista de la degeneración, debemos
modificar no solo el etiquetado, sino también el procedimiento utilizado en el ejemplo anterior para
obtener los vectores propios. Imagine que en lugar de R( π2 i) estuviéramos tratando con otro operador
Ω en V3 (R) con raı́ces ω1 y ω2 = ω3 . Parece que podemos obtener dos autovectores, por el método
descrito anteriormente, uno para cada ω distinto. ¿Cómo obtenemos un tercero? ¿O no hay tercero?
Estas ecuaciones se responderán con toda generalidad en breve cuando examinemos la cuestión de
la degeneración en detalle. Ahora dirigimos nuestra atención a dos teoremas centrales sobre los
operadores hermı́ticos. Estos juegan un papel vital en la mecánica cuántica.
30
Apuntes Fı́sica cuántica
ω = ω∗
Teorema 10. Para cada operador hermı́tico ω, existe (al menos) una base que consiste en sus
autovectores ortonormales. Es diagonal en esta base propia y tiene sus autovalores como entradas
diagonales.
Prueba.
Comencemos con la ecuación caracterı́stica. Debe tener al menos una raı́z, llámalo ω1 . Correspon-
diente a ω1 debe existir al menos un vector propio distinto de cero |ω1 i. [Si no, el Teorema (AII)
n−1
implicarı́a que (Ω−ω1 I) es invertible.] Considere el subespacio V⊥1 de todos los vectores ortogonales
a ω1 . Elijamos como base el vector |ω1 i (normalizado a la unidad) y cualquier vector n − 1 vectores
1 2 n−1 n−1
ortonormales {V⊥1 , V⊥1 , . . . , V⊥1 } en V⊥i . En esta base Ω tiene la siguiente forma:
(99)
La primera columna es solo la imagen de |ω1 i después de que Ω ha actuado en ella. Dada la primera
columna, la primera fila se sigue de la Hermiticidad de Ω. La ecuación caracterı́stica ahora toma la
forma
31
Apuntes Fı́sica cuántica
Como cada |ωi i se eligió de un espacio que era ortogonal a los anteriores, |ω1 i, |ω2 i, ..., |ωi−1 i; la base
de los vectores propios es ortonormal. (Aviso que en ninguna parte tenı́amos que suponer que los
valores propios eran todos distintos).
[La analogı́a entre números reales y operadores hermitianos se ve reforzada por el hecho de que en
cierta base (de vectores propios) el operador hermitiano puede ser representado por una matriz con
todos los elementos reales.]
Al establecer el teorema 10, se indicó que podrı́a existir más de una base de vectores propios que
diagonalizaran Ω. Esto sucede si hay alguna degeneración. Supongamos que ω1 = ω2 = ω. Entonces
tenemos dos vectores ortonormales que obedecen:
Ω|ω1 i = ω|ω1 i
Ω|ω2 i = ω|ω2 i
Resulta que
para cualquier α y β. Como los vectores |ω1 i y |ω2 i son ortogonales (y por lo tanto LI), encontramos
que hay un subespacio bidimensional completo abarcado por |ω1 i y |ω2 i, los elementos de los cuales
son vectores propios de Ω con valor propio ω. Uno se refiere a este espacio como un espacio propio de
Ω con valor propio ω. Además de los vectores |ω1 i y |ω2 i, existe una infinidad de pares ortonormales
|ω10 i, |ω20 i obtenidos por una rotación rı́gida de |ω1 i y |ω2 i a partir de la cual podemos seleccionar
cualquier par para formar la base propia de Ω.
En general, si un valor propio ocurre mi veces, es decir, si la ecuación caracterı́stica tiene mi de
sus raı́ces igual a algunos ωi , habrá un espacio propio Vωmii ; de donde podemos elegir cualquier mi ,
vectores ortonormales para formar la base referida en el Teorema 10.
En ausencia de degeneración, podemos probar el Teorema 9 y 10 muy fácilmente. Comencemos con
dos vectores propios:
32
Apuntes Fı́sica cuántica
33