Está en la página 1de 51

Captulo 1

Espacios vectoriales
En este captulo vamos a definir un espacio vectorial real de dimension finita desde
un punto de vista abstracto. De hecho, a lo largo de esta seccion utilizaremos la notacion
de Dirac para vectores, con la finalidad de que el lector se familiarice con esta notacion que
es utilizada con frecuencia en diversas areas de la fsica. Con este uso de notacion ademas
se preparara al lector para introducirse en espacios vectoriales de dimension infinita no
necesariamente reales. Muchos de los resultados que se discutiran por lo tanto seran validos
en casos mas generales.

1.1.

Espacios vectoriales

Empecemos definiendo el concepto de espacio vectorial sobre el campo de los complejos.


Definici
on 1.1.1. Un espacio vectorial V sobre el campo de los complejos C
es un conjunto de objetos, los cuales denotaremos por |ai, |bi o |xi y seran llamados
vectores, que satisfacen las siguientes propiedades:
1. A cada par de vectores |ai, |bi 2 V les corresponde un vector |ai + |bi tambien
contenido en V, al que llamaremos suma de |ai con |bi, tal que,
I) |ai + |bi = |bi + |ai,

II) |ai + (|bi + |ci) = (|ai + |bi) + |ci,


3

Espacios Vectoriales
III) Existe un u
nico vector |0i 2 V, llamado vector cero, tal que |ai + |0i = |ai para
cualquier vector |ai 2 V.
IV) A cada vector |ai 2 V le corresponde un u
nico vector
en el espacio vectorial V tal que |ai + ( |ai) = |0i.

|ai tambien contenido

2. Para cada n
umero complejo 2 C (tambien denominado escalar) y cada vector
|ai 2 V les corresponde un vector |ai 2 V tal que
V) Si

2 C es otro escalar, entonces ( |ai) = ( )|ai

VI) 1|ai = |ai.

3. La multiplicacion de escalares con vectores es distributiva:


VII) (|ai + |bi) = |ai + |bi.

VIII) ( + )|ai = |ai + |bi.

El espacio vectorial que hemos definido a traves de las propiedades 1, 2, y 3 se le suele


llamar espacio vectorial complejo. Esta definicion se puede modificar sustituyendo el
campo de los complejos C por el campo de los reales R. En este caso diremos que el
espacio vectorial V es un espacio vectorial real.
Ejemplo 1.1.1. A continuacion se describen varios espacios que son espacios vectoriales y se dan algunos ejemplos de espacios que no lo son.

1. R es un espacio vectorial sobre el campo de los reales R. Es claro entonces que las
propiedades 1, 2 y 3 de la definicion 1.1.1 se satisfacen automaticamente por las
propiedades de los n
umeros reales.
2. R es un espacio vectorial sobre el campo de los reales R. De manera completamente
analoga al caso anterior se puede verificar que se cumplen las propiedades 1,2 y 3
de la definicion 1.1.1 por las propiedades de los n
umeros complejos.
3. R es no un espacio vectorial sobre el campo de los complejos C. Si x, y 2 R,
denotaremos los correspondientes vectores por |xi y |yi respectivamente. Si es
un escalar entonces |xi = x es un n
umero complejo. Esto quiere decir que |xi
no pertenece al espacio vectorial R pues no es un n
umero real. Esto indica que la
propiedad 2 de la definicion 1.1.1 no se satisface.
4. Denotese por P c [x] el conjunto de los polinomios con coeficientes complejos con
variable x. Entonces Pnc [x] es un espacio vectorial sobre el campo de los complejos.
En este caso la suma de vectores se toma como la suma ordinaria entre polinomios
y la multiplicacion por escalares como la multiplicacion ordinaria entre polinomios
y n
umeros complejos:

Espacios Vectoriales

P
P
n
n
a) Suma de vectores: sea |ai = 1
sea |bi = 1
n=0 an x y P
n=0 bn x . Entonces la
1
suma |ai + |bi es un polinomio, |ai + |bi = n=0 (an + bn )xn . Se puede verifica
sin problema los puntos I), II), III) y IV) de la definicion 1.1.1. Para el punto
III), el vector cero es el polinomio con todos sus coeficientes iguales a cero:
|0i = 0.

b) P
Multiplicacion por escalares. Si es un escalar (un n
umero complejo) y |ai =
1
n
a
x
es
un
vector,
entonces
|ai
sigue
siendo
un vector en Pnc [x] pues
n=0 nP
1
|ai = n=0 an xn es un polinomio con coeficientes complejos. Esto verifica
el punto V). El escalar 1 + 0i = 1 2 C es tal que 1 |ai = |ai para cualquier
polinomio |ai. Esto verifica el punto VI).
c) Finalmente la propiedad distributiva entre vectores y escalares se verifica directamente de la propiedad distributiva entre n
umeros complejos y polinomios
con coeficientes complejos.

5. Denotese por P r [x] el conjunto de los polinomios con coeficientes reales con variable
x. En este caso, Pnr [x] no es un espacio
sobre el campo de los complejos.
Pvectorial
1
n
De hecho, si es un escalar
y
|ai
=
a
x
es
un polinomio con coeficientes
n=0 n
P1
n
reales, entonces |ai = n=0 an x resulta ser un polinomio con coeficientes complejos. Esto quiere decir que |ai 62 Pnr [x], y po lo tanto falla el punto 2 de la
definicion 1.1.1.
6. El conjunto de las matrices complejas de tama
no m n, Mmn es un espacio
vectorial sobre el campo de los complejos con la suma vectorial definida como la suma
ordinaria entre matrices y la multiplicacion por escalares como la multiplicacion
ordinaria entre matrices y n
umeros complejos.
7. El conjunto de las funciones reales C 1 , que poseen derivadas de todos los ordenes
y estan definidas sobre el intervalo (a, b) (con a < b 2 R), es un espacio vectorial
sobre el campo de los reales. La suma entre vectores definida como la suma ordinaria
entre dos funciones y el producto por escalares definido como el producto ordinario
entre una funcion y un n
umero real.

Podemos entonces apreciar como la existencia de un espacio vectorial real o complejo dependen mucho de la naturaleza de los vectores as como de la de los escalares. A
continuacion vamos a definir una serie de conceptos que son importantes en el estudio de
espacios vectoriales tales como las nociones de independencia lineal, subespacios vectoriales o base de un espacio vectorial. En lo que sigue vamos a suponer que el campo sobre
el que se define el espacio vectorial es el de los complejos C aunque las definiciones son
validas en general cuando se define el espacio vectorial sobre cualquier campo, como el de
los reales R.

Espacios Vectoriales

Definici
on 1.1.2. Decimos que un conjunto de vectores |a1 i, |a2 i, . . . , |an i son
linealmente independientes si la igualdad,
n
X
j=0

j |aj i = 0

con

implica que j = 0 para todo 1 j n. La suma


lineal del conjunto de vectores {|aj i}nj=0

j 2 C,
Pn

j=0

j |aj i se le llama combinaci


on

Definici
on 1.1.3. Sea V un espacio vectorial. Decimos que un subconjunto no
vaco W de V es un subespacio de V si para cualesquiera dos vectores |ai, |bi contenidos
en W se tiene que la combinacion lineal |ai + |bi tambien es un vector en W para
cualesquiera , 2 C.
La siguiente proposicion nos dice que un subespacio es en s mismo un espacio
vectorial y mas a
un, que la interseccion de dos subespacios de un espacio vectorial es un
subespacio. Este resultado se puede utilizar para saber si un subconjunto de un espacio
vectorial es un espacio vectorial, pues solo necesitamos verificar la condicion establecida
en la definicion 1.1.3. Su demostracion se deja como ejercicio para el lector.
Proposici
on 1.1.1. Un subespacio W de un espacio vectorial V es un es un
espacio vectorial. La interseccion de dos subespacios de un mismo espacio vectorial es un
subespacio.
El siguiente teorema nos da una va para definir un subespacio a partir de cualquier
conjunto de vectores.
Teorema 1.1.1. Sea S un conjunto no vaco de vectores de un espacio vectorial
V. Sea WS el conjunto definido como la coleccion de todas las combinaciones lineales de
vectores en S. Entonces WS es un subespacio. Decimos que WS es la prolongaci
on de
S por combinaciones lineales o bien que WS el espacio prolongado o generado por el
conjunto de vectores S y denotaremos esta accion como WS = span{S}
Demostracion. Sean |ai, |bi 2 WS . Puesto que |ai y |bi son combinaciones lineales de
vectores en S entonces podemos escribir,
X
|ai =
j |aj i,
|aj i2S

|bi =

|bj i2S

j |bj i,

Espacios Vectoriales
donde

j, j

2 C. Entonces si consideramos la combinacion lineal |ai + |bi es tal que,


|ai + |bi =
=

j |aj i

|aj i2S

|aj i,|bj i2S

|bj i2S

( j |aj i +

j |bj i

j |bj i) .

(1.1)

De lo anterior podemos apreciar que |ai + |bi resulta ser tambien una combinacion
lineal de vectores contenidos en S para cualesquiera , 2 C.

Definici
on 1.1.4. Decimos que un conjunto de vectores B de un espacio vectorial
V es una base de V si se cumple que: i) los vectores en B son linealmente independientes
y ii) que todo el espacio vectorial V es la prolongacion de B por combinaciones lineales,
es decir, span{B} = V. Si un espacio vectorial tiene una base finita entonces decimos que
el espacio vectorial tiene dimenci
on finita y en caso contrario diremos que el espacio
es de dimensi
on infinita.
Teorema 1.1.2. Sea V un espacio vectorial de dimension finita. Entonces cualquier base de V tiene siempre la misma cardinalidad, es decir cualquier base escogida tiene
siempre la misma cantidad de vectores. A dicho n
umero le daremos el nombre de dimensi
on del espacio vectorial. Un espacio vectorial de dimension N se denotara algunas veces
como VN para enfatizar que se trata de un espacio de dimension finita de tama
no N .
Los espacios vectoriales que ya nos son familiares como R2 o R3 tenemos una nocion
intuitiva de lo que denominamos base: una base nos proporciona una manera u
nica de
representar un vector en dichos espacios. Nuestra generalizacion de base en espacios vectoriales abstractos en el sentido de las definiciones dadas nos permite alcanzar la misma
conclusion al menos para el caso de espacios vectoriales de dimension finita.
Proposici
on 1.1.2. Sea VN un espacio vectorial de dimension finita y sea B :=
{|aj i}N
una
base
de VN . Entonces cualquier para vector |ai 2 VN existe un u
nico conj=1
N
junto de escalares {j }j=1 tal que
|ai =

N
X
j=1

j |aj i.

A los elementos de dicho conjunto de escalares se le denomina componentes de |ai


respecto a la base B.

Espacios Vectoriales

Finalmente cabe a
nadir que si tomamos el espacio generado por un subconjunto de
m < N vectores de una base B = {|aj i}N
j=1 de un espacio vectorial Vn , obtenemos un
espacio vectorial que es un subespacio de VN .
Ejemplo 1.1.2. A continuacion daremos algunos ejemplos de subespacios de espacios vectoriales.
1. Considerese el espacio vectorial C sobre el campo de los reales. Entonces el conjunto
de n
umeros complejos con parte imaginaria identica a cero R C es un subespacio
de C.
2. En cambio, si el espacio vectorial C se define sobre el campo de los complejos C
entonces el conjunto de n
umeros complejos con parte imaginaria identica a cero
R C no es un subespacio de C.
3. El conjunto de polinomios de orden n con coeficientes complejos, al que denotaremos
por Pnc [x] es un subespacio dePP c [x]. En efecto,Pdados , 2 C arbitrarios y dos
polinomios de orden n, |ai = nj=0 aj xj y |bi = nj=0 bj xj , entonces es claro que la
P
combinacion lineal de polinomios |ai + |bi = nj=0 (aj + bj )xj es un polinomio
de orden n. Entonces |ai, |bi 2 Pnc [x] implica que |ai + |bi 2 Pnc [x] lo que muestra
que Pnc [x] es un subespacio de P c [x]. Esto a su vez muestra, por la proposicion 1.1.1
se sigue que P c [x] es un espacio vectorial sobre el campo de los complejos.
4. El conjunto de los reales R es un subespacio de R2 sobre el campo de los reales. En
general el espacio eucldeo Rm es un subespacio de Rn sobre el campo de los reales,
para cualquier m < n.
Ejemplo 1.1.3. A continuacion daremos algunos ejemplos de bases de algunos
espacios vectoriales.
1. El n
umero 1 es una base para el espacio vectorial R definido sobre el campo de los
reales. La dimension de este espacio vectorial es 1.
2. El n
umero 1 2 C y el n
umero i 2 C forman una base del espacio vectorial C definido
sobre el campo de los complejos C. La dimension de este espacio vectorial es 2.
3. El n
umero 1 2 C es una base del espacio vectorial C definido sobre el campo de los
reales R. En contraste con el caso anterior, este espacio vectorial tiene dimension 1.
Entonces tenemos que un mismo espacio vectorial puede tener dimension diferente
si se cambia el campo sobre el que esta definido. En otras palabras, la dimension de
un espacio vectorial depende de la naturaleza de los escalares.

Producto Interno

4. El conjunto de vectores unitario ~e1 , ~e2 , ~e3 definidos como


0 1
0 1
0 1
1
0
0
~e1 := @ 0 A ,
~e1 := @ 1 A ,
~e1 := @ 0 A .
0
0
1

forman una base de R3 sobre el campo de los reales. La dimension de este espacio
vectorial es 3.

5. Una base para P c [t] se forma a partir del conjunto de monomios {1, t, t2 , . . . }. Este
espacio es claramente de dimension infinita.
6. El conjunto que consiste de los monomios {1, t, t2 , . . . , tn } forma una base para el
espacio Pnc [x]

1.2.

Producto interno

Un espacio vectorial es todava bastante general y contiene una pobre estructura


como para ser considerado de utilidad en fsica. Ejemplo claro de ello es que en nuestra
definicion 1.1.1 de espacio vectorial no figura la estampa de lo que conocemos como
producto punto o producto interno. El producto interno en el estudio de la fsica
es importante pues permite introducir nociones trascendentes tales como el trabajo que
realiza una fuerza sobre un objeto a lo largo de una trayectoria o el flujo de materia a
traves de una superficie determinada.

1.2.1.

Espacios vectoriales con producto interno

La estructura de la que ahora dotaremos a un espacio vectorial es la que denominaremos en adelante producto escalar o producto interno, que es en esencia una generalizacion
de la operacion denominada producto punto. Dicha operacion es llevada a cabo entre
dos vectores a los que se le asocia un elemento de un campo que podemos tomar como el
conjunto de los n
umeros reales. La asociacion mencionada se denota simbolicamente como
g : V V ! R. En el espacio vectorial Rn la aplicacion g se denota habitualmente como
g(a, b) = a b. Esta operacion binaria tiene ciertas propiedades que la vuelven especial y
la diferencian de otras operaciones definidas anteriormente. Por ejemplo, g es simetrica,
es decir, g(a, b) = g(b, a) y es lineal en su primer y segundo argumentos:
g(a + b, c) = g(a, c) + g(b, c)

10

Espacios Vectoriales

o equivalentemente
(a + b) c = a c + b c

De hecho, una funcion que es lineal en sus dos argumentos es denominada bilineal. El
producto punto ademas es una operacion que permite obtener la longitud de un vector
o su norma, esto es, ||a|| = g(a, a) = a a
0. Esta propiedad ademas asegura que el
u
nico vector de longitud cero es el vector cero, i.e., g(a, a) = 0 si y solo si a = 0. Nos
gustara pues, generalizar esta propiedades a espacios vectoriales abstractos. Sin embargo,
la bilinealidad mostrada arriba conduce a una contradiccion cuando usamos el campo de
los complejos. Notese que, para un vector no nulo a, la bilinealidad de g conduce a,
g(ia, ia) = i2 g(a, a) =

g(a, a).

Entonces, alguna de las dos cantidades g(ia, ia) o g(a, a) debe ser negativa. Esto implicara
que un vector podra tener longitud negativa, lo que es imposible por mera definicion
de longitud. Esta inconsistencia puede evitarse si debilitamos la propiedad de bilinealidad
sustituyendola por linealidad en uno solo de sus argumentos. En efecto, podemos apreciar
que si la linealidad en el otro argumento la mantenemos bajo conjugacion obtenemos
resultados consistentes. Esto sin embargo, requiere tambien modificar la nocion de simetra
del producto interno para tener de igual forma, resultados consistentes.
Definici
on 1.2.1. El producto interno entre dos vectores |ai y |bi en un espacio
vectorial V es un n
umero complejo g(|ai, |bi) 2 C tal que,
(a) g(|ai, |bi) = g(|ai, |bi) .
(b) g (|ai, (|bi + |ci)) = g(|ai, |bi) + g(|ai, |bi).
(c) g(|ai, |ai)

0 y ademas g(|ai, |ai) = 0 si y solo si |ai = 0.

Un espacio vectorial dotado de un producto interno recibe el nombre espacio con producto interno. La propiedad (c) es conocida como la propiedad de positividad definida
del producto interno. Un producto interno que es positivo definido es llamado tambien
producto interno Riemanniano. En cualquier otro caso es llamado producto interno pseudo-Riemanniano
Debe notarse que la linealidad en el primer argumento esta ausente ya que, como
se explico anteriormente, podra ser inconsistente. De hecho, si usamos la propiedad de
simetra (a) podemos concluir que es necesaria una operacion adicional para tener
linealidad en el primer argumento. Primero notemos que si tenemos para un 2 C y
cualesquiera dos vectores |ai, |bi 2 V de un espacio vectorial V se tiene que
g(|ai, |bi) = g(|ai, |bi) = g(|ai, |bi) ,

Producto Interno

11

donde se ha hecho uso de las propiedades (a) y (b) del producto interno. La ecuacion anterior indica que una constante puede salir del primer argumento conjugada. De hecho,
usando las mismas propiedades podemos concluir una propiedad mas general. Dados dos
escalares , 2 C y dados cualesquiera dos vectores |ai, |bi 2 V de un espacio vectorial
V, se tiene que
g(|ai + |bi, |ci) = g(|ai, |ci) +

g(|bi, |ci) ,

(1.2)

Se puede decir que la propiedad anterior es una especie de linealidad del producto interno, con la diferencia de que las constantes deben conjugarse al momento de salir del
producto interno. Debido a esta propiedad el producto interno no puede llamarse bilineal.
Sin embargo, esta propiedad es especial y no puede pasar desapercibida, de modo que
recibe un nombre especial. Una funcion g que cumple las propiedades (c) y (1.2) recibe el
nombre de sesquilineal.

Notaci
on. Si bien el producto interno es una funcion de dos argumentos, este se suele
denotar de una manera mas compacta. Si tenemos dos vectores |ai, y |bi entonces
denotaremos el producto interno g(|ai, |bi) como,
g((|ai, |bi) ha|bi,
lo que disminuye considerablemente la notacion. Sin embargo, es menester mencionar
que debemos tener cuidado al realizar operaciones de esta manera. Especificamente,
dado que el producto no es conmutativo y que el primer argumento es lineal bajo
conjugacion, entonces hay que tener en mente las siguientes reglas para nuestra nueva
notacion
Un escalar multiplicado por un vector |ai los podemos representar de dos
formas equivalentes,
|ai |ai.
El producto interno de un vector |ai por un vector |bi en dicho orden puede
representarse como,
g(|ai, |bi) ha|bi = ha|bi.
Dados 2 C y |ai, |bi 2 V, tenemos que el producto de |ai con |bi se representa
como
g(|ai, |bi) ha|bi = ha|bi.
Finalmente dados dos escalares , 2 C y tres vectores |ai, |bi, |ci 2 V, entonces
el producto de |ai + |bi con |ci se representa como
g(|ai + |bi, |ci) ha + b|ci = ha|ci +

hb|ci.

12

Espacios Vectoriales

Se puede pensar que la notacion adopata es en cierta forma equivalente al producto interno
definido de manera matricial: para multiplicar dos vectores columna, uno de estos se tiene
que trasponer y conjugar para que el producto matricial tenga sentido. De hecho, mas
adelante veremos que los vectores al reves ha| son entidades que tienen significado por
s mismos y que se pueden obtener como una operacion similar a la de la trasposicion
conjugada de matrices. En la practica, si debemos realizar operaciones entre dos vectores,
por ejemplo, del vector |ai + |bi con el vector |ci, entonces primero debemos trasponer
y conjugar el primer vector y luego multiplicarlo por el segundo con las reglas habituales.
El resultado de trasponer y conjugar el vector |ai + |bi es
ha| +

hb|,

y el producto interno se calcula como,


ha + b|ci = ( ha| +

hb|) |ci = ha|ci +

hb|ci.

En adelante nos referiremos un vector de la forma |i como ket mientras que su traspuesto conjugado h| se denominara bra. Notese que en la operacion de producto arriba
ejemplificada, tenemos que un vector bra siempre se aparea con un vector ket para formar
un producto interno.
Ejemplo 1.2.1. Si el espacio vectorial es V = Cn , entonces dos vectores |ai, |bi
en Cn se representan como |ai = (1 , 2 , . . . , n ) y |bi = ( 1 , 2 , . . . , n ). Entonces, una
manera de definir el producto interno ha|bi es como sigue,
ha|bi := 1

1 + 2

2 + + n =

n
X

j j ,

j=1

el cual satisface las propiedades (a), (b) y (c) de la definicion 1.2.1. En particular si |ai =
|bi, entonces
n
X
ha|ai = |1 |2 + |2 |2 + + |n |2 =
|j |2 ,
j=1

el cual es positivo.

Ejemplo 1.2.2. Si ahora consideramos el espacio vectorial P C [t] que consiste de


todos los polinomios con coeficientes complejos entonces el producto interno entre dos
polinomios |xi, |yi 2 P C [t] puede definirse como
Z b
hx|yi :=
w(t)x (t)y(t)dt
a

donde a < b son dos n


umeros reales y w : R ! R es una funcion real, bien definida en (a, b)
estrictamente positiva. Como el producto interno definido arriba depende de la funcion
w(t) que es en cierto modo arbitraria, podemos definir una gran variedad de productos
internos en el espacio vectorial P C [t]. La funcion w recibe el nombre de funcion de peso.

Producto Interno

13

Ejemplo 1.2.3. Sea C0 (a, b) el conjunto de todas las funciones complejas continuas
definidas en el intervalo real (a, b). Una manera de definir el producto interno en dicho
espacio vectorial es como sigue. Dadas dos funciones f, g 2 C0 (a, b), tenemos que
Z b
ha|bi :=
w(t)f (t)g(t)dt
a

siendo w una funcion de peso que, como se menciono anteriormente, es real y estrictamente
positiva en el intervalo (a,b).

1.2.2.

Ortogonalidad

El producto interno nos permite hacer una analoga directa con espacios vectoriales
cuya geometra es en cierto modo intuitiva. Uno concepto que es fundamental en geometra
analtica es el de perpedicularidad. En el espacio Rn decimos que dos vectores son perpendiculares si su producto punto es cero. En espacios vectoriales abstractos generalizamos
dicho concepto de una forma completamente analoga.
Definici
on 1.2.2. Dos vectores |ai, |bi 2 V de un espacio vectorial V son ortogonales o perpendiculares si ha|bi = 0. Un vector |ei es normal o esta normalizado si
he|ei = 1. Una base B = {|ej i}N
j=1 de un espacio vectorial N -dimensional VN se le llama
base ortonormal si
hei |ej i = i,j
donde

i,j

es conocida como la delta de Kronecker y esta definida como,

1 si i = j
i,j =
0 si i 6= j.

Ejemplo 1.2.4. La base estandar del espacio vectorial Rn (o aun del espacio
vectorial Cn )
|e1 i
|e2 i
|e3 i
|e1 i

:=
:=
:=
:=

(1, 0, 0, . . . , 0),
(0, 1, 0, . . . , 0),
(0, 0, 1, . . . , 0),
(0, 0, 0, . . . , 1),

(1.3)

es ortonormal bajo la definicion usual de producto interno en dichos espacios.


Ejemplo 1.2.5. Considerese el espacio vectorial C(0, 2) que consiste de todas las
funciones complejas analticas definidas en el intervalo (0, 2). Si definimos el producto
interno como en el ejemplo 1.2.3 con funcion de peso w(x) = 1, entonces la base,
eikx
|ek i := p
2

14

Espacios Vectoriales

es una base ortonormal. En efecto, notese que


Z 2 ikx ikx
e
e
p p dx = 1,
hek |ek i =
2 2
0
y que
Z 2 ikx ilx
e
e
p p dx = 0,
hek |el i =
2 2
0
lo que satisface las propiedades deseadas. Por lo tanto podemos escribir,
hek |el i =

1.2.3.

k,l .

El procedimiento de Gram-Schmidt

Supongamos que tenemos un espacio vectorial V con una base que no es ortonormal.
En muchas ocasiones es deseable tener una base ortonormal para un espacio vectorial, por
lo que se hace necesario tener un procedimiento d mediante el cual podamos construir
una base auntenticamente ortonormal. Las razones para hacer eso son muy variadas pero
principalmente es porque, en la practica, muchos calculos se pueden simplificar enormemente como veremos mas adelante. El procedimiento mediante el cual podemos llevar,
de una manera sistematica, una base cualquiera a una base ortonormal es llamado el
procedimiento de Gram-Schmidt. El procedimiento mencionado tiene una descripcion
geometrica bastante intuitiva que, ademas, puede llevarse a un plano abstracto con la
:= {|a1 i, |a2 i, |a3 i, . . . , |an i}
definicion de producto interno en espacios vectoriales. Sea B
una base de un espacio vectorial de dimension n. Nuestro objetivo es construir, a partir
una base B = {|e1 i, |e2 i, |e3 i, . . . , |en i} que sea ortonormal. El
de los elementos de B,
primer vector de dicha base se puede construir de manera directa: tomese el vector |a1 i y
definase |e1 i de la siguiente forma
|a1 i
|a1 i
|e1 i := p
=
.
|a1 |
ha1 |a1 i

(1.4)

Esta operacion asegura que el primer vector de la base B es normal. Vamos ahora a
proceder inductivamente para definir los vectores subsecuentes. Considermos la proyeccion
del vector |a2 i sobre el vector |a1 i, la cual esta dada por el producto interno he1 |a2 i.
Para construir un vector que sea perpendicular a |e1 i podemos tomar |a2 i y sustraer
la componente que nos sobra a lo largo |e1 i. Un vector con tales caractersticas lo
escribimos como,
|e02 i = |a2 i he1 |a2 i|e1 i.
(1.5)
Unas cuantas operaciones nos muestran que, efectivamente, |e02 i es ortogonal con |e1 i.
Esto es,
he1 |e02 i = he1 |a2 i ha2 |e1 ihe1 |e1 i = 0.

Producto Interno

15

Entonces, el siguiente vector de la base ortonormal B lo podemos tomar como el vector


|e02 i pero normalizado,
|e0 i
|e2 i = p 02 0
(1.6)
he2 |e2 i
El siguiente vector de la base, |e3 i debe ser ortogonal tanto a |e1 i como a |e2 i definidos
el cual podemos
previamente. Para ello vamos a tomar un nuevo elemento de la base B,
elegir, si perdida de generalidad, como |a3 i. El vector |a3 i tendra, en general, proyecciones
distintas de cero tanto a lo largo de |e1 i como a lo largo de |e2 i, las cuales estan dadas por
he2 |a3 i y he1 |a3 i respectivamente. Si sustraemos de |a3 i ambas componentes obtendremos
un vector ortogonal tanto a |e1 i como a |e2 i. En efecto,
|e03 i

= |a3 i

he1 |a3 i|e1 i

he2 |a3 i|e2 i =

2
X
j=1

hej |a3 i|ej i.

(1.7)

Entonces, el siguiente vector de la base lo definimos como el vector |e3 i dividido entre su
magnitud,
|e0 i
|e3 i = p 03 0 .
(1.8)
he3 |e3 i

Este procedimiento se puede continuar inductivamente hasta agotar los vectores de


En general, si tenemos definidos ya los primeros m 1 vectores de la base
la base B.
nueva B (con m n), entonces el m-esimo vector se obtiene a partir del vector |am i, al
cual se le sustraen todas las componentes a lo largo de las direcciones definidas por los
m 1 vectores ortonormales previamente hallados. De esta manera primero obtenemos el
vector |e0m i,
|e0m i

= |am i

he1 |am i|e1 i

he2 |am i|e2 i . . . hem 1 |am i|em 1 i =

y luego obtenemos el vector de base |em i normalizando |em i0 ,


|e0 i
|em i = p m
,
he0m |e0m i

m
X1
j=1

hej |a3 i|ej i.

(1.9)

(1.10)

lo que define completamente el procedimiento Gram-Schmidt.

1.2.4.

La desigualdad de Schwarz

Una desigualdad que es frecuentemente encontrada en diferentes areas de las matematicas es la desigualdad conocida como la desigualdad de Cauchy-Schwarz. Originalmente esta desigualdad fue establecida para series (establecida por Augustin-Louis Cauchy

16

Espacios Vectoriales

en 1821) y mas tarde generalizada al caso de integrales (por Viktor Bunyakovsky en 1859
y Hermann Amandus Schwarz en 1888). Este resultado se puede establecer, sin embargo,
de manera general en espacios con producto interno.
Teorema 1.2.1. Cualquier par de vectores |ai, |bi de un espacio con producto
interno V, satisfacen la desigualdad de Schwarz,
|ha|bi|2 ha|aihb|bi.

(1.11)

La igualdad es satisfecha cuando |ai es proporcional a |bi.


Demostracion. Sea |ci un vector definido como sigue,
|ci = |bi

ha|bi
|ai,
ha|ai

y notese que ha|ci = 0. Escribimos ahora a |bi en terminos de |ci despejando de la igualdad
anterior,
ha|bi
|bi = |ci +
|ai.
ha|ai
Si tomamos ahora el producto de |bi consigo mismo obtenemos,
hb|bi =

ha|bi
hc| +
ha|
ha|ai

ha|bi
|ci +
|ai
ha|ai

ha|bi
ha|bi
ha|bi
= hc|ci +
hc|ai +
ha|ci +
ha|ai.
ha|ai
ha|ai
ha|ai
Como |ai y |ci son ortogonales, es facil observar que,
hb|bi = hc|ci +

|ha|bi|2
.
ha|ai

Ahora, por la propiedad de producto interno que garantiza que el producto de un vector
consigo mismo es mayor o igual a cero, entonces tenemos que, en particular hc|ci
0.
Esta desigualdad implica que
|ha|bi|2
hb|bi
.
ha|ai
de donde se sigue automaticamente el resultado.

Espacios Normados

1.3.

17

Espacios Normados

En espacios vectoriales se suele introducir la nocion de longitud de un vector. Esta


nocion es bastante u
til pues muchas propiedades fsicas se suelen describir mediante vectores, cantidades que poseen magnitud y direccion. Particularmente la magnitud de un
vector es lo que asociamos en espacios vectoriales abstractos con el concepto de norma.
Aunque una norma se puede definir independientemente del producto interno, cuando se
define un producto interno en un espacio vectorial se puede definir autonmaticamente una
norma en el mismo espacio como a continuacion se
nalamos.
Definici
on 1.3.1. La norma (tambien llamada longitud o magnitud) de un vector
|ai en un espacio con producto interno, se denota por ||a|| y se define como
p
||a|| := ha|ai.

Si tenemos la combinacion lineal de dos vectores, |ai + |bi, entonces la norma de dicha
combinacion lineal se denotara como ||a + b||.
Una norma en un espacio vectorial V verifica cumple las siguientes propiedades:
1. La norma del vector cero |0i es cero: ||0|| = 0.
2. ||a||

0 y ademas ||a|| = 0 si y solo si |ai = |0i.

3. ||a|| = ||||a|| para cualquier escalar 2 C.


4. ||a + b|| ||a|| + ||b||. Esta propiedad es llamada desigualdad del tri
angulo.
Un espacio vectorial dotado de una norma recibe el nombre es espacio lineal normado. Al igual que en espacios vectoriales como R2 o R3 , uno puede introducir el concepto
de distancia a partir de la norma. De manera general, un espacio lineal normado se puede
transformar automaticamente en un espacio metrico definiendo la funcion distancia como
la norma de la diferencia entre dos vectores,
d(|ai, |bi) := ||a

b|| .

(1.12)

Es facil mostrar que la distancia que hemos introducido satisface las tres propiedades que
definen una distancia. Sin embargo, tal como hemos visto anteriormente, no es necesario
definir un espacio lineal normado para definir un espacio metrico, pues existen maneras
diferentes de definir una distancia entre dos puntos. Mas a
un, en general no siempre es
posible dotar a un espacio de una estructura de espacio lineal normado (lo que requiere

18

Espacios Vectoriales

dotarlo inicialmente de una estructura de espacio vectorial). Por ejemplo, sabemos como
transformar S 2 R3 en un espacio metrico (usando la distancia usual o la distancia
definida como la longitud del arco del crculo mas grande que pasa por dos puntos), pero
no es posible dotar al crculo de una estructura de espacio vectorial.
Al igual que el caso anterior, podemos tambien mostrar una relacion similar entre
el producto interno y la norma en un espacio vectorial. Como hemos visto, un espacio
con producto interno es automaticamente un espacio lineal normado, pero el recproco no
es necesariamente cierto. Es decir, un espacio dotado de una norma no necesariamente
define un producto interno. Sin embargo, si la norma satisface la ley del paralelogramo,
||a + b||2 + ||a

b||2 = 2||a||2 + ||b||2

entonces uno puede definir,


ha|bi =

1
||a + b||2
4

||a

b||2

i ||a + ib||2

||a

ib||2

que cumple con las propiedades de producto interno. De hecho, tenemos en general que,
Teorema 1.3.1. Un espacio lineal normado es un espacio con producto interno si
y solo si la norma satisface la ley del paralelogramo.
De hecho tenemos a
un mas. Si tenemos un espacio vectorial de dimension finita VN ,
siempre podemos definir una norma de la siguiente manera (sin necesidad de invocar el
producto interno). Si B = {|aj i}N
j=1 es cualquier base para VN , entonces para un vector
|ai 2 VN con desarrollo
N
X
|ai =
j |aj i,
j=1

definimos una norma en VN como,


||a|| :=

N
X
j=1

|j |2 .

Es facil mostrar que esta norma cumple la ley del paralelogramo, por lo que en espacios
vectoriales de dimension finita. Entonces tenemos el siguiente resultado,
Teorema 1.3.2. Todo espacio vectorial de dimension finita es un espacio lineal
normado y ademas se puede transformar en un espacio de producto interno.

Espacios Normados

19

Ejemplo 1.3.1. Considerese el espacio vectorial Cn con campo en C. El producto


interno definido anteriormente (vease Ejemplo 1.2.1) define una norma para el vector
|ai = (1 , 2 , . . . , n ) dada por la expresion,
n
X

p
||a|| := ha|ai =

j=1

|j |2

!1/2

Esta norma define a su vez la distancia habitual entre dos vectores |ai = (1 , 2 , . . . , n )
y |bi( 1 , 2 , . . . , n ),
d(|ai, |bi) = ||a

p
b|| = ha

b|a

bi =

n
X
j=1

|j

j|

!1/2

Ejemplo 1.3.2. Una norma diferente que se puede definir en Cn esta dada por
||a||1 :=

n
X
j=1

|j |,

la cual satisface todas las propiedades de norma enunciadas anteriormente. Con esta
norma tenemos definida una distancia como sigue,
d(a, b) :=

n
X
j=1

|j

j |.

Ejemplo 1.3.3. Finalmente, uno puede generalizar las normas definidas anteriormente en una sola definicion. Si |ai = (1 , 2 , . . . , n ) 2 Cn entonces, dado un p 2 (0, 1)
definimos
!1/p
n
X
||a||p :=
|j |p
,
j=1

lo que satisface todas las propiedades de norma. Los casos p = 2 y p = 1 corresponden


a los ejemplos de norma definidos el los ejemplos de arriba. La distancia asociada a esta
norma se escribe entonces como,
d(a, b) =

n
X
j=1

|j

j|

!1/p

20

Espacios Vectoriales

Captulo 2
Transformaciones Lineales:
Operadores en espacios vectoriales
Si deseamos estudiar fenomenos fsicos cuya descripcion tiene como base un espacio
vectorial, se hace imprescindible contar con herramientas matematicas adicionales. Por
ejemplo, si estudiamos el movimiento de un objeto en un espacio euclidiano, un vector
describe la posicion del objeto, otro mas la velocidad, otros mas la aceleracion y la fuerza y
as sucesivamente con mas cantidades fsicas. Estos vectores no permanecen estaticos, sino
que se cambian continuamente. Mas aun, una cantidad fsica (o mas de manera conjunta)
puede definir otra cantidad fsica cuando realizamos una operacion. Por ejemplo, la
posicion nos puede dar la velocidad del objeto bajo la operacion de derivada, o bien, la
integral de lnea de la fuerza a lo largo de una trayectoria nos define el trabajo. Esto
sugiere que los espacios vectoriales que hemos definido de forma abstracta deben dotarse
de operaciones para que los vectores puedan moverse de un espacio en otro, o de un
espacio en s mismo. Estas operaciones reciben el nombre generco de transformacion o
mapeo. Por supuesto, existen muchas clases de transformaciones, y en este captulo nos
enfocaremos en cierto tipo transformaciones que nos son de utilidad en la descripcion de
diversos fenomenos fsicos.
Ejemplo 2.0.4. He aqu algunos ejemplos de mapeos o transformaciones.
1. Sea f : R ! R dado por f (x) = x3 .
2. Sea g : R2 ! R dado por g(x, y) = x2 + y 2 + 4.
3. Sea F : R2 ! C dado por F (x, y) = x2 + 2 + i(x3 + y 5 + 1). En general si U, V :
R2 ! R, entonces F puede escribirse como F (x, y) = U (x, y) + iV (x, y).
21

22

Transformaciones Lineales
4. El movimiento de una partcula durante un intervalo de tiempo tambien es una
transformacion. Sea [a, b] el intervalo de tiempo en describiremos el movimiento
de un objeto en el espacio R3 . Entonces una funcion ~r : [a, b] ! R3 describe el
movimiento del objeto en cuestion. En este caso ~r(t) = (x(t), y(y), z(t)) se entiende
como la posicion del objeto como funcion del tiempo que se obtiene al resolver la
ecuacion de Newton correspondiente.
5. Sea T : R ! R2 dado por T (t) = (t, 3t).

2.1.

Transformaciones lineales

Consideremos ahora dos espacios vectoriales arbitrarios, que denotaremos por V y


W, ambos con el mismo campo escalar. Sea ademas F : V ! W un mapeo (o transformacion) entre los espacios vectoriales mencionados. Entonces dados dos vectores |ai, |bi 2 V
les corresponde sendos vectores |xi, |yi 2 W bajo la imagen de F , esto es, F (|ai) = |xi
y F (|bi) = |yi. En general una transformacion arbitraria no preserva, necesariamente, la
estructura de espacio vectorial; es decir, un combinacion lineal de vectores en V no tiene
como imagen la combinacion lineal de las imagenes de los vectores originales:
F (|ai + |bi) 6= |xi + |yi.
De hecho, esto ocurre en todos los casos mostrados en el Ejemplo 2.0.4, a excepcion del
tem 5. Existen muchos fenomenos fsicos descritos por transformaciones entre espacios
vectoriales, en las cuales la preservacion de la estructura de espacio vectorial es deseable
y aun indispensable. Este hecho motiva la siguiente,
Definici
on 2.1.1 (Transformacion lineal). Una transformaci
on lineal de un
espacio vectorial complejo V en un espacio vectorial complejo W es un mapeo T : V ! W
tal que,
T(|ai + |bi) = T(|ai) + T(|bi).
para cualesquiera vectores |ai, |bi 2 V y cualesquiera escalares , 2 C. Una transformacion lineal T : V ! V se le llama endomorfismo de V u operador lineal en V.
La accion de un operador lineal T sobre un vector |ai muchas veces se suele escribir, por
comodidad, sin parentesis: T(|ai) T|ai.

La definicion anterior se extiende naturalmente a espacios vectoriales con campo


en los reales. Notese ademas que la definicion misma de transformacion lineal obliga a
que los espacios vectoriales que involucra dicha transformacion esten definidos sobre el
mismo campo escalar, pues los escalares que aparecen en las combinaciones lineales de

Transformaciones Lineales

23

cada espacio, son los mismos. Una consecuencia inmediata de la definicion anterior es la
siguiente,
Proposici
on 2.1.1. Dos transformaciones lineales T : V ! W y S : V ! W son
iguales si y solo si T|ai i = S|ai i para todos los vectores |ai i de alguna base B de V. De
esta forma, una transformacion lineal esta definida de manera u
nica si esta bien definida
su accion sobre los vectores de cualquier base del espacio dominio.
Demostracion. Si las transformaciones son iguales entonces esta claro que T|ai i = S|ai i
para todos los elementos |ai i de cualquier base B de V, por lo que la parte ()) esta
trivialmente demostrada. El regreso (() se demuestra como sigue. Sea B = {|aj i} una
base para V. Supongase ademas que la accion de T y S sobre cada vector de la base B
esta bien definida. Por definicion de base, tenemos que cualquier vector |ai 2 V se puede
escribir de manera u
nica como una combinacion lineal de los vectores de la base,
X
|ai =
j |aj i.
j

Entonces tenemos, a partir de la definicion de transformacion lineal que,


X
T|ai =
j T|aj i,
j

y que
S|ai =

X
j

j S|aj i.

Por hipotesis sabemos que T|ai i = S|ai i, por lo que podemos concluir que
T|ai = T|ai.
Como la igualdad anterior es valida para cualquier vector |ai 2 V se sigue que las trans es otra base, entonces cada vector de B
se puede
formaciones son identicas. Mas a
un, si B
escribir como combinacion lineal de elementos de B. Esto quiere decir que los vectores en
tienen la misma imagen bajo T y bajo S, por lo que un argumento similar al anterior
B
permite concluir la igualdad de T con S independientemente de la base en la que se hayan
definido la accion de dichas transformaciones.

Un caso particular de transformaciones lineales ocurre cuando el espacio imagen W


es el campo de los reales R o el campo de los complejos C. En este caso, la transformacion
lineal toma el nombre de funcional lineal.

24

Transformaciones Lineales

El conjunto de todas las transformaciones lineales del espacio vectorial V en W se


denota por L(V, W). Notese que la suma de dos transformaciones lineales T, S 2 L(V, W)
esta bien definida si la adoptamos como la suma vectorial de las imagenes correspondientes: (T + S)|ai := T|ai + S|ai. Mas aun, esta suma de transformaciones satisface las
propiedades I) IV ) de la definicion de espacio vectorial si adoptamos como el vector cero la transformacion cero 0 que asocia a cada vector de V el vector cero de W. Ademas,
la multiplicacion por escalar esta tambien bien definida si la adoptamos como la multiplicacion por escalar en el espacio W: la transformacion S := T es una transformacion
lineal y satisface las propiedades V ) V III) de la definicion de espacio vectorial (la demostracion se deja como ejercicio para el lector). Todas estas observaciones implica que, el
conjunto de transformaciones lineales L(V, W) posee naturalmente todas las propiedades
de un espacio vectoria y es por lo tanto un espacio vectorial en s mismo.
El conjunto de todos los endomorfismos de V se denota como L(V) en lugar de
L(V, V).
Para cualquier espacio vectorial complejo V, el conjunto de todas los funcionales
lineales L(V, C) se denota por V y recibe el nombre de espacio dual de V. Analogamente,
si V es un espacio vectorial real, el espacio dual V se define como el conjunto de todos
los funcionales lineales L(V, R).
Ejemplo 2.1.1. A continuacion daremos una serie de ejemplos de operadores
lineales en varios espacios vectoriales. La prueba de su linealidad se deja como ejercicio
para el lector.

1. Sea {|a1 i, |a2 i, . . . , |am i un conjunto arbitrario de m vectores en un espacio vectorial


V. Sea ademas {f1 , f2 , . . . , fm } un conjunto de m funcionales lineales. Entonces
A :=

m
X
j=1

|aj ifj ,

es una transformacion lineal en V. El operador lineal A actua sobre un vector |xi 2 V


como sigue,
m
X
A|xi =
|aj ifj (|xi).
j=1

Esto es, cuando el operador A act


ua sobre el vector |xi, los funcionales lineales se encargan de transformar |xi en un un conjunto de escalares {f1 (|xi), f2 (|xi), . . . , f2 (|xi)}.
Con estos escalares a su vez, se forma una combinacion lineal con los vectores tomados inicialmente, que es el resultado de la operacion de A sobre |xi.

Transformaciones Lineales

25

2. Sea |xi 2 P C [t] definido como


|xi = x(t) =

n
X

aj t j .

j=0

Sea D un operador que act


ua sobre |xi de la siguiente forma,
D|xi = x(t) =

n
X

jaj tj 1 .

j=0

Entonces D es un operador lineal y es de hecho, el operador derivada.


3. Sea |xi 2 P C [t] definido como
|xi = x(t) =

n
X

aj t j .

j=0

Sea S un operador que act


ua sobre |xi de la siguiente forma,
n
X
aj j+1
S|xi = x(t) =
t .
j+1
j=0

Entonces S es un operador lineal y es de hecho, el operador integral.


4. Considere el espacio vectorial complejo C 0 [a, b] y defnase el operador int : C 0 [a, b] !
C como sigue: dado f 2 C 0 [a, b]
int(f ) :=

f (x)dx.
a

Entonces int es un funcional lineal en C0 [a, b].


Una consecuencia inmediata de la definicion de transformacion lineal dada en Definicion 2.1.1 es que el vector cero de V tiene como imagen el cero de W. Para mapeos
en general esto no es necesariamente cierto pero s es un requisito necesario para que
una transformacion sea lineal. De hecho, muchos otros vectores en V tambien pueden ser
enviados al cero de W, como acontinuacion se enuncia en el siguiente,
Teorema 2.1.1. El conjunto de vectores in V cuya imagen es el vector cero de W
bajo una transformacion lineal T : , V ! W forma un subespacio de V llamado n
ucleo
o espacio nulo de T el cual denotamos por ker(T).

26

Transformaciones Lineales

Demostracion. Sean |ai, |bi 2 V tales que T|ai = |0i y T|bi = |0i. Es decir, tomamos dos
vectores del n
ucleo de V, i.e., |ai, |bi 2 ker(T) V. Notese que para cualesquiera , 2 C
tenemos que T (|ai + |bi) = T|ai + T|bi por linealidad de T. Por hipotesis tenemos
que tanto |ai como |bi tiene como imagen |0i 2 W bajo T. De este modo podemos ver
que T (|ai + |bi) = |0i, lo que nos permite concluir que |ai + |bi 2 ker(T) para
cualesquiera , 2 C. Esto implica que ker(T) es un subespacio.

Como ker(T) es un subespacio de V, este debe tener una dimension menor o como
mucho igual, a la dimension de V. La dimension de ker(T) es llamada nulidad de V. El
siguiente teorema nos muestra que todos los vectores que tienen una preimagen bajo T
es tambien un subespacio.
Teorema 2.1.2. El rango T(V) de una transformacion lineal T : V ! W es el
conjunto de todos los vectores en W que son imagen de alg
un vector en V bajo T. Entonces
T(V) es un subespacio. La dimension de T(V) se denomina rango de T.
La demostracion de este teorema y el siguiente se dejan como ejercicios para el
lector.
Teorema 2.1.3. Una transformacion lineal es inyectiva su y solo si su n
ucleo es
el vector cero, ker(T) = {0}.
Supongamos que tenemos un espacio vectorial V y una transformacion lineal T.
Puesto que ker(T) es un subespacio de V, podemos primero definir una base en ker(T)
y luego a
nadir vectores linealmente independientes hasta completar una base para V
que llamaremos B = {|a1 i, |a2 i, . . . , |an i}. Supongase que la dimension de ker(T) es m.
Entonces, sin perdida de generalidad podemos tomar los primeros m vectores de B como los vectores de la base para ker(T). Es facil mostrar que el conjunto de vectores
{T|am+1 i, T|am+2 i, . . . , T|an i} forma una base para T(V). Este resultado se recoge en el
siguiente,
Teorema 2.1.4 (Teorema de la dimension). Sea T : V ! W una transformacion
lineal. Entonces
dimV = dimker(T) + dimT(V).
Una consecuencia inmediata de este teorema es la siguiente,
Proposici
on 2.1.2. Un endomorfismo de un espacio vectorial de dimension finita
es biyectivo si se verifica cualquiera de estas dos propidades: o es inyectivo o es sobre.

Transformaciones Lineales

27

Debemos tener en cuenta que la proposicion anterior no es valida para espacios


vectoriales de dimension infinita, pues el teorema de la dimension deja de ser valido para
espacios vectoriales de dimension infinita.
Ejemplo 2.1.2. Consideremos la siguiente transformacion linealT : R4 ! R3
definida como,
T(x1 , x2 , x3 , x4 ) = (2x1 + x2 + x3

x4 , x1 + x2 + 2x3 + 2x4 , x1

x3

3x4 ).

Primero busquemos el conjunto de vectores (x1 , x2 , x3 , x4 ) 2 R4 tales que T(x1 , x2 , x3 , x4 ) =


(0, 0, 0). Esto es, buscamos las soluciones del conjunto de ecuaciones,
2x1 + x2 + x3 x4 = 0,
x1 + x2 + 2x3 + 2x4 = 0,
x1 x3 3x4 = 0.
Por supuesto, este sistema no esta completamente determinado, por lo que tendre
mos una infinidad de soluciones. Estas
estan dadas por x1 = x3 + 3x4 y x2 = 3x3 5x4 .
Dicho de otra manera, un vector de la forma
(x3 + 3x4 , 3x3

5x4 , x3 , x4 ) = x3 (1, 3, 1, 0) + x4 (3, 5, 0, 1)

satisface la ecuacion T(x1 , x2 , x3 , x4 ) = (0, 0, 0) para cualesquiera valores x3 y x4 en R.


De hecho podemos apreciar sin problemas que los vectores |a1 i = (1, 3, 1, 0) y |a2 i =
(3, 5, 0, 1) forman una base para ker(T). Por lo tanto tenemos que dimker(T) = 2 y
por el teorema de la dimension T(V) = 2. Esto es, el teorema de la dimension nos indica
que el rango de T es bidimensional. Esto resulta en efecto claro cuando notamos que la
tranformacion lineal T la reescribimos como,
T(x1 , x2 , x3 , x4 ) = (2x1 + x2 + x3

x4 )(1, 0, 1) + (x1 + x2 + 2x3 + 2x4 )(0, 1, 1).

y por lo tanto, cualquier vector (x1 , x2 , x3 , x4 ) tiene como imagen bajo T en R3 forzosamente una combinacion lineal de los vectores (1, 0, 1) y (0, 1, 1).
Como hemos visto hasta ahora a traves de varios ejemplos de espacios vectoriales,
muchos de estos espacios a primera vista lucen bastante diferentes, cuando en realidad
comparte mucho mas caractersticas de lo que podemos apreciar. Un ejemplo intuitivo
de esta situacion podra ser el espacio C con campo en los reales comparado con R2 con
campo en R. Aunque los vectores en estos dos espacios los denominamos con nombres diferentes e incluso los representamos en formas distintas, estos tienen bastantes similitudes
entre s. Por ejemplo, ambos son bi-dimensionales e incluso graficamente no atrevemos a
representar ambos espacios en la misma manera: como un plano cartesiano. Esta nocion
de similitud la podemos hacer mas precisa con la siguiente definicion.

28

Transformaciones Lineales

Definici
on 2.1.2. Un espacio vectorial V se dice que es isomorfo a otro espacio
vectorial W si existe un mapeo lineal biyectivo T : V ! W. En este caso T recibe el nombre
de isomorfismo. Un mapeo lineal biyectivo de V en s mismo se llama automorfismo
de V.
Para fines practicos podemos decir que dos espacios vectoriales isomorfos son en
realidad manifestaciones del mismo espacio vectorial. En el ejemplo que precede la
definicion anterior la correspondencia entre ambos espacio esta dada por T : C ! R2
definido como T(x + iy) = (x, y) el cual establece un isomorfismo entre ambos espacios.
Debemos enfatizar sin embargo que los espacios R2 y C son isomorfos u
nicamente como
espacios vectoriales. Si dotamos a estos espacios con otras estructuras entonces resultaran
ser bastante distintos. Por ejemplo, en C, se tiene una multiplicacion natural entre sus
elementos, mientras que R2 no la tiene. El siguiente teorema nos ofrece un criterio para
isomorfismos.
Teorema 2.1.5. Una transformacion lineal sobreyectiva T : V ! W es un isomorfismo si y solo si su nulidad es cero.
Otro teorema que tambien nos da informacion sobre los vectores transformados es
el siguiente.
Teorema 2.1.6. Un isomorfismo T : V ! W transforma un conjunto de vectores linealmente independientes en un conjunto de vectores que tambien es linealmente
independiente.
Demostracion. Supongamos que {|aj i}nj=1 V es un conjunto de vectores linealmente
independientes. Probemos el teorema por contradiccion. Entonces supongase que para el
conjunto de vectores {T|aj i}nj=1 existe un conjunto de escalares {j }nj=1 tales que
n
X
j=1

j T|aj i = |0i.

Entonces por linealidad de T tenemos que


T

n
X
j=1

j |aj i

= |0i.

P
De esta u
ltima igualdad se desprende que nj=1 j |aj i = |0i porque T es un isomorfismo
(su nulidad es cero, o equivalentemente su n
ucleo consta u
nicamente del vector cero).
n
Esto contradice nuestra hipotesis inicial de que {|aj i}j=1 V es un conjunto de vectores
linealmente independientes, lo que prueba el teorema.

Transformaciones Lineales

29

El siguiente teorema nos muestra en cambio que la diversidad de espacios vectoriales de dimension finita esta bastante limitada.
Teorema 2.1.7. Dos espacios vectoriales de dimension finita son isomorfos si y
solo si poseen la misma dimension.
Demostracion. Sea {|aj i}nj=1 una base para V, siendo n la dimension de V. Sea T un
ismorfismo entre V y W y defnase los vectores en W como sigue |bj i = T|aj i para
j = 1, 2, . . . , n. Como T es un isomorfismo es claro que el conjunto de vectores BW :=
{|bj i}nj=1 W es linealmente independiente. Tenemos ahora que probar que BW es una
base para W. Si suponemos que span(BW ) 6= W entonces podemos decir que existe un
vector |bi linealmente independiente con todos los vectores de BW . Como T es biyectivo,
existe un |
ai 2 V tal que T|
ai = b Entonces,
n
X
j=1

j |bj i +
|bi =
6 |0i,

par cualesquiera escalares {j }nj=1 . De esto se desprende que


n
X
j=1

j T|aj i +
T|
ai =
6 |0i,

o lo que es lo mismo,
T

n
X
j=1

j |aj i +
|
ai

6= |0i.

Como T es un ismorfismo es claro que


n
X
j=1

j |aj i +
|
ai =
6 |0i.

pues su nulidad es cero. Esto es, sin embargo, una contradicion con el hecho de que B
forma una base para V. Por lo tanto BW es una base para W y consecuentemente su
dimension es n.
Para probar el reciproco supongamos que la dimension de ambos espacios es n.
Supongase ademas que BV := {|aj i}nj=1 y BV := {|bj i}nj=1 son bases de V y W respectivamente. Defnase una transformacion T como sigue: T|aj i = |bj i. Sabemos la accion de
T sobre los vectores de base es suficiente para definir completamente una transformacion
lineal. Es facil verificar que ademas T establece un isomorfismo entre V y W.

30

Transformaciones Lineales

Entonces, el teorema anterior tiene por consecuencia que cualquier espacio vectorial
real de dimension n es isomorfo a Rn , mientras que cualquier espacio vectorial complejo
de dimension n es isomorfo a Cn . De esta forma tenemos que, para fines practicos existen
solo dos tipos de espacios vectoriales de dimension finta n, Rn o Cn .
Un ejemplo de espacios isomorfos es el caso de los espacios vectoriales V y su correspondiente espacio dual V , es decir, el el espacio que consiste de todas las aplicaciones lineales en V es isomorfo con V mismo. Para ver que este es el caso consideremos un espacio vectorial de dimension finita N en el cual se ha definido una base
B := {|a1 i, |a2 i, . . . , |aN i}. Sea f un funcional lineal sobre V. Sabemos que, por definicion, un funcional lineal asocia a cada vector en V un escalar complejo. Mas a
un, sabemos
por la Proposicion 2.1.1 que una transformacion lineal esta bien definida si definimos su
accion sobre los vectores de base. Lo mismo es cierto para funcionales lineales por razones
obvias. Supongamos entonces que el funcional lineal f act
ua sobre los vectores de la base
B como sigue,
f |aj i = j ,
8 1 j N.
siendo un {1 , 2 , . . . , N } un cierto conjunto de escalares que es el resultado de la aplicacion de f sobre cada vector de base. La ecuacion anterior nos permite observar que el
conjunto de escalares {1 , 2 , . . . , N } define de manera u
nica al funcional lineal f . Pero
podemos hacer aun mas. Sabemos que un funcional lineal tambien puede ser visto como
un vector, pues V es un espacio vectorial. Esto quiere decir que debe existir una base de
tal manera que el funcional lineal f se escriba como una combinacion lineal de la base. La
base en cuestion se puede hallar de manera relativamente directa. Defnase el conjunto de
funcionales lineales {f1 , f2 , . . . , fN } de la siguiente manera,
f1 |a1 i = 1,
f2 |a1 i = 0,
..
.
fN |a1 i = 0,

f1 |a2 i = 0,
f2 |a2 i = 1,

,...,
,...,

f1 |aN i = 0,
f2 |aN i = 0,

fN |a2 i = 0,

,...,

fN |aN i = 1.

Es posible observar que el funcional lineal f se puede escribir como


f = 1 f1 + 2 f2 + + N fN .
Notemos ahora que, dado cualquier vector |bi 2 V, el cual tiene una descomposicion u
nica
en terminos de una combinacion lineal de los vectores de base,
|bi =

N
X
j=1

j |aj i,

Transformaciones Lineales

31

tiene como imagen bajo f un escalar que podemos escribir explicitamente,


!
N
N
X
X
f |bi = f
=
j |aj i
j f |aj i,
j=1

N
X

j=1

j j .

(2.1)

j=1

Puesto que un espacio vectorial de dimension finita N es isomorfo a CN , entonces los


vectores en V los podramos representar como vectores columna. Siguiendo esta lnea, la
igualdad dada en la ecuacion (2.1) sugiere de alguna forma que un funcional lineal f ,
visto como un vector, podra interpretarse como un vector reglon, pues el resultado de su
producto f |bi sera equivalente el producto matricial de un vector reglon por un vector
columna, que a su vez, es similar a la operacion de producto interno. Lo anterior sugiere
entonces pensar el producto interno ha|bi entre dos vectore, se puede pensar como el
resultado de aplicar una transformacion lineal, definida por un vector |ai, aplicada sobre
vector |bi.
Sea |ai 2 V un vector en un espacio vectorial V y sea B = {|aj i}N
j=1 una base en
dicho espacio vectorial. Vamos a definir un funcional lineal fa como
fa = 1 f1 + 2 f2 + + N fN ,

(2.2)

fa = 1 f1 + 2 f2 + + N
fN ,

(2.3)

y analogamente
siendo j la j-esima componente de |ai en la base B. Entonces, el producto interno ha|bi
entre dos vectores |ai, |bi esta dado por,
ha|bi := fa |bi =

n
X

j j ,

j=1

donde j es la j-esima componente de |bi en la base B. En este sentido podemos imaginar que el vector original |ai sufre una transformacion, a fin de poder aparearse
en producto interno con |bi. Nuestra declaracion puede hacerse precisa si definimos tal
transformacion como la asociacion de un vector en V con un funcional lineal tal como lo
establece la identidad 2.2, i.e., |ai 7! fa . Esta identificacion, sin embargo, no es suficiente
para definir el producto interno, pues aun falta una segunda operacion; la que conjuga las
componentes del vector original para dar lugar a fa definido en la igualdad 2.3. Estas dos
operaciones se pueden definir en una sola a traves de la definicion de la operacion de trasconjugacion, tambien llamada operacion de dualidad, que en esencia es la identificacion
del funcional lineal f con el vector bra ha|. Para ello introducimos la notacion
(|ai) := ha| = fa ,

32

Transformaciones Lineales

lo que nos permite interpretar a ha| como un vector del espacio dual V . Pasar de kets a
bras ya lo hemos especificado anteriormente cuando introdujimos el producto interno.
Conviene sin embargo recapitular las reglas. Para pasar de un ket |ai a su correspondiente
bra utilizamos la operacion de dualidad (o transconjugacion) usando el smbolo daga. Si
tenemos una combinacion lineal de vectores |ci = |ai + |bi, su correspondiente bra se
obtiene como sigue,
hc| := (|ai + |bi) = ha| + hb|.
Mas adelante veremos que las transformaciones lineales en un espacio vectorial no operan
identicamente sobre vectores ket y bra, salvo en una gran excepcion que mas adelante
analizaremos.

2.2.

Algebra
de Operadores

Ya hemos establecido que el conjunto de todos las transformaciones lineales entre


espacios vectoriales forma en s mismo un espacio vectorial. Esto se logro gracias a que
la suma entre espacios vectoriales esta bien definida gracias a las mismas propiedades
de espacio vectorial que gozan tanto el dominio como la imagen de las transformaciones
lineales y que ademas, esta preserva naturalmente estas estructuras por su misma definicion. Vamos ahora a estudiar las transformaciones lineales desde otra perspectiva. Si
bien entre transformaciones lineales pudimos definir naturalmente la suma de vectores
as como la correspondiente multiplicacion por escalares, podremos ver mas adelante
que tambien existe una manera natural de definir la correspondiente multiplicacion entre transformaciones. Cuando un espacio se dota de una multiplitiplicacion, obtenemos
una estructura conocida como algebra. Dependiendo del tipo de m
ultiplicacion podemos
obtener diversas estructuras tales como el algebra conmutativa, el algebra asociativa o el
algebra con identidad.

2.2.1.

Algebras

En esta seccion revisaremos algunos conceptos elementales de las algebras. Las estructuras conocidas como algebras son abundantes en fsica, pues involucran una operacion de multiplicacion entre elementos de un espacio determinado que dan como resultado
un elemento del espacio en cuestion. Por citar un ejemplo, un producto entre vectores define lo que conocemos como momento angular que es, a su vez, un (pseudo) vector. El
algebra que se define naturalmente entre operadores es de particular utilidad especialmente en mecanica cuantica.


Algebra
de Operadores

33

Definici
on 2.2.1. Un lgebra A sobre C (o sobre R) es un espacio vectorial V sobre
C (o sobre R) dotado de una operacion binaria : V V ! V, llamada multiplicaci
on.
Si a, b 2 A son dos vectores 1 entonces la multiplicacion entre estos se denota como
(a, b) = ab, y dicha operacion satisface
a( b + c) = ab + ac,
y
( b + c)a = ba + ca,
para cualesquiera tres vectores a, b, c 2 A y cualesquiera escalares , , 2 C. La dimension del espacio vectorial recibe en este caso el nombre es dimensi
on del
algebra.
Un algebra se llama asociativa si la multiplicacion satisface a(bc) = abc y se llama
conmutativa si ab = ba. Un algebra con identidad es un algebra con un elemento 1 tal
que 1a = a1 = a. Un elemento b se llama inversa izquierda de a si ba = 1, y se
denomina inversa derecha de a si ab = 1.
Ejemplo 2.2.1. Defnase el siguente producto de vectores en R2 : si (x1 , x2 ), (y1 , y2 ) 2
R son dos vectores en el plano, definimos un tercer vector a traves de su multiplicacion
como,
2

(x1 , x2 )(y1 , y2 ) := (x1 y1

x2 y2 , x1 y2 + x2 y1)

Queda al lector la tarea de mostrar que efectivamente este producto define un algebra
conmutativa en R2 .
Ejemplo 2.2.2. El producto cruz en R3 definido en la va usual tambien define
un algebra. Si dos vectores (x1 , x2 , x3 ), (y1 , y2 , y3 ) 2 R3 entonces definimos un tercer vector
como resultado de la multiplicacion (llamado producto cruz) de dichos vectores como
sigue,
(x1 , x2 , x3 ) (y1 , y2 , y3 ) := (x2 y3

y 2 x 3 , x3 y 1

x 1 y 3 , x1 y 2

y1 x2 ).

Esta operacion de multiplicacion entre vectores en R3 define un algebra no asociativa y


no conmutativa entre vectores en R3 .
Ejemplo 2.2.3. El paradigma de las algrbras es sin duda el
algebra matricial
definiendo el producto entre matrices de la misma dimension en la va estandar. Esto es,
dos matrices de n n da como resultado una matriz de n n. Esta algebra es asociativa
pero no es conmutativa.
1

En esta definici
on usamos letras en negrita (boldface) para denotar vectores con estructura de
algerbra.

34

2.2.2.

Transformaciones Lineales

El
algebra L(V)

Vamos ahora a investigar el algebra que se genera de manera natural en el espacio


de las transformaciones lineales. Ya hemos establecido que el conjunto de todas las transformaciones lineales L(V, W) de un espacio vectorial V en un espacio vectorial W tiene
naturalmente una estructura de espacio vectorial. La multiplicacion entre transformaciones lineales tambien se puede definir de manera natural. Supongamos que tenemos una
transformacion lineal T de un espacio vectorial V en un espacio W, i.e., T : V ! W, y
una transformacion lineal S entre el espacio W y alg
un otro espacio U , i.e., S : W ! U.
Entonces podemos intentar definir la multiplicacion entre la transformaciones lineales T
y S como la composicion: ST := S T. Esta claro que transformacion resultante es una
transformacion lineal del espacio vectorial V en U . Por supuesto, ninguno de los tres vectores involucrados se encuentra en el mismo espacio vectorial, lo que nos impide satisfacer
la condicion de algebra (que la multiplicacion sea cerrada en un espacio vectorial). Esto
hace necesario restringir los espacios en los que operan dichas transformaciones. En efecto,
si hacemos V = W = U nuestro problema se resuelve y la operacion de composicion
define una multiplicacion entre transformaciones lineales (vectores) y este a su vez, define
un algebra en el espacio vectorial L(V). A continuacion enunciaremos varios resultados
concernientes con el algebra L(V). Aunque muchos de estos resultados son en primera
instancia intuitivos, los haremos preciso aqu.
Definici
on 2.2.2. Dos operadores lineales T, S 2 L(V) son iguales si T|ai = S|ai
para todo |ai 2 V.
De la hipotesis de linealidad, se sigue automaticamente que la igualdad entre dos
operadores lineales (o endomorfismos) ocurre cuando act
uan de manera identica sobre los
vectores de cualquier base en V. De hecho, ya hemos mostrado que un operador lienal se
define de manera u
nica por su accion sobre los vectores de cualquier base. El siguiente teorema nos indica una manera alternativa de establecer la igualdad entre transformaciones
lineales mediante el producto interno. En muchos casos esta alternativa resulta incluso
conveniente.
Teorema 2.2.1. Un endomorfismo (transformacion lineal) T en un espacio con
producto interno es igual al operador cero 0 si y solo si hb|T|ai = hb|Tai = 0 para todo
|ai, |bi 2 V.
Demostracion. Es claro que si T = 0 entonces hb|T|ai = 0 para todo |ai, |bi 2 V. Entonces
lo que resta demostrar es que si hb|T|ai = 0 para todo |ai, |bi 2 V entonces T = 0. Pero
si la hipotesis es cierta entonces podemos elegir particularmente |bi = |Tai, lo cual nos
da como resultado que,
hTa|Tai = 0,


Algebra
de Operadores

35

para todo |ai 2 V. Pero usando la propiedad (c) de la definicion de producto interno
(positividad definida, cf. Definicion 1.2.1) tenemos que la u
nica posibilidad para el vector
|Tai es que sea el vector cero, i.e., |Tai = |0i para todo |ai 2 V. Esto nos deja claro que
T debe ser la transformacion cero 0 para que esto u
ltimo tenga sentido.

De hecho, el criterio para comprobar que un operador coincide con el operador cero
se puede hacer aun mas fuerte.
Teorema 2.2.2. Un operador lineal T en un espacio con producto interno V es el
operador 0 si y solo si ha|T|ai = 0 para todo |ai 2 V.
Demostracion. Por supuesto, la parte facil de la desmostracion es clara: si T = 0 entonces
ha|T|ai = 0 para todo |ai 2 V. Lo que nos resta es mostrar el recproco. Supongamos
pues que ha|T|ai = 0 para todo |ai 2 V. Tomese a |ai como
|ai = |bi + |ci,
para cualesquiera vectores |bi, |ci 2 V y cualesquiera escalares ,

2 C, y notese que

ha|T|ai = h b + c|T| b + ci = ( hb| + hc|) T ( |bi + |ci)


= | |2 hb|T|bi + | |2 hc|T|ci + hb|T|ci + hc|T|bi.
De la igualdad anterior obtenemos la siguiente identidad,

hb|T|ci +

hc|T|bi = h b + c|T| b + ci

| |2 hb|T|bi

| |2 hc|T|ci.

Por hipotesis tenemos que el lado derecho de la ecuacion anterior debe ser identico con
cero. Por tanto se tiene que

hb|T|ci +

hc|T|bi = 0.

Para cualesquiera escalares , 2 C. Si en particular tomamos =


= 1 se tiene
que hb|T|ci + hc|T|bi = 2Re[hb|T|ci] = 0. Si tomamos = 1 y = i obtenemos que
ihb|T|ci ihb|T|ci = 2Im[hb|T|ci] = 0. Estas dos ecuaciones no indican que hb|T|ci =
para cualesquiera |ai|bi 2 V. Finalmente, usando el Teorema 2.2.1 se demuestra nuestra
declaracion.

36

Transformaciones Lineales

Los dos teoremas anteriores nos permiten decidir si dos operadores lineales son
identicos entre s. La manera de hacerlo es tomar la diferencia de dichos operadores y
mostrar que es identico al operador cero usando alguno de los criterios arriba enunciados. Ademas de la transformacion cero 0, en el algebra L(V) tenemos presente tambien la
transformacion identidad, la cual esta definida como la transformacion lineal (que denotaremos por 1) que deja invariante cualquier vector en el espacio vectorial V, i.e., 1|ai = |ai
para todo |ai 2 V. Como tenemos el elemento identidad en el espacio L(V) conviene
preguntarse si este juega el papel del elemento identidad en el sentido de algebra. Es decir,
nos preguntamos si para una transformacion lineal T existe una transformacion T 1 tal
que TT 1 = 1. De hecho, solo los las transformaciones lineales biyectivas tienen inversas
en el sentido arriba expuesto. Podemos entonces decir que L(V) es un algebra asociativa
con identidad no necesariamente conmutativa ( TS generalmente no es igual a ST).
Un resultado que se desprende de los teoremas arriba enunciados nos arroja algunas
propiedades de las inversas de los operadores lineales.
Teorema 2.2.3. La inversa de un operador lineal es u
nica. Si T y S son dos
operadores invertibles entonces TS es invertible y ademas (TS) 1 = S 1 T 1 . Un endomorfismo T : V ! V es invertible si y solo si transforma los vectores de una base en V
en otra base para el mismo espacio.
Ejemplo 2.2.4. La transformacion lineal T : R3 ! R3 definida como,
T(x1 , x2 , x3 ) := (x1 + x2 , x2 + x3 , x3 + x1 ),
es invertible, ya que la u
nica solucion del sistema,
x1 + x2 = 0
x2 + x3 = 0
x3 + x1 = 0
es x1 = x2 = x3 = 0. Entonces es claro que ker(T) = {(0, 0, 0)} y por el Teorema 2.1.5
tenemos que T es una biyecccion. Entonces tenemos que T debe tener una inversa, la
cual deseamos calcular. Para este proposito necesitamos hallar una transformacion T 1
tal que T 1 T(x1 , x2 , x3 ) = (x1 , x2 , x3 ), o bien,
(x1 , x2 , x3 ) = T 1 (x1 + x2 , x2 + x3 , x3 + x1 ).
Si ahora definimos el vector (y1 , y2 , y3 ) cuyas componentes estan dadas por,
y1 = x1 + x2 ,

y2 = x2 + x3 ,

y3 := x3 + x1 ,

entonces podemos observar que


T 1 (y1 , y2 , y3 ) := (x1 , x2 , x3 )

(2.4)

Operadores Lineales

37

Por lo que para tener explcitamente la transformacion T 1 necesitamos despejar de las


ecuaciones (2.4) a x1 , x2 y x3 en terminos de y1 , y2 y y3 . Haciendo este ejercicio obtenemos
que
1
T 1 (y1 , y2 , y3 ) = (x1 , x2 , x3 ) = (y1 y2 + y3 , y1 + y2 y3 y1 + y2 + y3 ) .
2
Finalmente es facil verificar que, efectivamente T 1 T = 1.

2.3.

Operadores Lineales

Ya hemos discutido el concepto de espacio dual de un espacio vectorial de manera


general y hemos visto que estos espacios tienen muchas propiedades en com
un. Ademas
de compartir el hecho de ser espacios vectoriales de la misma dimension y que incluso
son isomorfos entre s, hay una relacion mas ntima entre estos espacios. Hemos visto que
los vectores bra, que inicialmente fueron introducidos como un artilugio para definir
una notacion mas compacta para el producto interno, pueden ser interpretados como
vectores en el espacio dual. La operacion de dualidad quedo entonces bien definida a
traves de un isomorfismo entre un vector de un espacio vectorial y un funcional lineal.
La pregunta que ahora nos hacemos es si es posible que esta operacion de dualidad sea
tambien extendida hacia las transformaciones lineales mismas definidas sobre un espacio
vectorial determinado. Si es esto posible tambien podriamos preguntarnos si un operador
lineal cualquiera puede actuar sobre vectores y vectores en el espacio dual de manera
simultanea y si esta accion es igual o no en ambos casos. Esto nos llevara a definir el
concepto de conjugacion de operadores que juega un papel particularmente importante en
el desarrollo de la Teora de Sturm-Liouville, cuyas consecuencias son de gran importancia
en la resuolucion de problemas en varias ramas de la fsica.

2.3.1.

Conjugaci
on de Operadores

Definici
on 2.3.1. Sea T 2 L(V) y sea |ai, |bi 2 V. Definimos el operador
conjugado (o adjunto) de T como un operador T tal que
ha|T|bi = hb|T |ai.
Notese que, de la definicion anterior podemos obtener una regla sencilla para identificar el operador conjugado. Ya que podemos escribir ha|T|bi = ha|Tbi = hTb|ai,
entonces podemos darnos cuenta que
hTb|ai = hb|T |ai,

38

Transformaciones Lineales

de donde se desprende que hb|T = hTb| en virtud de la arbitrariedad de los vectores


involucrados. Usando la operacion de conjugacion sobre vectores entonces obtenemos que
(|Tbi) = (T|bi) = hb|T .

(2.5)

Este resultado nos indica que, si tomamos el vector congujado que se obtiene de una
transformacion lineal, es lo mismo que tomar el operador conjugado a T y hacerlo operar
hacia la izquierda sobre el bra correspondiente. Los operadores T y T son operadores
de la misma naturaleza y vamos a admitir que puedan ambos puedan operar tanto a la
derecha como hacia la izquierda usando la operacion de conjugacion.
El siguiente teorema no brinda algunas propiedades de la operacion de conjugacion
sobre operadores compuestos.
Teorema 2.3.1. Sean T, U 2 L(V) y sea 2 C. Entonces,
i. (T + U) = T + U ,
ii. (UT) = T U ,
iii. (T) = T ,
iv. (T ) = T.
Hay que hacer enfasis en que la u
ltima identidad solo es valida en espacios vectoriales
de dimension finita; en sistemas de dimension infinita puede no ser cierta.
Demostracion.
i. Notese que ha| (T + U) |bi se puede escribir como,
ha| (T + U) |bi = ha|T|bi + ha|U|bi,
lo que nos dice que
ha| (T + U) |bi = ha|T|bi + ha|U|bi = hb|T |ai + hb|U |ai = hb| T + U |ai.
lo que muestra efectivamente que
(T + U) = T + U

Operadores Lineales

39

ii. De manera completamente analoga tenemos que


ha| (UT) |bi = ha|T|Ubi = hUb|T |ai.
Usando la identidad (2.5) podemos ver que el operador U puede salir del bra
correspondiente pero conjugado,
ha| (UT) |bi = ha|T|Ubi = hb|U T |ai.
esto demuestra la identidad ii.
iii. Esta identidad se muestra directamente pues solo hace falta aplicar la definicion de
conjugacion y el hecho de que el producto es lineal respecto de su primer argumento,
ha|T|bi = ha|Tbi = (ha|Tbi) = ha|T|bi = ha|T |bi.
Como la constante se puede regresar al interior del producto interno tenemos
automaticamente que
(T) = T
iv. Finalmente, para nuestra u
ltima identidad tenemos que calcular ha|T |bi . Notese
que el operador conjugado se puede meter dentro del bra sin conjugar, de modo
que podemos observar que,
ha|T |bi = hTa||bi = hb||Tai = hb|T|ai.
La u
ltima igualdad muestra automaticamente la identidad deseada.

Ejemplo 2.3.1. Vamos ahora a calcular la transformacion conjugada a la transformacion T : C ! C definida como
0
1 0
1
1
1 i2 + 3
A,
i1 3
T @ 2 A = @
3
1 2 + i3
donde los escalares j son las componentes del vector |ai sobre el que act
ua el operador T.
Vamos tambien a introducir el vector |bi con componentes j , con lo cual, ambos vectores
se escribe como,
0
1
0
1
1
1
|ai := @ 2 A ,
|bi := @ 2 A .
3
3

40

Transformaciones Lineales

Los correspondientes vectores duales ha| y hb| se representan como vectores reglon,
ha| = (1 , 2 , 3 ),

1,

hb| = (

2,

3 ).

Si deseamos saber como act


ua el operador conjugado sobre un vector necitamos recurrir
a la definicion. Observemos que
0
1#
"

ha|T |bi = hb|T|ai = ( 1 , 2 , 3 )T @ 2 A


3
0
1#
"

i +
=
=

1,

2,

(1

@
3)

A
i1 3
1 2 + i3

i2 + 3 ) +

(i1

3 ) +

(1

= 1 1 i2 1 + 3 1 + i1 2 3 2 + 1
= 1 1 + i2 1 + 3 1 i1 2 3 2 + 1 3

2 + i3 )

2
2

+ i3
i3 3

(2.6)

y agrupando los terminos que contienen 1 , 2 y 3 obtenemos,


ha|T |bi = 1 (

3)

+ 2 (i

3)

o bien, en forma de producto matricial, tenemos que


0
ha|T |bi = (1 , 2 , 3 ) @

+ 3 (

3
2

i 3)

A.

Como el resultado anterio vale para cualquier |ai 2 C3 tenemos que el operador conjugado
act
ua sobre |bi como sigue,
0
1 0
1
i 2+ 3
1
1
A.
i 1
T @ 2 A = @
3
i 3
3
1
2

2.3.2.

Operadores Hermitianos y Unitarios

En la seccion anterior hemos visto que la operacion de conjugacion de operadores es


bastante similar a la operacion de conjugacion de n
umeros complejos. De hecho la hemos
desarrollado basados en las propiedades de conjugacion del producto interno entre dos
vectores, cantidad que, por definicion, es un n
umero complejo en el caso mas general.
Si hacemos una analoga entre el espacio de operadores y el campo de los complejos, es

Operadores Lineales

41

entonces natural preguntarse sobre la contraparte correspondiente a los n


umero reales.
Es decir, existen operadores reales que en relacion al resto de los operadores jueguen
un papel similar al de los n
umeros reales en relacion a los n
umeros complejos? La forma
de responder esta pregunta es justamente tomar la conjugacion de operadores y observar
que operadores son invariantes bajo dicha operacion, tal como sucede con los n
umeros
reales bajo la operacion de conjugacion. Estos operadores reciben el nombre de operadores
hermitianos (o hermticos) en honor al matematico frances Charles Hermite (1822-1901).
Definici
on 2.3.2. Un operador lineal H 2 L(V) se denomina hermitiano,
hermtico o autoconjugado si H = H. Un operador A se denomina anti-hermitiano,
antihermtico o anti-autoconjugado si A = A.
Las propiedades que veremos a continuacion nos muestra que la conjugacion de
n
umeros complejos y la conjugacion de operadores guardan tienen estructuras paralelas
y guardan entre s una relacion bastante estrecha.
Definici
on 2.3.3. El valor esperado de un operador T en el estado |ai es un
n
umero complejo definido como
hTia := ha|T|ai.
Notese ahora que el complejo conjugado del valor esperado de un operador T puede
escribirse como,
hTia = ha|T|ai = ha|T |ai = hT ia .

Es decir, el complejo conjugado del valor esperado de un operador corresponde al valor


esperado del operador conjugado en el mismo estado. En particular, si dicho operador
fuere hermitiano tendramos que el correspondiente valor esperado sera un n
umero real
(un n
umero cuyo conjugado fuera el mismo). De hecho podemos hacer a
un mas. Sabemos
que los n
umeros estan compuestos por dos partes: una real y otra imaginaria. Estas
partes tienen un propiedad que las diferencia en tre s. La primera es invariante bajo la
conjugacion mientras que la segunda cambia solo su signo. El analogo de estas partes en el
contexto de operadores corresponde a los operadores hermitianos y anti-hermitianos que
comparten las correspondiente propiedades enunciadas bajo la conjugacion. De hecho, un
operador cualquiera siempre puede escribirse como la suma de un operador hermitiano y
un anti-hermitiano, pues debemos notar que,
T=

1
1
T + T +
T
2
2

T = H + A.

En este caso se puede constatar que efectivamente, el operador H := (T + T )/2 es un


operador hermitiano, mientras que el operador A := (T T )/2 es un operador antihermitiano. Esta analoga la podemos hacer a
un mas precisa: notese que si A es un

42

Transformaciones Lineales

operador anti-hermitiano, entonces iA resulta ser un operador hermitiano. Si llamamos H0 := iA entonces podemos darnos cuenta que un operador T cualquiera puede
escribirse como,
T = H + iH0
siendo H y H0 ambos hermitianos. La analoga es ahora precisa en el sentido de que
tambien un n
umero complejo puede escribirse como z = x + iy, siendo x, y n
umeros
reales.
A
un cuando un operador arbitrario puede descomponerse en una parte real y una
imaginaria, de manera completamente paralela a los n
umeros complejos, la correspondencia entre ambos objetos no es del todo analoga. Por ejemplo, sabemos que el producto
de dos n
umeros reales debe ser un n
umero real. Sin embargo, en el caso de operadores,
el producto de dos operadores autoconjugados no es necesariamente un operador autoconjugado. Esto se debe esencialmente a que la multiplicacion entre operadores no es
conmutativa. Si H y K son hermitianos, entonces,
(HK) = K H = KH 6= HK.
Hasta aqui hemos analizado las propiedades de los operadores bajo conjugacion.
Vamos ahora a establecer uno resultados en torno a su relacion con los valores esperados.
Teorema 2.3.2. Un operador lineal H es un operador hermitiano si y solo si
ha|H|ai es real para cualquier vector |ai.
Demostracion. Si tomamos como hipotesis el hecho de que H es hermitiano, entonces es
claro, por mera definicion de hermiticidad, que
ha|H|ai = ha|H |ai = ha|H|ai ,
lo que implica que ha|H|ai es real. Analicemos el recproco. Si asumimos que ha|H|ai es
real para cualquier vector |ai, entonces podemos ver que
ha|H|ai = ha|H|ai = ha|H |ai
lo cual implica que
ha|H

H |ai = 0

para todo vector |ai. Por el Teorema 2.2.2 se sigue inmediatamente que H
lo tanto H es hermtico.

H = 0. Por

Operadores Lineales

43

Ejemplo 2.3.2. Veamos ahora un ejemplo ilustrativo de operadores hermitianos.


Sabemos que una matriz puede ser considerada como una tranformacion lineal operando
sobre vectores columna. Si tomamos como espacio vectorial el espacio C2 con campo en
los complejos, entonces una matriz de 2 2 con entradas complejas corresponde a una
transformacion lineal en C2 . Consideremos la matriz H dada por,

0
i
H :=
.
i 0
Tomemos un vector arbitrario |ai con componentes arbitrarias,

1
|ai =
,
2
y notese que
ha|H|ai =

(1 , 2 )

(1 , 2 )

0
i

i
0

1
2

i2
= i1 2 + i2 1
i1
i1 2 + ( i2 1 ) = 2Re( i1 2 ),

(2.7)

lo que indica que ha|H|ai es en efecto, un n


umero real para cualquier vector |ai tal como
lo establece el teorema anterior.
Podemos ver a
un mas cosas. Por ejemplo, que significa hHa| y como se representa
matricialmente? o como act
ua un operador hermtico sobre un vector bra que se encuentra
a su izquierda?
En el caso de los operadores matriciales la repuesta es directa, pues sigue las reglas
habituales de multiplicacion de matrices. Es decir, el resultado de la operacion ha|H es
un vector bra, que se escribe como

0
i

ha|H = (1 , 2 )
= (i2 , i1 )
i 0
Mientras que el operador hHa| es el operador que indica que primero hay que hacer
la operacion |Hai y luego trasconjugar el vector (i.e., encontrar su correspondiente bra):

0
i
1
i2
H|ai = |Hai =
=
.
i 0
2
i1
Entonces el bra hHa| se escribe como
hHa| = (i2 , i1 )

44

Transformaciones Lineales

Podemos ver en este ejemplo que un operador hermitiano puede introducirse tanto en
el ket como en el bra, sin ninguna operacion adicional. No obstante, en el caso en que
tenemos operadores que no son autoconjugados, este no es el caso.
Ejemplo 2.3.3. Para contrastar con el caso de los operadores hermitianos, vamos a
analizar algunas operaciones con operadores que no posean la propiedad de hermiticidad.
Consideremos el mismo espacio vectorial que en el ejemplo anterior y consideremos ahora
una matriz T definida como

0 i
T=
i 0
Podemos ver que si tomamos un vector arbitrario |ai, entonces

0 i
1
i2

ha|T|ai = (1 , 2 )
= (1 , 2 )
,
i 0
2
i1
lo que implica que
ha|T|ai = i1 2

(i1 2 ) = 2iIm(i1 2 ).

esto quiere decir que el valor esperado del operador T es un n


umero puramente imaginario
y por lo tanto no es hermtico.
Veamos ahora como lucen los resultados de las operaciones hTa|, ha|T y hT a|.
Para empezar, de los calculos de arriba ya tenemos que

i2
T|ai = |Tai =
,
i1
y por consecuencia es claro que
hTa| = ( i2 , i1 ).
Por otro lado tenemos que
ha|T =

(1 , 2 )

0 i
i 0

= (i2 , i1 ),

de donde podemos observar que ha|T 6= hT a|. Sin embargo observemos que ha|T =
(T|ai) y por lo tanto

i2

ha|T = (T|ai) =
= ( i2 , i1 ),
i1
Lo que implica que ha|T = hTa|. Esto es consistente con nuestra regla de que lo operadores se pueden meter en los vectores bra previamente conjugados. Hay que poner especial
atencion en el hecho de que las operaciones matriciales hacia la derecha e izquierda son
compatibles con nuestras reglar de operacion.

Representacion Matricial de Operadores

2.4.

45

Representaci
on Matricial de Operadores

Hasta ahora hemos visto que los espacios vectoriales tienen propiedades muy similares entre s en incluso entre espacios generados por transformaciones lineales sobre
estos. Por ejemplo, si tenemos el espacio vectorial que consiste de los polinomios de grado
n 1 con coeficiente complejos PnC 1 [t], entonces sabemos que este es isomorfo al espacio
vectorial Cn . Si consideramos entonces transformaciones lineales en Cn es claro que estas
pueden ser representadas como matrices. Como PnC 1 [t] es isomorfo a Cn esperaramos que
sus correspondientes espacios de transformaciones lineales tambien sean similares entre
s o incluso, isomorfos. De hecho, esto es cierto, pues siempre podemos establecer un isomorfismo por la sencilla razon de que todos los espacios PnC 1 , Cn , L(Cn ) y L(PnC 1 ) tienen
exactamente la misma dimension, lo que es suficiente para establecer un isomorfismo entre
ellos. Si es as, entonces debe ser cierto que transformaciones entre polinomios o incluso
transformaciones entre funciones tenga una representacion matricial va un isomorfismo.
Incluso los vectores mismos tendran una representacion como vectores columna, independientemente del espacio que se trate. En esta seccion nos dedicaremos a establecer la
reglas operativas para este fin.

2.4.1.

Matrices

Sea Vn un espacio vectorial de dimension finita n. Ya sabemos que en un espacio


vectorial siempre tiene una base a la que denotaremos por BV = {|aj i}nj=1 . Un vector
|xi 2 V puede expresarse de manera u
nica como combinacion lineal de los vectores de la
base BV ,
|xi =

n
X
j=1

j |aj i.

Si bien esta representacion explicita como combinacion lineal de vectores de base es de mucha utilidad, podemos ir mas alla y considerar representaciones alternativas. Una notacion
que muchas veces resulta conveniente es representar al vector |xi como una combinacion
lineal simbolica de la siguiente forma. Como podemos darnos cuenta, dada una base en
el espacio vectorial, un vector esta definido por un u
nico conjunto de escalares, en este
n
caso denotados como {j }j=1 . Escribir la representacion como suma o como conjunto solo
difiere en el orden en el que se encuentran los ecalares; de hecho, una sola permutacion
de los escalares dado nos arrojara, el caso general, un vector diferente. Entonces podemos explicitamente imponer un orden en el conjunto de escalares. Esta convencion nos
lleva al concepto de vector columna que es la representacion que buscamos. Si x es la

46

Transformaciones Lineales

representacion simbolica del vector |xi en la base BV tendremos que x se escribe como,
0
1
1
B 2 C
B
C
x := B .. C ,
@ . A
n

y entonces decimos que el vector columna x representa al vector |xi en la base


BV . Notese que los as llamados vectores columna se pueden interpretar como un vector
en Cn y que, por lo tanto, estamos haciendo uso de un isomorfismo para realizar la
accion que hemos denominado representacion. Se debe aclarar, sin embargo, que hay que
V = {|
tener cuidado con esta notacion. Si tenemos otra base B
aj i}nj=1 del mismo espacio
vectorial, entonces el mismo vector |xi tendra una u
nica representacion como combinacion
lineal de vectores de dicha base,
|xi =

n
X
j=1

j |
aj i.

No obstante, debe notarse que es ahora el conjunto de escalares {j }nj=1 el que define al
vector |xi pero en la base x
,
0
1
1
B C
B 2 C
x
:= B . C .
@ .. A
n

Es claro que x
y x son representaciones diferentes del mismo vector. Que ambas representaciones sean distintas se debe esencialmente a la base utilizada y es por eso que en
muchos casos se debe especificar la base utilizada, especialmente cuando se trabaja en
mas de una base. Dicho de otra forma, un espacio vectorial abstracto V es isomorfo a
diferentes espacios vectoriales de la forma Cn .
No solo los vectores se pueden representar como arreglos ordenados (vectores columna) sino tambien las transformaciones lineales mismas. Supongamos que una transformacion lineal T tiene como dominio el espacio vectorial V mientras que su imagen se
encuentra en el espacio vectorial W. Supongamos que BV = {|aj i}nj=1 es una base de V y
que BW = {|bj i}m
as que los vectores de la base BV
j=1 es una base en W. Supongamos adem
se transforman en los vectores |wj i := T|aj i para 1 j n. Estos vectores pertenecen
al espacio W y por lo tanto pueden descomponerse como combinaciones lineales de los
vectores de la base BW . Dichas combinaciones lineales se pueden ver como,
|w1 i =

m
X
j=1

j1 |bj i,

|w2 i =

m
X
j=1

j2 |bj i,

...,

|wn i =

m
X
j=1

jn |bj i.

Representacion Matricial de Operadores

47

Los vectores arriba definidos tienen a su vez una representacion como vectores columna,
0

B
B
w1 = B
@

11
21
..
.
m1

C
C
C,
A

12
22
..
.

B
B
w2 = B
@

m2

C
C
C,
A

B
B
wn = B
@

...,

1n
2n
..
.
mn

C
C
C.
A

Entonces, como una transformacion lineal esta bien definida si se define la accion sobre los
vectores de base, entonces podemos decir que la coleccion de las imagenes de los vectores
de base en su representacion como vectores columna, definen la transformacion en el
espacio de los vectores columna. En otras palabras, cuando realizamos la representacion
de vectores abstractos en vectores del espacio euclideano Cn , la transformacion en el
espacio abstracto tiene una transformacion equivalente (o isomorfa) en el espacio Cn ,
la cual tiene exactamente el mismo efecto sobre los correspondientes vectores. Entonces
podemos pensar que la transformacion equivalente mencionada arriaba no puede ser mas
que una matriz, que es como se representan las transformaciones lineales en el espacio Cn .
Dicha matriz debera corresponder a la coleccion de los vectores columna que resultan de
la imagen de los vectores de base. Por tanto, la representation de la transformacion lineal
T debera corresponder a la matriz A definida como,
0

B
B
A=B
@

11
21
..
.

12
22

...
...
...

1n
2n
..
.

m1 m2 . . .

mn

C
C
C.
A

Nos referiremos entonces a esta matriz como representaci


on de la transformaci
on
lineal T en las bases BV y BW . Veamos ahora como act
ua la transformacion equivalente
sobre los vectores columna. Sea |xi 2 V y sea x su representacion matricial. Como |xi se
desarrolla como combinacion lineal de los vectores de base como
n
X
j=1

j |aj i,

entonces es claro que la accion de T sobre |xi viene dada por,


T|xi =

n
X
j=1

j T|aj i =

n X
m
X
j=1 k=1

j kj |bk i =

m
n
X
X
k=1

j=1

j kj

|bk i.

Sea y la representacion del vector T|xi en la base BV , cuyas componentes llamaremos


{j }nj=1 . Entonces podemos ver, de la ecuacion anterior que, el vector columna y puede

48

Transformaciones Lineales

escribirse como,
0 Pn
j=1 j 1j
B Pn j 2j
j=1
B
y=B
..
@
Pn .
j=1 j mj

C B
C B
C=B
A @

11
21
..
.

12
22

...
...
..
.

1n
2n
..
.

m1 m2 . . .

mn

10
CB
CB
CB
A@

1
2
..
.
n

C
C
C = Ax.
A

Esto nos dice que, esencialmente, la transformacion lineal T, representada por la matriz
A, act
ua sobre el vector |xi exactamente como act
ua la matriz A multiplicando al vector
columna x, que representa al vector abstracto |xi. En notacion puramente matricial, la
transformacion lineal a la que hemos hecho referencia puede escribirse como,
0
1 0
10
1
1
11 12 . . . 1n
1
B 2 C B 21 22 . . . 2n C B 2 C
B
C B
CB
C
B .. C = B ..
.. C B .. C
.
.
@ . A @ .
.
. A@ . A
m
m1 m2 . . . mn
n
o bien, usando una representacion compacta podemos escribir y = Ax.

La construccion que hemos hecho de una matriz a partir de una transformacion


lineal nos indica que, una vez escogida una base, a cada operador lineal en L(V, W) le
corresponde una u
nica matriz. Esta unicidad proviene de la unicidad de la representacion
de cada vector como combinacion lineal de los vectores de base.
Ejemplo 2.4.1. Considerese la transformacion lineal T : R2 R3 definida como,
T(x1 , x2 ) := (x1 + x2 , x1

x2 , 2x1 + 3x2 ).

Es claro que una transformacion lineal entre estos espacios vectoriales se suele denotar como una matrz. Dicha matriz se puede identificar facilmente, si escribimos la transformaion
T como un sistema de ecuaciones,
z 1 = x1 + x2 ,
z 2 = x1 x2 ,
z3 = 2x1 + 3x2 ,
siendo z1 , z2 y z3 las componentes de T. Entonces por simple inspeccion nos damos cuenta
que el sistema de ecuaciones mostrado arriba se escribe, en forma matricial como,
0
1 0
1

z1
1 1
x1
@
A
@
A
z2
1
1
T(x1 , x2 ) =
=
.
x2
z3
2 3

Representacion Matricial de Operadores

49

De esta forma, podemos decir que la transformacion lineal T tiene una respresentacion
matricial A dada por,
0
1
1 1
1 A,
A=@ 1
2 3
en las bases canonicas de R2 y R3 .

Debemos resaltar el hecho de que el hallar la representacion matricial anterior fue


una tarea un tanto facil debido a que estamos acostumbrados a realizar este tipo de
representaciones de transformaciones lineales. No obstante tambien debemos hacer enfasis
en que en todo momento obviamos (u omitimos) el hecho de que nos encontrabamos
trabajando en las bases canonicas de R2 y R3 . De hecho, si cambiamos de base en uno
u otro de los espacios, hallar la correspondiente representacion matricial deja de ser una
tarea sencilla.
Ejemplo 2.4.2. Consideremos nuevamente la transformacion lineal T definida en
el ejemplo anterior (Ejemplo 2.4.1). Supongamos deseamos obtener la representacion de
T que la base de R2 conformada por vectores,

1
1
a1 =
, a2 =
,
1
1
y en la base canonica de R3 .
El primer paso consiste en obtener la accion de T sobre cada vector de la base,
T(1, 1) = (2, 0, 5),

T( 1, 1) = (0, 2, 1).

Una vez obtenidos estos vectores, los debemos escribir como combinacion lineal
base del espacio imagen. Como trabajamos en la base canonica de R3 esta es una
relativamente directa,
0 1
0 1
0 1
0 1
0 1
0
1
0
0
1
0
T(1, 1) = 2 @ 0 A +0 @ 1 A +5 @ 0 A , T( 1, 1) = 0 @ 0 A 2 @ 1 A +1 @
0
0
1
0
0

de la
tarea
1
0
0 A,
1

en donde hemos resaltado en negritas los coeficientes de la combinaciones lineales. Si


representamos los vectores de la base canonica de R3 como B(R3 ) = {e1 , e3 , e3 } podemos
escribir los vectores imagen de una manera mas compacta,
T(1, 1) = 2e1 + 0e2 + 5e3 ,

T( 1, 1) = 0e1

2e2 + 1e3

50

Transformaciones Lineales

Los coeficientes de las combinaciones lineales son lo que en s mismos son los que definen
de la transformacion lineal T,
la representacion matricial A
0

1
0
2 A
1

2
=@ 0
A
5

en las bases B2 = {a1 , a2 } y B(R2 ) de R2 y R3 respectivamente. Notese que debido a


de la misma transforla diferencia de las bases, las representaciones matriciales A y A
macion lineal, no coinciden. Si las representaciones matriciales no coinciden, podemos
preguntarnos que hay del resultado de aplicar ambas matrices a un vector determinado.
Consideremos un vector v 2 R2 definido como,
v=

x
y

Si aplicamos la matriz A al vector v obtenemos


0

1
@
1
Av =
2

1
0
1

1
x+y
x
1 A
= @ x y A,
y
3
2x + 3y

(2.8)

al vector v obtendremos,
mientras que si aplicamos la matriz A
0

@
0
Av =
5

1
0
1

0
x
x
2 A
2y A ,
=@
y
1
5x + y

(2.9)

Las expresiones anteriores


deben interpretarse de distintas formas. En la ecuacion (2.8)

x
tenemos que el vector
es la representacion de un vector en la base canonica B(R2 ),
y
mientras que en la ecuacion (2.9) el mismo arreglo indica un vector diferente, en la base
B2 ,

x
y

x
y

= xe1 + ye2 = x
B(R2 )

= xa1 + ya2 = x
B2

1
0
1
1

+y
+y

0
1

1
1

vectores que, por supuesto, arrojan resultados diferentes cuando se introducen en la misma

transformacion lineal en sus distintas representaciones A y A.

Representacion Matricial de Operadores

2.4.2.

51

Cambio de Base

En muchas ocasiones describir un problema fsico en una base particular puede ser
ventajoso debido a que este puede tomar una forma mas simple. Sin embargo, la solucion
en la base original puede ser de importancia, por lo que la descripcion de un problema
concreto se debe conocer en mas de una base a la vez. No solo la descripcion misma es
importante sino la manera de ir de una base a otra es, en muchas ocasiones, requerida.
Dada una base B := {|aj i}nj=1 podemos escribir un vector dado |ai de manera u
nica
como combinacion lineal de los elementos de la base,
|ai =

n
X
j=1

j |aj i,

siendo {1 , 2 , . . . , n } las componentes de |ai en la base mencionada. Ahora supongamos


que cambiamos a la base B 0 := {|a0j i}nj=1 . Como son en esta nueva base las componentes
del vector |ai? Para responder esta pregunta necesitamos primero establecer la correspondencia entre las bases. Esto es, necesitamos escribir cada vector de la base original
|aj i como combinacion lineal de vectores de la base nueva. Esta correspondencia es, por
supuesto, u
nica en virtud de la definicion misma de base. Supongamos que cada vector
|aj i puede escribirse como,
n
X
|aj i =
kj |a0k i,
k=1

y sustituyamos esta expresion en la combinacion lineal del vector |ai en la base B. Podemos
ver entonces que,
!
n
n
n
n
X
X
X
X
|ai =
j
kj |a0k i =
j kj |a0k i.
j=1

k=1

k=1

j=1

Si denotamos por j la j-esima componente del vector |ai en la base B 0 , entonces podemos
darnos cuenta que la relacion entre las componentes de la base original y la base nueva
esta dada por,
n
X
0
j =
kj j ,
para cada 1 j n.
j=1

En terminos de la representacion matricial tenemos que


0
1 0
10
1
10
11 12 . . . 1n
1
B 0 C B 21 22 . . . 2n C B 2 C
B 2 C B
CB
C
o equivalentemente
B .. C = B ..
C
B
.
.
.
..
.. A @ .. C
@ . A @ .
A
n0
n1 n2 . . . nn
n

a0 = Ra

52

Transformaciones Lineales

La matriz R se le llama matriz de transformacion de bases. La matriz A toma vectores


expresados en la base original y los transforma en vectores expresados en la base nueva.
Nos podemos preguntar ahora que sucede con los operadores lineales de un espacio
vectorial T cuando realizamos un cambio de base. Supongamos que un vector |ai se transforma en un vector |bi bajo T. Si a es la representacion de |ai, b es la representacion de |bi
y A es la representacion de T, entonces tenemos que b = Aa. Si R es la transformacion
de cambio de base, es claro que en la base B 0 tenemos que los vectores |ai y |bi tienen
sendas representaciones denotadas por a0 = Ra y b0 = Rb respectivamente. Entonces es
claro que
b0 = Rb = RAa = RAR 1 Ra = RAR 1 a0 .
Esto es, un vector |ai se transforma bajo T en |bi, cuyas representaciones matriciales
en la base B 0 se pueden escribir en terminos de las representaciones matriciales de la
base B. Las transformaciones para a0 y b0 ya las conocemos. La representacion de una
transformcaion lineal A se transforma sin embargo como,
A0 = RAR 1 .
Esta transformacion se conoce como transformaci
on de similaridad de A en A0 y
ademas A0 se dice similar a A.
Un caso especial de transformcion entre bases de un espacio vectorial con producto
interno es el caso en que las bases son ortonormales. Cuando este es el caso tenemos que la
transformacion que media entre las bases se puede obtener de manera directa as como su
correspondiente transformacion inversa. La simplicidad de esta transformacion reside en
la propiedad de ortogonalidad de los vectores de base. Supongase que un espacio vectorial
V con producto interno tiene una base ortonormal dada por B := {|ej i}nj=1 . Un vector |ai
en V se escribe como una combinacion lineal de los elementos de la base,
|ai =

n
X
j=1

j |ej i.

Si deseamos pasar el vector |ai a otra base ortonormal B 0 := {|e0j i}nj=1 necesitamos expresar cada vector |ej i como combinacion lineal de elementos de la base B 0 . Esto se escribe
como,
n
X
|ej i =
kj |e0k i,
k=1

Hasta aqu la historia es completamente identica para cualquier par de base independientemente de si son ortonormales o no. Sin embargo, cuando las bases son ortonormales

Representacion Matricial de Operadores

53

podemos expresar explcitamente los elementos de la transformacion entre las bases. Notese que, gracias a la ortonormalidad, tenemos que,
he0i |ej i =

n
X
k=1

kj he0i |e0k i = ij ,

es decir, los elementos matriciales de la transformacion R se pueden calcular simplemente


como el producto interno entre los elementos de las bases de B 0 y B,
(R)ij = ij = he0i |ej i.
Notese ademas que los papeles de las bases B y B 0 se pueden invertir, pues no
hay un distintivo especial entre la base original y la base nueva. Esto quiere decir que la
trasformacion inversa R0 debe tener componentes dadas por,
R

1
ij

= 0ij = hei |e0j i.

Debe observarse sin embargo que


R

1
ij

= hei |e0j i = he0j |ei i = R

ij

La operacion en este caso indica trasposicion y conjugacion simultaneamente. Esta


propiedad es particular de las transformaciones entre bases ortonormales. Una matriz R
que satisface que R 1 = R se le llama unitaria. De hecho tenemos que
Teorema 2.4.1. Una matriz que transforma una base ortonormal en otra base
ortonormal es necesariamente unitaria.

También podría gustarte