Está en la página 1de 108

Algebra Lineal: Aplicaciones a la Fsica

Resumen del curso 2012 para Lic. en Fsica (2


o
a no), Depto. de Fsica, UNLP. Prof.: R. Rossignoli
0. Repaso de estructuras algebraicas basicas
Un sistema algebraico es un conjunto no vaco de elementos, A, junto con un conjunto de operaciones
cerradas sobre A que satisfacen ciertas propiedades.
Un monoide es un sistema algebraico {A, } formado por un conjunto A y una operacion binaria cerrada
: AA A (tambien llamada ley de composicion interna).
Ejemplos bien conocidos son {R, +} (el conj. de num. reales con la suma), {R, } (los reales con el prod.)
{R
+
, } (los reales positivos con el producto). En cambio, {R

, }, donde R

denota los reales negativos, no


es un monoide pues la operacion no es cerrada.
Un grupo es un monoide {A, } donde A y la operacion satisfacen
1) Asociatividad: a (b c) = (a b) c a, b, c A
2) Existencia de elemento identidad: I A t.q. a A, a I = I a = a
3) Existencia de elemento inverso: a A a
1
A t.q. a a
1
= a
1
a = I
Un semigrupo es un monoide {A, } que satisface la prop. 1), aunque no necesariamente 2) y 3).
Recordemos la unicidad de la identidad y de la inversa:
i) La identidad I, si existe, es unica: Supongamos que I, I

t.q. I a = a, a I

= a a A. Entonces
I I

= I

(caso a = I

) y I I

= I (caso a = I) por lo que I

= I. Esto muestra tambien que si existe una


identidad a izquierda I y una identidad a derecha I

, necesariamente son coincidentes!


ii) La inversa b = a
1
de a, si existe, es unica: Supongamos que otra inversa b

. Entonces b (a b

) =
b I = b, pero por asociatividad, b (a b

) = (b a) b

= I b

= b

, de donde b = b

.
Esto muestra tambien que si una inversa a izquierda b y una inversa a derecha b

necesariamente son
coincidentes. Puede ocurrir, no obstante, que exista inversa a izquierda pero no a derecha, y viceversa, en
cuyo caso pueden no ser unicas, como veremos posteriormente.
Si la operacion binaria satisface a a

= a

a a, a

A, se dice que es conmutativa. En tal caso, el


grupo se denomina conmutativo o abeliano. En caso contrario el grupo es no abeliano o no conmutativo.
Ejemplos de grupos abelianos son:
1) {R, +}, donde la identidad es el 0 y el inverso de a R el opuesto a
2) {R
0
, }, donde R
0
denota los reales sin el 0, la identidad es el 1 y el elemento inverso a
1
= 1/a
3){R
2
, +}, donde la identidad es el vector nulo (0, 0) y el inverso de a = (x, y) el vector opuesto (x, y)
4) {R
22
, +}, donde la identidad es la matriz nula (
0 0
0 0
) y el inverso de a = (
x y
z t
) la matriz opuesta (
x y
z t
).
N otese en cambio que {R
3
, }, donde denota el producto vectorial, es un monoide pero no es grupo
ni semigrupo pues el producto vectorial no es asociatvo (por ej.,

i (

j) =

k =

j = (

i)

j =

0).
Ejemplos de grupos no abelianos son:
1) GL(n): {M, }, donde M = {A R
nn
, Det[A] = 0} es el conjunto de matrices reales de n n de
determinante no nulo y la operacion de multiplicaci on matricial usual (Grupo gral. lineal). En efecto,
i) la operacion es cerrada en el conjunto pues si A, B M, A.B R
nn
y Det[A B] = Det[A]Det[B] = 0
ii) el producto matricial es asociativo
iii) La identidad I M (Det[I] = 1 = 0)
iv) Si A M Det A = 0 y por lo tanto la matriz inversa A
1
t.q. A A
1
= A
1
A = I. Por su puesto,
A
1
M pues Det[A
1
] = 1/Det[A] = 0.
Ejercicio: Explicar, considerando la multiplicaci on matricial usual, por que
1a) el conjunto de matrices reales de 2 2 de determinante 2 no es un grupo.
1b) el conjunto de todas las matrices reales de 2 2 sin la matriz nula (
0 0
0 0
), tampoco es grupo.
1c) el conjunto de matrices reales de 2 2 de determinante 1 si es un grupo.
1
2) O(n): Grupo de matrices reales ortogonales de n n (con la multiplicaci on matricial usual), donde
ortogonal signica que A
1
= A
t
(matriz traspuesta), es decir, AA
t
= A
t
A = I. En efecto,
i) Si A, B O(n), (AB)
1
= B
1
A
1
= B
t
A
t
= (AB)
t
, por lo que AB O(n)
ii) El producto matricial es asociativo
iii) I A, ya que I
1
= I = I
t
. Aqu I denota la matriz identidad, de elementos I
ij
=
ij
= {
1, i=j
0, i=j
.
iv) si A O(n) A
1
= A
t
O(n) pues (A
1
)
1
= (A
t
)
1
= (A
1
)
t
.
Notemos que si AA
t
= I Det[AA
t
] = Det[A]
2
= Det[I] = 1, por lo que Det[A] = 1.
3) SO(n) : grupo de matrices reales ortogonales de n n de determinante 1.
Este subconjunto de O(n) es tambien un grupo, pues
i) Si A, B SO(n), Det[AB] = Det[A]Det[B] = 1
iii) I SO(n) pues Det[I] = 1
iv) A
1
SO(n) pues Det[A
1
] = 1/Det[A] = 1.
Veremos luego que SO(n) es el grupo de rotaciones en R
n
(rotaciones alrededor de ejes que pasen por el
origen, es decir, que dejan el origen jo).
4) U(n): Grupo de matrices complejas unitarias de n n, con la operacion de multiplicaci on matricial
usual, donde unitario signica que A
1
= A

, siendo A

(A
t
)

(matriz traspuesta conjugada).


Se deja como ejercicio mostrar que es grupo.
5) SU(n): Grupo de matrices complejas unitarias de n n de determinante 1.
Se deja tambien como ejercicio mostrar que es grupo.
Los grupos anteriores constan de un n umero innito de elementos. Un grupo puede tambien constar de
un n umero nito de elementos (grupo nito). Por ejemplo, {{1, 1}, .} es un grupo con el producto usual,
y tambien lo es {{(
1 0
0 1
), (
1 0
0 1
)}, } con el producto matricial usual.
Dado que el conjunto de operaciones geometricas (rotaciones, reexiones, etc.) que dejan invariante un
cierto sistema fsico forma un grupo con respecto a la operacion de composicion, los grupos juegan un rol
fundamental en Fsica, especialmente en Mecanica Cuantica, caracterizando las simetras y determinando
sus consecuencias.
Un anillo {A, +, } es un conjunto A munido de dos operaciones binarias que satisface :
1) {A, +} es un grupo abeliano
2) a (b c) = (a b) c a, b, c A (Asociatividad de )
3) a (b +c) = a b +a c, (b +c) a = b a +c a (Distributividad)
Si adem as a b = b a a, b A el anillo es conmutativo.
Ej.: {Z, +, } es anillo conmutativo.
El inverso respecto de + se denomina opuesto, y la identidad respecto de + elemento neutro o 0.
Un cuerpo o campo {F, +, } es un conjunto F munido de dos operaciones binarias +, que satisface:
1) {F, +} es grupo abeliano
2) {F
0
, } es grupo abeliano, donde F
0
es el conjunto de elementos de F distintos de 0 (elem. neutro)
3) es distributiva con respecto a +.
La identidad respecto de se denomina 1 (unidad). Un cuerpo es pues un anillo conmutativo con unidad
donde a F
0
a
1
F
0
tal que a
1
a = a a
1
= 1.
Ejemplos: {R, +, }, {C, +, } son cuerpos. En cambio, {Z, +, } no es cuerpo pues la inversa de un en-
tero no es necesariamente entero.
Los cuerpos pueden constar tambien de un n umero nito de elementos. El menor es Z
2
= {A = {0, 1}, +, },
donde + y denotan la suma y producto m odulo 2 (el resto de dividir la suma y mult. ordinarias por 2):
0 + 0 = 0, 0 + 1 = 1, 1 + 1 = 0, 0 0 = 0 1 = 0, 1 1 = 1.
En general, Z
p
= {(0, 1, . . . , p 1), +, }, con + y la suma y producto m odulo p, es cuerpo para p primo.
Esto puede demostrarse a partir del peque no teorema de Fermat: Si p es primo a
p
= a (mod p) a
entero.
2
1. Espacios vectoriales
Partiendo del concepto intuitivo de vectores de R
2
o R
3
, extenderemos el concepto de vector a elementos
de un sistema algebraico abstracto, llamado espacio vectorial (o lineal), en el que se cumplen propiedades
an alogas a las de R
2
o R
3
con respecto a la suma de vectores y a la multiplicaci on de un vector por un
n umero real. Remarquemos que estas dos operaciones son cerradas en R
2
y en R
3
.
Denici on: Sea {K, +, } un cuerpo, y sea {V, } un grupo abeliano. Un espacio vectorial V sobre el
cuerpo K, denotado por V (K), es una estructura algebraica {K, +, , V, , } donde : V K V denota
una multiplicaci on de elementos de K por elementos de V que da como resultado un elemento de V y que
satistface: , K y v, w V :
1) (v w) = ( v) ( w)
2) ( +) v = ( v) ( v)
3) ( ) v = ( v)
4) 1 v = v
donde 1 denota la identidad del cuerpo K respecto del producto.
Los elementos de V se denominan vectores y los de K escalares.
En el caso de R
2
, {V, } es el grupo {R
2
, +}, con = + la suma usual de vectores, y {K, +, } el cuerpo de
los reales {R, +, } con la suma y producto usual. La operacion es el producto de un vector por un n umero
real.
La denicion general extiende pues {R
2
, +} a un grupo abeliano arbitrario {V, } y {R, +, } a un cuerpo
arbitrario {K, +, }. Si este es el cuerpo de los reales {R, +, }, el espacio vectorial se dice real, y si es el
cuerpo de los complejos {C, +, }, el espacio vectorial se dice complejo.
En los sucesivo, para aligerar la notaci on seguiremos la costumbre universal de denotar la operacion
(suma de vectores) tambien con + y de omitir los smbolos y , quedando la multiplicaci on de escalares y
de escalares por vectores automaticamente asumida. Las 4 condiciones anteriores se reescriben como:
1) (v +w) = v +w
2) ( +)v = v +v
3) ()v = (v)
4) 1v = v
De la denicion de espacio vectorial se desprende que si v, w V y , K, la combinacion lineal
u = v +w
queda automaticamente denida y pertenece tambien a V , para todo par de elementos y del cuerpo y
v, w de V . Esta, podemos armar, es la caracterstica principal de un espacio vectorial. Es decir, es posbile
multiplicar un vector por un escalar, lo cual es siempre otro vector de V , y tambien es posible sumar dos
vectores cualesquiera, siendo la suma tambien un vector de V .
En general, si v
i
V ,
i
K, i = 1, . . . , n,
v =
1
v
1
+. . . +
n
v
n
se denomina combinacion lineal de los vectores v
1
, . . . , v
n
, y es un vector V . Los escalares
1
, . . . ,
n
se
denominan los coecientes de la combinacion lineal.
Por ejemplo, el conjunto de todos los vectores del plano forma un espacio vectorial sobre R con la suma
usual, pero el conjunto de los vectores del plano superior {(x, y) R
2
, y 0} NO es un espacio vectorial
pues 1 (x, y) = (x, y) pertenece al plano inferior.
Debe destacarse adem as que el producto de vectores (escalar, vectorial u otro) no juega absolutamente
ning un rol en la denicion de espacio vectorial, y puede no estar denido en el mismo.
3
Demostremos ahora cuatro propiedades basicas validas en cualquier espacio vectorial:
a) 0v = 0 v V
donde el primer 0 denota el 0 del cuerpo K (el elemento neutro respecto de la operacion + para escalares)
y el segundo el cero de V (la identidad respecto de la operacion + para vectores).
En efecto, 0v = (0+0)v = 0v+0v por (2). Sumando el inverso (0v) ((0v)+(0v) = 0) en ambos miembros
obtenemos 0 = (0v) + 0 = 0v, por lo que 0v = 0.
b) 0 = 0 K
donde 0 denota el cero de V . Tenemos 0 = (0 + 0) = 0 + 0, por 1). Sumando el inverso (0) en
ambos miembros se obtiene 0 = (0) + 0 = 0, por lo que 0 = 0.
c) ()v = 1(v) = (v) = (v)
Tenemos, por 3), ()v = (1)v = 1(v).
Adem as, ()v +v = ( +)v = 0v = 0 por 2) y a), por lo que ()v = (v) (opuesto de v).
Finalmente, de b) y 1), 0 = 0 = (v + (v)) = v + ((v)), por lo que (v) es tambien el opuesto de
v y por lo tanto coincide con ()v (unicidad del opuesto!).
d) Si v = 0 = 0 o v = 0.
En efecto, por b), 3) y 4), si = 0 0 =
1
0 =
1
(v) = (
1
)v = 1v = v por lo que v = 0. Por a),
tambien se cumple si = 0.
Ejemplos de espacios vectoriales:
1) K
n
= {(x
1
, . . . , x
n
), x
i
K, i = 1, . . . , n}
Es el conjunto de n-uplas de elementos del cuerpo K. La suma de vectores se dene como
(x
1
, . . . , x
n
) + (x

1
, . . . , x

n
) = (x
1
+x

1
, . . . , x
n
+x

n
)
y la multiplicaci on por un escalar K como
(x
1
, . . . , x
n
) = (x
1
, . . . , x
n
)
El elemento neutro es (0, . . . , 0) y el opuesto de (x
1
, . . . , x
n
) es (x
1
, . . . , x
n
) = (x
1
, . . . , x
n
).
El caso n = 1 corresponde a tomar los elementos del cuerpo como vectores y escalares al mismo tiempo (es
decir, como grupo abeliano {K, +} y cuerpo {K, +, }).
El caso K = R con la suma y producto usual de n umeros reales, se denomina espacio cartesiano. R
1
consiste
en tomar los reales como vectores y escalares al mismo tiempo, y corresponde geometricamente a una recta.
R
2
corresponde al plano y R
3
al espacio cartesiano tridimensional.
Si K = C, con + y la suma y producto usual de n umeros complejos, se obtiene el espacio C
n
, es decir, el
conjunto de n-uplas complejas {(z
1
, . . . , z
n
), z
i
C, i = 1, . . . , n}, con escalares tambien complejos.
Se lo denota usualmente por C
n
(C), para distinguirlo del espacio C
n
(R), que es similar al anterior pero con
los escalares restringidos a n umeros reales, es decir,
i
R. Puede verse facilmente que C
n
(R) es tambien
un espacio vectorial.
2) K
mn
. Es el conjunto de matrices A de m n con elementos A
ij
= x
ij
pertenecientes al cuerpo K,
i = 1, . . . , m, j = 1, . . . , n, consideradas con la suma usual y el producto usual por un escalar. La suma se
dene por

x
11
. . . x
1n
. . .
x
m1
. . . x
mn

y
11
. . . y
1n
. . .
y
m1
. . . y
mn

x
11
+y
11
. . . x
1n
+y
1n
. . .
x
m1
+y
m1
. . . x
mn
+y
mn

y la multiplicaci on por un escalar como

x
11
. . . x
1n
. . .
x
m1
. . . x
mn

x
11
. . . x
1n
. . .
x
m1
. . .
mn

El elemento neutro es la matriz nula 0 =

0 . . . 0
. . .
0 . . . 0

, y el opuesto de Aes A =

x
11
. . . x
1n
. . .
x
m1
. . . x
mn

.
Si K = R se obtiene el espacio de matrices reales de mn, y si K = C, el de matrices complejas de mn.
Este ultimo puede considerarse con escalares complejos (C
mn
(C)) o reales (C
mn
(R)).
4
3) En general, si D es un conjunto no vaco, puede denirse el espacio vectorial
K
D
= {f | f es funcion de D en K}
es decir, el conjunto de las funciones f : D K. La suma y producto de funciones se dene como
(f +g)(x) = f(x) +g(x), (f)(x) = f(x)
x D, siendo el cero la funcion nula 0(x) = 0 x D. Se verican facilmente que se satisfacen todas las
condiciones de espacio vectorial. Por ejemplo,
[(f +g)](x) = [(f +g)(x)] = (f(x) +g(x)) = f(x) +g(x) = (f +g)(x).
[( +)f](x) = ( +)f(x) = f(x) +f(x) = (f +f)(x)
(vericacion de las restantes a cargo del lector si lo considera necesario).
As, si D es el conjunto {1, . . . , n}, K
n
es equivalente al espacio de n-uplas K
n
anterior.
Si K = D = R, se obtiene el espacio vectorial de funciones reales R
R
= {f|f : R R}, y si K = D = C, el
espacio de funciones complejas C
C
= {f|f : C C}.
Si D = N, se obtiene el espacio vectorial de sucesiones de elementos de K, {x
n
} (x
1
, x
2
, . . .).
2. Subespacios
Un subconjunto de vectores S V es un subespacio de V si es tambien un espacio vectorial.
Como consecuencia, un subconjunto de vectores S V no vaco es un subespacio si y s olo si S es cerrado
bajo las operaciones de suma de vectores y multiplicaci on por escalar. Debe cumplirse entonces
0) 0 S (asegura que no sea vaco)
1) Si v, w S v +w S
2) Si v S y K v S
Si se sabe que es no vaco bastan 1) y 2), pues si v S, 0 = 0v S por 2).
Dem.: Es evidente que estas condiciones son necesarias. Para probar la suciencia, podemos ver que por
1), la operacion de suma es cerrada y asociativa en S, que por 0) o 2) 0 S y que v S el elemento
opuesto v = 1v S por 2), de modo que {S, +} es grupo abeliano. Adem as, el producto de un vector
de S por un escalar es siempre otro vector de S, por 2), por lo que la combinacion lineal v +w pertence
siempre a S. Las demas condiciones 1-4 se heredan de V , pues las operaciones son las mismas.
Cualquier espacio vectorial contiene siempre dos subespacios triviales: S = V y S = {0} (el vector nulo).
Ejemplos:
1) Si V = R
2
, S = {(x, y) | ax + by = 0, a, b R, a = 0 o b = 0} es siempre un subespacio
de R
2
, que representa geometricamente una recta que pasa el origen. En efecto, si (x, y), (x

, y

) S,
(x, y) + (x

, y

) = (x + x

, y + y

) S pues a(x + x

) + b(y + y

) = (ax + by) + (ax

+ by

) = 0 + 0 = 0, y
(x, y) = (x, y) S pues ax +by = (ax +by) = 0.
Geometricamente, los subespacios no triviales de R
2
son pues rectas que pasan por el origen.
2) Si V = R
3
, se prueba en forma an aloga que los subespacios no triviales son planos o rectas que pasan por
el origen, es decir, S = {(x, y, z) | ax +by +cz = 0, con (a, b, c) vector no nulo} (plano a (a, b, c)) o
S = {(x, y, z) | ax + by + cz = 0, dx + ey + fz = 0, con (a, b, c), (d, e, f) vectores no nulos y no paralelos}
(rectas).
Por ejemplo, S = {(x, y, z) | x+y +z = 0} es un subespacio de R
3
que representa geometricamente un plano
( a (1, 1, 1)) que contiene al origen, S = {(x, y, z) | x+y+z = 0, xy = 0} es un subespacio que representa
a una recta que pasa por el origen ( a (1, 1, 2)) pero C = {(x, y, z) | x+y +z = 1}, D = {(x, y, z) | x 0},
y E = {(x, y, z) | x
2
+y = 0} NO son subespacios (probar!).
En general, si V = K
n
, S = {(x
1
, . . . , x
n
) | a
i1
x
1
+ . . . + a
in
x
n
= 0, i = 1, . . . , m, a
in
K} es siempre un
subespacio de V (que puede ser {0} si la unica solucion al sistema es x
i
= 0 para i = 1, . . . , n, o V si todos
los coecientes a
ij
son nulos). Corresponde en general a un hiperplano que pasa por el origen. Se prueba
de la misma manera anterior (hecho en clase y se deja como ejercicio).
5
3) Si V = R
nn
, son subespacios:
El conjunto de matrices diagonales (A
ij
= 0 si i = j)
El conjunto de matrices simetricas (A
ij
= A
ji
i, j)
El conjunto de matrices antisimetricas (A
ij
= A
ji
i, j)
El conjunto de matrices donde los coecientes satisfacen un conjunto de ecuaciones lineales homogeneas

i,j
a
kij
A
ij
= 0, k = 1, . . . , p, que incluye como casos particulares todos los anteriores.
4) Si V = R
R
(funciones reales de R en R), el conjunto de los polinomios, es decir, de las funciones
f(x) = a
0
+a
1
x +. . . +a
n
x
n
con a
i
R, es un subespacio de V . Es claro que la suma es tambien un polinomio, que la funcion nula 0 es
un polinomio (de grado 0) y que el producto de un polinomio por un escalar es un polinomio.
En cambio, el conjunto de los polinomios de grado jo n > 0 NO es un subespacio, ya que en particular 0
no pertenece al mismo (y la suma no es cerrada).
El conjunto de polinomios de grado n si es en cambio un subespacio.
Tambien lo son, por ejemplo (probarlo como ejercicio):
i) el conjunto de funciones reales continuas
ii) el i) el conjunto de funciones reales derivables
iii) el de funciones que satisfacen f(a) = 0 para un cierto a R (o en general,

m
i=1

i
f(a
i
) = 0)
iv) el conjunto de funciones de perodo L (f(x +L) = f(x) x R).
v) el conjunto de funciones pares (f(x) = f(x)) y el de funciones impares (f(x) = f(x)).
Subespacio generado por un conjunto de vectores
Dado un conjunto M = {v
1
, . . . , v
m
} de vectores V , el conjunto de combinaciones lineales
M = {
1
v
1
+. . . +
m
v
m
,
i
K, i = 1, . . . , m}
es un subespacio de V denominado subespacio generado por M. Es facil ver que es un subespacio, ya que
0) 0 = 0v
1
+. . . 0v
m
M
1) (
1
v
1
+. . . +
m
v
m
) + (

1
v
1
+. . . +

m
v
m
) = (
1
+

1
)v
1
+. . . + (
m
+

m
)v
m
M
2) (
1
v
1
+. . . +
m
v
m
) = (
1
)v
1
+. . . + (
m
)v
m
M
donde, para i = 1, . . . , m,
i
,

i
, K .
Los vectores de M se denominan generadores de M.
En general, para un conjunto aribtrario M V , podemos denir M como el conjunto de todas las combina-
ciones lineales nitas de vectores de M. En particular, si S es un subespacio S = S, pues un subespacio
debe contener todas las combinaciones lineales de sus vectores.
Como consecuencia, M es el menor subespacio que contiene a M: Si S es un subespacio y M S M S,
ya que S debe contener a toda combinacion lineal de sus elementos.
Ejemplo: En V = R
3
, si M = {(1, 0, 0), (1, 1, 0}} M = {(x + y, y, 0)| x, y R} es el plano determinado
por los vectores de M.
Un espacio vectorial V se llama nitamente generado si existe un conjunto nito de vectores M tal
que M = V .
Por ejemplo, R
2
puede ser generado por los vectores (1, 0) y (0, 1), ya que (x, y) = x(1, 0)+y(0, 1), y tambien
por los vectores (1, 1) y (0, 1), ya que (x, y) = x(1, 1) + (y x)(0, 1). Tambien puede ser generado por los
vectores (1, 0), (0, 1) y (1, 1), ya que (x, y) = (x z)(1, 0) + (y z)(0, 1) +z(1, 1), con z arbitrario.
El espacio R
R
de funciones reales f : R R no puede ser en cambio generado por conjunto nito de vectores.
Intersecci on, Uni on y Suma de subespacios
1) La Intersecci on S = S
1
S
2
de dos subespacios S
1
, S
2
, es un subespacio.
En efecto, 0 S
1
y 0 S
2
, por lo que 0 S
1
S
2
. Adem as, si u, v, S, u, v S
1
y u, v, S
2
, por lo que
u +v S
1
y u +v S
2
, y por lo tanto u +v S. An alogamente, u S
1
y u S
2
, de modo que u S.
Por ejemplo, en V = R
2
, si S
1
= {(x, y), x + y = 0} y S
2
= {(x, y), x y = 0} S
1
S
2
= {(0, 0)}
6
(Geometricamente la interseccion de dos rectas distintas que pasan por el origen es (0, 0)).
Y en V = R
3
, si S
1
= {(x, y, z)|x+y+z = 0} y S
2
= {(x, y, z)|xyz = 0} S
1
S
2
= {(0, y, z)|y+z = 0}
(Geometricamente la interseccion de dos planos distintos que pasan por el origen es una recta).
2) La Uni on de dos subespacios No es en general un subespacio. Por ejemplo, en el caso pre-anterior,
S
1
S
2
= {(x, y) | y = |x|} no es un subespacio, ya que no es cerrado por la operacion de suma de vectores
(aunque s lo es por el producto por escalares!).
3) La Suma de subespacios S = S
1
+S
2
, denida por
S
1
+S
2
= {v = v
1
+v
2
, v
1
S
1
, v
2
S
2
}
es un subespacio. En efecto, 1) 0 = 0 + 0 S, 2) si v = v
1
+ v
2
y u = u
1
+ u
2
, con u
i
, v
i
S
i

v +u = (v
1
+v
2
) + (u
1
+u
2
) = (v
1
+u
1
) + (v
2
+u
2
) S, y 3) si v = v
1
+v
2
, v = v
1
+v
2
S.
Obviamente S
1
S
2
S
1
+S
2
pues v
1
= v
1
+ 0, v
2
= 0 +v
2
.
En realidad, es facil demostrar que S
1
+S
2
= S
1
S
2
(probarlo!).
En el ejemplo anterior, S
1
+S
2
= {(x+x

, y +y

) | x+y = 0, x

= 0} = {(x+x

, x

x), x, x

R} = R
2
.
Suma directa: Si S
1
S
2
= {0}, se dice que la suma S
1
+S
2
es directa y se la escribe como S
1
S
2
.
Si S
1
S
2
= {0}, todo vector v S
1
+S
2
puede escribirse de manera unica como suma de un vector de S
1
y un vector de S
2
, y viceversa. En efecto, si
v = v
1
+v
2
= v

1
+v

2
con v
i
, v

i
S
i
0 = (v
1
v

1
)+(v
2
v

2
), por lo que (v
1
v

1
) = (v
2
v

2
), lo que implica, como v
2
v

2
S
2
,
que v
1
v

1
tambien a S
2
y por lo tanto a S
1
S
2
. Si S
1
S
2
= {0} v
1
v

1
= 0 = v
2
v

2
, por lo que
v
1
= v

1
, v
2
= v

2
.
An alogamente, si todo vector v S
1
+ S
2
puede escribirse de manera unica como v
1
+ v
2
y v S
1
S
2

v = v + 0 = 0 +v, por lo que la unica posibilidad es v = 0.
Demotraremos luego que dado un subespacio S
1
V , siempre existe un subespacio S
2
V tal que
V = S
1
S
2
(se demostrar a luego de introducir bases).
Ejemplos:
1) R
2
= S
1
S
2
, donde S
1
= {(x, 0)|x R} y S
2
= {(0, y), |y R}. En efecto, S
1
S
2
= {0} y v R
2
se
cumple v = (x, y) = v
1
+v
2
, donde v
1
= (x, 0) S
1
, v
2
= (0, y) S
2
.
Notemos, sin embargo, que tambien R
2
= S
1
S

2
, donde nuevamente S
1
= {(x, 0)|x R} pero S

2
=
{(x, x)|x R}. En efecto, S
1
S

2
= {0} y v V se cumple v = (x, y) = v
1
+v

2
, donde v
1
= (xy, 0) S
1
y v
2
= (y, y) S

2
.
2) R
nn
= R
nn
s
R
nn
a
, donde R
nn
s
, R
nn
a
denotan los subespacios de matrices simetricas y antisimetricas
respectivamente. En efecto, R
nn
s
R
nn
a
= {0} (pues si A R
nn
s
y A R
nn
a
A
ij
= A
ji
= A
ji
i, j,
por lo que A
ij
= 0 i, j). Adem as, toda matriz A puede escribirse como
A = A
s
+A
a
, A
s
=
1
2
(A+A
t
) R
nn
s
, A
a
=
1
2
(AA
t
) R
nn
a
donde A
t
es la matriz traspuesta, de modo que R
nn
s
R
nn
a
= R
nn
.
3) R
R
= R
R
p
R
R
i
, donde R
R
p
, R
R
i
denotan los subespacios de funciones pares e impares. En efecto, si
f(x) = f(x) = f(x) x f(x) = 0 x. Adem as, toda funcion puede escribirse como
f(x) = f
p
(x) +f
i
(x), f
p
(x) =
1
2
(f(x) +f(x)) R
R
p
, f
i
(x) =
1
2
(f(x) f(x)) R
R
i
Los desarrollos de Taylor alrededor del origen de f
p
y f
i
, si existen, contienen s olo potencias pares o impares
respect. Por ejemplo, si f(x) = e
x
, f
p
(x) = cosh(x), f
i
(x) = sinh(x).
7
Algebra Lineal: Aplicaciones a la Fsica, Curso 2012
3. Independencia lineal, bases y dimensi on
Los vectores v
1
, . . . , v
n
V son linealmente independientes (LI) si y s olo si (sii) la ecuaci on

1
v
1
+ . . . +
n
v
n
= 0
implica

1
=
2
= . . . =
n
= 0
De lo contrario, los vectores son linealmente dependientes (LD).
Para n = 1, esta denicion implica que v
1
es LI sii es un vector no nulo (Prop. basica d).
Si n > 1, los vectores son LD sii al menos uno de ellos puede escribirse como combinacion lineal de los
restantes, es decir, si pertence al espacio generado por los restantes. En efecto, si son LD existe al menos
un
i
, por ej.,
1
, que es no nulo (
1
= 0). En tal caso,
v
1
= (
2
v
2
+ . . . +
n
v
n
)/
1
An alogamente, si v
1
=
2
v
2
+. . . +
n
v
n
v
1

2
v
2
. . .
n
v
n
= 0, siendo
1
= 1 = 0, por lo que son LD.
Para n = 2, esto implica que dos vectores no nulos son LI sii no son proporcionales (es decir sii K t.q.
v
2
= v
1
). En V = R
3
, tres vectores no nulos y no paralelos son LI sii ninguno de ellos pertenece al plano
generado por los otros dos.
Si uno de los vectores es nulo, los vectores v
1
, . . . , v
n
son LD: Por ejemplo, si v
1
= 0
1
v
1
+0v
2
+. . .+0v
n
= 0
para
1
= 0, lo que implica que son LD.
En general, si el conjunto {v
1
, . . . , v
n
} contiene un subconjunto de vectores LD entonces el conjunto total es
LD (Probar).
Teorema. Sean {b
1
, . . . , b
n
} n vectores LI. Entonces los n vectores
v
j
=
n

i=1
S
ij
b
i
= S
1j
b
1
+ . . . + S
nj
b
n
, j = 1, . . . , n, S
ij
K (1)
son LI si y s olo si la matriz S de coecientes S
ij
(de n n) es no singular (Det[S] = 0).
Dem.: Si
0 =
n

j=1

j
v
j
=
n

j=1

j
(
n

i=1
S
ij
b
i
) =
n

i=1
(
n

j=1
S
ij

j
)b
i
=
n

i=1

i
b
i
,
i
=
n

j=1
S
ij

j
debe ser
i
= 0 para i = 1, . . . , n por ser los b
i
LI. Es decir,

n
j=1
S
ij

j
= 0, i = 1, . . . , n, o en forma
matricial,

S
11
. . . S
1n
. . .
S
n1
. . . S
nn

1
. . .

0
. . .
0

Esto constituye un sistema de n ecuaciones lineales homogeneas con n incognitas


j
, j = 1, . . . , n. Si los v
j
son LI, la unica solucion de este sistema debe ser
j
= 0 j y por lo tanto la matriz S debe ser no singular.
Por otro lado, si S es no singular, la unica solucion del sistema es
j
= 0 para j = 1, . . . , n y por lo tanto
los vectores v
j
son LI.
Corolario: Si S es no singular, el subespacio generado por M = {b
1
, . . . , b
n
} y M

= {v
1
, . . . , v
n
} es
el mismo (M = M

).
Dem.: Si S es no singular, existe la matriz inversa S
1
, t.q. SS
1
= S
1
S = I, es decir,

n
j=1
(S
1
)
kj
S
ji
=

ki
. Esto implica que existe la transformaci on inversa de (1), dada por
b
i
=
n

j=1
(S
1
)
ji
v
j
, i = 1, . . . , n (2)
ya que

n
j=1
(S
1
)
ji
v
j
=

n
j=1
(S
1
)
ji
(

n
k=1
S
kj
b
k
) =

n
k=1
(

n
j=1
S
kj
(S
1
)
ji
)b
k
=

n
k=1

ki
b
k
= b
i
.
Por lo tanto, de (1) es obvio que M

M (pues

n
j=1

j
v
j
=

n
i=1

i
b
i
, con
i
=

n
j=1
S
ij

j
), y de (2) es
obvio que M M

(pues

n
i=1

i
b
i
=

n
j=1

j
v
j
, con
j
=

n
i=1
(S
1
)
ji

i
), por lo que M = M

.
1
Ejemplo: Si {e
1
, e
2
, e
3
} es un conj. LI en un cierto espacio, los vectores v
1
= e
1
, v
2
= e
1
+ e
2
y
v
3
= e
1
+ e
2
+ e
3
son LI ya que Det[S] =

1 1 1
0 1 1
0 0 1

= 1 = 0. Como S
1
=

1 1 0
0 1 1
0 0 1

, la
transformacion inversa esta dada por e
1
= v
1
, e
2
= v
2
v
1
, e
3
= v
3
v
2
, como es facil comprobar. Los
vectores {v
1
, v
2
, v
3
} generan pues el mismo subespacio que {e
1
, e
2
, e
3
}.
Bases
Sea V un espacio vectorial, que supondremos distinto del subespacio trivial S = {0}. Un conjunto nito
B = {b
1
, . . . , b
n
} V es una base de V si los vectores de B
1) Son LI
2) Generan V (B = V ).
Existen muchas bases diferentes de un espacio vectorial.
Ejemplo 1: Si V = R
n
, el conjunto B = {e
1
, e
2
, . . . , e
n
}, con e
i
= (0, . . . , 0, 1
(i)
, 0, . . . , 0), es una base,
denominada base canonica de R
n
.
En efecto, son LI pues si 0 =
1
e
1
+ . . . +
n
e
n
= (
1
, . . . ,
n
)
1
= . . . =
n
= 0.
Y generan V pues (x
1
, . . . , x
n
) = x
1
e
1
+ . . . x
n
e
n
.
Pero tambien es base el conjunto {(1, 0, . . . , 0), (1, 1, 0, . . . , 0), . . . , (1, 1, . . . , 1)}. (Probarlo!).
Ejemplo 2: Escribir la base canonica de R
mn
.
Ejemplo 3: Si V es el subespacio de polinomios de grado 2, una base es {e
1
, e
2
, e
3
}, donde e
1
= 1, e
2
= x,
e
3
= x
2
, denominada tambien base canonica.
Tambien es base {b
1
, b
2
, b
3
}, con b
1
= e
1
, b
2
= e
1
+e
2
, b
3
= e
1
+e
2
+e
3
, como el lector podra facilmente probar.
Si V es generado por un conjunto nito de vectores M = {v
1
. . . , v
m
} y V = {0} existe una base
B = {b
1
, . . . , b
n
} de V incluida en M.
Dem.: Sea B = {b
1
, . . . , b
n
} un subconjunto de M tal que los vectores de B sean LI y el n umero n de
elementos de B sea m aximo. Obviamente n 1, pues M = V y V = {0}, por lo que existe al menos un
vector no nulo en M. Si v M v B, pues los vectores {v, b
1
, . . . , b
n
} son necesariamente LD (pues son
n + 1) y por lo tanto, existe una combinacion
0 = v +
1
b
1
+ . . . +
n
b
n
con coecientes no todos nulos. Si = 0 0 =
1
b
1
+. . .+
n
b
n
, pero en tal caso
i
= 0 i por por ser los b
i
LI. Por consiguiente, = 0 y v = (
1
b
1
+. . . +
n
b
n
)/ B. Por lo tanto, M B y entonces V = M = B.
Del teorema de la secci on anterior se desprenden ahora las sig. propiedades fundamentales.
Si B = {b
1
, . . . , b
n
} es una base de V , entonces:
1) Cualquier conjunto de n vectores LI {v
1
, . . . , v
n
} V es tambien una base de B.
Dem.: Como B es base, los n vectores v
j
pueden ser escritos en la forma (1), con S no singular dado que
son LI. Pero en tal caso el espacio generado es el mismo, por lo que forman tambien una base de V .
En particular, los n vectores v
j
=

n
i=1
S
ij
b
i
, j = 1, . . . , n, forman una base de V sii S es no singular.
2) Todo conjunto de n + 1 vectores {v
1
, . . . , v
n+1
} V es LD.
Dem.: Supongamos que son LI. los primeros n vectores son LI. Pero en tal caso forman una base, por el
corolario anterior, por lo que v
n+1
pertenece al espacio generado por ellos y el conjunto es entonces LD.
Todo conjunto con m > n vectores es por lo tanto tambien LD. Y un conjunto con m < n vectores no podra
ser base, pues en tal caso B no sera base.
Como consecuencia, todas las bases de un espacio V tienen el mismo n umero de elementos, n. A
ese n umero se lo denomina dimensi on del espacio V : n = dimV . Representa el m aximo n umero de vec-
tores LI. Un espacio en el que un N
o
arbitrariam. grande de vectores LI se dice que tiene dimension innita.
Ejemplo: La dimension de R
n
es n, y la de R
mn
, m n. La de R
R
es .
La dimension de C
n
(C) es tambien n (una base es {e
1
, . . . , e
n
}, con e
j
= (0, . . . , 1
(j)
, . . . , 0), j = 1, . . . , n),
mientras que la dimension de C
n
(R) es 2n (una base es {e
1
, . . . , e
n
, e
1
, . . . e
n
}, con e
j
= (0, . . . , i
(j)
, . . . , 0)).
2
4. Coordenadas de un vector en una base y cambio de base
Si B = {b
1
, . . . , b
n
} es una base de V , todo vector v V puede escribirse en forma unica como combinacion
lineal de elementos de B. Dem.: Si v V y
v =
1
b
1
+ . . . +
n
b
n
=

1
b
1
+ . . . +

n
b
n
entonces
0 = (
1

1
)b
1
+ . . . + (
n

n
)b
n
por lo que
i
=

i
para i = 1, . . . , n por ser los vectores LI.
An alogamente, si todo vector de V puede escribirse en forma unica como comb. lineal de los b
i
, estos son
LI pues en particular, la unica forma de escribir el vector nulo sera 0 = 0b
1
+ . . . 0b
n
.
Los coecientes
1
, . . . ,
n
que determinan el vector v son pues unicos y reciben el nombre de coordenadas
del vector v en la base dada.
Cambo de base
Consideremos en lo sucesivo bases ordenadas B = (b
1
, . . . , b
n
), con el objeto de asignar un orden determinado
a las componentes de un vector. Si B es una base de V , todo v B puede representarse como
v =
n

i=1

i
b
i
,
i
K
Consideremos ahora otra base B

= (b

1
, . . . , b

n
) de V . Por ser B base podemos tambien escribir
b

j
=
n

i=1
S
ij
b
i
, j = 1, . . . , n
donde los elementos S
ij
, i = 1, . . . , n (columna j de S) son las componentes de b

j
en la base B. La matriz
S =

S
11
. . . S
1n
. . . . . . . . .
S
n1
. . . S
nn

. . .
[b

1
]
B
. . . [b

n
]
B
. . .

se denomina matriz de cambio de base y debe ser no singular (Det[S] = 0), por lo demostrado anteriormente.
Podemos ahora escribir v en la base B

como
v =
n

j=1

j
b

j
donde

j
son las componentes de v en la base B

. Escribiendo b

j
en terminos de los b
i
, obtenemos
v =
n

j=1

j
(
n

i=1
S
ij
b
i
) =
n

i=1

i
b
i
,
i
=
n

j=1
S
ij

j
, i = 1, . . . , n
En forma matricial, esto puede escribirse como

1
. . .

S
11
. . . S
1n
. . . . . . . . .
S
n1
. . . S
nn

1
. . .

o, en forma concisa,
[v]
B
= S [v]
B

donde
[v]
B

1
. . .

, [v]
B
=

1
. . .

3
denotan las matrices columna de componentes de v en las bases B y B

respectivamente. Podemos entonces


determinar [v]
B
a partir de [v]
B
como
[v]
B
= S
1
[v]
B
donde S
1
es la matriz inversa de S. Remarquemos que la forma de construir S es notando que su columna
i es la matriz columna de componentes de b

i
en la base B, es decir, [b

i
]
B
. Notemos tambien que la columna
i de S
1
es la matriz de componentes de b
i
en la base B

([b
i
]
B
).
Fialmente, notemos que si v
1
, v
2
V y K, se tiene obviamente
[v
1
+ v
2
]
B
= [v
1
]
B
+ [v
2
]
B
, [v]
B
= [v]
B
Ejemplo 1: Sea B = (e
1
, e
2
), con e
1
= (1, 0), e
2
= (0, 1) la base canonica en R
2
. Consideremos ahora la
nueva base B

= (e

1
, e

2
), donde
e

1
= (1, 0), e

2
= (1, 1)
o sea, e

1
= e
1
, e

2
= e
1
+ e
2
. En este caso,
S =

1 1
0 1

, S
1
=

1 1
0 1

Por lo tanto, si v = (x, y) = xe


1
+ ye
2
, podemos escribir tambien v = x

1
+ y

2
con

1 1
0 1

x
y

x y
y

Se verica que x

1
+y

2
= (x y)e
1
+y(e
1
+e
2
) = x
1
e
1
+ye
2
. Notemos adem as que las columnas de S
1
son las coordenadas de la base canonica en la nueva base: e
1
= e

1
, e
2
= e

1
+ e

2
.
Ej. sugerido: Hallar las coordendadas de v = (x, y) en la base formada por e

1
= (1, 0), e

2
= (1, ), con = 0,
y analizar el lmite 0.
Ejemplo 2: Rotaci on en el plano. Sean nuevamente e
1
= (1, 0), e
2
= (0, 1) los vectores de la base canonica
en R
2
y sean e

1
= cos()e
1
+ sin()e
2
, e

2
= sin()e
1
+ cos()e
2
. Estos vectores son los vectores e
1
, e
2
rotados un angulo en sentido antihorario respecto del eje x (recordar dibujo hecho en clase). Tenemos
S =

cos() sin()
sin() cos()

, S
1
=

cos() sin()
sin() cos()

,
(o sea, S
1
() = S() = S()
t
). Por lo tanto, las componentes x

, y

en la base rotada de un vector


v = (x, y) = xe
1
+ ye
2
son

cos() sin()
sin() cos()

x
y

xcos() + y sin()
xsin() + y cos()

de forma que v = x

1
+ y

2
. (Vericar que x

1
+ y

2
= xe
1
+ ye
2
!).
Ejemplo 3: Ecuacion de una elipse rotada un angulo (antihorario) respecto del eje x. Respecto del
sistema rotado tenemos la ecuaci on
x
2
a
2
+
y
2
b
2
= 1
con a, b los semiejes de la elipse. Reemplazando x

= xcos() +y sin(), y

= xsin() +y cos(), obtenemos


x
2
(
cos
2

a
2
+
sin
2

b
2
) + y
2
(
sin
2

a
2
+
cos
2

b
2
) + xy sin(2)(
1
a
2

1
b
2
) = 1
Si a = b (circunferencia) la forma de la ecuaci on permanece invariante.
Ejemplo 4: Producto escalar usual en R
2
expresado en base arbitraria: El producto escalar usual en la
base canonica puede expresarse como
v
1
v
2
= x
1
x
2
+ y
1
y
2
= [v
1
]
t
e
[v
2
]
e
donde x
i
, y
i
, i = 1, 2 son las componentes de v
1
, v
2
en la base canonica (v
i
= (x
i
, y
i
)) y t denota traspuesto.
Reemplazando [v
i
]
e
= S[v
i
]
e
, obtenemos, para una base arbitraria e

,
v
1
v
2
= (S[v
1
]
e
)
t
(S[v
2
]
e
) = [v
1
]
t
e
(S
t
S)[v
2
]
e

El producto escalar queda entonces determinado por la matriz simetrica S


t
S y tendr a en general terminos
cruzados x
1
y
2
y x
2
y
1
adem as de diagonales proporcionales a x
1
x
2
y y
1
y
2
. En el caso de rotaciones,
S
t
= S
1
y por lo tanto la forma del producto escalar usual permanece invariante.
4
Algebra Lineal: Aplicaciones a la Fsica, Curso 2012
5. Transformaciones lineales
Una transformacion lineal (TL) es una funcion F : V V

entre dos espacios vectoriales V, V

sobre el
mismo cuerpo K que satisface
i) F(v
1
+ v
2
) = F(v
1
) + F(v
2
) v
1
, v
2
V
ii) F(v) = F(v) K, v V
es decir, F(
1
v
1
+
2
v
2
) =
1
F(v
1
) +
2
F(v
2
)
1
,
2
K y v
1
, v
2
V . F es pues un morsmo entre
espacios vectoriales. Si V

= V , F es un endomorsmo y en tal caso se denomina tambien operador lineal.


Propiedades fundamentales:
I) F(0) = 0 (el primer 0 es el vector nulo de V y el segundo el vector nulo de V

)
Dem.: F(0) = F(0 + 0) = F(0) + F(0) F(0) = 0
II) F(v) = F(v)
Dem.: 0 = F(0) = F(v + (v)) = F(v) + F(v), de donde F(v) = F(v).
(Tambien pueden demostrarse utilizando ii))
Ejemplos (probar como ej.):
1) F : V V denida por F(v) = v, con K, es TL K (incluso = 0).
Si = 1 F es la identidad (F(v) = v v V ), denotada por I.
Si = 0 F es la TL nula (F(v) = 0 v V ).
2) F : R
2
R
2
dada por F(x, y) = (x + y, 2y + x) es TL.
Tambien lo es F : R
2
R
3
dada por F(x, y) = (x + y, 2y + x, 3x + y).
3) F : R
2
R
2
dada por F(x, y) = (x + y
2
, 2y + x) no es TL. Tampoco lo es F(x, y) = (1 + x + y, 2y).
4) F : R
2
R
2
dada por F(x, y) = (ax + by, cx + dy) es TL a, b, c, d R.
5) F : R
n
R
m
dada por F(x
1
, . . . , x
n
) = (a
11
x
1
+. . . +a
1n
x
n
, . . . , a
m1
x
1
+. . . +a
mn
x
n
) es TL a
ij
R.
6) F : R
22
R
22
dada por F(A) = A
t
(traspuesta) es TL.
Tambien lo es F(A) = B A, con B matriz real ja de n n, y G(A) = B A + A C.
7) F : C C (C(R) es el subespacio de funciones reales continuas) dada por [F(f)](x) =

x
0
f(t)dt, es TL.
8) Si D R
R
es el subespacio de funciones reales derivables, F : D R
R
dada por F(f) = f

, es tambien TL.
M as propiedades fundamentales:
III) Si S es un subespacio de V , la imagen de S por f, F(S) = {F(v)|v S}, es un subespacio de V

.
En particular, si S = V , el subespacio F(V ) se denomina imagen de F y se denota I(F).
Dem.: Si v
1
, v
2
S F(v
1
) + F(v
2
) = F(v
1
+ v
2
) F(S) pues v
1
+ v
2
S.
Si K y v S F(v) = F(v) F(S) pues v S.
En particular, 0 F(S) (F(0) = 0)
IV) La pre-imagen de un subespacio S

de V

, S = {v V |F(v) S

} es un subespacio de V .
Dem.: 0 S pues F(0) = 0 S

.
Si v
1
, v
2
S v
1
+ v
2
S pues F(v
1
+ v
2
) = F(v
1
) + F(v
2
) S

Si K y v S v S pues F(v) = F(v) S

.
En particular, la pre-imagen de {0} (subespacio nulo de V

) se denomina n ucleo o espacio nulo de F y se


denota N(F): N(F) = {v V |F(v) = 0}.
V) Si v =

m
i=1

i
v
i
, con
i
K y v
i
V F(v) = F(

m
i=1

i
v
i
) =

m
i=1

i
F(v
i
)
Esto puede demostrarse facilmente por induccion (para los que no lo ven obvio).
Esta propiedad implica que la imagen del subespacio C generado por un subconjunto de vectores C =
{v
1
, . . . , v
m
} V es el subespacio F(C) generado por la imagen F(C) = {F(v
1
), . . . , F(v
m
)} V

:
F(C) = F(C)
En particular, si V es nitamente generado y B = {B
1
, . . . , B
n
} es una base de V , I(F) = F(B) = F(B).
En otras palabras, la imagen I(F) es el subespacio generado por los n vectores F(b
1
), . . . , F(b
n
) de V

.
Esto implica que una transformacion lineal queda completamente determinada por los vectores que asigna a
los elementos de una base, es decir, por los n vectores F(b
1
), . . . , F(b
n
):
1
Si v V v =

n
i=1

i
e
i
y F(v) =

n
i=1

i
F(e
i
).
N otese tambien que si v
1
, . . . , v
m
son L.D. (linealmente dependientes) los vectores F(v
1
), . . . , F(v
m
) son
tambien L.D.: Si 0 =

m
i=1

i
v
i
, con alg un
i
= 0 0 = F(

m
i=1

i
v
i
) =

m
i=1

i
F(v
i
).
VI) Si V es nitamente generado entonces
dimN(F) + dimI(F) = dimV
Dem.: Sea {b
1
, . . . , b
m
, b
m+1
, . . . , b
n
} base de V tal que {b
1
, . . . , b
m
} sea base de N(F) (F(b
i
) = 0 si i m).
Si v =

n
i=1

i
b
i
V
F(v) =
n

i=1

i
F(b
i
) =
n

i=m+1

i
F(b
i
)
pertenece al espacio generado por F(b
m+1
) . . . , F(b
n
). Adem as, F(b
m+1
), . . . , F(b
n
) son L.I. pues si
0 =
n

i=m+1

i
F(b
i
) = F(
n

i=m+1

i
b
i
)
el vector

n
i=m+1

i
b
i
N(F) y por tanto,

n
i=m+1

i
b
i
=

m
i=1

i
b
i
. Pero por independencia lineal de los
b
i
, debe ser
i
= 0 para i = 1, . . . , n, por lo que F(b
m+1
), . . . , F(b
n
) son L.I.
La dimension de la imagen es por lo tanto nm, y se cumple entonces dimN(F)+dimI(F) = m+(nm) =
n = dimV . La dimension de la imagen I(F) se denomina rango de F y la dimension del espacio nulo N(F)
nulidad de F.
Ejemplos simples:
1) F : V V dada por F(v) = v
Si = 0, N(F) = V , I(F) = {0}. Si dim V = n, dim N(F)+dim I(F) = n + 0 = n.
Si = 0, N(F) = {0}, I(F) = V . Si dim V = n, dim N(F)+dim I(F) = 0 + n = n.
2) F : R
2
R
2
dada por F(x, y) = (x, 0). N(F) = {(0, y)|y }, I(F) = {(x, 0)|x }.
dim N(Ff)+dim I(F)=1+1=2=dim V .
3) F : R
22
R
22
dada por F(A) = A
t
. N(F) = {0 (
0 0
0 0
), I(F) = R
2
; dim N(F)+dimI(F)=0+4=4
5.1 Representaci on matricial de funciones lineales:
Sea F : V V

, con V , V

nitamente generados de dimension n y m respect. Sea B = (b


1
, . . . , b
n
) una
base ordenada de V y B

= (b

1
, . . . , b

m
) una base ordenada de V

. Podemos escribir
F(b
i
) =
m

j=1
T
ji
b

j
, i = 1, . . . , n
donde T
ji
K son las coordenadas de F(b
i
) en la base B

de V

. Por lo tanto, si v V , v =

n
i=1

i
b
i
y
F(v) =
n

i=1

i
F(b
i
) =
n

i=1

i
m

j=1
T
ji
b

j
=
m

j=1
(
n

i=1
T
ji

i
)b

j
=
m

j=1

j
b

j
con

j
=

n
i=1
T
ji

i
, j = 1, . . . , m. Es decir, en forma matricial,

1
. . .

T
11
. . . T
1n
. . . . . . . . .
T
m1
. . . T
mn

1
. . .

,
que se escribe en forma concisa como
[F(v)]
B
= [F]
B
B
[v]
B
donde
[F(v)]
B
=

1
. . .

, [v]
B
=

1
. . .

,
2
son las coordenadas de F(v) en la base B

y de v en la base B, y
[F]
B
B
=

T
11
. . . T
1n
. . . . . . . . .
T
m1
. . . T
mn

. . .
[F(b
1
)]
B
. . . [F(b
n
)]
B

. . .

es la matriz de m n que representa la transformacion lineal B respecto de las bases B y B

de V y V

.
Esta matriz depende de las bases elegidas, pero una vez elegida las bases es claramente unica, ya que la
funcion lineal queda completamente determinada por los vectores que asigna a los elementos de una base.
En particular, si V = V

y B = B

,
[F(v)]
B
= [F]
B
B
[v]
B
Notemos que la funcion identidad I : V V denida por I(v) = v queda representada por la matriz
identidad I
n
: [I]
B
B
= I
n
. Por simplicidad, denotaremos a [F]
B
B
tambien como [F]
B
cuando quede claro que
estamos trabajando con operadores lineales representados en una misma base.
Ejemplo 1: Sea F : R
2
R
2
dada por F(x, y) = (2x + y, 4y + 3x). En la base canonica B = (b
1
, b
2
),
b
1
= (1, 0), b
2
= (0, 1), tenemos F(b
1
) = (2, 3) = 2b
1
+ 3b
2
, F(b
2
) = (1, 4) = b
1
+ 4b
2
, y la matriz que
representa a F en esta base es
[F]
B
B
=

2 1
3 4

Ejemplo 2: Reexion respecto del eje x en R


2
. Si F(v) es el vector obtenido al reejar v respecto del eje x,
tenemos (recordar dibujo) F(b
1
) = b
1
, F(b
2
) = b
2
y por lo tanto
[F]
B
B
=

1 0
0 1

Ejemplo 3: Reexion respecto de la recta de ec. y = x en R


2
: Si F(v) es el vector obtenido al reejar v
respecto de la recta y = x, tenemos F(b
1
) = b
2
, F(b
2
) = b
1
y por lo tanto
[F]
B
B
=

0 1
1 0

Ejemplo 4: Rotaci on de angulo en R


2
. Si F(v) es el vector obtenido al rotar v un angulo antihorario,
tenemos (recordar dibujo) F(b
1
) = cos()b
1
+ sin()b
2
, F(b
2
) = sin()b
1
+ cos()b
2
y por lo tanto
[F]
B
B
=

cos() sin()
sin() cos()

Ejemplo 5: Rotaci on de angulo en R


3
alrededor del eje z. Si F(v) es el vector obtenido al rotar v un
angulo antihorario alrededor del eje z, tenemos, en la base canonica de R
3
, B = ((1, 0, 0), (0, 1, 0), (0, 0, 1)),
F(b
1
) = cos()b
1
+ sin()b
2
, F(b
2
) = sin()b
1
+ cos()b
2
y F(b
3
) = b
3
. Por lo tanto
[F]
B
B
=

cos() sin() 0
sin() cos() 0
0 0 1

Ejemplo 6: Sea P
n
el espacio de polinomios de grado n, y sea D : P
2
P
1
el operador derivaci on
restringido a polinomios de grado 2 con codominio P
1
. Sea (b
1
= 1, b
2
= t, b
3
= t
2
) la base canonica de
P
2
y (b

1
= 1, b

2
= t) la de P
1
. Tenemos D(b
1
) = 0, D(b
2
) = b

1
, D(b
3
) = 2b

2
y por lo tanto
[D]
B
B
=

0 1 0
0 0 2

Notemos que estas representaciones implican F(x, y) = (x, y) en (2), F(x, y) = (y, x) en (3), F(x, y) =
(xcos() + y sin(), xsin() + y cos()) en (4), F(x, y, z) = (xcos() + y sin(), xsin() + y cos(), z) en
(5) y D(x.1 + yt + zt
2
) = y.1 + 2zt en (6).
3
5.2 Cambio de base
Consideremos primero el caso de endomorsmos F : V V , y sean B = (b
1
, . . . , b
n
),

B = (

b
1
, . . . ,

b
n
) dos
bases ordenadas de V . Tenemos [v]
B
= S[v]

B
, [F(v)]
B
= S[F(v)]

B
, siendo S la matriz de cambio de base
(su columna i es el vector de coordenadas [

b
i
]
B
). Por lo tanto, v V ,
[F(v)]

B
= S
1
[F(v)]
B
= S
1
([F]
B
B
[v]
B
) = S
1
([F]
B
B
S[v]

B
) = (S
1
[F]
B
B
S)[v]

B
es decir, comparando con [F(v)]

B
= [F]

B
[v]

B
,
[F(v)]

B
= S
1
[F]
B
B
S
que implica tambien [F]
B
B
= S[f]

B
S
1
.
La matrices que representan a un endomorsmo F en diferentes bases son entonces semejantes (A de n n
es semejante a B de n n si A = S
1
BS, con S de n n no singular). Las matrices semejantes poseen el
mismo detereminante y la misma traza:
Det[A] = Det[S
1
BS] = Det[S
1
]Det[B]Det[S] = Det[B]
Tr[A] = Tr[S
1
BS] = Tr[BSS
1
] = Tr[B]
Recordemos que la traza se dene como la suma de todos los elementos diagonales de una matriz:
Tr[A] =
n

i=1
A
ii
y satisface Tr[AB] = Tr[BA] A, B de n n:

i,j
A
ij
B
ji
=

i,j
B
ij
A
ji
.
Las matrices que representan a un mismo operador lineal en distintas bases tienen pues el mismo determi-
nante y la misma traza. Estas cantidades permanecen invariantes frente a cambios de fase y constituyen
pues propiedades del operador, no dependientes de la representaci on.
La matriz S de cambio de base puede reescribirse en este contexto como la matriz que representa la
identidad I (I : V V denida por I(v) = v V V ) entre dos bases diferentes:
[v]

B
= [I(v)]

B
= [I]
B

B
[v]
B
Comparando con [v]

B
= S
1
[v]
B
, tenemos pues
S
1
= [I]
B

B
, S = [I]

B
B
Por lo tanto, en el caso de endomorsmos podemos escribir
[F]

B
= [I]
B

B
[F]
B
B
[I]

B
B
N otese tambien que la transformacion lineal G : V V denida por G[b
i
] =

b
i
, i = 1, . . . , n, puede
representarse en la base B por la matriz
[G]
B
B
= [I]
B

B
= S
mientras que [G]
B

B
es obviamente la matriz identidad I
n
.
Ejemplo 1: La matriz que representa a una reexi on F respecto de la recta de ec. y = x en R
2
, obtenida
anteriormente, se relaciona con aquella que representa a la reexi on respecto del eje x mediante un cambio de
base, y son por lo tanto semejantes. Si B = (b
1
, b
2
) es la base canonica, respecto de la base

b
1
= (b
1
+b
2
)/

2,

b
2
= (b
1
+ b
2
)/

2 (vectores unitarios paralelos a las rectas de ec. y = x y y = x) tenemos F(

b
1
) =

b
1
,
F(

b
2
) =

b
2
. Por lo tanto,
[F]

B
=

1 0
0 1

La base

B se relaciona con la base canonica mediante la matriz
S = [I]

B
B
=
1

1 1
1 1

4
con S
1
= S
t
= [I]
B

B
. Por lo tanto,
[F]
B
B
= S[F]

B
S
1
=

0 1
1 0

que es el resultado obtenido anteriormente. N otese que la matriz no es diagonal en la base canonica, pero
si lo es en la base

B.
Ejemplo 2: Construir la matriz que representa a una reexi on F respecto de una recta inclinada un angulo
(antihorario) respecto del eje x, en R
2
. Respecto de la base formada por

b
1
= cos()b
1
+ sin()b
2
,

b
2
= sin()b
1
+ cos()b
2
, tenemos nuevamente y por denicion de reexi on,
[F]

B
=

1 0
0 1

La base

B se relaciona con la base canonica B mediante la matriz de rotaci on
S = [I]

B
B
=

cos sin
sin cos

con S
1
= S
t
= [I]
B

B
. Por lo tanto,
[F]
B
B
= S[f]

B
S
1
=

cos(2) sin(2)
sin(2) cos(2)

N otese que existe una base (



B) donde la transformacion queda representada por una simple matriz diagonal.
Caso general: Llamemos

B = (

b
1
, . . . ,

b
n
) una nueva base de V y

B

= (

1
, . . . ,

m
) una nueva base
de V

, denidas por matrices de cambio de base S y S

respectivamente (S = [I]

B
B
, S

= [I]

). Dado que
[v]
B
= S[v]

B
y [F(v)]
B
= S

[F(v)]

, tenemos
[F(v)]

= S
1
[F(v)]
B
= S
1
[F]
B
B
(S[v]

B
) = (S
1
[F]
B
B
S)[v]

B
y por lo tanto, [F(v)]

= [F]

[v]

B
, con
[F]

= S

1
[F]
B
B
S = [I]
B

[F]
B
B
[I]

B
B
N otese que [F]

y [F]
B
B

son de mn, S

es de mm y S de n n.
Ejemplo: Sea D : P
2
P
1
la funcion derivaci on restringida a polinomios de grado 2 con codominio
P
1
y sea B = (1, t, t
2
) la base canonica de P
2
, B

= (1, t) la base canonica de P


1
,

B = (1, 1 +t, 1 +t +t
2
/2)
y

B

= (1, 1 + t). Tenemos


[D]
B
B
=

0 1 0
0 0 2

, S = [I]

B
B
=

1 1 1
0 1 1
0 0 1/2

, S

= [I]

B
=

1 1
0 1

con S

1
=

1 1
0 1

. Por lo tanto,
[D]

= S

1
[D]
B
B
S =

0 1 0
0 0 1

lo cual es tambien obvio a partir de la denicion de D.


5
5.3 Composici on (Producto) de operadores lineales
Sea F : V V

y G : V

dos transformaciones lineales. La composicion o producto (GF) : V V

se dene por
(GF)(v) = (G F)(v) = G(F(v))
El producto de transformaciones lineales es una transformacion lineal:
(GF)(v
1
+ v
2
) = G(F(v
1
+ v
2
)) = G(F(v
1
) + F(v
2
)) = G(F(v
1
)) + G(F(v
2
)) = (GF)(v
1
) + (GF)(v
2
)
(GF)(v) = G(F(v)) = G(F(v)) = G(F(v)) = (GF)(v)
Para espacios nitamente generados, la matriz [GF]
B
B

que representa a GF en las bases B, B

de V y V

,
es el producto de las matrices [G]
B

y [F]
B
B

que representan a F y G en bases B

, B

y B, B

, siendo B

una
base de V

:
[GF]
B
B
= [G]
B

B
[F]
B
B

Notemos que si las dimensiones de V , V

, V

son n, m, p respect. [GF]


B
B

es de p n, [G]
B

es de p m
y [F]
B
B

es de mn.
Dem.:
[(GF)(v)]
B
= [G(F(v))]
B
= [G]
B

B
[F(v)]
B
= [G]
B

B
([F]
B
B
[v]
B
) = ([G]
B

B
[F]
B
B
)[v]
B
En particular, si V = V

= V

, con B = B

= B

,
[(GF)]
B
B
= [G]
B
B
[F]
B
B
El producto de funciones as denido es obviamente asociativo (H(GF) = (HG)G para Gf : V V

,
G : V

y H : V

), pero en general, no conmutativo, a un cuando V = V

= V

.
Ejemplo: Consideremos la composicion en R
2
de una rotaci on F de /2 antihoraria seguida de una re-
exion G respecto del eje x: Tenemos, en la base canonica B = ((1, 0), (0, 1)):
[GF]
B
B
= [G]
B
B
[F]
B
B
=

1 0
0 1

0 1
1 0

0 1
1 0

= [H]
B
B
con H la reexi on respecto de la recta de ec. y = x (H es la reexi on respecto de la recta de ec. y = x)
Por otro lado, la composicion en sentido inverso, es decir una reexi on respecto del eje x seguida de una
rotaci on de /2, da como resultado
[FG]
B
B
= [F]
B
B
[G]
B
B
=

0 1
1 0

1 0
0 1

0 1
1 0

= [H]
B
B
Este sencillo ejemplo muestra que el producto de operadores lineales no es en general conmutativo.
En general, se dene el conmutador de dos operadores lineales F : V V , G : V V como
[F, G] = FGGF
La matriz que representa el conmutador es el conmutador de las matrices que representan F y G:
[[F, G]]
B
B
= [F]
B
B
[F]
B
B
[G]
B
B
[F]
B
B
En el ejemplo anterior, [F, G] = 2H ya que [[F, G]]
B
B
= 2[H]
B
B
.
5.4 El espacio vectorial de transformaciones lineales
Consideremos dos operadores lineales F : V V

, G : V V

. La suma (F + G) : V V

se dene como
(F + G)(v) = F(v) + G(v)
y es claramente una funcion lineal:
(F +G)(v
1
+v
2
) = F(v
1
+v
2
) +G(v
1
+v
2
) = F(v
1
) +F(v
2
) +G(v
1
) +Gg(v
2
) = (F +G)(v
1
) +(F +G)(v
2
)
6
(F + G)(v) = F(v) + G(v) = F(v) + G(v) = (F(v) + G(v)) = (F + G)(v)
Es facil vericar que la suma es conmutativa (F+G = G+F) y asociativa ((F+G)+H = F+(G+H)). Existe
adem as un elementro neutro 0, que es la funcion nula denida por 0(v) = 0 v V , con F +0 = 0+F = F.
El elemento opuesto de F es entonces F, denido por F(v) = (F(v)), que es tambien lineal. El con-
junto de las funciones lineales {F : V V

, F lineal} es pues un grupo abeliano con la operacion de suma.


El producto por un escalar K, (F) : V V

se dene obviamente como


(F)(v) = F(v)
y es tambien una funcion lineal:
(F)(v
1
+ v
2
) = F(v
1
+ v
2
) = (F(v
1
) + F(v
2
)) = F(v
1
) + F(v
2
) = (F)(v
1
) + (F)(v
2
)
(F)(v) = F(v) = (F(v)) = ()F(v) = ()F(v) = (F)(v)
Es facil vericar adem as que (F) = ()F, ( + )F = F + F, (F + G) = F + G, 1F = F.
El conjunto de todas las transformaciones lineales F : V V

es entonces un espacio vectorial sobre K,


denominado Hom(V, V

) (Homomorsmos de V en V

).
Notemos tambien que con respecto al producto (composicion) de funciones, la suma verica las propiedades
distributivas (G + H)F = GF + HF para F : V V

, y G, H : V

y H(F + G) = HF + HG para
H : V

y F, G : V V

. Adem as, por ser lineales, (GF) = (G)F = G(F) para K.


La matriz que representa a (F + G) en las bases B, B

es claramente la suma de matrices,


[F + G]
B
B
= [F]
B
B
+ [G]
B
B

y la que representa a (F) es obviamente


[F]
B
B
= [F]
B
B

En efecto, [(F+G)(v)]
B
= [F(v)+g(v)]
B
= [F(v)]
B
+[G(v)]
B
= [F]
B
B

[v]
B
+[G]
B
B

[v]
B
= ([F]
B
B

+[G]
B
B

)[v]
B
.
[(F)(v)]
B
= [F(v)]
B
= [F(v)]
B
= ([F]
B
B

[v]
B
) = ([F]
B
B

)[v]
B
.
7
6. Monomorsmos, Epimorsmos e Isomorsmos
I) Un monomorsmo es una TL F : V V

inyectiva (o sea, F(v


1
) = F(v
2
) si v
1
= v
2
).
F es un monomorsmo si y solo si N(F) = {0}.
Dem.: Si F es un monomorsmo y v = 0, F(v) = F(0) = 0 N(F) = {0}.
Si N(F) = {0} F(v
1
) F(v
2
) = F(v
1
v
2
) = 0 si v
1
v
2
= 0, o sea, F(v
1
) = F(v
2
) si v
1
= v
2
.
Como consecuencia, dim N(F) = 0. Por lo tanto, si V es de dimension nita, dim I(F) = dim V .
Y como I(F)V

, F puede ser un monomorsmo s olo si dim V dim V

.
Los monomorsmos conservan la independencia lineal: Si {v
1
, . . . , v
m
} son vectores LI de V y F es un
monomorsmo {F(v
1
), . . . , F(v
m
)} son vectores LI de V

. Dem.: Si
0 =
m

i=1

i
F(v
i
) = F(
m

i=1

i
v
i
)
entonces

m
i=1

i
v
i
N(F). Como N(F) = {0}

m
i=1

i
v
i
= 0, lo que implica
i
= 0 para i = 1, . . . , m
por ser los v
i
LI. Por lo tanto, {F(v
1
), . . . , F(v
m
)} son LI
En particular, si B = (b
1
, . . . , b
n
) es una base de un espacio V nitamente generado y F : V V

es un
monomorsmo, (F(b
1
), . . . , F(b
n
)) es una base de I(F).
II) Un epimorsmo es una TL F : V V

suryectiva (I(F) = V

). Si V

es de dimension nita F es
un epimorsmo si y s olo si dim I(F) = dim V

.
Como dim I(F) dim V , F puede ser un epimorsmo s olo si dim V

dim V .
III) Un isomorsmo es una TL biyectiva, es decir, es a la vez un monomorsmo y un epimorsmo.
En espacios de dimension nita, un isomorsmo puede entonces existir s olo si dim V =dim V

(pues por ser


monomorsmo, dim V dim V

y por ser epimorsmo, dim V

dim V .)
Si B = (b
1
, . . . , b
n
) es una base de V y F : V V

es un isomorsmo, {F(b
1
), . . . , F(b
n
)} es una base de V

,
pues son LI (por ser F monomorsmo) y generan V

(por ser F epimorsmo). Los isomorsmos transforman


entonces bases en bases.
Si V = V

, un operador que es un isomorsmo se dice no singular o automorsmo. En caso contrario se dice


singular.
Dados dos espacios V , V

sobre el mismo cuerpo K, se dice que V es isomorfo a V

si existe un isomorsmo
F : V V

. En tal caso existe pues una correspondencia uno a uno entre los elementos de V y V

.
Dos espacios vectoriales V , V

de dimension nita sobre el mismo cuerpo K son isomorfos si y solo si dim


V = dim V

.
Dem.: Ya hemos demostrado que si un isomorsmo entre V y V

dim V =dim V

.
Por otro lado, si dim V = dim V

= n y B = {b
1
, . . . , b
n
}, B

= {b

1
, . . . , b

n
} son bases de V y V

, la TL
denida por
F(b
i
) = b

i
, i = 1, . . . , n
(o sea F(B) = B

) es un isomorsmo. En efecto, es suryectiva, pues I(F) = F(B) = F(B) = B

= V

(o sea, si v

n
i=1

i
b

i
=

n
i=1

i
F(b
i
) = F(

n
i=1

i
b
i
) I(F)), por lo que I(F) = V

).
Esto implica que F es tambien un monomorsmo pues dim N(F) = dim V -dim I(F) =dim V -dim V

= 0,
lo que implica N(F) = {0}.
Notemos nalmente que si dim V = dim V

= n y F : V V

es una TL, son equivalentes:


a) F es un isomorsmo; b) F es monomorsmo; c) F es epimorsmo
como consecuencia de la relaci on dimN(F) + dimI(F) = dimV . En efecto, a) implica b)+c) (y viceversa)
por denicion, b) implica c) ya que en tal caso N(F) = {0} y por lo tanto dim I(F) = n, y c) implica b)
por la misma propiedad (pues si dim I(F) = n dim N(F) = 0 y por lo tanto N(F) = {0}).
No obstante, si V es de dimension innita, un operador lineal F : V V

puede ser monomorsmo sin


ser epimorsmo y viceversa. Pro ejemplo, si P es el espacio de polinomios reales, D : P P denido por
D(p(x)) = p

(x) (derivada) no es monomorsmo (D(1) = 0) pero es epimorsmo (probar como ejercicio).


Y el operador S : P P denido por S(p(x)) =

x
0
p(t)dt es monomorsmo (pues N(S) = {0}) pero no es
epimorsmo (probar como ej.).
8
IV) Si F : V V

es un isomorsmo la transformacion inversa F


1
: V

V , denida por F
1
(v

) = v,
con v el unico vector V tal que F(v) = v

, es lineal y es un isomorsmo.
Dem.: Si F es isomorsmo, la inversa F
1
es obviamente una funcion bien denida.
Si F(v
1
) = v

1
, F(v
2
) = v

2
F(v
1
+v
2
) = F(v
1
) +F(v
2
) = v

1
+v

2
, lo que implica F
1
(v

1
+v

2
) = v
1
+v
2
=
F
1
(v

1
) + Ff
1
(v

2
).
Si F(v) = v

y K F(v) = F(v) = v

, lo que implica F
1
(v

) = v = F
1
(v

).
F
1
es por lo tanto una TL.
Adem as, F
1
es un monomorsmo, pues N(F
1
) = {0} y es un epimorsmo pues si v V , v = F
1
(v

),
con v

= F(v), por lo que I(F


1
) = V .
Como consecuencia de la denicion, F(F
1
(v

)) = v

y F
1
(F(v)) = v v V . Por lo tanto,
FF
1
= I
V
, F
1
F = I
V
donde I
V
: V

denota la identidad en V

y I
V
: V V aquella en V . Para V y V

de dimension
nita, las matrices correspondientes satisfacen
[FF
1
]
B
= [F]
B
B
[F
1
]
B

B
= I
n
, [F
1
F]
B
= [F
1
]
B

B
[F]
B
B
= I
n
donde I
n
= [I
V
]
B
= [I
V
]
B
es la matriz identidad de n n. Por lo tanto, [F
1
]
B

B
es la matriz inversa de
[F]
B
B

:
[F
1
]
B

B
= ([F]
B
B
)
1
Una TL F : V V

entre espacios de dimension nita es pues un isomorsmo si y solo si esta representada


por matrices [F]
B
B

cuadradas no singulares (Det[F]


B
B

= 0).
Dem.: Si es isomorsmo, por lo visto anteriormente [F]
B
B

es cuadrada e invertible y por lo tanto no singular.


Y si [F]
B
B

es cuadrada no singular, la unica solucion de [F]


B
B

[v]
B
= 0 es [v]
B
= 0, es decir, v = 0. Esto
implica que N(F) = {0} y F es monomorsmo y por lo tanto isomorsmo.
Si V = V

, F es un operador no singular sii [F]


B
es una matriz no singular. En tal caso [F
1
]
B
= [F]
1
B
.
Recordemos que la inversa de una matriz no singular A (Det[A] = 0) puede obtenerse como
A
1
= C/Det[A], con C
ij
= (1)
i+j
Det[M
ji
]
donde Det denota el determinante y C la matriz de cofactores traspuesta, siendo M
ji
la matriz de (n1)
(n 1) obtenida al suprimir la la j y columna i de A.
Por ejemplo, si A es de 2 2,
A =

a b
c d

A
1
=
1
ad bc

d b
c a

Ejemplo 1): Si V es un espacio vectorial sobre el cuerpo K con dim V = n y B = (b


1
, . . . , b
n
) es una base
ordenada de V , la funcion R : V K
n
dada por
R(v) = [v]
B
=

1
. . .

donde v =

n
i=1

i
b
i
, es un isomorsmo.
En efecto, hemos demostrado anteriormente que R(v) es lineal ([v]
B
= [v]
B
y [v
1
+v
2
]
B
= [v
1
]
B
+[v
2
]
B
).
Adem as N(R) = {0} (pues [v]
B
= 0 (vector columna nulo) si y s olo si v = 0). Por lo tanto es un isomorsmo.
Esto implica en particular que un conjunto de vectores v
1
, . . . , v
m
V seran LI si y s olo si los correspondi-
entes vectores columna [v
1
]
B
, . . . , [v
m
]
B
K
n
son LI.
Ejemplo 2): Si dim V = n, dim V

= m y B, B

son bases ordenadas de V y V

, la funcion H : Hom(V, V

)
K
mn
dada por H(F) = [F]
B
B

es un isomorsmo.
En efecto, H es lineal (ya que [(F + G)]
B
B

= [F]
B
B

+ [G]
B
B

y [F]
B
B

= [F]
B
B

). Adem as, H es inyectiva,


pues N(H) = {0} (0 denota la funcion nula, representada en cualquier base por la matriz nula de mn (sus
elementos son todos 0)) y es tambien suryectiva, pues una matriz arbitraria T K
mn
corresponde a la
transformacion lineal denida por F(b
i
) =

m
j=1
T
ji
b

j
, i = 1, . . . , n. Es decir, I(H) = K
mn
. Esto implica
que dim Hom(V, V

) = dim K
mn
= m.n.
9
La dimension de la imagen de F puede calcularse evaluando el rango de la matriz T = [F]
B
B

de mn
(es decir, el n umero de columnas (o las) LI) en cualquier par de bases B, B

, ya que esto sera equivalente


al n umero de vectores F(b
i
) LI. Del mismo modo, la imagen I(F) puede obtenerse a partir del espacio
columna de T (es decir, el espacio generado por las columnas de T) y el n ucleo N(F) a partir del espacio
nulo de T (este ultimo es el conjunto de vectores [v]
B
K
n1
que satisfacen T[v]
B
= 0, y que son por tanto
ortogonales a todas las las de T).
Como base de K
mn
pueden elegirse las matrices E
ij
cuyo unico elemento no nulo es el ij, denidas por
E
ij
kl
= 1 si k = i y l = j y E
ij
kl
= 0 en caso contrario. Como base de Hom(V, V

) pueden elegirse las


correspondientes transformaciones lineales F
ij
denidas por F
ij
(e
l
) = 0 si l = j y F
ij
(e
l
) = e

i
si l = j, tal
que [F
ij
]
e
e

= E
ij
. Aqu e y e

denotan las bases canonicas de K


n
y K
m
respectivamente.
6.1 Rango, espacio columna y espacio la de una matriz.
Recordemos que el espacio columna (e.c.) de una matriz T de m n es el subespacio S
C
K
m1
gen-
erado por las n columnas de T, y el espacio la (e.f.) de T el subespacio S
F
K
1n
generado por las m
las de T. Estos subespacios son en general diferentes, pero tienen siempre la misma dimensi on (vease
demostraci on abajo). El rango de una matriz T es la dimension del e.f. o e.c. de la misma.
Recordemos tambien que el espacio nulo de T es el subespacio S
N
K
n1
formado por las soluciones
x K
n1
de la ecuaci on homogenea Tx = 0. Su dimension se denomina nulidad de T.
Consideremos ahora las relaciones entre F y la matriz T = [F]
B
B

de mn que representa a F en bases


B = (b
1
, . . . , b
n
), B

= (b

1
, . . . , b

m
) de V , V

La columna i de T es la matriz columna de componentes


[F(b
i
)]
B
, con [F(v)]
B
= T[v]
B
.
a) dim I(F) = rango(T).
En efecto, I(F) = {F(b
1
), . . . , F(b
n
)}, por lo que su dimension es el n umero de vectores F(b
i
) LI. Pero esto
coincide con el n umero de columnas [F(b
i
)]
B
LI de T (vease Ej. 1), que es la dimension del e.c. de T, es
decir su rango.
b) Como dim I(F) es independiente de las bases B y B

rango(T)=rango(T

) si T

= S
1
TS, con S

de
m m y S de n n no singulares, ya que T

corresponde a la representaci on de F en otro par de bases


(T

= [F]

, con S = [I]

B
B
, S

= [I]

).
c) dim N(F) = nulidad (T). En efecto, N(F) es el subespacio formado por los vectores v V que satisfacen
F(v) = 0, y por lo tanto, [F(v)]
B
= T[v]
B
= 0, de modo que [v]
B
pertence al espacio nulo de T. Y si x
pertenece al espacio nulo de T (Tx = 0) entonces F(v) = 0, con [v]
B
= x. Ambos subespacios son pues
isomorfos y tienen la misma dimension. Esto tambien implica que nulidad(T) =nulidad(T

) si T

= S
1
TS
con S

y S no singulares.
La relaci on dim N(F)+ dim I(F) = dim V = n implica entonces nulidad (T)+rango (T) = n.
d) La dimension del e.f. y del e.c. de una matriz arbitraria T de mn coinciden.
Dem.: Podemos considerar a T como la representaci on de una TL F : V V

en bases B y B

de V y V

,
con dim V = n, dim V

= m, tal que T = [F]


B
B

. En nuevas bases denidas por



B = (

b
1
, . . . ,

b
k
,

b
k+1
, . . . ,

b
n
)
tal que (

b
k+1
, . . . ,

b
n
) sea base de N(F), y

B

= (

1
, . . . ,

k
,

k+1
, . . . ,

m
) tal que

b

i
= F(b
i
) para i k
(recordar que estos son LI !) se tendr a [F(

b
i
)]

= 0 si i > k y ([F(

b
i
)]

)
j
=
ij
si i k, por lo que la
matriz T

= [F]

= S
1
TS, con S = [I]

B
B
y S

= [I]

no singulares, contendr a una submatriz identidad


de k k en las primeras k las, siendo las restantes nulas. La dim. del e.c. y del e.f. de esta matriz es por
lo tanto k.
Entonces k es la dimension de la imagen de F, por lo que la dim. del e.c. de T = S

S
1
sera k.
A su vez, el e.f. de T es el e.c. de T
t
. Como la dim. del e.c. de T
t
es tambien k, la dim. del e.c. de
T
t
= S
1 t
T
t
S
t
es entonces k, por ser S
t
, S
1 t
no singulares. Pero esta es la dim. del e.f. de T.
Una demostraci on alternativa que permite hallar una base del e.f. y del e.c. de T es la siguiente: Apli-
cando un n umero nito de operaciones elementales por la, se puede llevar T a la forma de escalonada de
10
Gauss-Jordan,
T

= S
1
T =

1 x . . . 0 x . . . 0 x . . .
0 0 . . . 1 x . . . 0 x . . .
0 0 . . . 0 0 . . . 1 x . . .
. . . . . . . . .
0 0 . . . 0 0 . . . 0 0 . . .
. . . . . . . . .

donde x representa elementos no necesariamente nulos, y S


1
una matriz no singular que es el producto de
las operaciones elementales. T

posee k las no nulas que son LI y por lo tanto la dimension del e.f. de T

(identico al espacio la de T, por ser las las de T

combinaciones lineales de las de T) es k. Una base del


e.f. de T son pues las k las no nulas de T

.
k es tambien el n umero de columnas LI de T

, ya que las columnas con pivotes (primer elemento no nulo


de c/la no nula) son LI y generan el e.c. de T

. Por lo tanto, la dimension del e.c. de T

es tambien k.
Pero esta es entonces la dimension del e.c. de T por ser S
1
no singular (vease b)).
Considerando a T como la representaci on de una TL F : V V

en bases B, B

de V y V

tal que
T = [F]
B
B

, la matriz T

= S
1
T = [F]
B

corresponde a un cambio de base en V

, con S

= [I]

. Las
columnas con pivotes de T

, [F(b
i
p
)]

, forman una base del e.c. de T

, por lo que los correspondientes


vectores F(b
i
p
) forman una base de I(F). Las correspondientes columnas de T, [F(b
i
p
)]
B
, forman entonces
una base del e.c. de T. N otese que en general, e.c. (T) = e.c. (T

), aunque las dimensiones sean iguales.


Ejemplo 3) Sea D : P
2
P
2
el operador derivada restringido al subespacio de polinomios de grado 2.
Es obvio que N(D) = P
0
(el subespacio de polinomios de grado 0, es decir, constantes) y que I(D) = P
1
(el
subespacio de polinomios de grado 1), con dim N(D)+ dim I(D) = 1 + 2 = 3 =dim P
2
.
En forma matricial, en la base canonica e = (1, t, t
2
), tenemos
[D]
e
=

0 1 0
0 0 2
0 0 0

El rango de esta matriz es 2, ya que posee dos las (o columnas) LI, que coincide con dim I(D).
Adem as, el espacio columna de [D]
e
es {

1
0
0

0
2
0

} = {[e
1
]
e
, 2[e
2
]
e
}, de modo que I(D) sera el sube-
spacio generado por e
1
= 1 y e
2
= t, es decir, P
1
.
El espacio nulo de [D]
e
es {

1
0
0

} = {[e
1
]
e
}, y N(D) es por lo tanto el subespacio generado por e
1
, es
decir, P
0
.
Ejemplo 4) Sea F : R
2
R
2
dada por F(x, y) = (2x +y, 3x y). Mostrar que F es no singular y hallar
su inversa.
F es un isomorsmo pues I(F) = {x(2, 3) +y(1, 1), x, y R} = R
2
, ya que (2, 3) y (1, 1) son LI y por lo
tanto base de R
2
. Puede llegarse al mismo resultando notando que N(F) = {(0, 0)}. Y tambien, notando
que la matriz que representa a F en la base canonica e = ((1, 0), (0, 1)) es
[F]
e
=

2 1
3 1

Como [F]
e
es no singular (Det[[F
e
] = 5 = 0), [F]
e
es invertible y por lo tanto F es un isomorsmo. La
matriz que representa a su inversa es
[F
1
]
e
= ([F]
e
)
1
=
1
5

1 1
3 2

por lo que la funcion inversa esta dada por F


1
(x, y) = (x + y, 3x 2y)/5.
11
Ejemplo 5) Sea F : R
3
R
3
dada por F(x, y, z) = (x + y + z, 2x + z, 3x y + z). Hallar N(F) y I(F).
En este caso conviene pasar directamente a la representaci on matricial. La matriz que representa a F en la
base canonica e = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) es
[F]
e
=

1 1 1
2 0 1
3 1 1

F no es un isomorsmo pues [F]


e
es una matriz singular (Det[[F]
e
] = 0) y por lo tanto no posee inversa. Las
columnas b
i
de [F]
ee
estan vinculadas por b
3
= (b
2
+ b
1
)/2 (y las las a
i
de [F]
e
por a
3
= 2a
2
a
1
), siendo
b
2
y b
1
L.I.. El rango de [F]
e
es por lo tanto 2. Esto implica que dim I(F) = 2 y que dim N(F) = 32 = 1.
Para hallar N(F) se resuelve el sistema de ecuaciones que resulta de F(x, y, z) = (0, 0, 0), o sea, x+y+z = 0,
2x + z = 0, 3x y + z = 0, que puede reescribirse en forma matricial como

1 1 1
2 0 1
3 1 1

x
y
z

0
0
0

es decir, [F]
e
[v]
e
= 0 (vector columna nulo). Puede verse facilmente que [F]
e
es equivalente por las a la
matriz

2 0 1
0 2 1
0 0 0

. La solucion al sistema homogeneo esta entonces dada por x = z/2, y = z/2, con
z arbitrario, por lo que el espacio nulo de la matriz es el conjunto {(1/2, 1/2, 1)
t
}.
El n ucleo de F es pues el subespacio generado por el vector v
0
= (1/2, 1/2, 1)
Una base del espacio columna de [F]
e
es, por ej., el conj. formado por las dos primeras columnas.
Por lo tanto, I(F) es el espacio generado por v
1
= (1, 2, 3) = f(e
1
), v
2
= (1, 0, 1) = f(e
2
).
Podemos escribir entonces V = {e
1
, e
2
} v
0
(la barra sobre vectores indica el espacio generado por dichos
vectores), con v
0
base del n ucleo y (F(e
1
), F(e
2
)) base de I(F).
Ejemplo 6) Sea f : R
2
R
2
, denida por F(1, 1) = (2, 1), F(1, 1) = (1, 0). Hallar F(x, y).
Los datos alcanzan para denir F pues e

1
= (1, 1), e

2
= (1, 1) son LI y por lo tanto base de R
2
(y toda
transformacion lineal queda completamente determinada por los vectores que asigna a los elementos de una
base). Tenemos, a partir de los datos,
[F]
e

e
=

2 1
1 0

Adem as,
[I]
e

e
= S =

1 1
1 1

, [I]
e
e
= S
1
=
1
2

1 1
1 1

Por lo tanto,
[F]
e
= [F]
e

e
[I]
e
e
= [F]
e

e
S
1
=

2 1
1 0

1 1
1 1

/2 =
1
2

1 3
1 1

que implica
F(x, y) = (x + 3y, x + y)/2
Puede llegarse al mismo resultado a partir de la relaci on e
1
= (e

1
+ e

2
)/2, e
2
= (e

1
e

2
)/2, con Ff[e
1
] =
[F(e

1
)+F(e

2
)]/2 = (1, 1)/2, F[e
2
] = [F(e

1
)F(e

2
)]/2 = (3, 1)/2 y por lo tanto F(x, y) = xF(e
1
)+yF(e
2
) =
(x + 3y, x + y)/2. El metodo matricial es, no obstante, m as directo y apto para ser aplicado a sistemas de
grandes dimensiones.
12
7- Inversas a Izquierda y Derecha
Sea F : V V

una transformacion lineal. G : V

V lineal se denomina inversa a izquierda de F si


GF = I
V
donde I
V
: V V denota el operador identidad en V . En tal caso F es la inversa a derecha de G.
Teorema: Una transformacion lineal posee inversa a izquierda si y solo si es un monomorsmo, e in-
versa a derecha si y solo si es un epimorsmo.
(Recordar esquema gr aco hecho en clase).
Dem.: a) Si F es un monomorsmo v

I(F) un y s olo un v V tal que F(v) = v

. Podemos escribir
en general V

= I(F) Q, donde Q es un suplemento de I(F). Todo vector v

puede pues escribirse en


forma unica como v

= v

1
+v

2
, donde v

1
= F(v
1
) I(F) y v

2
Q. Denimos entonces G : V

V como
G(v

) = v
1
De esta forma, G(v

1
) = v
1
y G(v

2
) = 0 si v

1
I(F) y v

2
Q. Es facil comprobar que G es lineal (pues
G(v

+u

) = v
1
+u
1
= G(v

) +G(u

) si v

= v
1
+v
2
y u

= u
1
+u
2
, y G(v

) = v
1
= G(v

)). Es adem as
un epimorsmo y satisface GF = I
V
.
Notemos que si I(F) = V

, la inversa a izquierda no es unica, pues podemos sumar a G cualquier funcion


lineal H : V

V no nula que satisfaga H(v

) = 0 si v

I(F) (o sea, I(F) N(H)) tal que HF = 0 y


por lo tanto (G+H)F = GF.
Adem as, si F no es monomorsmo, v V , con v = 0, tal que F(v) = 0 y por lo tanto, (GF)(v) =
G(F(v)) = G(0) = 0 = v, por lo que F no puede tener inversa a izquierda en tal caso.
b) Si G : V

V es un epimorsmo, sea N(G) su espacio nulo y sea Q un suplemento tal que V

= N(G)Q.
G restringido a Q (G : Q V ) es un isomorsmo, ya que sigue siendo epimorsmo y adem as, si v

Q y
v

= 0, G(v

) = 0. Denamos F : V V

tal que F(v) es el unico vector v

de Q que satisface G(v

) = v
(I(F) = Q). Es facil ver que F es lineal, es monomorsmo y satisface GF = I
V
.
No obstante, la inversa a derecha no es unica si N(G) = {0}, pues podemos sumar a F cualquier funcion
no nula H : V V

con I(H) N(G), tal que GH = 0.


Adem as, si G no es epimorsmo, v V tal que v no pertence a I(G) y por lo tanto (GF)(v) = G(F(v)) = v,
pues G(F(v)) I(G). No puede pues existir inversa a derecha en este caso.
Si V es de dimension n y V

de dimension m, las matrices que representan a F y G en bases ordenadas


B, B

de V y V

satisfacen
[G]
B

B
[F]
B
B
= I
n
con I
n
la identidad de n n, [F]
B
B

de m n y [G]
B

B
de n m. La matriz [G]
B

B
se dice que es inversa a
izquierda de la matriz [F]
B
B

, y [F]
B
B

la matriz inversa a derecha de [G]


B

B
. Si F posee una inversa a izquierda
G y a derecha H debe ser entonces un isomorsmo, con m = n en el caso de dimension nita. En tal caso
G = H, ya que G = GI
V
= G(FH) = (GF)H = I
V
H = H.
Este teorema implica que una matriz A de mn (m las, n columnas) tiene inversa a izquierda B
(BA = I
n
, con B de nm) si y s olo si Rango (A) = n (y por lo tanto m n), en cuyo caso A representa
a un monomorsmo. Y una matrix B de mn tiene inversa a derecha A (BA = I
m
, con A de n m)
si y s olo si Rango (B) = m (y por lo tanto m n), en cuyo caso representa un epimorsmo.
Si una matriz posee inversa izquierda y a derecha entonces debe ser necesariamente cuadrada y representar
un isomorsmo, siendo pues no singular. En tal caso la inversa a izquierda y a derecha coinciden.
Si A C
mn
tiene rango n (lo que implica m n) sus columnas son LI. Es facil mostrar que A C
mn
tiene rango n si y s olo si la matriz A

A C
nn
es no singular (Det(A

A) = 0). Recordemos que


A

= (A
t
)

, es decir, A

ij
= A

ji
i, j.
Dem.: Si las columnas son independientes, la unica soluci on de AX = 0 (con X C
n1
) es X = 0 (en
otras palabras, A representa a un monomorsmo y por lo tanto su espacio nulo es {0}). Si existe X tal que
A

AX = 0 entonces X

AX = (AX)

(AX) = |AX|
2
= 0 y por lo tanto AX = 0 . Esto implica entonces
X = 0, por lo que A

A es no singular: Det(A

A) = 0.
1
An alogamente, Si A

A, es no singular, la unica solucion de A

AX = 0 es X = 0, por lo que la unica


solucion de AX = 0 es X = 0, indicando que las columnas de A son linealmente independientes, es decir,
que A tiene rango n.
Esto permite pues construir en forma inmediata una inversa a izquierda B A C
mn
con rango n:
B = (A

A)
1
A

(1)
ya que BA = I
n
(notar que B C
nm
).
An alogamente, si B C
mn
tiene rango m, B representa a un epimorsmo. En tal caso B

C
nm
tiene rango m y por lo tanto BB

es no singular. Una inversa a derecha de B es pues


A = B

(BB

)
1
(2)
ya que BA = I
m
(notar que A C
nm
). Recordemos, no obstante, que si m = n, existen otras inversas a
izquierda y a derecha respectivamente, aunque las inversas (1) y (2) poseen ciertas propiedades especiales
que discutiremos m as adelante. Por otro lado, si m = n B = A
1
en (1) y A = B
1
en (2), como el
lector puede facilmente comprobar.
Ejemplo 1) Sea D : P P la derivaci on considerada en el espacio vectorial P de todos los polinomios,
de dimension innita. D no es un monomorsmo, pues D(1) = 0 (la derivada de cualquier polinomio de
grado 0 es el polinomio nulo), por lo que N(D) = {1}, pero s es un epimorsmo, pues q(t) P p(t) P
tal que D(p(t)) = q(t) (Por ejemplo, p(t) =

t
0
q(t

)dt

, que es un polinomio).
Por lo tanto, D tendr a inversa a derecha. Una inversa es precisamente la integracion S : P P denida
por S(q(t)) =

t
0
q(t

)dt

, que es lineal y que satisface


DS = I
P
(I
P
es la identidad en P). En efecto, (DS)(t
n
) = D(S(t
n
)) = D(t
n+1
/(n + 1)) = t
n
n 0. No obstante,
SD = I
P
pues SD(1) = S(0) = 0 = 1, o sea que S es inversa s olo a derecha de D.
S es un monomorsmo (N(S) = {0}), pero no un epimorsmo, ya que la imagen de S no contiene a los
polinomios de grado 0.
Notemos tambien que S

denido por S

(q(t)) =

t
a
q(t

)dt

es tambien una inversa a derecha de D para


cualquier a real, y tambien lo es T dada por T(q(t)) =

t
0
q(t

)dt

+cq(0), siendo c cualquier constante K.


Ejemplo 2) Sea D : P
2
P
1
la derivaci on restringida a P
2
(Polinomios de grado 2) con codominio P
1
.
Tenemos, en las bases e = (1, t, t
2
), e

= (1, t) de P
2
y P
1
respectivamente,
[D]
e
e
=

0 1 0
0 0 2

ya que D(e
1
) = 0, D(e
2
) = 1 = e

1
, D(e
3
) = 2t = 2e

2
. D as denido es claramente un epimorsmo,
pues I(D) = P
1
. Una inversa a derecha de D es la transformacion S : P
1
P
2
denida como la integral
S(p(t)) =

t
0
p(t

)dt

, con S(e

1
) = t = e
2
, S(e

2
) = t
2
/2 = e
3
/2, representada por la matriz
[S]
e

e
=

0 0
1 0
0 1/2

Es facil ver que S es un monomorsmo y que es una inversa a derecha de D, pues


[D]
e
e
[S]
e

e
=

0 1 0
0 0 2

0 0
1 0
0 1/2

1 0
0 1

es decir,
DS = I
P
1
Precisamente, si A = [S]
e

e
la ec. (1) nos da B = [D]
e
e

. Y si B = [D]
e
e

, la ec. (2) nos da A = [S]


e

e
, como
el lector puede facilmente vericar.
2
No obstante, notemos que [S]
e

e
[D]
e
e

0 0 0
0 1 0
0 0 1

= I
3
, por lo que SD = I
P
2
.
Notemos tambien que S

: P
1
P
2
denida por S

(e
1
) = t +a, S

(e
2
) = t
2
/2 +b, y representada por
[S

]
e

e
=

a b
1 0
0 1/2

es tambien inversa a derecha de [D]


e
e

a, b, como puede vericarse facilmente, y que


[D

]
e
e
=

c 1 0
d 0 2

es tambien una inversa a izquierda de [S]


e

e
c, d, de modo que estas no son unicas.
8- Soluci on general de una ecuaci on lineal
Como aplicacion fundamental, consideremos, para F : V V

lineal, la ecuaci on general


F(v) = v

donde se trata de encontrar el conjunto de vectores v V que satisfacen F(v) = v

.
Si v

= 0, la ecuaci on se denomina homogenea y el conjunto de soluciones es el espacio nulo N(F).


Si v

= 0, la ecuaci on se denomina no homogenea. En tal caso el conjunto de soluciones de la ecuaci on no


homogenea no es un espacio vectorial (por ej. 0 no pertenece al conjunto pues F(0) = 0 = v

). Se cumple
en cambio que si F(v
1
) = v

1
y F(v
2
) = v

2

F(
1
v
1
+
2
v
2
) =
1
v

1
+
2
v

2
o sea, la combinacion lineal
1
v
1
+
2
v
2
es solucion de la ecuaci on F(v) =
1
v

1
+
2
v

2
.
Es obvio adem as que existir a solucion si y s olo si v

I(F).
Supongamos ahora que existan dos soluciones v
1
, v
2
, tal que F(v
1
) = F(v
2
) = v

. Entonces
0 = F(v
1
) F(v
2
) = F(v
1
v
2
)
por lo que v
2
v
1
N(F). Por lo tanto, v
2
= v
1
+ v
n
, donde v
n
N(F). Es decir, si v
p
es una solucion
particular que satisface F(v
p
) = v

cualquier otra solucion v es de la forma


v = v
p
+v
n
donde v
n
N(F) es un vector del espacio nulo de F, es decir, una solucion de la ec. homogenea (F(v
n
) = 0).
La solucion general estara dada entonces por la suma de una solucion particular v
p
de la ecuaci on no ho-
mogenea y de una solucion v
n
de la ecuaci on homogenea.
Resulta claro entonces que si v

I(F), la solucion sera unica si y s olo si N(F) = 0, o sea, si y s olo si F


es un monomorsmo. En tal caso, la unica solucion de F(v) = v

puede encontrarse como


v = G(v

)
donde G es una inversa a izquierda de F. En efecto, si F(v) = v

G(F(v)) = (GF)(v) = I
V
(v) =
v = G(v

). Puede utilizarse cualquier inversa a izquierda ya que dieren entre s s olo para vectores que no
pertenecen a I(F) (G
2
(v

) = G
1
(v

) si v

I(F)).
Por otro lado, si F : V V

es un epimorsmo la ecuaci on F(v) = v

tendr a siempre solucion, pero


no sera unica a no ser que N(F) = {0} (en cuyo caso F es isomorsmo). La solucion general sera
v = G(v

) +v
n
3
donde G es una inversa a derecha de F y v
n
un vector arbitrario de N(F). En efecto, F(G(v

) + v
n
) =
F(G(v

)) + F(v
n
) = (FG)(v

) + 0 = I
V
(v

) = v

. Aqu G(v

) representa la solucion particular v


p
, la cual,
remarquemos, es una funci on lineal de v

. Puede utilizarse cualquier inversa a derecha pues estas dieren


s olo en un vector de v
n
(G
2
(v

) = G
1
(v

) +v
n
con v
n
N(F)).
Finalmente, si F es un isomorsmo, existe una unica solucion v

dada por
v = F
1
(v

)
con F
1
la ( unica) inversa de F, que es a la vez inversa a izquierda y derecha.
Ejemplo 1): Para el caso de sistemas de m ecuaciones lineales con n incognitas, dados por
AX = Y
con A de m n, X de n 1, Y de m 1 y A y Y de elementos reales (que corresponde a la funcion
F : R
n1
R
m1
dada por F(X) = AX) los resultados anteriores implican que:
1) El sistema posee solucion si y s olo si Y pertenece al espacio columna de A.
En tal caso, la solucion general sera de la forma
X = X
p
+X
n
donde X
p
es una solucion particular (AX
p
= Y ) y X
n
una solucion general del sistema homogeneo (AX
n
= 0,
con 0 el vector columna nulo).
2) La solucion sera unica si y s olo si el espacio nulo de A es el vector columna nulo (X
n
= 0), es de-
cir, si y s olo si Rango (A) = n (y por lo tanto, m n). En este caso F es un monomorsmo y la unica
solucion (en el caso que Y pertenezca al espacio columna de A) puede encontrarse como X = BY , con B
de n m una inversa a izquierda de A (BA = I
n
).
3) Si la dimension del espacio columna es m (en cuyo caso Rango (A) = m y por lo tanto, m n)
existir a solucion para cualquier Y de m1. En este caso F es un epimorsmo y la solucion general puede
escribirse como X = CY + X
n
, con C de n m una inversa a derecha de A (AC = I
m
) y X
n
solucion del
sistema homogeneo AX
n
= 0.
4) Si m = n y Rango (A) = n existe siempre una unica solucion dada por X = A
1
Y , con A
1
la
inversa de A. En este caso F representa un isomorsmo.
Ejemplo 2): Resolver el sistema x +y = a, 4x + 2z = b, en forma matricial. Corresponde a

1 1 0
4 0 2

x
y
z

a
b

Como el rango de la matriz es 2, existir a solucion a, b. Reduciendo por las el sistema ampliado y llev andolo
a la forma de Gauss-Jordan, se obtiene

1 1 0 a
4 0 2 b

1 0
1
2
1
4
b
0 1
1
2
a
1
4
b

de donde se lee la solucion general x = b/4 z/2, y = a b/4 + z/2, con z libre. Podemos escrbir esta
solucion como

x
y
z

0
1
4
1
1
4
0 0

a
b

+t

1
2
1
2
1

con t R arbitrario (parametro libre), donde B =

0
1
4
1
1
4
0 0

es precisamente una inversa a derecha de


la matriz de coecientes A =

1 1 0
4 0 2

y X = t

1
2
1
2
1

un elemento arbitrario del espacio nulo de A


4
(AX = 0). N otese que

1 1 0
4 0 2

0
1
4
1
1
4
0 0

1 0
0 1

pero

0
1
4
1
1
4
0 0

1 1 0
4 0 2

1 0
1
2
0 1
1
2
0 0 0

Anexo: Operadores de Proyeccion:


Recordemos que si S
1
es un subespacio de V y S
2
un suplemento tal que V = S
1
S
2
, todo vector v V
puede escribirse en forma unica como v = v
1
+v
2
, con v
1
S
1
, v
2
S
2
.
El proyector P
S
1
/S
2
sobre S
1
en la direcci on de S
2
(recordar la interpretacion geometrica dada en clase)
queda entonces denido por
P
S
1
/S
2
(v) = v
1
y satisface por lo tanto P
2
S
1
/S
2
= P
S
1
/S
2
, pues P
2
S
1
/S
2
(v) = P
S
1
/S
2
(P
S
1
/S
2
(v)) = P
S
1
/S
2
(v
1
) = v
1
. Obvia-
mente, su n ucleo e imagen son N(P
S
1
/S
2
) = S
2
, I(P
S
1
/S
2
) = S
1
. Depende de S
1
y S
2
.
An alogamente, si P
2
= P, P es un proyector sobre S
1
= I(P) en la direccion de S
2
= N(P), con S
1
S
2
= V ,
es decir P = P
I(P)/N(P)
.
En efecto, para cualquier v V , v = P(v)+vP(v) = v
1
+v
2
, con v
1
= P(v) I(P) y v
2
= vP(v) N(P)
pues P(v P(v)) = P(v) P
2
(v) = P(v) P(v) = 0. Adem as I(P) N(P) = {0} pues si v = P(v

) y
P(v) = 0 0 = P
2
(v

) = P(v

) = v. Por lo tanto V = I(P) N(P).


Finalmente P(v) = P(v
1
+ v
2
) = P(v
1
) + P(v
2
) = P
2
(v) + 0 = P(v) = v
1
, por lo que P es proyector
sobre S
1
= I(P) en la direccion de S
2
= N(P). Esto incluye los casos triviales I(P) = V , en cuyo caso
N(P) = {0} y por lo tanto P
S
1
/S
2
= I
V
(operador identidad), y I(P) = {0}, en cuyo caso N(P) = V y
P = 0 (operador nulo). Dado que v = v
1
+v
2
= P
S
1
/S
2
(v) +P
S
2
/S
1
(v), se cumple siempre
P
S
1
/S
2
+P
S
2
/S
1
= I
V
Si dimV = n, la representaci on matricial de P
S
1
/S
2
en una base ordenada B = (b
1
, . . . , b
k
, b
k+1
, . . . , b
n
),
en la que (b
1
, . . . , b
k
) es base de S
1
y (b
k+1
, . . . , b
n
) es base de S
2
, es de la forma
[P
S
1
/S
2
]
B
B
=

I
kk
0
km
0
mk
0
mm

donde I
kk
denota la matriz identidad de k k, m = nk y 0
pq
la matriz nula de pq. Es claro que P
S
1
/S
2
es un operador singular (Det[P
S
1
/S
2
] = 0), salvo en el caso S
1
= V (S
2
= {0}, P = I
V
).
Los proyectores ortogonales son aquellos en los que S
2
es el subespacio ortogonal a S
1
, tema que veremos
en detalle m as adelante. En general, S
2
puede ser cualquier suplemento de S
1
, no necesariamente el ortogonal,
por lo que la matriz que representa a P
S
1
/S
2
puede no ser simetrica o hermtica en una base ortonormal.
Ej.: Consideremos, para V = R
2
, el proyector sobre el subespacio generado por b
1
= (1, 0) en la direccion
del subespacio generado por b
2
= (1, 1). Como P(b
1
) = b
1
, P(b
2
) = 0, en la base b = {b
1
, b
2
} se obtiene
[P
S
1
/S
2
]
b
b
=

1 0
0 0

En la base canonica e = (e
1
, e
2
), con e
1
= (1, 0), e
2
= (0, 1), se obtiene entonces
[P
S
1
/S
2
]
e
e
= S[P
S
1
/S
2
]
b
b
S
1
=

1 1
0 0

donde S = [I]
b
e
= (
1 1
0 1
) y S
1
= (
11
0 1
) = [I]
e
b
. Las columnas de [P
S
1
/S
2
]
e
e
son proporcionales a [b
1
]
e
e
= (
1
0
).
Para v = (x, y) obtenemos entonces [P
S
1
/S
2
(v)]
e
= [P
S
1
/S
2
]
e
e
(
x
y
) = (
xy
0
), es decir, P
S
1
/S
2
(x, y) = (x y, 0)
en acuerdo con (x, y) = (x y)(1, 0) +y(1, 1) (Recordar dibujo).
El proyector ortogonal usual sobre el subespacio S
1
generado por e
1
= b
1
es P
S
1
P
S
1
/S

1
, donde S

1
es el
subespacio ortogonal, generado por ej. por e
2
. Obtenemos [P
S
1
]
e
e
= (
1 0
0 0
) y por lo tanto P(x, y) = (x, 0), de
acuerdo a (x, y) = x(1, 0) +y(0, 1).
5
9. Autovalores y Autovectores
Sea V un espacio vectorial sobre el cuerpo K y sea F : V V un operador lineal. Un escalar K es un
autovalor de F si existe v V , con v ,= 0, tal que
F(v) = v (v ,= 0)
En tal caso v es un autovector de F correspondiente al autovalor . Sin onimo de autovalor es valor propio
(en ingles eigenvalue, donde eigen proviene del alem an y signica propio) y sinonimo de autovector es
vector propio (eigenvector en ingles).
La accion de F sobre un autovector es pues la multiplicaci on por un escalar. Por ejemplo, si V = R
n
, esto
implica que v ,= 0 es autovector de F si y s olo si w = F(v) tiene la misma direccion que v (aunque no
necesariamente el mismo sentido) o es nulo. Como veremos, el conocimiento del conjunto de los autovalores
y autovectores de un operador permite conocer su estructura en detalle.
El concepto de autovalor y autovector de un operador lineal tiene una importancia fundamental en Fsica,
especialmente en Mecanica Cuantica. Mencionemos que en la misma los observables fsicos corresponden a
operadores lineales (de caractersticas determinadas) en un cierto espacio (el de los vectores que representan
los estados del sistema) y las cantidades medibles son precisamente los autovalores de dichos operadores.
E inmediatamente despues de una medici on, el sistema cu antico queda en un estado que es autovector del
operador correspondiente al autovalor medido.
El concepto de autovalor y autovector es tambien fundamental para el tratamiento de sistemas descriptos
por ecuaciones diferenciales lineales acopladas, tales como osciladores armonicos acoplados, ya sean clasicos
o cu anticos, donde permite entender el concepto de desacoplamiento y modo normal. Otras aplicaciones
incluyen, como veremos, la determinacion de los ejes principales de inercia en un cuerpo rgido y la resoluci on
de sucesiones denidas mediante relaciones recursivas lineales, tales como la famosa sucesion de Fibonacci.
Veamos algunas consecuencias inmediatas de tal denicion:
10.1) El conjunto de autovectores de F correspondientes a un determinado autovalor , junto con el vector
nulo 0, forma un subespacio de V denominado espacio propio o autoespacio (eigenspace en ingles) de F
correspondiente al autovalor , que denotaremos como V
F
() o simplemente, V ().
En efecto, si v ,= 0 es autovector de F corresp. al autovalor , y K, F(v) = F(v) = v = (v)
, por lo que v es tambien autovector de F corresp. a si ,= 0
Y si v
1
y v
2
son autovectores corresp. al mismo autovalor , F(v
1
+ v
2
) = F(v
1
) + F(v
2
) = v
1
+ v
2
=
(v
1
+v
2
), por lo que v
1
+v
2
es tambien autovector corresp. al autovalor (si v
1
+v
2
,= 0).
La dimension de V
F
() es como mnimo uno (ya que al menos existe un autovector no nulo).
9.2) El espacio propio V
F
(), con autovalor de F, es el n ucleo del operador F I:
V
F
() = N[F I]
donde I denota el operador identidad en V (I(v) = v v V ).
En efecto, si F(v) = v 0 = F(v) v = (F I)(v), y si (F I)(v) = 0 F(v) = v.
Por lo tanto K es autovalor de F si y s olo si
N[F I] ,= 0
En particular, = 0 es autovalor de F si y s olo si N(F) ,= 0, es decir, si y s olo si F no es monomorsomo.
En tal caso V
F
(0) = N(F).
9.3) Si V es de dimension nita n, K es autovalor si y s olo si
Det[F I] = 0
En efecto, si es autovalor, N[F I] ,= 0, por lo que F I no es monomorsmo. La matriz que
representa a F I debe ser entonces singular en cualquier base, y por lo tanto, su determinante nulo. Por
otro lado, si Det[F I] = 0, F I no es monomorsmo, y por lo tanto existe v ,= 0 tal que (F I)(v) = 0.
Recordemos que si e es una base de V ,
Det[F I] = [[F]
e
I
n
[
1
donde [F]
e
[F]
e
e
es la matriz que representa a F en dicha base, I
n
= [I]
e
es la matriz identidad de n n
y [A[ = DetA denota el determinante de la matriz A. Det[F I] es independiente de la base elegida e:
[[F]
e
I
n
[ = [S
1
[F]
e
S I
n
[ = [S
1
([F]
e
I
n
)S[ = [S
1
[[[F]
e
I
n
[[S[ = [[F]
e
I
n
[
ya que [I]
e
= [I]
e
= I
n
y [S
1
[ = 1/[S[. Los autovalores de F en un espacio de dimension nita n se
obtienen entonces como las races pertenecientes al cuerpo K del polinomio
P() = Det[F I]
denominado polinomio caracterstico, que es de grado n (pues [F I]
e
es de nn). La ecuaci on P() = 0
se denomina ecuaci on caracerstica y posee, por lo tanto, a lo sumo n races distintas, que en general pueden
ser complejas. Ser an autovalores si pertenecen al cuerpo K. Si K = C toda raz de P() es autovalor.
9.4) Teorema: Los autovectores de F correspondientes a autovalores distintos son LI
Demostraremos el teorema por induccion. Para n = 1, v
1
autovector es LI pues es no nulo (mejor com-
prension se logra comenzando con n = 2: Si v
1
,= 0 y v
2
,= 0 son autovectores correspondientes a autovalores
distintos son LI pues de lo contrario v
2
= v
1
, y correspondera por 9.1 al mismo autovalor que v
1
).
Supongamos ahora que v
1
, . . . , v
k1
son autovectores LI, con autovalores
1
, . . . ,
k1
, y que v
k
,= 0 es
autovector con autovalor
k
, siendo
k
distinto a todos los anteriores. Si
0 =
1
v
1
+. . . +
k1
v
k1
+
k
v
k
entonces
0 = F(0) =
1
F(v
1
) +. . . +
k1
F(v
k1
) +
k
F(v
k
) =
1

1
v
1
+. . .
k1

k1
v
k1
+
k

k
v
k
Restando ahora la primera ecuaci on mult. por
k
,
0 = (
1

k
)
1
v
1
+. . . + (
k1

k
)
k1
v
k1
que implica
1
= . . . =
k1
= 0 por ser v
1
, . . . v
k1
LI y
k
,=
i
para i = 1, . . . , k 1. Por lo tanto,
tambien
k
= 0 y entonces v
1
, . . . , v
k
son L.I.
N otese que la demostraci on es igualmente valida si los
1
, . . . ,
k1
no son todos distintos (pero s dis-
tintos a
k
) siempre que los v
1
, . . . , v
k1
sean LI
Por lo tanto, ning un elemento v
k
,= 0 de V (
k
) puede ser generado por autovectores correspondientes a
autovalores distintos de
k
.
9.5) Si
1
,=
2
V
F
(
1
) V
F
(
2
) = 0
Es consecuencia inmediata del ultimo parrafo. Si v V
F
(
2
) y v V
F
(
1
), entonces F(v) =
1
v =
2
v, por
lo que (
1

2
)v = 0 y por lo tanto v = 0. Esto implica que V
F
(
1
) +V
F
(
2
) = V
F
(
1
) V
F
(
2
).
Del mismo modo, la interseccion de V
F
(
k
) con la suma V
F
(
1
) + . . . + V
F
(
k1
) es 0 si
k
es distinto
a todos los autovalores anteriores. Si as no fuese existira un vector v V
F
(
k
) con v ,= 0 que puede
ser escrito como combinacion lineal de autovectores correspondientes a autovalores distintos, pero esto es
imposible por el teorema 9.4 anterior.
Podemos entonces escribir la suma de espacios propios como suma directa V
F
(
1
) . . . V
F
(
k
).
9.6) Un operador F en un espacio V de dimension nita se dice diagonalizable si existe una base for-
mada por autovectores de F.
En tal caso, denotando la base como e

= (e

1
, . . . , e

n
), con F(e

i
) =
i
e

i
, i = 1, . . . , n, la matriz que representa
a F en dicha base es diagonal:
[F]
e
=
_
_
. . .
[F(e

1
)]
e
. . . [F(e

n
)]
e

. . .
_
_
=
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
Recprocamente, si [F]
e
es diagonal F(e

i
) =
i
e

i
y e

es necesariamente una base de autovectores. Si F


es diagonalizable y e es una base arbitraria de V , tenemos
[F]
e
= S
1
[F]
e
S
2
con [F]
e
diagonal y S = [I]
e

e
la matriz de cambio de base, por lo que existe una matriz no singular S tal
que S
1
[F]
e
S es diagonal. La columna i de S es el vector de componentes [e

i
]
e
del autovector e

i
corresp. al
autovalor
i
en la base original e. Esta es la forma de construir la matriz diagonalizante S.
Consecuencia Importante de 9.4: Si P() posee n races distintas
i
K, F es diagonalizable.
En efecto, en tal caso existir an n autovectores LI (uno por cada autovalor) que seran por tanto base de V .
La dimension de cada espacio propio V
F
(
i
) es en este caso 1, que es igual a la multiplicidad de cada raz.
9.7) Teorema: F es diagonalizable si y solo si i) todos las races de P() pertenecen al cuerpo y ii) la
dimension del espacio propio V
F
(
i
) correspondiente a la raz
i
es igual a la multiplicidad m
i
de dicha raz.
La dimension del espacio propio d
i
=dimV
F
(
i
) es el m aximo n umero de autovectores LI que pueden obte-
nerse para un mismo autovalor
i
, y se denomina tambien multiplicidad geometrica de
i
.
Demostraci on: Supongamos F diagonalizable. En una base e

en la que [F]
e
es diagonal, tenemos
P() = (
1
) . . . (
n
)
La multiplicidad m
i
de una raz
i
sera pues igual al n umero de veces que
i
se repite en la diagonal. Pero
este n umero es igual al n umero de vectores de la base e

que tienen a
i
como autovalor, que es precisamente
la dimension del espacio propio. N otese tambien que d
i
es el n umero de las nulas de [F]
e

i
I
n
.
Por otro lado, si la dimension de cada espacio propio es igual a la multiplicidad m
i
de la raz
i
, la suma
directa de todos los espacios propios correspondientes a autovalores distintos, V
F
(
1
) . . . V
F
(
k
) tendr a
dimension d
1
+. . . +d
k
= m
1
+. . . +m
k
= n (ya que la suma de todas las multiplicidades es igual al grado
del polinomio), por lo que sera igual al espacio V . Existe entonces una base formada por autovectores de F.
9.8) En general, la dimension del espacio propio V
F
(
i
) puede ser igual o menor que la multiplicidad de la
raz
i
: dim V
F
(
i
) m
i
.
En efecto, eligiendo una base e donde los primeros d
i
=dimV
F
(
i
) elementos formen una base de V
F
(
i
),
las primeras d
i
columnas de [F]
e
tendr an elementos no nulos s olo en la diagonal y por lo tanto P() =
Det[[F]
e
I
n
] = (
i
)
d
i
Q(), con Q() un polinomio de grado n d
i
, por lo que m
i
sera como mnimo
d
i
(m
i
= d
i
si Q(
i
) ,= 0 y m
i
> d
i
si Q(
i
) = 0).
Si d
i
< m
i
, F no es diagonalizable (a un tomando como cuerpo C).
Ejemplo 1 (Casos Triviales): Si I : V V es el operador identidad I(v) = v v V por lo que
su unico autovalor es 1. El espacio propio correspondiente es V (V
F
(1) = V ).
Si V es de dimension nita n, puede llegarse a la misma conclusi on notando que
P() = Det[I I] = [I
n
I
n
[ = [(1 )I
n
[ = (1 )
n
= 1 es pues la unica raz de P(), y posee multiplicidad n, que es igual a la dimension del espacio propio
(el mismo V ). I es por lo tanto diagonalizable (caso trivial).
Si 0 : V V es el operador nulo 0(v) = 0 = 0v v V por lo que su unico autovalor es 0, y el
espacio propio correspondiente es V (V
F
(0) = V ).
Si V es de dimension n [0]
e
= 0 (la matriz nula) en cualquier base y por lo tanto P() = Det[0 I
n
] =
[ I
n
[ = ()
n
, por lo que 0 es la unica raz, con multiplicidad n. 0 es tambien trivialm. diagonalizable.
Ejemplo 2: Sea F : R
2
R
2
la reexi on respecto del eje x. Si e = (e
1
, e
2
) es la base canonica, con
e
1
= (1, 0), e
2
= (0, 1), sabemos que F(e
1
) = e
1
, F(e
2
) = e
2
. Por lo tanto e
1
es autovector de F con
autovalor 1 y e
2
autovector de F con autovalor 1. No pueden existir otros autovalores pues la dimension
de V es 2. V
F
(1) es entonces el espacio generado por e
1
, es decir, el conjunto de vectores (x, 0), con x R,
sobre los que F act ua como identidad, y V
F
(1) el generado por e
2
, es decir, el conjunto de vectores (0, y),
con y R, para los que la accion de F es la inversi on de sentido.
Podemos obtener el mismo resultado a partir de la representaci on matricial
[F]
e
=
_
1 0
0 1
_
que ya es diagonal, por lo que los autovalores son 1 y 1: Tenemos P() = [[F]
e
I
2
[ = (1 )(1 ),
siendo entonces las races 1.
3
Ejemplo 3: Sea F : R
2
R
2
la reexi on respecto de la recta de ecuaci on y = x, dada por (recordar
ejemplo dado) F(x, y) = (y, x). Si e

= (e

1
, e

2
), con e

1
= (1, 1), e

2
= (1, 1), tenemos F(e

1
) = e

1
,
F(e

2
) = e

2
, por lo que los autovalores son nuevamente 1 y 1, con V
F
(1) el espacio generado por e

1
y
V
F
(1) el espacio generado por e

2
. Se obtiene entonces
[F]
e
=
_
0 1
1 0
_
, [F]
e
=
_
1 0
0 1
_
= S
1
[F]
e
S , S =
_
1 1
1 1
_
El pol. caracterstico es P() = [[F]
e
I
2
[ =
2
1 = (1 )(1 ) = [[F]
e
I
2
[ y sus races 1.
Ejemplo 4: Operador de Proyecci on: Si P
2
= P los unicos autovalores posibles de P son 0 y 1,
con V
P
(0) = N(P) si N(P) ,= 0 y V
P
(1) = I(P) si I(P) ,= 0.
Dem.: Hemos visto que si P
2
= P P es un proyector sobre I(P) en la direccion de N(P), con
I(P) N(P) = V y P(v) = v si v I(P) y P(v) = 0 = 0v si v N(P). Por lo tanto, los autoval-
ores son: 1 (si I(P) ,= 0, es decir, si P ,= 0) y 0 (si N(P) ,= 0, es decir, si P ,= I
V
). P es pues
dagonalizable, siendo una base de autovectores la formada por la uni on de una base de la imagen I(P) y
una del n ucleo N(P). P es pues siempre diagonalizable.
Estas propiedades pueden tambien demostrarse directamente: Si P(v) = v, con v ,= 0 P
2
(v) =
P(P(v)) = P(v) = P(v) =
2
v, pero tambien P
2
(v) = P(v) = v, por lo que
2
= , es decir (1) = 0.
Esto implica = 0 o = 1. Si v ,= 0 tal que P(v) = 0 0 es autovalor y V
P
(0) = N(P). Si v ,= 0 tal
que P(v) = v 1 es autovalor y V
P
(1) = I(P). En efecto, si v ,= 0 y P(v) = v v I(P), y si v I(P)
v = P(v

) y P(v) = P(P(v

)) = P
2
(v

) = P(v

) = v, por lo que v V
P
(1).
Ejemplo 6: Potencias de operadores lineales. Si v es autovector de F con autovalor v es tambien
autovector de F
k
con autovalor
k
para cualquier k > 0 natural, y tambien para cualquier k < 0 entero si
F es invertible (o sea, automorsmo), en cuyo caso ,= 0 (pues necesariamente N(F) = 0; ver 9.4).
Dem.: Si k = 2, F
2
(v) = F(F(v)) = F(v) = F(v) =
2
v. La demostraci on para k > 2 es an aloga y puede
hacerse facilmente por induccion: F
k
(v) = F(F
k1
(v)) = F(
k1
v) =
k1
F(v) =
k
v.
Si k = 1, F
k
= F
1
es la inversa de F y v = F
1
F(v) = F
1
(v) = F
1
(v), por lo que F
1
(v) =
1
v.
El resultado para F
k
(F
1
)
k
y k > 1 es entonces obvio: F
k
(v) =
k
v k Z (vease tambien 9.4)
Ejemplo 7: Si es un autovalor de F + c es autovalor del operador F + cI, con , I K e I
el op. identidad: En efecto, si F(v) = v, v ,= 0 (F +cI)(v) = F(v) +cv = ( +c)v.
Ejemplo 8: Sea D
2
: V V el operador derivada segunda en el espacio V de funciones f : [0, a] R, a > 0,
que son derivables a cualquier orden y satisfacen f(0) = f(a) = 0 (V es de dimension innita).
La ecuaci on D
2
(f) = f conduce a la ecuaci on diferencial f

= f, cuya solucion es f(x) = c


1
cos(sx) +
c
2
sin(sx) con = s
2
. La condici on de contorno f(0) = f(1) = 0 implica c
1
= 0 y sin(sa) = 0, o sea,
s = n/a, con n > 0 natural. Por lo tanto, los autovalores son
n
= n
2

2
/a
2
y los autovectores (llamados
en este caso autofunciones) f
n
(x) = c
n
sin(nx/a), con n = 1, 2, . . . y c
n
,= 0 arbitrario.
Ejemplo 9: La ecuaci on de Schr odinger estacionaria de la mecanica cu antica es
H[ = E[
donde H es un operador lineal, [ un vector no nulo que representa el estado del sistema y E la energa
del estado. Es pues una ecuaci on de autovalores: La energa E representa un autovalor de H y el vector [
el autovector correspondiente de H. Para una partcula en una dimension, H toma la forma
H =

2
2m
D
2
+V (x)
donde D es el operador derivada anterior, = h/(2), con h la constante de Planck, m la masa de la
partcula y V (x) el potencial, con [ (x), siendo (x) la funcion de onda (en realidad, (x) = x[,
y la forma anterior de H es su representaci on efectiva en la base de autoestados [x del operador posicion:
x[H[ = (

2
2m
D
2
+ V (x))(x)). H es el operador energa pues el impulso esta representado por el
operador p = iD, por lo que el primer termino de H es el operador energa cinetica P
2
/(2m).
Si V (x) = 0 para x [0, a] y V (x) = para x > a o x < 0, la Ec. de Schrodinger se reduce al problema
del ej. 8: Tenemos H =

2
2m
D
2
para x [0, a], con (x) = 0 para x a o x 0, debiendo ser continua.
Los autovalores son por lo tanto E
n
=

2
n
2

2
2ma
2
y los autovectores
n
(x) = c
n
sin(nx/a).
4
10. Autovalores y Autovectores de Matrices
Todas las deniciones y propiedades anteriores se aplican igualmente al calculo de autovalores y autovectores
de matrices cuadradas, que pueden ser siempre consideradas como la representaci on de un cierto operador
lineal (en un espacio vectorial de dimension n) en una cierta base. Consideraremos en lo sucesivo K = C.
Dada una matriz A de n n, es autovalor de A sii
[AI
n
[ = 0
donde [ . . . [ denota el determinante. El polinomio
P() = [AI
n
[ =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn

(10.1)
se denomina polinomio caracterstico de la matriz A y es de grado n en , por lo que posee a lo sumo n
races distintas.
Un vector columna X =
_
_
x
1
. . .
x
n
_
_
de n 1 es autovector de A correspondiente al autovalor si X ,= 0 y
AX = X
El conjunto de autovectores X corresp. a puede obtenerse resolviendo el sistema homogeneo
(AI
n
)X = 0
10.1) Las matrices semejantes poseen el mismo polinomio caracterstico y por lo tanto los mismos autova-
lores. Recordemos que A es semejante o similar a B si A = S
1
BS, con S de n n no singular.
En efecto P
A
() = [AI
n
[ = [S
1
BS I
n
[ = [S
1
(B I
n
)S[ = [B I
n
[ = P
B
()
Los autovectores no son en general los mismos: Si AX = X y A = S
1
BS, el correspondiente autovector
de B es SX, como el lector podra facilmente demostrar. Esto puede verse tambien directamente a partir
del cambio de base asociado.
10.2) A y A
t
(t denota traspuesta) poseen el mismo polinomio caracterstico y por lo tanto los mismos
autovalores (pero no necesariamente los mismos autovectores). Como [B[ = [B
t
[ B de n n,
P
A
t () = [A
t
I
n
[ = [(AI
n
)
t
[ = [AI
n
[ = P
A
()
10.3) Si A es real P() es real y por lo tanto sus races complejas aparecer an en pares conjugados:
Si es una raz compleja, 0 = [P()]

= P(

).
Adem as, si X es autovector de A con autovalor y A es real, entonces X

es autovector de A con autovalor

: Como AX = X (AX)

= AX

.
10.4) A es una matriz singular si y s olo si A posee al menos un autovalor nulo.
Si A es singular [A[ = 0 y por lo tanto, [A 0I
n
[ = 0, por lo que 0 es autovalor. An alogamente, si
[A0I
n
[ = 0 [A[ = 0 y por lo tanto, A es singular. Esto puede tambien deducirse directamente de 10.5
Un operador F : V V en un espacio de dimension nita tendr a pues un autovalor nulo si y s olo si
no es un automorsmo. Notemos tambien que si Det[F] = 0, el n ucleo N(F) no es otra cosa que el espacio
propio correspondiente el autovalor 0: N(F) = v[F(v) = 0 = v[F(v) = 0.v = V
F
(0)
10.5) El determinante de una matriz es igual al producto de todos sus autovalores (reales y complejos,
y elevados a sus respectivas multiplicidades):
[A[ =
1

2
. . .
n
5
En efecto, si
1
, . . . ,
n
son las races de P(), podemos escribir (utilizando la factorizacion en terminos de
races y notando que el termino de grado n es (1)
n

n
)
P() = [AI
n
[ = (
1
)(
2
) . . . (
n
) (10.2)
Por lo tanto, [A[ = P(0) =
1
.
2
. . .
n
.
Esto implica que en un espacio de dimension nita el determinante de un operador lineal F es el producto
de todos sus autovalores.
10.6) La traza de una matriz es igual a la suma de todos sus autovalores (reales y complejos, y repeti-
dos tantas veces como indica su multiplicidad):
TrA =
n

i=1
a
ii
=
n

i=1

i
A partir de la expresi on (9.2) para P(), vemos que el termino de grado n1 en es ()
n1
(
1
+. . . +
n
),
mientras que a partir de (9.1) vemos que el mismo es ()
n1
(a
11
+. . . +a
nn
). Como ambos son identicos,
se obtiene el resultado deseado.
Esto implica que la traza de un operador F es la suma de todos sus autovalores.
10.7 Diagonalizaci on de Matrices
Una matriz A es diagonalizable si existe S no singular tal que
S
1
AS = A

, con A

diagonal : A

=
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
es decir, si es semejante a una matriz diagonal.
En tal caso los elementos diagonales son necesariamente los autovalores de A, ya que
[AI
n
[ = [A

I
n
[ = (
1
)(
2
) . . . (
n
)
y la columna i de S es autovector correspondiente al autovalor
i
, pues AS = SA

:
S =
_
_
. . .
X
1
. . . X
n
. . .
_
_
, con AX
i
=
i
X
i
, i = 1, . . . , n, X
i
=
_
_
x
1i
. . .
x
ni
_
_
An alogamente, si existen n vectores columna X
i
LI tales que AX
i
=
i
X
i
, i = 1, . . . , n entonces A es
diagonalizable, con S la matriz de columnas X
i
(que sera invertible pues los X
i
son LI y por lo tanto [S[ ,= 0)
La dimension del espacio propio correspondiente al autovalor
i
es la dimension del espacio nulo de [A
i
I
n
[:
d
i
= dimV (
i
) = dimN[A
i
I
n
] = n R(A
i
I
n
)
donde R denota el rango.
Notemos que si P() posee n races distintas A es diagonalizable, pues en tal caso existir an n vectores
columna X
i
LI tales que AX
i
=
i
X
i
.
Si A es diagonalizable, resulta evidente que [A[ = [A

[ =
1
. . .
n
y que TrA = TrA

=
1
+. . .+
n
, ya que el
determinante y la traza de matrices semejantes son identicas ([S
1
AS[ = [A[, TrS
1
AS = TrASS
1
= TrA).
Ejemplo 1: Consideremos la matriz
A =
_
0 1
1 0
_
que corresponde a la representaci on en la base canonica de la reexi on respecto de la recta y = x. Los
autovalores se obtienen de la ecuaci on
[AI
2
[ =

1
1

= 1
2
= 0
6
Por lo tanto, = 1. El autovector X
1
correspondiente a
1
= 1 se obtiene resolviendo el sistema homogeneo
(A
1
I
2
)X
1
= 0, es decir,
_
1 1
1 1
__
x
y
_
=
_
0
0
_
que conduce a x = y. Los autovectores son entonces de la forma x(
1
1
), con x ,= 0 y V (1) es el espacio
generado por (
1
1
). Este corresponde al espacio generado por e

1
en el ej. 3 anterior ([e

1
]
e
= (
1
1
)).
Notemos que la matriz anterior tiene rango 1, por lo que dimV (1) = 2 1 = 1.
El autovector correspondiente a
2
= 1 se obtiene resolviendo el sistema (A
2
I
2
)X
2
= 0, es decir,
_
1 1
1 1
__
x
y
_
=
_
0
0
_
que conduce a x = y. Los autovectores son entonces de la forma x(
1
1
), con x ,= 0, y V (1) es el espacio
generado por (
1
1
). Este corresponde al espacio generado por e

2
en el ej. 3 anterior ([e

2
]
e
= (
1
1
)).
Una matriz de autovectores es entonces
S =
_
1 1
1 1
_
con S
1
=
1
2
_
1 1
1 1
_
y se verica
S
1
AS =
1
2
_
1 1
1 1
__
0 1
1 0
__
1 1
1 1
_
=
_
1 0
0 1
_
=
_

1
0
0
2
_
Notemos que se cumple [A[ = 1 =
1

2
y TrA = 0 =
1
+
2
.
Ejemplo 2: Consideremos
A =
_
1 1
0 1
_
La ec. caracterstica es
[AI
2
[ =

1 1
0 1

= (1 )
2
= 0
por lo que el unico autovalor es = 1 con multiplicidad m = 2. No obstante, la matriz
A1I
2
=
_
0 1
0 0
_
posee rango 1, por lo que dim V (1) = 2 1 = 1 < 2. Por lo tanto, esta matriz no es diagonalizable, ya que
no existe una base de autovectores de la misma. La ecuaci on
_
0 1
0 0
__
x
y
_
=
_
0
0
_
conduce a y = 0, por lo que los autovectores son de la forma x(
1
0
) y V (1) es el espacio generado por (
1
0
).
No existe otro autovector LI de (
1
0
). De todos modos, se cumple [A[ = 1 = 1.1 y TrA = 2 = 1 + 1. N otese
que A es no singular ([A[ = 1 ,= 0). La condici on de no diagonalizable nada tiene que ver con la singularidad.
Cabe destacar, no obstante, que la matriz
B =
_
1 1
1
_
es diagonalizable ,= 0, ya que en tal caso la ecuaci on
[B I
2
[ = (1 )
2
= 0
posee siempre 2 races distintas: = 1

.
Esta conclusi on es general: Si A no es diagonalizable podemos siempre encontrar una matriz B arbitraria-
mente proxima a A (es decir, cuyos elementos dieran de los de A en menos de , con > 0 arbitrario) tal
que B es diagonalizable.
7
Ejemplo 3: Sea A =
_
_
1 1 1
0 2 1
0 0 1
_
_
. Tenemos
[AI
3
[ =
_
_
1 1 1
0 2 1
0 0 1
_
_
= (1 )(2 )(1 )
por lo que las races de P() son
1
= 1 y
2
= 2, con multiplicidades 2 y 1 respectivamente. Si =
1
,
[A1I
3
[ =
_
_
0 1 1
0 1 1
0 0 0
_
_
posee rango 1, por lo que dim V (1) = dim N(A1I
3
) = 31 = 2, igual a la multiplicidad de
1
. La matriz
es por lo tanto diagonalizable ya que necesariamente dim V (2) = 1. El sistema (A 1I
3
)X = 0 conduce a
y + z = 0, es decir, y = z, con z y x arbitrarios, por lo que los autovectores para
1
= 1 son de la forma
_
_
x
z
z
_
_
= x
_
_
1
0
0
_
_
+z
_
_
0
1
1
_
_
. Para
2
= 2,
[A2I
3
[ =
_
_
1 1 1
0 0 1
0 0 1
_
_
posee rango 2. El sistema (A 2I
3
)X = 0 conduce a x = y, con z = 0, por lo que los autovectores son de
la forma x
_
_
1
1
0
_
_
. Una matriz de autovectores es por lo tanto
S =
_
_
1 0 1
0 1 1
0 1 0
_
_
, con S
1
=
_
_
1 1 1
0 0 1
0 1 1
_
_
Se verica entonces
A

= S
1
AS =
_
_
1 0 0
0 1 0
0 0 2
_
_
N otese que el orden de los autovalores en A

corresponde al orden de los autovectores (columnas) en S.


Ejemplo 4: (Para hacer en la practica) Sea F : R
2
R
2
el operador de rotaci on de angulo (antiho-
rario), con [F]
e
= (
cos sin
sin cos
), siendo e la base canonica. Es obvio que F no puede tener autovalores reales,
ya que no existe v ,= 0 tal que F(v) = v. No es por lo tanto diagonalizable para K = R.
Sin embargo, [F]
e
tiene autovalores complejos = e
i
= cos i sin y es por lo tanto diagonalizable si se
lo considera como F : C
2
C
2
, con K = C. Determine el lector los autovectores y compruebe que existe S
tal que S
1
[F]
e
S es diagonal!
Ejemplo 5: Consideremos el operador de proyecci on ortogonal P sobre el plano x + y = 0 en R
3
(o
sea, proyecci on sobre este plano en la direccion del eje z). Si e

= (e

1
, e

2
, e

3
), con e

1
= (e
1
+ e
2
)/

2,
e

2
= (e
1
+ e
2
)/

2, e

3
= e
3
, con e = (e
1
, e
2
, e
3
) la base canonica, entonces P(e

1
) = 0, P(e

2
) = e

2
,
P(e

3
) = e

3
y por lo tanto, [P]
e
=
_
_
0 0 0
0 1 0
0 0 1
_
_
. Esta es pues una base de autovectores de P.
En la base canonica, obtenemos en cambio
[P]
e
= S[P]
e
S
1
=
1
2
_
_
1 1 0
1 1 0
0 0 2
_
_
, con S =
_
_
1 1 0
1 1 0
0 0

2
_
_
/

2
8
y S
1
= S
t
. En esta base [P]
e
no es diagonal, aunque sigue cumpliendo que [P]
2
e
= [P]
e
. Se deja como ejer-
cicio vericar explcitamente que los autovalores de la matriz [P]
e
son 0 y 1, y que una base de autovectores
es precisamente e

(aunque por su puesto no es la unica), de modo que S es una matriz diagonalizante de


[P]
e
, que verica S
1
[P]
e
S = [P]
e
, con [P]
e
diagonal.
Ejemplo 6: Autovalores de una matrix general de 22. Si A =
_
a b
c d
_
=
a+d
2
I
2
+
_
ad
2
b
c
ad
2
_
,
obtenemos facilmente, a partir de [AI
2
[ = 0, que los autovalores son

=
a +d
2

_
(
a d
2
)
2
+bc =
1
2
Tr[A]
_
(
Tr[A]
2
)
2
Det[A]
donde Tr[A] = a + d es la traza de A y Det[A] = ad bc su determinante. La ultima expresi on puede
obtenerse directamente de resolver el sistema
_

+
+

= Tr[A]

= Det[A]
Los dos autovalores quedan pues completamente determinados por la traza y el determinante.
Ejemplo 7: Correcci on de primer orden en los autovalores.
Consideremos una matriz B = A + A de n n, siendo A diagonalizable y A = M una perturbacion (
es un par ametro sucientemente peque no y M una matriz de n n arbitraria).
Sea S = (X
1
, . . . , X
n
) una matriz de autovectores de A, tal que S
1
AS = A

con A

diagonal (A

ij
=
i

ij
,
con AX
i
=
i
X
i
). Deniendo A

= S
1
(A)S = S
1
MS (perturbacion en la base en que A es diagonal)
y notando que [B I[ = [S
1
BS I[, obtenemos
[B I[ = [D +A

I[ =

1
+A

11
A

12
. . . A

1n
A

21

2
+A

22
. . . A

2n
. . .
A

n1
A

n2
. . .
n
+A

nn

Consideremos primero el caso en que los autovalores


i
de A son todos distintos. Para =
i
+
i
con
i
una correccion de orden al autovalor
i
, obtenemos entonces
[B (
i
+
i
)I[ = (A

ii

i
)

j=i
(
j

i
) +O(
2
)
donde el primer termino es el de mayor orden (O()), y los restantes de orden O(
2
) o mayor. Por lo tanto,
la ec. [B I[ = 0 conduce a

i
= A

ii
+O(
2
), con A

ii
= (S
1
AS)
ii
=

j,k
S
1
ij
M
jk
S
ki
es decir, los
i
son los terminos diagonales de A en la base en que A es diagonal. Como

j
S
1
ij
S
ji
= 1,
si la columna i de S (el autovector X
i
) se multiplica por , la la de i de S
1
se multiplica por 1/, para
mantener la igualdad anterior. Por lo tanto, la correccion A

ii
es, como debe ser, independiente de la base
elegida del espacio propio, es decir de la elecci on del autovector X
i
,= 0 en el espacio propio.
En el caso general, si el espacio propio asociado a un autovalor
i
tiene dimension d
i
(se dice entonces
que tiene degeneraci on d
i
), la correccion a
i
son los autovalores de A en el espacio propio asociado a

i
, pues [A I[ = [(A

)
i

i
I
d
i
[

j
=
i
(
j

i
)
m
j
+ O(
d
i
+1
), con A

i
la matriz A

restringida al
espacio propio asociado a
i
y m
j
la multiplicidad (algebraica) del autovalor
j
. Se deben pues obtener los
autovalores de A

i
(matriz de d
i
d
i
). El nivel degenerado
i
se desdobla normalmente en varios niveles.
Se dice entonces que se rompe la degeneraci on.
Es importante que A sea diagonalizable. De lo contrario, el ej. 2 anterior muestra que en el caso no-
diagonalizable, la correccion puede ser por ej. de orden

.
9
10.8 Evaluaci on de Potencias y Series de Matrices
La diagonalizaci on es muy conveniente para evaluar potencias y series de matrices (de n n) u operadores.
En primer lugar, si
A = SA

S
1
(10.3)
(A semejante a A

) se cumple, para k natural,


A
k
= SA
k
S
1
ya que A
2
= (SA

S
1
)(SA

S
1
) = SA
2
S
1
y en general (por induccion) A
k
= AA
k1
= SA

S
1
SA
k1
S
1
=
SA
k
S
1
. An alogamente, para funciones denidas por series de potencias f(u) =

k=0
a
k
u
k
convergentes
u C,
f(A) =

k=0
a
k
A
k
=

k=0
a
k
SA
k
S
1
= S[

k=0
a
k
A
k
]S
1
= Sf(A

)S
1
Notemos que f(A) esta bien denido pues [(A
k
)
ij
[ (mn)
k
/n, donde m el mayor elemento de la matriz
([A
ij
[ m i, j) y n la dimension. Esto implica que la serie matricial converge absolutamente si la serie
converge absolutamente u ([(f(A))
ij
[ f(mn)/n). En particular,
exp[At] =

k=0
(At)
k
k!
= S exp[A

t]S
1
Finalmente, si A es invertible (en cuyo caso A

es tambien invertible, como el lector debe reconocer inmedia-


tamente) se cumple A
1
= SA
1
S
1
y en general
A
k
= SA
k
S
1
Si A es diagonalizable, S
1
AS = A

con A

diagonal. Por lo tanto A = SA

S
1
. Podemos entonces utilizar
las expresiones anteriores con A

diagonal y S una matriz de autovectores, en cuyo caso la evaluacion resulta


inmediata pues
A

=
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
(A

)
k
=
_
_
_
_

k
1
0 . . . 0
0
k
2
. . . 0
. . .
0 0 . . .
k
n
_
_
_
_
para k natural. Esto implica
f(A

) =

k=0
a
k
(A

)
k
=
_
_
_
_
f(
1
) 0 . . . 0
0 f(
2
) . . . 0
. . .
0 0 . . . f(
n
)
_
_
_
_
En particular,
exp[A

t] =
_
_
_
_
e

1
t
0 . . . 0
0 e

2
t
. . . 0
. . .
0 0 . . . e

n
t
_
_
_
_
Adem as, si A es invertible, sus autovalores son todos no nulos y es facil ver que
(A

)
1
=
_
_
_
_

1
1
0 . . . 0
0
1
2
. . . 0
. . .
0 0 . . .
1
n
_
_
_
_
y por lo tanto
(A

)
k
=
_
_
_
_

k
1
0 . . . 0
0
k
2
. . . 0
. . .
0 0 . . .
k
n
_
_
_
_
10
Por ejemplo, en el caso del ej. 1 anterior se obtiene
exp[At] = exp[
_
0 1
1 0
_
t] =
1
2
_
1 1
1 1
__
e
t
0
0 e
t
__
1 1
1 1
_
=
_
cosh(t) sinh(t)
sinh(t) cosh(t)
_
y en el ej. 3 anterior,
A
n
= S
_
_
1
n
0 0
0 1
n
0
0 0 2
n
_
_
S
1
=
_
_
1 2
n
1 2
n
1
0 2
n
2
n
1
0 0 1
_
_
exp[At] = S
_
_
e
t
0 0
0 e
t
0
0 0 e
2t
_
_
S
1
=
_
_
e
t
e
2t
e
t
e
2t
e
t
0 e
2t
e
2t
e
t
0 0 e
t
_
_
Ejemplo: Sucesi on de Fibonacci. Esta denida por la relaci on recursiva lineal
a
n+1
= a
n
+a
n1
, n 1
con a
0
= 0, a
1
= 1.
La expresi on explcita de a
n
puede obtenerse facilmente planteando el problema en forma matricial. Re-
solveremos en realidad el problema para valores iniciales generales a
0
, a
1
. Tenemos, para n 1,
_
a
n+1
a
n
_
=
_
1 1
1 0
__
a
n
a
n1
_
Por lo tanto, para n 1 y deniendo A =
_
1 1
1 0
_
,
_
a
n+1
a
n
_
= A
n
_
a
1
a
0
_
La evaluacion de A
n
puede efectuarse mediante su diagonalizaci on. Los autovalores de A son los n umeros
aureos

=
1

5
2
que satisfacen
2
= + 1, con autovectores v

1
). Podemos entonces escribir A = SA

S
1
con
S = (

1 1
) y A

= (

+
0
0

). Por lo tanto, A
n
= S(A

)
n
S
1
y se obtiene nalmente (se dejan las cuentas para
el lector)
a
n
= [(
n
+

)a
1
(
n
+

+
)a
0
]/

5
En el caso usual de Fibonacci, a
0
= 0, a
1
= 1 y a
n
= (
n
+

n

)/

5. Como
+
= 1.618,

= 0.618, el
termino dominante para n grande es el proporcional a
n
+
.
Un tratamiento equivalente consiste en expresar el vector inicial (
a
1
a
0
) como combinacion lineal de los
autovectores de A: A
n
(
a
1
a
0
) = A
n
[c
+
(

+
1
) + c

1
)] = c
+

n
+
(

+
1
) + c

1
), de donde a
n
=
n
+
c
+
+
n

.
Como (
c
+
c

) = S
1
(
a
1
a
0
), se obtiene c
+
= a
1

a
0
, c

= a
1
+
+
a
0
, obteniendose el resultado anterior.
El mismo metodo se puede aplicar para toda sucesion denida por una relaci on recursiva ja lineal:
a
n+1
=
0
a
n
+
1
a
n1
+. . . +
k
a
nk
para n k, con a
0
, . . . , a
k
dados, que conduce a
_
_
_
_
a
n+1
a
n
. . .
a
nk+1
_
_
_
_
=
_
_
_
_
_
_

0

1
. . .
k
1 0 . . . 0
0 1 . . . 0
. . .
0 . . . 1 0
_
_
_
_
_
_
_
_
_
_
a
n
a
n1
. . .
a
nk
_
_
_
_
=
_
_
_
_
_
_

0

1
. . .
k
1 0 . . . 0
0 1 . . . 0
. . .
0 . . . 1 0
_
_
_
_
_
_
nk+1
_
_
_
_
a
k
a
k1
. . .
a
0
_
_
_
_
La sucesion geometrica elemental a
n
=
n
0
a
0
corresponde al caso k = 0 (a
n+1
=
0
a
n
si n 0).
11
10.9 Desacoplamiento de Sistemas de Ecuaciones Diferenciales Lineales
Como otra aplicacion, consideremos por ejemplo el sistema de ecuaciones diferenciales ordinarias lineales de
primer orden
dX
dt
= AX
con X de n 1 y A de n n, con elementos constantes (o sea, independientes del tiempo). Suponiendo
A diagonalizable, tenemos A = SA

S
1
, con A

diagonal y S la matriz de autovectores. Por lo tanto


dX/dt = SA

S
1
X, lo que implica
dX

/dt = A

, X

= S
1
X,
Como A

es diagonal, el sistema en las variables X

esta desacoplado, y es de facil resoluci on. Tenemos, para


las componentes x

i
de X

, las ecuaciones desacopladas


dx

i
/dt =
i
x

i
, i = 1, . . . , n
donde
i
son los autovalores de A, cuya solucion es x

i
= c
i
e

i
t
. Finalmente, se obtiene
X(t) = SX

(t) =
n

i=1
c
i
V
i
e

i
t
,
donde V
i
denota los autovectores de A (las columnas de S). Esto constituye la solucion general del sistema
de primer orden, conteniendo n constantes arbitrarias c
i
que pueden determinarse a partir de las condiciones
iniciales x
i
(0).
El procedimiento usualmente utilizado en Fsica e Ingeniera para llegar a esta solucion es plantear una
solucion del tipo X(t) = V e
t
con V constante. La ec. dX/dt = AX implica entonces V = AV , por lo
que V debe ser autovector de A con autovalor . La solucion general se obtiene luego como combinacion
lineal arbitraria de estas soluciones particulares. Este procedimiento es en realidad correcto para encontrar
la solucion general s olo en el caso de matrices A diagonalizables.
N otese tambien que el mismo metodo puede utilizarse para resolver sistemas an alogos de segundo orden
d
2
X
dt
2
= AX
Solo es necesario reemplazar c
i
e

i
t
por c
+
i
e

i
t
+c

i
e

i
t
en la solucion general anterior.
Ejemplo 1: Consideremos el sistema de tres ecuaciones diferenciales acopladas de primer orden,
dx/dt = x +y +z, dy/dt = 2y +z, dz/dt = z
donde x, y, z son funciones de t, el cual puede escribirse en forma matricial como
d
dt
_
_
x
y
z
_
_
=
_
_
1 1 1
0 2 1
0 0 1
_
_
_
_
x
y
z
_
_
o sea, dv/dt = Av, siendo A la matriz del ej. 3 anterior y v = (x, y, z)
t
. Por lo tanto, utilizando las matrices
S y S
1
de dicho ejemplo,
d
dt
_
_
x
y
z
_
_
= S
_
_
1 0 0
0 1 0
0 0 2
_
_
S
1
_
_
x
y
z
_
_
y mult. a izq. por S
1
, se llega a
d
dt
_
_
x

_
_
=
_
_
1 0 0
0 1 0
0 0 2
_
_
_
_
x

_
_
, con
_
_
x

_
_
= S
1
_
_
x
y
z
_
_
=
_
_
x y z
z
y +z
_
_
el cual es un sistema de tres ecuaciones dif. lineales desacopladas:
dx

/dt = x

, dy

/dt = y

, dz

/dt = 2z

12
que es equivalente al original. La solucion del sistema desacoplado es muy facil de obtener:
x

= c
1
e
t
, y

= c
2
e
t
, z

= c
3
e
2t
Finalmente
_
_
x
y
z
_
_
= S
_
_
x

_
_
=
_
_
x

+z

+z

_
_
= c
1
e
t
_
_
1
0
0
_
_
+c
2
e
t
_
_
0
1
1
_
_
+c
3
e
2t
_
_
1
1
0
_
_
=
_
_
c
1
e
t
+c
3
e
2t
c
2
e
t
+c
3
e
2t
c
2
e
t
_
_
Ejemplo 2: Sistema de dos resortes acoplados (recordar dibujo). Ecuacion de movimiento:
d
2
dt
2
_
x
1
x
2
_
=
1
m
_
k
1
+k
2
k
2
k
2
k
1
+k
2
__
x
1
x
2
_
Resuelto en clase. Detalles a cargo del lector. Solo recordamos que las frecuencias propias
i
=

i
(con
i
los autovalores de la matriz (
k
1
+k
2
k2
k2 k
1
+k
2
)/m son
1
=
_
(k
1
+ 2k
2
)/m,
2
=
_
k
1
/m, con V
1
(
1
1
), V
2
(
1
1
).
11. Matrices hermticas y reales simetricas
Un caso especial muy importante para la fsica es aquel de matrices de n n hermticas (o hermitianas o
autoadjuntas), que son las que satisfacen A

= A, donde A

A
t
denota la matriz traspuesta y conjugada
(matriz adjunta):
A = A

A =
_
_
_
_
a
11
a
12
. . . a
1n
a

12
a
22
. . . a
2n
. . .
a

1n
a

2n
. . . a
nn
_
_
_
_
con a
ii
real para i = 1, . . . , n. Si todos los elementos de A son reales A

= A
t
y la condici on de A
hermtica equivale a A simetrica (A
t
= A).
11.1) Teorema: Si A de nn es una matriz hermtica sus autovalores
i
son todos reales y los autovectores
X
i
correspondientes a autovalores distintos son ortogonales respecto del producto escalar usual para vectores
complejos: Si AX
i
=
i
X
i
, AX
j
=
j
X
j
X

i
X
j
= 0 si
i
,=
j
, donde
X

i
X
j
= (x

1i
. . . x

ni
)
_
_
x
1j
. . .
x
nj
_
_
= x

1i
x
1j
+. . . x

ni
x
nj
Demostracion: Sea X
i
de n 1 autovector de A con autovalor
i
(por lo tanto X
i
,= 0). Multiplicando la
igualdad AX
i
=
i
X
i
a izquierda por X

i
= X
t
i
se obtiene
X

i
AX
i
=
i
X

i
X
i
(11.1)
con
X

i
X
i
= (x

1i
. . . x

ni
)
_
_
x
1i
. . .
x
ni
_
_
= x

1i
x
1i
+. . . x

ni
x
ni
= [x
1i
[
2
+. . . +[x
ni
[
2
> 0
Trasponiendo y conjugando la igualdad (11.1) se obtiene, notando que (AB)

= B

,
X

i
A

X
i
=

i
X

i
X
i
(11.2)
Pero como A

= A, esto implica, comparando con (11.1), que


i
X

i
X
i
=

i
X

i
X
i
, o sea,
0 = (
i

i
)X

i
X
i
Como X

i
X
i
> 0
i
=

i
, es decir,
i
real.
Del mismo modo, si AX
i
=
i
X
i
, AX
j
=
j
X
j
, multiplicando a izquierda la primer ecuaci on por X

j
y la
segunda por X

i
se obtiene
X

j
AX
i
=
i
X

j
X
i
, X

i
AX
j
=
j
X

i
X
j
13
Trasponiendo y conjugando la pimera de estas ecuaciones se obtiene X

i
A

X
j
=

i
X

i
X
j
, es decir, X

i
AX
j
=

i
X

i
X
j
pues A

= A y
i
=

i
(ya demostrado). Por lo tanto,
i
X

i
X
j
=
j
X

i
X
j
, o sea,
0 = (
i

j
)X

i
X
j
por lo que X

i
X
j
= 0 si
i
,=
j
.
Puede demostrarse (lo haremos m as adelante) que toda matriz hermtica A es diagonalizable, y que
siempre existen n autovectores X
i
LI y adem as ortogonales que satisfacen AX
i
=
i
X
i
, con X

i
X
j
= 0 si
i ,= j (a un cuando
i
=
j
).
En tal caso, eligiendo autovectores normalizados tales que X

i
X
i
= 1 para i = 1, . . . , n, se obtiene
X

i
X
j
=
ij
=
_
1 i = j
0 i ,= j
Por lo tanto la matriz de autovectores S = (X
1
. . . X
n
) satisface
S

S = I
n
pues (S

S)
ij
= X

i
X
j
=
ij
. La inversa de S es pues directamente la matriz adjunta: S
1
= S

.
En resumen, si A = A

, S tal que S
1
= S

y S

AS = A

, con A

diagonal y real: A
ij
=
i

ij
Matrices antihermticas: Si A

= A, se dice que A es antihermtica. En tal caso, B = iA resulta


hermtica (pues B

= iA

= iA = B), lo que implica, como A = iB, que A sera tambien diagonalizable,


con autovectores ortogonales si corresponden a autovalores distintos, pero con autovalores imaginarios en
lugar de reales: Si BX
i
=
i
X
i
AX
i
= (i
i
)X
i
.
Matrices reales simetricas: Para el caso particular de matrices reales, los resultados anteriores im-
plican que los autovalores de matrices reales simetricas (A

= A
t
= A) son todos reales. Los autovec-
tores pueden pues elegirse reales, y por lo tanto, seran ortogonales respecto del producto escalar usual: Si
AX
i
=
i
X
i
y AX
j
=
j
X
j

X
t
i
X
j
= x
1i
x
1j
+. . . +x
ni
x
nj
= 0 si
i
,=
j
En tal caso, eligiendo autovectores normalizados (tales que X
t
i
X
i
= 1) la inversa de la matriz S =
(X
1
, . . . , X
n
) sera directamente la traspuesta:
S
t
S = I
n
(A = A
t
real, X
i
real para i = 1, . . . , n)
En resumen, si A = A
t
, con A real, S real tal que S
1
= S
t
y S
t
AS = A

, con A

diagonal y real:
A

ij
=
i

ij
. M as aun, puede elegirse siempre S tal que detS = +1 (Si S
1
= S
t
detS = 1) en cuyo
caso S corresponde a una rotaci on, como veremos m as adelante
Matrices reales antisimetricas: Si A es real y A
t
= A, nuevamente B = iA resulta hermtica
(B

= iA
t
= iA = B) y por lo tanto, A = iB sera diagonalizable en el cuerpo de los complejos, con
autovalores imaginarios y autovectores ortogonales si corresponden a autovalores distintos.
Ejemplo 1: Sea
A =
_
1 v
v 1
_
A es una matriz real simetrica si v es real. Tenemos
[AI
2
[ = (1 )
2
v
2
por lo que los autovalores son = 1v, reales. Para
1
= 1+v, puede verse facilmente que el autovector es
de la forma X
1
= x
1
(
1
1
), mientras que para
2
= 1 v, es de la forma X
2
= x
2
(
1
1
). Por lo tanto, podemos
elegir x
1
= x
2
= 1/

2, para que X
t
1
X
1
= X
t
2
X
2
= 1. Se verica adem as X
t
1
X
2
=
1
2
(1, 1)(
1
1
) = 0. Por lo
tanto
S =
1

2
_
1 1
1 1
_
, S
1
= S
t
=
1

2
_
1 1
1 1
_
14
con
S
t
AS =
_
1 +v 0
0 1 v
_
Ejemplo 2: Sea
A =
_
1 iv
iv 1
_
con v real. A es una matriz hermtica (A

= A). Tenemos
[AI
2
[ = (1 )
2
(iv)(iv) = (1
2
) v
2
por lo que los autovalores son nuevamente = 1 v, reales. Para
1
= 1 + v, puede verse facilmente
que el autovector es de la forma X
1
= x
1
(
i
1
), mientras que para
2
= 1 v, es de la forma X
2
= x
2
(
i
1
).
Por lo tanto, podemos elegir x
1
= x
2
= 1/

2, para que X

1
X
1
= X

2
X
2
= 1. Se verica adem as X

1
X
2
=
1
2
(i, 1)(
i
1
) = (1 + 1)/2 = 0. Por lo tanto
S =
1

2
_
i i
1 1
_
, S
1
= S

=
1

2
_
i 1
i 1
_
con
S

AS =
_
1 +v 0
0 1 v
_
Ejemplo 3: Consideremos la ecuaci on
ax
2
+ 2bxy +cy
2
= d
con coecientes y variables reales. Podemos escribirla en forma matricial como
X
t
AX = d, X = (
x
y
), X
t
= (x, y), A =
_
a b
b c
_
La matriz A es real y simetrica, siendo por lo tanto siempre diagonalizable. Existe entonces una matriz
ortogonal de autovectores S (S
1
= S
t
), con Det S = 1, tal que S
1
AS = S
t
AS = A

, con A

diagonal:
A

= (

+
0
0

), siendo

los autovalores de A (las races de (a )(b ) b


2
= 0). En tal caso, si X = SX

,
tenemos
X
t
AX = X
t
S
t
ASX

= X
t
A

=
+
x
2
+

y
2
= d
Si d > 0, vemos entonces que la gr aca de la ecuaci on en las variables x

, y

sera una elipse si

son ambos
mayores que 0, y una hiperbola si
+

< 0, con ejes principales x

, y

en ambos casos. Como la trans-


formacion corresponde a una rotaci on (eligiendo el orden de autovectores tal que DetS = +1), la ecuaci on
original correspondera si [A[ , = 0 a una elipse o hiperbola con ejes principales rotados (como consecuencia
del termino cruzado 2bxy). El angulo de inclinaci on entre los ejes x

y x puede obtenerse a partir de la


matriz S escribiendola en la forma S = [I]
e

e
= (
cos sin
sin cos
). Para m as detalles ver ejemplo resuelto en clase
o en practica.
Ejemplo 4: Tensor de Inercia. El tensor de inercia de un cuerpo rgido respecto de un origen O es
I
O
=

_
_
r
2

x
2

r
2

y
2

r
2

z
2

_
_
=

(X
t

I
3
X

X
t

)
donde X
t

= (x

, y

, z

) y r
2

= X
t

= x
2

+ y
2

+ z
2

. I
O
queda pues representado por una matriz real
simetrica. Frente a una rotaci on del sistema de coordenadas, X

= SX

, con DetS = 1, S
t
S = I
3
, se obtiene
I
O
=

(X

S
t
SX

I
3
SX

S
t
) = S[

(X

I
3
X

)]S
t
= SI

O
S
t
o sea, I

O
= S
t
I
O
S con I

O
el tensor de inercia en el sistema rotado. Como I
O
es real simetrica, existir a
una matriz ortogonal de rotaci on S (matriz de autovectores normalizados y ordenados tal que S
t
S = I
3
y
[S[ = 1) tal que I

O
sea diagonal. Esta matriz determinara los 3 ejes principales de inercia, y los autovalores
de I
O
seran los momentos principales de inercia. Si el vector velocidad angular coincide con alguna de
estas direcciones, el vector momento angular (dado en general por L
O
= I
O
) sera proporcional a .
15
Ejemplo 5: Sistema general de n resortes acoplados. El movimiento de tal conjunto esta descripto
por un sistema de ecuaciones de segundo orden del tipo (recordar discusion de clase)
m
i
d
2
x
i
dt
2
=
n

j=1
k
ij
x
j
, i = 1, . . . , n
donde x
i
es la posicion de la partcula i (medida desde la posicion de equilibrio), m
i
> 0 su masa y k
ij
= k
ji
.
Podemos reescribir tal sistema en forma matricial como
M
d
2
X
dt
2
= KX
donde M es una matriz diagonal de elementos m
i
(M
ij
= m
i

ij
), X = (x
1
, . . . , x
n
)
t
y K la matriz de ele-
mentos k
ij
. Deniendo la matriz diagonal M
1/2
de elementos

m
i
((M
1/2
)
ij
=

m
i

ij
) podemos reescribir
tal sistema como M
1/2
M
1/2 d
2
X
dt
2
= KX, y por lo tanto, multiplicando a izquierda por M
1/2
= (M
1/2
)
1
(matriz diagonal de elementos (M
1/2
)
ij
=
1

m
i

ij
), como
d
2
Y
dt
2
=

KY, donde

K = M
1/2
KM
1/2
, Y = M
1/2
X
(de forma que y
i
=

m
i
x
i
). La ventaja esta forma matricial es que la matriz

K es real simetrica (

K
t
=

K)
y por lo tanto siempre diagonalizable. Existe entonces una matriz ortogonal S tal que S
t

KS =

K

, con K

diagonal, de elementos

K

ij
=
i

ij
, siendo
i
los autovalores de

K. Por lo tanto, escribiendo

K = S

K

S
t
,
el sistema original resulta equivalente a
d
2
Y

dt
2
=

, donde Y

= S
t
Y
Esto representa, dado que

K

es diagonal, un sistema de n resortes desacoplados:


d
2
y

i
dt
2
=
i
y

i
, i = 1, . . . , n
La solucion general de c/u de estas ecuaciones es, para
i
,= 0, y

i
(t) = Ae
i
i
t
+Be
i
i
t
= C cos(
i
t+), donde

i
=

i
son las frecuencias propias de vibraci on del sistema. Las variables y

i
=

n
j=1
S
ji

m
j
x
j
(o sea, y

i
= (S
t
Y )
i
) se denominan modos normales de vibraci on. Notemos que las frecuencias propias
son las races de los autovalores de la matriz M
1/2
KM
1/2
, los cuales, en virtud de la propiedad 12.1
siguiente, coinciden con los de la matriz M
1
K. Por lo tanto, la conocida formula =
_
k/m para la fre-
cuencia angular de un oscilador armonico se generaliza a
i
=
_
(M
1
K)
i
, donde (M
1
K)
i
denota aqu el
iesimo autovalor de la matriz M
1
K. Puede demostrarse que si la matriz K es denida positiva (denicion
que veremos luego y que corresponde a un sistema estable) entonces todos los autovalores de

K son positivos.
Ejemplo 6: Problema generalizado de autovalores: La ecuaci on
AX = BX
donde A y B son matrices de n n, B es no singular y X ,= 0 es un vector columna, dene un problema
generalizado de autovalores. Es obviamente equivalente al problema estandar B
1
AX = X, es decir, a
la obtencion de los autovalores y autovectores de la matriz B
1
A. Los autovalores pueden pues obtenerse
como [B
1
AI[ = 0, equivalente a
[AB[ = 0
y los espacios propios pueden obtenerse como Nu(B
1
AI), equivalente a Nu(AB).
Si A

= A y B

= B, B
1
A no es general hermtica ((B
1
A)

= AB
1
). Si B es denida positiva
(es decir, todos sus autovalores
B
i
son positivos), es posible reescribir el problema generalizado como un
problema de autovalores hermtico y est andar, mediante el mismo metodo utilizado en el ej. 5:
Si AX = BX B
1/2
AB
1/2
B
1/2
X = B
1/2
X, por lo que el problema se reduce al problema estandar

A

X =

X
con

A = B
1/2
AB
1/2
una matriz hermtica (

A

=

A) y

X = B
1/2

X. Aqui, si B = S
B
B

B
, con B

diagonal (B

ij
=
B
i

ij
,
B
i
> 0), B
1/2
= S
B
B

1/2
S

B
, con (B

1/2
)
ij
=
_

B
i

ij
, siendo B
1/2
su inversa.
16
Por lo tanto, los autovalores seran reales, y pueden obtenerse de [

AI[ = 0, equivalente a [AB[ = 0,


mientras que los autovectores

X correspondientes a autovalores distintos seran ortogonales:

X

X
j
= 0 si

i
,= j
j
. Esto implica que los autovectores X del problema original seran ortogonales para un producto
escalar modicado dependiente de B:

X

X
j
= X

i
BX
j
= 0 si
i
,=
j
y

X
i
= B
1/2
X
i
. Veremos en las
proximas secciones la denicion de producto escalar con m as detalle. Al ser

A diagonalizable y B
1/2
no
singular, tanto el conjunto

X
1
, . . . ,

X
n
como X
1
, . . . , X
n
formaran una base de C
n
.
M as aun, dado que

A es hermtica, existir a una matriz no singular de autovectores normalizados y
ortogonales

S = (

X
1
, . . . ,

X
n
) tal que

S


S = I y

S


AS =

A

con

A

diagonal:

A

ij
=
i

ij
. Esto implica que
S = B
1/2

S = (X
1
, . . . , X
n
) satisface simult aneamente
S

AS = A

, S

BS = I
con A

=

A

diagonal: A

ij
=
i

ij
. Los autovalores generalizados
i
pueden obtenerse directamente como las
races de [A B[ = 0, mientras que los correspondientes autovectores X
i
(columnas de S) de la ecuaci on
(A
i
B)X
i
= 0. La existencia de tal S queda pues garantizada en el caso A

= A y B

= B, con B
denida positiva (
B
i
> 0 i).
12. Otras propiedades importantes
12.1) Sean F : V V , G : V V dos operadores sobre el mismo espacio V de dimension nita. Entonces
los autovalores de FG son los mismos que los de GF, a un cuando FG ,= GF
Demostracion: En efecto, si FG(v) = v con v ,= 0 GF(G(v)) = G(FG(v)) = G(v) = G(v). Si
G(v) ,= 0 es tambien autovalor de GF con autovector G(v). Si G(v) = 0 necesariamente = 0 (pues
FG(v) = F(G(v)) = F(0) = 0) y por lo tanto 0 = Det[FG] = Det[GF]. Esto implica que 0 es tambien
autovalor de GF. An alogamente se muestra que todo autovalor de GF es autovalor de FG.
Esta propiedad es entonces tambien valida para matrices. Si A, B son dos matrices de n n los autova-
lores de AB son los mismos que los de BA, a un si AB ,= BA.
12.2) Si [F, G] = FG GF = 0 y v ,= 0 es autovector de F con autovalor G(v) V
F
(), es de-
cir, G(v) es tambien autovector de F con el mismo autovalor si G(v) ,= 0.
Demostracion: F(G(v)) = FG(v) = GF(v) = G(v) = G(v), por lo que G(v) V
F
().
Adem as, si V es de dimension nita n y los autovalores de F son todos distintos todo autovector de F es
tambien autovector de G, pues en tal caso V
F
() es de dimension 1 para todo autovalor y por lo tanto,
necesariamente G(v) = v.
Todos los operadores que conmutan con F quedan en este caso directamente representados por matrices
diagonales en la base en que [F]
e
es diagonal, y son por lo tanto diagonalizables.
En general, si F y G son ambos diagonalizables y [F, G] = 0 existe una base com un donde F y G son
simult aneamente diagonales. Solo hay que diagonalizar F, y luego diagonalizar G dentro de cada espacio
propio de F.
17
13. Subespacios Invariantes
Sea F : V V un operador lineal y sea W V un subespacio de V . W es un subespacio invariante bajo
la accion de F (se dice tambien invariante bajo F o por F) si F(W) W, es decir, si v W, F(v) W.
Ejemplos triviales son W = V y W = 0, que son subespacios invariantes para todo operador lineal
F : V V (pues F(V ) V y F(0) = 0).
Tambien el n ucleo N(F) y la imagen I(F) son siempre invariantes por F (F(N(F)) = 0 N(F), y si
v I(F), F(v) I(F)).
Resulta asimismo trivial reconocer que si F = I, con I el operador identidad cualquier subespacio
W V es invariante por F, ya que si v W, F(v) = v W.
Como otro ejemplo com un consideremos el proyector P sobre S
1
en la direccion de S
2
, con S
1
S
2
= V .
Es obvio que S
1
es invariante por P pues si v
1
S
1
P(v
1
) = v
1
S
1
(P(S
1
) = S
1
= I(P)). M as a un,
cualquier subespacio de S
1
es tambien invariante por P.
13.1) Si es autovalor de F el espacio propio V () es un subespacio invariante por F: Si v V ()
F(v) = v V ().
13.2) La suma de espacios propios V (
1
) V (
2
) de un mismo operador F es tambien invariante por F.
Si v V (
1
)V (
2
), v = v
1
+v
2
, con F(v
i
) =
i
v
i
, i = 1, 2 y por lo tanto F(v) =
1
v
1
+
2
v
2
V (
1
)V (
2
).
An alogamente, la suma de espacios propios V (
1
) . . . V (
k
) es invariante por F.
13.3) Si [F, G] = 0 y W es un subespacio invariante por F, G(W) es tambien invariante por F.
En efecto, si v W, w = F(v) W y por lo tanto, F(G(v)) = FG(v) = GF(v) = G(F(v)) = G(w) G(W).
13.4) Si se escribe a V como suma directa de subespacios invariantes,
V = S
1
S
2
. . . S
k
, existe una base (aquella formada por la uni on de las bases de cada subespacio
invariante) en la que la matriz que representa a [F]
e
estara bloqueada en la forma
[F]
e
=
_
_
_
_
A
1
0 . . . 0
0 A
2
. . . 0
. . .
0 0 . . . A
k
_
_
_
_
donde A
i
es una matriz de dimension d
i
d
i
, con d
i
= dimS
i
, i = 1, . . . , k y

k
i=1
d
i
= n.
En efecto, si (e
i1
, . . . , e
id
i
) es una base de S
i
, F(e
ij
) S
i
, por lo que F(e
ij
) =

d
i
l=1
(A
i
)
lj
e
il
para j = 1, . . . , d
i
.
An alogamente, si existe una base en la que [F]
e
tiene la forma de bloques anterior V = S
1
S
2
. . . S
k
,
con S
i
invariante por F para i = 1, . . . , k. Basta con considerar S
i
como el subespacio generado por los
vectores de la base correspondientes a cada bloque.
Los autovalores de F pueden pues obtenerse directamente diagonalizando cada bloque A
i
: Como detF =

i
detA
i
(demostraci on dada en clase), el polinomio caracterstico resulta [F I[ =

k
i=1
[A
i
I
d
i
[, por
lo que sus racies seran las races de cada termino, es decir, los autovalores de cada bloque A
i
. Y los
autovectores correspondientes perteneceran al subespacio invariante asociado a A
i
(detalles dados en clase).
El conocimiento de subespacios invariantes posibilita pues grandes simplicaciones cuando se tiene que
diagonalizar matrices de grandes dimensiones.
18
14. Forma Can onica de Jordan
Surge ahora la pregunta sobre cu al es la forma m as simple en que pueden escribirse los operadores (o
matrices) no diagonalizables. El siguiente teorema nos da la respuesta:
Teorema: Sea F : V V un operador lineal en un espacio vectorial V de dimension nita n sobre C.
Entonces existe una base e = (e
11
, e
12
, . . . , e
1d
1
, . . . , e
k1
, e
k2
, . . . , e
kd
k
), con

k
i=1
d
i
= n, en la que
F(e
i1
) =
i
e
i1
F(e
ij
) =
i
e
ij
+e
i,j1
, j = 2, . . . , d
i
, i = 1, . . . , k
o sea, F(e
11
) =
1
e
11
, F(e
12
) =
1
e
12
+ e
11
, . . . , F(e
1d
1
) =
1
e
1d
1
+ e
1,d
1
1
y similar para i 1. El caso
diagonalizable corresponde a d
i
= 1 k, en cuyo caso k = n. Los par ametros
i
no son necesariamente
distintos y son los autovalores de F, como demostraremos a continuaci on.
La matriz [F]
e
[F]
e
e
en esta base toma entonces la forma de bloques
[F]
e
= A =
_
_
_
_
A
1
0 . . . 0
0 A
2
. . . 0
. . .
0 0 . . . A
k
_
_
_
_
donde A
i
son matrices de d
i
d
i
de la forma
A
i
=
_
_
_
_
_
_

i
1 0 . . . 0
0
i
1 . . . 0
. . .
0 0 0 . . . 1
0 0 0 . . .
i
_
_
_
_
_
_
=
i
I
d
i
+J
d
i
, J
d
i
=
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . 0
. . .
0 0 0 . . . 1
0 0 0 . . . 0
_
_
_
_
_
_
con I
d
i
la matriz identidad de d
i
d
i
.
Cada subespacio S
i
= (e
i1
, e
i2
, . . . , e
id
i
) es claramente invariante por F, ya que F(e
ij
) S(
i
).
Es claro tambien que los escalares
i
, i = 1, . . . , k, son los autovalores de F, pues
P() = Det[F I] = [A
1
I
d
1
[ . . . [A
k
I
d
k
[ = (
1
)
d
1
. . . (
k
)
d
k
posee como unicas races a
1
, . . . ,
k
.
Cada submatriz A
i
posee un unico autovalor
i
de multiplicidad d
i
([A
i
I
d
i
[ = (
i
)
d
i
), pero el espa-
cio propio correspondiente es de dimension 1: dim N[A
i

i
I
d
i
] = dim N[J
d
i
] = 1 pues Rango(J
d
i
) = d
i
1.
Por lo tanto, la submatriz A
i
no es diagonalizable si d
i
> 1. Cada subespacio S
i
contiene entonces un unico
subespacio propio de dimension 1, que es el generado por e
i1
, y el n umero total de autovectores LI de F es
k n (uno por cada S
i
).
Notemos que (F
i
I)e
ij
= e
i,j1
para j > 1, con (F
i
I)e
i1
= 0, por lo que aplicando m veces el op.
(F
i
I) sobre e
ij
resulta
(F
i
I)
m
e
ij
=
_
e
i,jm
m < j
0 m j
Los operadores no diagonalizables en espacios nitos se caracterizan pues por la existencia de vectores e
ij
no nulos tales que (F
i
I)
j
e
ij
= 0 pero (F
i
I)e
ij
,= 0 si j > 1. Si F es diagonalizable tales vectores no
existen. Notemos que conociendo e
id
i
, los restantes vectores e
ij
pueden obtenerse como
e
ij
= (F
i
I)
d
i
j
e
id
i
= (F
i
I)e
i,j+1
, j = 1, . . . , d
i
1
La ecuaci on previa implica tambien que (F
i
I)
d
i
(e
ij
) = 0, j = 1, . . . , d
i
. Por lo tanto, la matriz
J
d
i
= A
i

i
I
d
i
es nilpotente:
(J
d
i
)
d
i
= 0
donde 0 denota la mariz nula de d
i
d
i
. Por ejemplo,
J
2
=
_
0 1
0 0
_
, J
2
2
=
_
0 0
0 0
_
, J
3
=
_
_
0 1 0
0 0 1
0 0 0
_
_
, J
2
3
=
_
_
0 0 1
0 0 0
0 0 0
_
_
, J
3
3
=
_
_
0 0 0
0 0 0
0 0 0
_
_
19
La evaluacion de potencias del operador puede entonces realizarse sin mayor dicultad, ya que
A
m
=
_
_
_
_
A
m
1
0 . . . 0
0 A
m
2
. . . 0
. . .
0 0 . . . A
m
k
_
_
_
_
donde, teniendo en cuenta que I
d
i
conmuta con J
d
i
,
A
m
i
= (
i
I
d
i
+J
d
i
)
m
=
m
i
I
d
i
+m
m1
i
J
d
i
+
m(m1)
2!

m2
i
J
2
d
i
+. . . +J
m
d
i
para i = 1, . . . , k. Esta expansion contiene a lo sumo d
i
terminos ya que (J
d
i
)
r
= 0 si r d
i
.
En general, si p(t) es un polinomio de grado m,
p(t) = p(
i
)1 +p

(
i
)(t
i
) +. . . +
p
(m)
(
i
)
m!
(t
i
)
m
se obtiene
p(A
i
) = p(
i
)I
d
i
+p

(
i
)J
d
i
+. . . +
p
(d
i
1)
(
i
)
(d
i
1)!
J
d
i1
d
i
Adem as, la forma de Jordan es muy conveniente para la evaluacion de exponenciales:
exp[A
i
t] = exp[
i
I
d
i
t +J
d
i
t] = exp[
i
I
d
i
t] exp[J
d
i
t] = e

i
t
_
I
d
i
+J
d
i
t +. . . +J
d
i
1
d
i
t
d
i
1
(d
i
1)!
_
Por lo tanto, B(t) = exp[A
i
t] sera una matriz triangular con elementos B
kj
= e

i
t
t
jk
/(j k)! si k j y
B
kj
= 0 si k > j.
Para obtener la representaci on de Jordan se puede, una vez obtenidos los k autovalores
i
y autovectores
e
i1
, i = 1, . . . , k, resolver las ecuaciones inhomogeneas F(e
ij
) =
i
e
ij
+ e
i,j1
j = 2, . . . , d
i
, es decir,
trabajando en forma matricial en la base e,
AX
i1
=
i
X
i1
, AX
ij
=
i
X
ij
+X
i,j1
, j = 2, . . . , d
i
, i = 1, . . . , k
que no poseen solucion unica. Otra forma m as eciente es partir de e
id
i
, es decir, encontrar un vector X
id
i
que satisfaga
(A
i
I)
d
i
X
id
i
= 0, (A
i
I)
d
i
1
X
id
i
,= 0
Los vectores restantes del bloque pueden obtenerse como
X
ij
= (A
i
I)
d
i
j
X
id
i
, j = 1, . . . , d
i
1
Ejemplo:
A =
_
_
1 1 1
0 2 1
0 0 2
_
_
Tenemos [A I
3
[ = (1 )(2 )
2
, por lo que las races son
1
= 1, con multiplicidad 1, y
2
= 2, con
multiplicidad 2. Como
A2I
3
=
_
_
1 1 1
0 0 1
0 0 0
_
_
posee rango 2, N[A2I
3
] posee dimension 1, por lo que A no es diagonalizable.
Para
2
= 2 el sistema homogeneo (A I
3
)X = 0 posee la solucion general x = y, z = 0, de modo que el
autovector es de la forma x(1, 1, 0)
t
. Eligiendo X
11
= (1, 1, 0)
t
, el vector X
12
puede obtenerse resolviendo
_
_
1 1 1
0 0 1
0 0 0
_
_
_
_
x
y
z
_
_
=
_
_
1
1
0
_
_
20
que da como resultado z = 1, x = y. Podemos elegir entonces X
12
= (0, 0, 1)
t
. Finalmente, A 1I
3
=
_
_
0 1 1
0 1 1
0 0 1
_
_
, por lo que (AI
3
)X
31
= 0 conduce a X
31
= x(1, 0, 0)
t
. Obtenemos entonces
S =
_
_
1 0 1
1 0 0
0 1 0
_
_
, con S
1
=
_
_
0 1 0
0 0 1
1 1 0
_
_
y nalmente la forma de Jordan
A

= S
1
AS =
_
_
2 1 0
0 2 0
0 0 1
_
_
Puede comenzarse tambien determinando X
12
a partir de las condiciones (A2I
3
)X
12
,= 0, (A2I
3
)
2
X
12
= 0,
y obtener luego X
11
como (A2I
3
)X
12
(hecho as en clase).
Se obtiene tambien
exp[A

t] =
_
_
exp[t
_
2 1
0 2
_
] 0
0 exp(t)
_
_
=
_
_
e
2t
te
2t
0
0 e
2t
0
0 0 e
t
_
_
ya que exp[t
_
2 1
0 2
_
] = exp[t(2I
2
+J
2
)] = exp[2tI
2
] exp[tJ
2
] = e
2t
(I
2
+tJ
2
) = e
2t
_
1 t
0 1
_
, pues J
2
2
= 0.
Resoluci on general de sistemas de ecuaciones lineales de primer orden. La solucion del sistema
dX
dt
= AX
con A constante pero no diagonalizable, puede obtenerse a partir de la forma canonica de Jordan. Tenemos,
para X(0) = X
0
y A = SA

S
1
,
X = exp[At]X
0
= S exp[A

t]C =
k

i=1
e

i
t
d
i

m=1
c
im
m1

j=0
V
i,mj
t
j
j!
donde V
i,mj
denota las columnas de S [S = (V
11
, V
12
, . . . , V
1,d
1
, . . . , V
k,1
, . . . , V
k,d
k
), de forma que S exp[A

t] =
(e

1
t
V
11
, e

1
t
(V
12
+tV
11
), e

1
t
(V
13
+tV
12
+
t
2
2!
V
11
), . . .)] y C = S
1
X
0
= (c
11
, c
12
, . . . , c
1d
1
, . . .)
t
un vector de
constantes determinadas por el vector inicial X
0
= X(0). Por ejemplo,
X = e
t
[c
1
V
1
+c
2
(V
2
+V
1
t) +c
3
(V
3
+V
2
t +V
1
t
2
/2!) +. . .]
en el caso de un solo bloque, con V
j
= (AI)
dj
V
d
y d la dimension del bloque.
15. Polinomios Anuladores y Teorema de Cayley-Hamilton
Sea F : V V un operador lineal en un espacio vectorial V de dimension nita n.
Si p() = a
0
+a
1
+. . . +a
m

m
es un polinomio de grado m, podemos asociar a p() el operador lineal
p(F) = a
0
I +a
1
F +. . . +a
m
F
m
La matriz que representa al operador p(F) en una base e es
[p(F)]
e
= a
0
[I]
e
+a
1
[F]
e
+. . . +a
m
[F
m
]
e
= a
0
I
n
+a
1
[F]
e
+. . . +a
m
[F]
m
e
= p([F]
e
)
donde hemos asociado F
0
= I y [F]
0
e
= I
n
. Adem as, si escribimos p() en terminos de sus m races
i
p() = a
m
(
1
)(
2
) . . . (
m
)
21
entonces
p(F) = a
m
(F
1
I)(F
2
I) . . . (F
m
I)
ya que las potencias F
k
de F conmutan todas entre si j 0.
Un polinomio p se dice que es anulador de F si p(F) = 0 (o sea, si p(F) es el operador nulo). Dado que
la dimension del espacio de operadores lineales H = F : V V, F lineal en un espacio vectorial V de
dimension nita n es n
2
, es claro que el conjunto (I = F
0
, F, F
2
, . . . , F
n
2
) es LD (pues son n + 1). y que
por lo tanto, existen siempre n
2
+1 constantes c
0
, . . . , c
n
no todas nulas tales que c
0
I +c
1
F +. . . c
n
F
n
2
= 0.
Esto muestra en forma basica que siempre existe un polinomio anulador de F.
No obstante, el siguiente teorema (denominado teorema de Cayley-Hamilton) muestra que el mismo
polinomio caracterstico asociado a F, que es de grado n, es siempre un polinomio anulador de F.
Teorema: Si p() = Det[F I] es el polinomio caracterstico de F p(F) = 0.
Como el polinomio caracterstico es de grado n (p() = a
0
+ a
1
+ . . . + a
n

n
con a
n
= (1)
n
,= 0), el
teorema implica que es siempre posible expresar F
n
en terminos de potencias de grado n 1: Como
p(F) = 0
F
n
= (a
0
+a
1
F +. . . a
n1
F
n1
)/a
n
Por lo tanto, cualquier potencia F
k
con k n puede expresarse en terminos de potencias de grado n 1.
Demostraremos el teorema a partir de la forma canonica de Jordan. No obstante, en el caso en que F
es diagonalizable, el teorema es obvio, ya que en tal caso existe una base e en la que [F]
e
es diagonal,
[F]
e
=
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
donde
i
, i = 1, . . . , n son los autovalores de F, y
[p(F)]
e
= p([F])
e
=
_
_
_
_
p(
1
) 0 . . . 0
0 p(
2
) . . . 0
. . .
0 0 . . . p(
n
)
_
_
_
_
(15.1)
para cualquier polinomio p. Pero si p es el polinomio caracterstico, p(
i
) = 0 para i = 1, . . . , n y por lo
tanto [p(F)]
e
= p([F]
e
) = 0 (matriz nula). Esto implica a su vez p(F) = 0 (operador nulo).
En el caso general, utilizando la base en la que [F]
e
tiene la forma canonica de Jordan, tenemos, para
cualquier polinomio p,
[p(F)]
e
= p([F]
e
) =
_
_
_
_
p(A
1
) 0 . . . 0
0 p(A
2
) . . . 0
. . .
0 0 . . . p(A
k
)
_
_
_
_
donde A
i
, i = 1, . . . , k son matrices de d
i
d
i
que satisfacen (A
i

i
I
d
i
)
d
i
= 0 (matriz nula).
Recordemos ahora que el polinomio caracterstico de F esta dado por
p() = [[F]
e
I
n
[ = [A
1
I
d
1
[ . . . [A
k
I
d
k
[ = (
1
)
d
1
. . . (
k
)
d
k
Por lo tanto,
p(A
i
) = (
1
I
d
i
A
i
)
d
1
. . . (
i
I
d
i
A
i
)
d
i
. . . (
k
I
d
i
A
i
)
d
k
= 0
pues (
i
I
d
i
A
i
)
d
i
= 0. Esto implica [p(F)]
e
= 0 y entonces p(F) = 0. Se cumple pues, para cualquier base
e

, p([F]
e
) = [p(F)]
e
= [0]
e
= 0.
El teorema vale por consiguiente para matrices A generales de n n. Si p() = [A I
n
[ es el poli-
nomio caracterstico asociado a A (de grado n) p(A) = 0 (la matriz nula de n n).
Para matrices A diagonalizables el resultado es evidente, ya que en tal caso A = SA

S
1
, con A

diagonal,
y por lo tanto p(A) = p(SA

S
1
) = Sp(A

)S
1
, pero p(A

) tiene la forma 15.1 y es por lo tanto la matriz nula.


22
Escribiendo
p(F) = c
n
F
n
+c
n1
F
n1
+. . . +c
1
F +c
0
I
en el caso del polinomio caracterstico tenemos c
n
= (1)
n
,= 0 y c
0
= Det[F]. Por lo tanto, como p(F) = 0,
podemos escribir
F
n
= (c
n1
F
n1
+. . . c
1
F +c
0
I)/c
n
de modo que F
n
(y por lo tanto cualquier potencia F
k
, con k n natural) puede escribirse en terminos de
los operadores F
n1
, . . . , F, I. M as a un, si F es invertible, c
0
,= 0 y multiplicando la expresi on anterior por
F
1
se obtiene
F
1
= (c
n
F
n1
+c
n1
F
n2
+. . . c
1
I)/c
0
de modo que tambien F
1
(y por tanto cualquier potencia F
k
, k > 0 natural) puede escribirse en terminos
de F
n1
, . . . , F, I.
Cabe destacar que el polinomio caracterstico no es necesariamente el polinomio anulador de grado mnimo.
S lo es en el caso de autovalores todos distintos o, en general, en el caso de bloques de Jordan con autovalores
todos distintos.
Si F es diagonalizable, el polinomio anulador de grado mnimo es simplemente P
m
() =

i
(
i
), donde
la productoria es sobre autovalores distintos.
En el caso general, el polinomio anulador de grado mnimo sera P
m
() =

i
(
i
)
d
i
, donde la productoria
es nuevamente sobre autovalores distintos y d
i
es la dimension del mayor bloque de Jordan asociado a
i
.
P
m
() es pues de grado n.
Ejemplo 1: Sea
A =
_
0 1
1 0
_
El polinomio caracterstico es
p() = [AI
2
[ =

1
1

=
2
1
Se cumple entonces
p(A) = A
2
I
2
=
_
0 1
1 0
__
0 1
1 0
_

_
1 0
0 1
_
=
_
1 0
0 1
_

_
1 0
0 1
_
=
_
0 0
0 0
_
Esto muestra simplemente que A
2
= I
2
y que por lo tanto, A
k
= I
2
si k es par y A
k
= A si k impar.
Ejemplo 2:
A =
_
_
1 1 1
0 2 1
0 0 2
_
_
El polinomio caracterstico es
p() = [AI
3
[ = (1 )(2 )
2
=
3
+ 5
2
8 + 4
El teorema implica entonces que
A
3
+ 5A
2
8A+ 4I
3
= 0
donde A
2
= A.A, A
3
= A.A.A (producto matricial), como es facil vericar. Por lo tanto, A
3
= 5A
2
8A+4I
3
y A
1
= (A
2
5A+8I)/4. Cualquier potencia A
k
con k entero puede expresarse en terminos de I
3
, A y A
2
.
Ej. 3: Matriz A de n n de rango 1, con n 2. Dado que A y A

= S
1
AS poseen el mismo rango
y traza, tenemos, si A

es la forma canonica de Jordan de A, r(A

) = 1 y Tr A

= Tr A, por lo que A

tiene
s olo una la no nula. Si Tr A ,= 0, la unica posibilidad es que A sea diagonalizable y tenga un unico autovalor
no nulo igual a Tr A, siendo los restantes nulos, mientras que si Tr A = 0, la unica posibilidad para A

es un
bloque de Jordan de dimension 2 de la forma (
0 1
0 0
), siendo todos los autovalores nulos y A no diagonalizable.
Toda matriz de rango 1 es necesariamente de la forma A = bc
t
, con b y c vectores columna no nulos (de
n 1), como el lector puede facilmente demostrar, con Tr A = c
t
b = c b. Se deja como problema hallar los
autovectores asociados y el polinomio minimal en ambos casos.
23
16. Demostraci on
Daremos aqu un resumen de la demostraci on de la forma canonica de Jordan. En primer lugar, sabemos
que todo operador lineal F : V V , con V de dimension nita n, posee un polinomio anulador P(x), tal
que P(F) = 0 (o sea, P(F)(v) = 0 v V ). Existira entonces un polinomio anulador de grado mnimo
P
m
(x) = a
0
x +a
1
x +. . . +a
m
x
m
(polinomio minimal), tal que P
m
(F) = a
0
F +a
1
F +. . . +a
m
F
m
= 0.
1) es raz de P
m
(F) si y s olo si es autovalor de F. Esto indica que las races del polinomio minimal y
el polinomio caracterstico son las mismas. Solo la multiplicidad puede ser diferente.
Dem.: Si es autovalor de F v ,= 0 tal que F(v) = v, y en tal caso P
m
(F)(v) = P
m
()v = 0, por lo
que P
m
() = 0, es decir, es raz de P
m
(x).
Si es raz de P
m
(x) P
m
(x) = Q
m1
(x)(x ). En tal caso P
m
(F)(v) = Q
m1
(F)(F I)(v) = 0
v V , por lo que necesariamente v ,= 0 tal que (F I)(v) = 0, es decir, es autovalor de F y v
autovector asociado (si tal vector no existiese tendramos Q
m1
(F)(v) = 0 v V y el polinomio minimal
sera Q
m1
(F), de grado m1 < m, en contradicci on con la hip otesis).
2) Si P
m
(x) = Q
1
(x)Q
2
(x), con Q
1
(x) y Q
2
(x) polinomios sin races comunes y P
m
(F) = Q
1
(F)Q
2
(F) = 0
V = N(Q
1
(F)) N(Q
2
(F)), donde N(Q
i
(F)) (i = 1, 2) denota el n ucleo de Q
i
(F). Los subespacios
N(Q
i
(F)) son adem as invariantes por F.
Dem.: Al no tener races comunes, existen polinomios A
1
(x), A
2
(x) t.q. 1 = A
1
(x)Q
1
(x) + A
2
(x)Q
2
(x), o
sea,
I = A
1
(F)Q
1
(F) +A
2
(F)Q
2
(F)
Por lo tanto, v V , v = A
1
(F)Q
1
(F)(v) + A
2
(F)Q
2
(F)(v) = v
1
+ v
2
, con v
i
= A
i
(F)Q
i
(F). Pero
v
1
N(Q
2
(F)) pues Q
2
(F)A
1
(F)Q
1
(F)(v) = A
1
(F)Q
1
(F)Q
2
(F)(v) = 0, y an alogamente, v
2
N(Q
1
(F)).
Esto muestra que V = N(Q
2
(F)) +N(Q
1
(F)).
Adem as, si v N(Q
1
(F)) y v N(Q
2
(F)) v = A
1
(F)Q
1
(F)(v) + Q
2
(F)Q
2
(F)(v) = 0. Esto muestra
que V = N(Q
1
(F)) N(Q
2
(F)).
Finalmente, si v N(Q
1
(F)) v = A
2
(F)Q
2
(F)(v) y en tal caso Q
1
(F)F(v) = A
2
(F)Q
1
(F)Q
2
(F)F(v) =
0, por lo que F(v) N(Q
1
(F)). An alogamente, si v N(Q
2
(F)) F(v) N(Q
2
(F)), por lo que ambos
n ucleos son invariantes por F.
3) Generalizando, si
P
m
(x) = (x
1
)
d
1
. . . (x
k
)
d
k
con
i
,=
j
si i ,= j (las races distintas de P
m
(x)) y P
m
(F) = 0 V = V
1
. . . V
k
, con V
i
= N(F
i
I)
d
i
.
El espacio completo V puede pues subdividirse en k subespacios invariantes, n ucleos de

F
d
i
i
, donde

F
i
= (F
i
I). Podemos pues construir una base de V formada por las bases de V
i
.
4) Para construir una base de V
i
, notemos que debe existir un vector v ,= 0 tal que

F
d
i
i
(v) = 0 pero

F
d
i
1
i
(v) ,= 0 (de lo contrario P
m
(F) no sera el polinomio minimal). En tal caso, los d
i
vectores no nulos
e
ij
=

F
d
i
j
i
(v), j = 1, . . . , d
i
(o sea e
id
i
= v, e
ij
=

F
i
(e
i,j+1
), j = 1, . . . , d
i
1) son LI. Dem.: Si
c
1

F
d
i
1
i
(v) +c
2

F
d
i
2
i
(v) +. . . +c
d
i
1

F
i
(v) +c
d
i
v = 0
aplicando

F
d
i
1
i
al segundo miembro obtenemos c
d
i

F
d
i
1
i
(v) = 0, por lo que c
d
i
= 0. Luego, aplicando
sucesivamente

F
j
i
, con j = d
i
1, . . . , 0, vemos que c
j
= 0 para j = 1, . . . , d
i
. Notemos adem as que

F
i
(e
i1
) =

F
d
i
i
(v) = 0, o sea, (F
i
I)e
i1
= 0, por lo que e
i1
es autovector de F con autovalor
i
. Tenemos
pues, en el subespacio S
i
generado por los d
i
vectores B
i
= (e
i1
, . . . , e
id
i
),
[

F
i
]
B
i
=
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . 0
. . .
0 0 . . . 0 1
0 0 . . . 0 0
_
_
_
_
_
_
= J
d
i
, es decir, [F
i
]
B
i
= [

F
i
]
B
i
+
I
I
d
i
=
_
_
_
_
_
_

i
1 0 . . . 0
0
i
1 . . . 0
. . .
0 0 . . .
i
1
0 0 . . . 0
i
_
_
_
_
_
_
Se obtiene as un bloque de Jordan de dimension d
i
(grado del termino correspondiente (x
i
)
d
i
del
polinomio minimal).
24
Puede existir otro vector v N(

F
d
i
i
) tal que

F
d
i
1
(v) ,= 0 pero

F
d
i
i
(v) = 0 y que no pertenezca al espacio
generado por los vectores de B
i
. Este vector generara otro bloque de Jordan de la misma dimension con el
mismo autovalor
i
. En general, pueden surgir vectores v N(

F
d
i
i
) que no pertenezcan a los subespacios
generados por el conjunto de vectores anteriores y que satisfagan

F
r1
i
(v) = 0 pero

F
r
i
(v) = 0, con r d
i
,
que generaran otros bloques de Jordan de dimension r d
i
con el mismo autovalor. La dimension total de
N(F
i
I)
d
i
sera as la multiplicidad m
i
d
i
de
i
en el polinomio caracterstico.
Si d
i
= 1 los bloques son de dimension 1 y los vectores correspondientes autovectores de F con autovalor

i
. Este es el caso donde F es diagonalizable en el subespacio asociado a
i
, es decir, donde la dimension de
N(F
i
I) coincide con la multiplicidad de
i
como raz del polinomio caracterstico.
Por lo tanto, si F es diagonalizable, el polinomio minimal es P
m
(x) = (x
1
) . . . (x
k
).
25
17. Formas lineales, bilineales y cuadraticas
17.1 Formas lineales
Estudiaremos ahora funciones escalares lineales de argumento vectorial. Sea V un espacio vectorial sobre
un cuerpo K. Una forma lineal es una funcion F : V K que satisface las condiciones
F(v) = F(v) v V, K (1)
F(v
1
+v
2
) = F(v
1
) +F(v
2
) v
1
, v
2
V (2)
Una forma lineal puede ser considerada como un caso particular de transformacion lineal si se considera el
cuerpo K como un espacio vectorial de dimension 1 sobre el mismo K. N otese que se satisface F(0) = 0.
Ejemplos (se dejan las comprobaciones para el lector):
1) Si K = R y V = R
2
, F(x, y) = x + y es claramente una forma lineal, mientras que G(x, y) = x + y
2
y
H(x, y) = 1 +x no son formas lineales.
2) Si V = R
nn
, la traza de una matriz A V , Tr[A] =

n
i=1
A
ii
, es una forma lineal.
3) Si K = R y V = C
[a,b]
(espacio de funciones continuas f : [a, b] R),
T(f) =
_
b
a
f(x)dx
es una forma lineal, y tambien lo es (para C
[a,b]
)
T

(f) =
_
b
a
f(x)(x)dx.
4) En el mismo espacio anterior, y para a < 0 < b, T(f) = f(0) es tambien una forma lineal. N otese sin
embargo que en este caso no existe (x) continua tal que T(f) =
_
b
a
f(x)(x)dx.
5) Si V = R
n
y w es un vector jo de R
n
,
F
w
(v) = w v
(producto escalar usual) es una forma lineal. Por ej. el primer caso de 1), F(x, y) = x +y, puede ser escrito
como F(x, y) = (1, 1) (x, y). Toda forma lineal en R
n
puede ser escrita de esta manera en terminos de un
unico vector w V , como se vera a continuaci on.
Si dimV = n y F no es la forma lineal nula dimI(F) = 1, por lo que dimN(F) = n 1. Ejem-
plo: Hallar el n ucleo de la forma lineal del ejemplo 2.
En un espacio vectorial V de dimension nita n, la forma lineal queda completamente determinada por
los valores que asigna a los elementos de una base: Si B = (b
1
, . . . , b
n
) es una base de V y v =

n
i=1

i
b
i

F(v) = F(
n

i=1

i
b
i
) =
n

i=1

i
F(b
i
) = [F]
B
[v]
B
donde
[F]
B
= (F(b
1
), . . . , F(b
n
))
es la matriz la que representa a F en la base B y
[v]
B
=
_
_

1
. . .

n
_
_
la matriz columna de coordenadas de v en dicha base. El producto [F]
B
[v]
B
puede entonces visualizarse como
el producto escalar usual de los vectores [F]
B
y ([v]
B
)
t
de K
n
. En V = R
n
toda forma lineal puede pues ser
escrita en la forma F(v) = w v, con w = [F]
e
= (
1
, . . . ,
n
), siendo e la base canonica y
i
= F(e
i
) = w e
i
.
Frente a un cambio de base,
b

i
=
n

j=1
S
ji
b
j
, i = 1, . . . , n
con S una matriz no singular (|S| = 0) se obtiene F(b

i
) =

n
j=1
S
ji
F(b
j
) y por lo tanto
[F]
B
= [F]
B
S
con lo cual, dado que [v]
B
= S[v]
B
, F(v) = [F]
B
[v]
B
= [F]
B
S[v]
B
= [F]
B
[v]
B
.
1
Si F : V K y G : V K son dos formas lineales sobre V , la combinacion lineal F + G, denida
por (F +G)(v) = F(v) +G(v), es tambien una forma lineal , K, como es muy facil comprobar.
El conjunto de todas las formas lineales F : V K es pues un espacio vectorial denominado espacio dual
V

. Si V es de dimension nita
dimV

= dimV
ya que existe un isomorsmo entre V

y K
n
(denido por G
B
(F) = [F]
B
K
n
, con n = dimV ) y por lo
tanto entre V

y V . Si B = (b
1
, . . . , b
n
) es una base ordenada de V , la base asociada de V

es la base dual
B

= {F
1
, . . . , F
n
}, donde F
i
: V K esta denido por F(

i
b
i
) =
i
, es decir,
F
i
(b
j
) =
ij
.
F
i
es pues representado por el vector la [F
i
]
B
= (0, . . . , 1
i
, . . . , 0) = e
i
.
17.2 Formas bilineales
Una funcion escalar de dos variables vectoriales, A : V V K, es una forma bilineal si satisface
A(v, w) = A(v, w), A(v
1
+v
2
, w) = A(v
1
, w) +A(v
2
, w) v, v
1
, v
2
, w V, K
A(v, w) = A(v, w), A(v, w
1
+w
2
) = A(v, w
1
) +A(v, w
2
) w, w
1
, w
2
, v V, K
A es entonces una forma bilineal si es lineal con respecto a sus dos argumentos vectoriales.
Ejemplos (se dejan las comprobaciones como ejercicio):
1) Si V = R
2
y K = R, con v = (x, y), w = (z, t), las siguientes funciones son formas bilineales:
A(v, w) = v w = xz +yt (producto escalar)
B(v, w) = xt yz (determinante de (
x y
z t
))
2) Si V = C
[a,b]
y K = R, las siguientes funciones son formas bilineales:
A(f, g) =
_
b
a
f(x)g(x)dx, B(f, g) =
_
b
a
f(x)g(x)(x)dx, C(f, g) =
_
b
a
_
b
a
f(x)K(x, x

)g(x

)dxdx

donde (x) y K(x, x

) son continuas.
3) En el mismo espacio anterior, para a < 0 < b, tambien son formas bilineales T(f, g) = f(0)g(0) y
H(f, g) = f(0)g(c), con c [a, b] jo. Estas formas no pueden ser escritas en la forma integral del ejemplo
anterior para y K continuas.
4) En V = R
n1
,
A(v, w) = v
t
Aw
donde v
t
= (
1
, . . . ,
n
), w =
_
_

1
. . .

n
_
_
y A es una matriz real de n n, es una forma bilineal. Toda forma
bilineal en R
n1
(y por lo tanto R
n
) puede escribirse de esta manera, como se vera a continuaci on. Por
ejemplo, las formas del ejemplo 1) pueden ser escritas como A(v, w) = (x, y)(
1 0
0 1
)(
z
t
), B(v, w) = (x, y)(
0 1
1 0
)(
z
t
).
Representaci on matricial. En un espacio vectorial V de dimension nita n, la forma bilineal queda
completamente determinada por los valores que asigna a pares ordenados de elementos de una base B =
(b
1
, . . . , b
n
) de V . Si v =

n
i=1

i
b
i
, w =

n
j=1

j
b
j

A(v, w) = A(
n

i=1

i
b
i
,
n

j=1

j
b
j
) =
n

i=1

i
A(b
i
,
n

j=1

j
ebj) =
n

i=1
n

j=1

j
A(b
i
, b
j
)
La igualdad anterior puede escribirse en forma compacta matricial como
A(v, w) = [v]
t
B
[A]
B
[w]
B
2
donde [v]
t
B
= (
1
, . . . ,
n
), [w]
B
=
_
_

1
. . .

n
_
_
y
[A]
B
=
_
_
A(b
1
, b
1
) . . . A(b
1
, b
n
)
. . .
A(b
n
, b
1
) . . . A(b
n
, b
n
)
_
_
es la matriz de n n que representa a la forma bilineal A en dicha base [([A]
B
)
ij
= A(b
i
, b
j
)].
Por ej., si V = R
2
, K = R y e es la base canonica, obtenemos, para los casos del ejemplo 1) y v = (x, y) =
xe
1
+ye
2
, w = (z, t) = ze
1
+te
2
,
A(v, w) = xz +yt = (x, y)[A]
e
(
z
t
), [A]
e
=
_
1 0
0 1
_
B(v, w) = xt yz = (x, y)[B]
e
(
z
t
), [B]
e
=
_
0 1
1 0
_
Por otro lado, la matriz [C]
e
= (
1 2
3 4
) determina la forma bilineal
C(v, w) =
_
x y
_
_
1 2
3 4
__
z
t
_
= xz + 2xt + 3yz + 4yt
Una forma bilineal es simetrica si
A(v, w) = A(w, v) v, w V
y antisimetrica
A(v, w) = A(w, v) v, w V
Toda forma bilineal puede escribirse como suma de una forma bilineal simetrica y otra antisimetrica:
A(v, w) =
A(v, w) +A(w, v)
2
+
A(v, w) A(w, v)
2
= A
s
(v, w) +A
a
(v, w)
El conjunto de formas bilineales de V V sobre K forma un espacio vectorial W (con las operaciones
usuales de suma y multiplicaci on por escalar) y la anterior descomposicion corresponde a la suma directa
W = W
s
W
a
, con W
s
, W
a
los subespacios de formas bilineales simetricas y antisimetricas sobre K.
En espacios V de dimension nita, las correspondientes matrices en cualquier base dada son simetricas y
antisimetricas respectivamente:
A(v, w) = A(w, v) [A]
t
B
= [A]
B
, pues A(b
i
, b
j
) = A(b
j
, b
i
)
A(v, w) = A(w, v) [A]
t
B
= [A]
B
, pues A(b
i
, b
j
) = A(b
j
, b
i
)
En los ejemplos anteriores, el primero (producto escalar) es una forma bilineal simetrica mientras que el
segundo (determinante) es una forma antisimetrica.
Dada una forma bilineal A arbitraria, notemos que A(v, 0) = A(0, w) = 0 v, w V , como el lector
podra facilmente demostrar. Si adem as existe w = 0 tal que A(v, w) = 0 v V , la forma bilineal se dice
que es singular. En caso contrario se dice no singular.
En un espacio V de dimension nita, A es singular si y solo si la matriz que la representa en una base
cualquiera, [A]
B
, es singular.
Dem.: Si [A]
B
es singular, existe un vector columna [w]
B
no nulo tal que [A]
B
[w]
B
= 0 y por lo tanto,
A(v, w) = [v]
t
B
[A]
B
[w]
B
= [v]
t
B
0 = 0 v V .
Por otro lado, si existe w = 0 tal que A(v, w) = 0 v V , y B es una base cualquiera de V
[v]
t
B
[A]
B
[w]
B
= 0 vector [v]
t
B
K
n1
, lo que implica [A]
B
[w]
B
= 0. Como [w]
B
= 0, la matriz [A]
B
es entonces singular.
En espacios de dimension nita, si w / A(v, w) = 0 v V u V / A(u, v) = 0 v V , pues si
[A]
B
es singular [A]
t
B
es tambien singular (|[A]
t
B
| = |[A]
B
| = 0).
Notemos tambien que si A es no singular y A(v, w
1
) = A(v, w
2
) v V w
1
= w
2
, ya que en tal caso
A(v, w
1
w
2
) = 0 v V y por lo tanto w
1
w
2
= 0.
3
17.3 Cambio de base en formas bilineales
Consideremos una forma bilineal A. Frente a un cambio de base
b

i
=
n

j=1
S
ji
b
j
, i = 1, . . . , n
se tiene
A(b

i
, b

k
) = A(
n

j=1
S
ji
b
j
,
n

l=1
S
lk
b
l
) =
n

j=1
n

l=1
S
ji
A(b
j
, b
l
)S
lk
= (S
t
[A]
B
S)
ik
Se obtiene entonces la ley de transformacion
[A]
B
= S
t
[A]
B
S
donde ([A]
B
)
ij
= A(b

i
, b

j
) para i, j = 1, . . . , n. De esta forma,
A(v, w) = [v]
t
B
[A]
B
[w]
B
= (S[v]
B
)
t
[A]
B
(S[w]
B
) = [v]
t
B
S
t
[A]
B
S[w]
B
= [v]
t
B
[A]
B
[w]
B

N otese la diferencia con la ley de transformacion de matrices que representan operadores lineales F : V V
en una base, para las que [F]
B
= S
1
[F]
B
S. Notemos tambien que (| . . . | denota el determinante)
|[A]
B
| = |S
t
[A]
B
S| = |S
t
||[A]
B
||S| = |S|
2
|[A]
B
|
por lo que el signo del determinante no depende de la base (pues |S| = 0). Si A es singular, |[A]
B
| = 0 y
entonces |[A]
B
| = 0 en cualquier base.
Otra consecuencia es que como S es no singular (|S| = 0), el rango de [A]
B
(dimension del espacio la o
columna de [A]
B
) es tambien independiente de la base.
Podemos tambien corroborar que el caracter simetrico o antisimetrico es independiente de la base elegida:
[A]
t
B
= (S
t
[A]
B
S)
t
= S
t
[A]
t
B
S
por lo que [A]
t
B

= [A]
B
si [A]
t
B
= [A]
B
.
Ejemplo: Para el caso del producto escalar usual en R
n
, [A]
e
= I
n
en la base canonica e y por lo tanto
[A]
e
= S
t
[A]
e
S = S
t
S en una base arbitraria e

, tal como se adelanto en el apunte 4 sobre cambio de base.


Ejemplo: Para el caso del determinante en R
2
, [A]
e
= (
0 1
1 0
) en la base canonica y por lo tanto, en un base
e

determinada por una matriz S = [I]


e

e
= (
a b
c d
) no singular (|S| = 0),
[A]
e
= S
t
[A]
e
S = (
a c
b d
)(
0 1
1 0
)(
a b
c d
) = (ad bc)(
0 1
1 0
) = |S|[A]
e
[A]
e
es pues proporcional a [A]
e
. Este resultado es obvio pues [A]
e
debe ser antisimetrica y toda matriz
antisimetrica de 2 2 debe ser proporcional a [A]
e
= (
0 1
1 0
).
Ejemplo: Si [A]
B
= (
0 1
1 0
) y b

1
= (b
1
+b
2
), b

2
= b
2
b
1
, S = (
1 1
1 1
) y por lo tanto
[A]
B
= S
t
[A]
B
S =
_
2 0
0 2
_
As, si v = xb
1
+yb
2
= x

1
+y

2
, w = zb
1
+tb
2
= z

1
+t

2
,
A(v, w) = (x, y)[A]
B
(
z
t
) = (x

, y

)[A]
B
(
z

t
)
o sea,
A(v, w) = xt +yz = 2(x

)
lo que esta de acuerdo con (
x
y
) = S(
x

) = (
x

+y

), (
z
t
) = S(
z

) = (
z

+t

)
4
18 Formas cuadraticas
Si A es una forma bilineal de V V en K, la funcion

A : V K dada por

A(v) = A(v, v)
se denomina forma cuadr atica. Notemos que satisface

A(v) =
2

A(v) K, v V :
A(v, v) = A(v, v) =
2
A(v, v).
Es importante notar que la forma cuadratica queda completamente determinada por la parte simetrica de
la forma bilineal, ya que A
a
(v, v) = [A(v, v) A(v, v)]/2 = 0 y por lo tanto
A(v, v) = A
s
(v, v)
Asimismo, la parte simetrica de una forma bilineal queda completamente determinada por la forma cuadratica
respectiva, ya que
A
s
(v +w, v +w) = A
s
(v, v) +A
s
(w, w) + 2A
s
(v, w)
y por lo tanto
A
s
(v, w) = [A
s
(v +w, v +w) A
s
(v, v) A
s
(w, w)]/2
En un espacio vectorial V de dimension nita n, podemos entonces escribir, para A simetrica,
A(v, v) = [v]
t
B
[A]
B
[v]
B
=
n

i,j=1

i
A(b
i
, b
j
)
j
=
n

i=1
A(b
i
, b
i
)
2
i
+ 2

i<j
A(b
i
, b
j
)
i

j
(3)
Ejemplo: Si V = R
2
y K = R, la longitud al cuadrado de un vector v = (x, y),
|v|
2
= x
2
+y
2
es una forma cuadratica y puede escribirse como
|v|
2
= (x, y)(
x
y
) = (x, y)[A]
e
(
x
y
) = A(v, v)
con [A]
e
= I
2
, A(v, w) = v w y e la base canonica.
Tambien es una forma cuadratica

B(v) = 3x
2
+ 5y
2
+ 2xy = (x, y)[B]
e
(
x
y
), [B]
e
=
_
3 1
1 5
_
Toda forma cuadratica en V = R
n
o V = R
n1
puede escribirse como

A(v) = v
t
Av = (
1
, . . . ,
n
)A
_
_

1
. . .

n
_
_
=
n

i=1
a
ii

2
i
+ 2

i<j
a
ij

j
con a
ij
= A
ij
= a
ji
los elementos de la matriz real simetrica A de n n (A
t
= A).
Ejemplo: Si V = C
[a,b]
y K = R,
||f||
2

_
b
a
[f(x)]
2
dx = A(f, f)
es una forma cuadratica. Tambien lo es

C(f) =
_
b
a
_
b
a
K(x, x

)f(x)f(x

)dxdx

.
18.1 Forma can onica de una forma cuadratica
Teorema: Sea V un espacio vectorial de dimension nita n sobre un cuerpo K y sea A : V V K una
forma bilineal simetrica. Entonces existe una base B

en la que
A(b

i
, b

j
) =
_
0 i = j
a

i
i = j
5
es decir, A(b

i
, b

j
) = a

ij
. Esto implica, partiendo de una base arbitraria B, que existe una matriz de cambio
de base S tal que
[A]
B
= S
t
[A]
B
S =
_
_
_
_
a

1
0 . . . 0
0 a

2
. . . 0
. . .
0 0 . . . a

n
_
_
_
_
o sea, ([A]
B
)
ij
= a

ij
. En dicha base la forma bilineal toma entonces la forma diagonal o canonica
A(v, w) =
n

i=1
a

i
donde v =

n
i=1

i
b

i
, w =

n
i=1

i
b

i
, y la correspondiente forma cuadratica toma la forma canonica

A(v) = A(v, v) =
n

i=1
a

i
2
Antes de proceder a la demostraci on, cabe destacar que ni los coecientes a

i
, ni los vectores b

i
, son unicos.
Por ejemplo, en la base B

denida por b

i
=
i
b

i
, i = 1, . . . , n, tenemos A[b

i
, b

j
] =
2
i
a

ij
, y por lo tanto
A toma tambien la forma canonica, con a

i
a

i
=
2
i
a

i
.
Notemos tambien que si la forma bilineal no es simetrica, no es posible encontrar una base en la que [A]
B

sea diagonal: Si existiese, [A]


B
sera simetrica y por lo tanto [A]
B
= S
t
[A]
B
S sera tambien simetrica en
cualquier base B

(y la forma bilineal sera entonces simetrica).


Demostraci on: En el caso de que K = R, la demostraci on es inmediata si recordamos que toda matriz
real simetrica A es siempre diagonalizable, que todos sus autovalores son reales y que sus autovectores
pueden siempre elegirse ortogonales y de longitud 1 (vease apunte de autovalores).
Por lo tanto, existir a una matriz de cambio de base S formada por autovectores normalizados de [A]
B
,
con |S| = 0 y S
1
= S
t
, tal que S
1
[A]
B
S = S
t
[A]
B
S es diagonal. Si B

es dicha base de autovectores,


tendremos entonces
[A]
B
= S
t
[A]
B
S =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
con a

i
=
i
los autovalores de [A]
B
.
No obstante, cabe destacar que diagonalizar [A]
B
no es el unico procedimiento para llevar una forma
cuadratica a una forma diagonal. Esto puede tambien lograrse utilizando la conocida y simple tecnica
de completar cuadrados, en la cual se basa la demostraci on del teorema para un cuerpo arbitrario K, que
damos a continuaci on. En tales casos, los coecientes diagonales a

i
no son necesariamente iguales a los
autovalores de A.
Notemos primero que si encontramos una transformacion lineal de coordenadas
_
_

1
. . .

n
_
_
= S
_
_

1
. . .

n
_
_
(o sea, [v]
B
= S[v]
B
) con S una matriz de n n no singular (|S| = 0), tal que
A(v, v) =
n

i,j=1
A(b
i
, b
j
)
i

j
=

i,j,k,l
S
ik
A(b
i
, b
j
)S
jl

l
=
n

i=1
a

i
2
hemos entonces encontrado una base canonica para la forma bilineal, dada por
b

i
=
n

j=1
S
ji
b
j
i = 1, . . . , n
6
ya que en tal caso [v]
B
= S[v]
B
y ([A]
B
)
ij
= (S
t
[A]
B
S)
ij
= a

ij
. El problema se reduce pues al de
encontrar variables

i
relacionadas linealmente con las
i
por una transformacion no singular, en las que la
forma cuadratica sea diagonal.
Procederemos ahora por induccion sobre la dimension n de V . Para n = 1, toda forma cuadratica tiene
trivialmente la forma canonica en cualquier base: Si v V v = b
1
y

A(v) = a

2
, con a

1
= A(b
1
, b
1
).
Para n > 1, supongamos que hemos demostrado que toda forma cuadratica en un espacio de dimension
n 1 puede escribirse en la forma canonica. Entonces,
A(v, v) = a
nn

2
n
+ 2(a
n1

1
+. . . +a
n,n1

n1
) +g(
1
, . . . ,
n1
)
donde v =

n
i=1

i
b
i
, a
ij
= A(b
i
, b
j
) y g representa una forma cuadratica de dimension n 1. Si a
nn
= 0
podemos escribir
A(v, v) = a
nn
(
2
n
+ 2
n
n1

j=1

j
a
nj
/a
nn
) +g(
1
, . . . ,
n1
) = a
nn
(
n
+
n1

j=1

j
a
nj
/a
nn
)
2
+h(
1
, . . . ,
n1
)
donde h = g a
nn
(

n1
j=1

j
a
nj
/a
nn
)
2
. Por lo tanto
A(v, v) = a
nn

n
2
+h(
1
, . . . ,
n1
),

n
=
n
+
n1

j=1

j
a
nj
/a
nn
Y como h representa una forma cuadratica de dimension n 1, podemos escribirla en forma canonica como
h =

n1
i=1
a

i
2
, donde

i
son combinaciones lineales de los
j
, j = 1, . . . , n 1. Finalmente obtenemos la
forma canonica
A(v, v) = a

n
2
+
n1

i=1
a

i
2
donde a

n
= a
nn
y la matriz de transformacion T = S
1
es de la forma
T =
_
T
n1
0
t 1
_
con T
n1
una matriz no singular de (n 1) (n 1) y t el vector de n 1 componentes determinado por

n
(t
i
= a
ni
/a
nn
). T es por consiguiente no-singular y dene una base B

determinada por S = T
1
en la
que A tiene la forma canonica.
Si a
nn
= 0 pero a
ii
= 0 para alg un i < n, podemos proceder en forma similar realizando la correspondiente
permutaci on i n. Finalmente, si todos los a
ii
son nulos pero existe alg un elemento a
in
= 0 con i = n
(pues de lo contrario tendramos una forma de dimension n 1), podemos efectuar primero el cambio de
variables
n
=
n
+
i
,
i
=
n

i
, con lo cual 2a
ij

j
= 2a
ij
(
2
n

2
i
) y podemos entonces proceder
como en los casos anteriores.
Ejemplo: para V = R
2
, K = R y v = (x, y) = xe
1
+ye
2
, consideremos
A(v, v) = (x, y)[A]
e
(
x
y
) = x
2
+y
2
+ 4xy
que coresponde a
[A]
e
=
_
1 2
2 1
_
Si optamos por el metodo (muy simple) de completar cuadrados, tenemos
x
2
+y
2
+ 4xy = x
2
+ (y + 2x)
2
4x
2
= 3x
2
+ (y + 2x)
2
por lo que podemos escribir
A(v, v) = 3x
2
+y
2
, con y

= (2x +y), x

= x
Esto corresponde a la transformacion
(
x

y
) = T(
x
y
), T = (
1 0
2 1
)
7
Por lo tanto
S = T
1
= (
1 0
2 1
)
y la base en la que A toma la forma canonica queda entonces determinada por las columnas de S:
e

1
= e
1
2e
2
e

2
= e
2
Se verica entonces
[A]
e
= S
t
[A]
e
S = (
1 2
0 1
)(
1 2
2 1
)(
1 0
2 1
) = (
3 0
0 1
)
es decir, A(e

1
, e

1
) = 3, A(e

2
, e

2
) = 1, A(e

1
, e

2
) = 0, como es posible corroborar directamente.
Podemos tambien optar por el metodo basado en la diagonalizaci on de A. Tenemos |[A]
e
I
2
| = (1)
2

4 = 0, de donde = 1 2, o sea,
1
= 3,
2
= 1.
Las componentes de los autovectores correspondientes normalizados son [e

1
]
e
=
1

2
(
1
1
), [e

2
]
e
=
1

2
(
1
1
), o
sea, e

1
= (e
1
+e
2
)/

2, e

2
= (e
1
+e
2
)/

2, y la correspondiente matriz de cambio de base es


S =
1

2
(
1 1
1 1
), S
1
= S
t
=
1

2
(
1 1
1 1
)
Se verica entonces
[A]
e
= S
t
[A]
e
S = (
3 0
0 1
)
Es muy importante que los autovectores esten normalizados para que S
1
= S
t
. Finalmente, se obtiene,
A(v, v) = (x

, y

)
t
[A]
e
(
x

y
) = 3x

2
y

2
donde (
x

) = [v]
e
= S
1
[v]
e
= S
1
(
x
y
) =
1

2
(
x+y
xy
), o sea, x

= (x +y)/

2, y

= (x y)/

2.
Notemos que tanto los coecientes diagonales como las bases obtenidas con los dos procedimientos anteriores
son distintos. La diagonalizaci on puede llevar m as tiempo pero posee la ventaja que automaticamente pro-
porciona una base ortogonal en la que la forma cuadratica tiene la forma canonica, lo cual es muy importante
en diversas aplicaciones fsicas.
Notemos tambien que el n umero de coecientes positivos y negativos en la forma canonica obtenidos en
ambos procedimientos es el mismo. Esta conclusi on es general y se demostrar a en el siguiente teorema, de
gran importancia.
18.2 Teorema de inercia de formas cuadraticas:
Sea A(v, v) : V V R una forma cuadratica sobre R. El n umero de coecientes a

i
positivos, negativos y
nulos en cualquier forma canonica de A es el mismo.
Dem.: Consideremos dos formas canonicas distintas, tal que
A(v, v) =
n

i=1
a
i

2
i
=
n

i=1
a

i
2
con v =

n
i=1

i
e
i
=

n
i=1

i
e

i
, A(e
i
, e
j
) = a
i

ij
, A(e

i
, e

j
) = a

ij
, y
_
_

1
. . .

n
_
_
= S
_
_

1
. . .

n
_
_
o sea,
i
=

n
j=1
S
ij

j
para i = 1, . . . , n, con |S| = 0.
Supongamos ahora que a
i
_
_
_
> 0 i = 1, . . . , k
< 0 i = k + 1, . . . , m
0 i = m+ 1, . . . , n
, a

i
_
_
_
> 0 i = 1, . . . , p
< 0 i = p + 1, . . . , q
0 i = q + 1, . . . , n
. Por consiguiente,
A(v, v) =
k

i=1
|a
i
|
2
i

m

i=k+1
|a
i
|
2
i
=
p

i=1
|a

i
|

i
2

i=p+1
|a

i
|

i
2
8
Veremos ahora que si se supone k < p se llega a un absurdo. Si k < p, podemos elegir v V , v = 0, tal
que las primeras k componentes de v en la base e sean nulas (
i
= 0 si i k), y tal que sus ultimas n p
componentes en la base e

sean tambien nulas (

i
= 0 si i > p). En efecto, esto conduce al sistema de k
ecuaciones homogeneas 0 =

p
j=1
S
ij

j
para i = 1, . . . , k, con p > k incognitas

j
, j = 1, . . . , p, el cual
posee entonces innitas soluciones (y por lo tanto, soluciones no nulas). Para tal vector, tendramos
A(v, v) =
m

i=k+1
|a
i
|
2
i
=
p

i=1
|a

i
|

i
2
pero el segundo miembre es menor o igual a 0 y el tercero mayor que 0, lo que es imposible. Por lo tanto, no
puede ser k < p. De la misma manera se prueba que no puede ser p < k. Por lo tanto, la unica posibilidad
es k = p, es decir, que el n umero de coecientes positivos es el mismo.
De la misma forma (se dejan los detalles para el lector) se prueba que mk = qp (el n umero de coecientes
negativos es el mismo).
Finalmente, los dos resultados anteriores implican n m = n q, es decir, que el n umero de coecientes
nulos es el mismo.
El n umero k (n umero de coecientes positivos de la forma canonica) se denomina ndice de inercia po-
sitivo y mk (n umero de coecientes negativos) ndice de inercia negativo.
El rango de una forma bilineal simetrica coincide con el rango de la matriz [A]
e
y es por lo tanto m (es
decir, el n umero de coecientes no nulos).
Si A es no singular m = n (el n umero de coecientes nulos es 0).
Ejemplo: Consideremos, para V = R
2
, R = K,
A(v, v) = x
2
+y
2
+ 2xy
Completando cuadrados llegamos facilmente a
A(v, v) = (x +y)
2
= 1x
2
+ 0y

2
con x

= (x +y), y

= y. Es decir, existe un coeciente positivo (a


1
= 1) y uno nulo (a
2
= 0).
Si en cambio optamos por diagonalizar la matriz correspondiente ([A]
e
= (
1 1
1 1
)), obtenemos |A I
2
| =
(1 )
2
1 = 0 y por lo tanto = 1 1, o sea,
1
= 2,
2
= 0. Obtenemos entonces un autovalor positivo
y uno nulo.
Ejemplo: Consideremos, para V = R
3
,
A(v, v) = x
2
+y
2
+z
2
+ 2xy + 2xz
Completando cuadrados,
A(v, v) = (x +y +z)
2
(y +z)
2
+y
2
+z
2
= (x +y +z)
2
2yz = x

2
+ 2y

2
2z

2
donde x

= x +y +z, z

= (z +y)/2, y

= (y z)/2 (se reemplazo y = z

+y

, z = z

).
Esto implica que [A]
e
=
_
_
1 1 1
1 1 0
1 0 1
_
_
tendr a dos autovalores positivos y uno negativo. En efecto, |AI
3
| =
(1 )((1 )
2
2) = 0 conduce a
1
= 1 > 0,
2
= 1 +

2 > 0,
3
= 1

2 < 0.
Obtendremos en la correspondiente base de autovectores normalizados la forma canonica
A(v, v) = x
2
+ (1 +

2)y
2
+ (1

2)z
2
18.3 Formas cuadraticas positivas y aplicaciones
Una forma cuadratica sobre K = R se denomina denida positiva (o estrctamente positiva) si
A(v, v) > 0 v = 0
9
Es facil ver que A es denida positiva si y s olo si los coecientes diagonales a
i
de la forma
can onica son todos positivos: a
i
> 0 para i = 1, . . . , n (es decir, k = n). En efecto, en tal caso
A(v, v) =
n

i=1
a
i

2
i
> 0 v = 0
donde ahora hemos escrito v =

n
i=1

i
b
i
, con B = (b
1
, . . . , b
n
) una base donde A toma la forma canonica
(A(b
i
, b
j
) = a
i

ij
). Por otro lado, si A(v, v) > 0 v = 0, entonces a
i
= A(b
i
, b
i
) > 0.
Para una forma cuadratica denida positiva, podemos siempre elegir una base en la que a
i
= 1 para
i = 1, . . . , n: En efecto, si A(b
i
, b
j
) = a
i

ij
, con a
i
> 0, podemos denir la base de elementos e
i
= b
i
/

a
i
en
la que A(e
i
, e
j
) = A(b
i
, b
j
)/

a
i
a
j
= (a
i
/
_
a
2
i
)
ij
= 1
ij
.
Notemos tambien que el determinante de la matriz que representa una forma cuadratica positiva es positivo
en cualquier base. En la base B en la que A toma la forma canonica,
|[A]
B
| = a
1
a
2
. . . a
n
> 0
y en cualquier otra base B

de V ,
|[A]
B
| =

A(b

1
, b

1
) . . . A(b

1
, b

n
)
. . .
A(b

n
, b

1
) . . . A(b

n
, b

n
)

= |S
t
[A]
B
S| = |S|
2
|[A]
B
| > 0
Adem as notemos que A sigue siendo positiva en cualquier subespacio de V (pues A(v, v) > 0 v = 0), por
lo que el determinante de cualquier menor de [A]
B
(obtenido al suprimir un n umero dado de columnas y las
respectivas las de [A]
B
) es tambien siempre positivo. Por ejemplo, si consideramos el subespacio generado
por los primeros m n elementos de la base B

, tendremos
|[A]
m
| > 0
donde [A]
m
es la matriz de m m de elementos A(b

i
, b

j
), i m, j m, que representa a A en la base
(b

1
, . . . , b

m
) del subespacio anterior.
M as a un, A es denida positiva si y s olo si todos los determinantes principales en una base
arbitraria B

de V son positivos, es decir, si |[A]


m
| > 0 para m = 1, . . . , n.
Dem.: Por induccion: Para n = 1 es obviamente valido. Asumiendo ahora que es valido para n1, entonces
existe una base canonica (e
1
, . . . , e
n1
) del subespacio generado por los primeros n 1 vectores de la base
original B

, en la que A(e
i
, e
j
) =
ij
. Deniendo ahora
e
n
= b

n1

i=1

i
e
i
con
i
= A(e
i
, b

n
), obtenemos A(e
i
, e
n
) = A(e
i
, b

n
)
i
= 0 para i = 1, . . . , n 1. Se obtiene as una
base canonica e = (e
1
, . . . , e
n1
, e
n
) de V en la que A(e
i
, e
j
) =
ij
A(e
i
, e
i
), con A(e
i
, e
i
) = 1 si i n 1 y
entonces A(e
n
, e
n
) = |[A]
e
| > 0 (pues [A]
e
= S
tr
[A]
B
S y |[A]
e
| = |S|
2
|[A]
B
| > 0). La forma cuadratica es
pues denida positiva.
Aplicaciones:
1) Clasicaci on de puntos crticos:
Consideremos un campo escalar G : R
n
R derivable a segundo orden orden en un entorno de un punto
crtico r
0
donde
G
x
i
|
r=r
0
= 0, i = 1, . . . , n. El polinomio de Taylor de segundo orden de G(r) = G(r)G(r
0
)
alrededor de r
0
es una forma cuadratica en r = r r
0
= (x
1
, . . . , x
n
):
G =
1
2
n

i,j=1

2
G
x
i
x
j
|
r=r
0
x
i
x
j
+R
3
=
1
2
(r)H(r)
t
+R
3
10
donde H es una matriz simetrica de n n, denominada matriz Hessiana, de elementos
H
ij
=

2
G
x
i
x
j
|
r=r
0
y R
3
es el resto (lim
rr
0
R
3
/|r r
0
|
2
= 0). Llevando la forma cuadratica anterior a una forma can onica (ya
sea completando cuadrados o diagonalizando la matriz H), obtenemos
G =
1
2
n

i=1
a

i
(x

i
)
2
+R
3
Si a

i
> 0 para i = 1, . . . , n, G > 0 para |r| suf. peque no y el punto crtico es un mnimo local o relativo.
Si a

i
< 0 para i = 1, . . . , n, G < 0 para |r| suf. peque no y el punto crtico es un m aximo local o relativo.
Y si existen a

i
positivos y negativos, se trata de un punto silla (saddle point).
Finalmente, si algunos a

i
son nulos y a

i
0 para i = 1, . . . , n (o a

i
0 para i = 1, . . . , n) el presente criterio
no decide y es necesario un desarrollo a orden m as alto (que puede tambien no ser concluyente) o bien un
an alisis alternativo.
Por lo tanto, podemos clasicar el punto crtico en forma inmediata conociendo los autovalores de la ma-
triz H (de n n), o bien simplemente completando cuadrados y observando los signos de los coecientes
diagonales a
i
. El ultimo metodo es en general m as sencillo (pues no requiere determinar races de ninguna
ecuaci on) pero el primero tiene la ventaja de determinar a la vez (mediante los autovectores de H) n di-
recciones ortogonales en las que la forma cuadratica tiene la forma canonica (y por lo tanto conocer las
direcciones ortogonales en las que G es positivo (a

i
> 0) o negativo (a
i
< 0)). (Ver practica para m as
detalles).
Notemos tambien que si denimos f
r
0
: R R como
f
r
0
(t) = G(r
0
+tr)
entonces
f

r
0
(0) =

i,j

2
G
x
i
x
j
|
r=r
0
x
i
x
j
= (r)H(r)
t
lo cual es una forma cuadratica en r denida por la matriz simetrica H. Si H es denida positiva f
r
0
(t)
es concava hacia arriba en t = 0 para cualquier direcci on r, mientras que si es denida negativa, f
r
0
(t)
sera concava hacia abajo para cualquier direccion r. En el caso general, la concavidad dependera de la
direccion de r.
2) Clasicaci on de curvas de nivel de formas cuadraticas. Consideremos la ecuaci on
n

i,j=1
x
i
a
ij
x
j
= C
que puede reescribirse como
rA(r)
t
= C
con r = (x
1
, . . . , x
n
) y A la matriz (real) de elementos a
ij
, que puede suponerse siempre simetrica (a
ij
= a
ji
).
Llevandola a una forma canonica obtenemos la ecuaci on equivalente
n

i=1
a

i
x

i
2
= C
con los x

i
relacionados linealmente con los x
i
. Si todos los a

i
son positivos (y C > 0) la ecuaci on anterior
determina un elipsoide, mientras que si los a

i
tienen signos distintos la ec. determina un hiperboloide. Si
la forma canonica se obtiene diagonalizando la matriz A, los autovectores pueden elegirse normalizados y
ortogonales, en cuyo caso las variables x

i
seran las coordenadas a lo largo de ejes ortogonales en los que la
forma cuadratica toma la forma canonica (ejes principales). (vease practica para m as detalles).
Ejemplo: Consideremos
G(x, y) = x
2
+y
2
+ 2xy
11
(0, 0) es un pto. crtico de G y la matriz H de derivadas segundas es H = 2(
1
1
). Sus autovalores son

= 2(1 )
(obtenidos de la ec. |HI
2
| = (2)
2
4
2
= 0). Por lo tanto, Si || < 1 ambos autovalores son positivos
y (0, 0) es un mnimo de G (en este caso mnimo absoluto). En cambio, si || > 1, un autovalor es positivo
y el otro negativo (por ej., si > 1,
+
> 0,

< 0), por lo que (0, 0) es en este caso un punto silla. Las
componentes de los autovectores normalizados (y por su puesto ortogonales) de H son [v

]
e
= (
1
1
)/

2, por
lo que S = (
1 1
1 1
)/

2 y podemos escribir
G(x, y) = (1 +)x
2
+ (1 )y
2
con (
x

) = S
1
(
x
y
) = (
x+y
xy
)/

2, como puede vericarse directamente.


Si G representa la energa potencial de un sistema fsico dependiente de dos coordenadas x, y en las cercanas
de un punto estacionario, vemos pues que el sistema sera estable s olo si || < 1. Si > 0, la estabilidad del
sistema en la direccion de e

2
disminuye al aumentar , tornandose inestable para > 1.
Cabe destacar, no obstante, que la misma conclusi on puede obtenerse simplemente completando cuadrados,
lo cual conduce a
G(x, y) = (x +y)
2
+y
2
(1
2
)
Vemos pues que el coeciente de y
2
es positivo si || < 1 y negativo si || > 1, mientras que el primero es
siempre positivo.
Si consideramos ahora la ec.
x
2
+y
2
+ 2xy = C
el mismo an alisis conduce a que para C > 0, la ec. anterior representa una elipse si || < 1, con ejes
principales inclinados 45 grados respecto de los originales (y radios de longitud 1/

1 para C = 1),
mientras que si || > 1 la ec. representa una hiperbola.
Ejemplo: Consideremos
G(x, y, z) = x
2
+y
2
+z
2
+ 2xy + 2xz
que ya fue analizado. (0, 0, 0) es claramente un punto crtico. Completando cuadrados, se obtiene
G(x, y, z) = (x +y +z)
2
(y +z)
2
+y
2
+z
2
= (x +y +z)
2
2yz = x

2
+ 2y

2
2z

2
donde x

= x + y + z, z

= (z + y)/2, y

= (y z)/2, lo que implica que (0, 0, 0) es un punto silla. El


mismo resultado se obtiene de los autovalores de la matriz H = 2
_
_
1 1 1
1 1 0
1 0 1
_
_
, que son
1
= 2 > 0,

2
= 2 + 2

2 > 0,
3
= 2 2

2 < 0.
La ecuaci on
x
2
+y
2
+z
2
+ 2xy + 2xz = C
corresponde, por lo tanto, a un hiperboloide (de una hoja para C > 0).
Ejemplo: Consideremos la funcion T : R
n
R dada por (X = (x
1
, . . . , x
n
)
t
)
T(X) =

i,j
x
i
A
ij
x
j
+ 2

i
r
i
x
i
con A
ij
= A
ji
. Asumiendo que la matriz de coecientes A R
nn
es invertible, podemos reescribir T como
T(X) = X
t
AX + (R
t
X +X
t
R) = Y
T
AY R
t
A
1
R
donde X
t
= (x
1
, . . . , x
n
), R
t
= (r
1
, . . . , r
n
) y Y = X + C, con C = A
1
R. Es decir, T(X) es una forma
cuadratica en Y = X +A
1
R (o sea, y
i
= x
i
+

j
A
1
ij
r
j
) m as una constante R
t
A
1
R.
Si A es singular, podemos econtrar C tal que AC = R s olo si R EC(A) (espacio columna de A). En
tal caso T = Y
t
AY C
t
R sigue siendo una forma cuadratica en Y = X + C, a menos de una constante
C
t
R.
12
19. Espacios Eucldeos
Un espacio vectorial V sobre el cuerpo de los reales R es Eucldeo si esta equipado con una operacion
denominada producto escalar y denotada por (v, w), que asigna a todo par de vectores un escalar real que
satisface
(v, w) = (w, v) v, w V
(v, w
1
+w
2
) = (v, w
1
) + (v, w
2
), v, w
1
, w
2
V
(v, w) = (v, w) v, w V, R
(v, v) > 0 v = 0, (0, 0) = 0
El producto escalar en un espacio eucldeo es pues una forma bilineal simetrica de V V sobre R tal que
la correspondiente forma cuadratica es denida positiva. Cualquier forma bilineal de este tipo es apta para
denir un producto escalar. Notemos que (0, v) = (v, 0) = 0 v V .
En un espacio de dimension nita generado por una base B = (b
1
, . . . , b
n
), se obtiene, eligiendo para el
producto escalar una forma bilineal simetrica G asociada a una forma cuadratica denida positiva,
(v, w) = G(v, w) = [v]
t
B
[G]
B
[w]
B
=
n

i,j=1

i
g
ij

j
, g
ij
= ([G]
B
)
ij
= (b
i
, b
j
) = g
ji
donde v =

i
b
i
, w =

i
b
i
y [v]
t
B
= (
1
, . . . ,
n
), [w]
t
B
= (
1
, . . . ,
n
). Recordemos que para este tipo
de formas bilineales es siempre posible elegir una base B donde [G]
B
es diagonal, es decir, (b
i
, b
j
) = g
i

ij
,
en cuyo caso el producto escalar toma la forma
(v, w) =
n

i,j=1

i
g
i

i
, g
i
= (b
i
, b
i
) > 0
Deniendo ahora e
i
= b
i
/

g
i
, podemos obtener as una base can onica e = (e
1
, . . . , e
n
) en la que (e
i
, e
j
) =
ij
y por lo tanto [G]
e
= I
n
(matriz identidad). El producto escalar en esta base adopta entonces la forma usual
(v, w) = [v]
t
e
[w]
e
=
n

i=1

i
A una base de este tipo la denominaremos base can onica o base ortonormal del espacio eucldeo.
Ejemplo 1: Si V = R
n
y v = (x
1
, . . . , x
n
), v

= (x

1
, . . . , x

n
), el producto escalar usual, dado por
(v, v

) = v v

=
n

i=1
x
i
x

i
satisface las 4 condiciones requeridas. Los vectores de la base canonica e
1
= (1, 0, . . . , 0) . . . e
n
= (0, . . . , 0, 1)
satisfacen (e
i
, e
j
) =
ij
y forman pues una base ortonormal para este producto escalar.
Ejemplo 2: Si V es el espacio C
[a,b]
de funciones reales continuas f : [a, b] R (de dimension innita),
podemos equiparlo con el producto escalar denido por
(f, g) =
_
b
a
f(x)g(x)dx
que satisface todas las condiciones requeridas (probar como ejercicio).
Ejemplo 3: Si V = R
mn
es el espacio de matrices reales de mn, podemos denir el producto escalar de
dos matrices A, B V como
(A, B) = Tr [A
t
B] =
m

i=1
n

j=1
A
ij
B
ij
= (B, A)
que satisface tambien todas las condiciones requeridas (probar como ejercicio).
1
19.1 Norma de un vector
La norma (o longitud) de un vector v V se dene como
||v|| =
_
(v, v)
y satisface ||v|| 0 v V , con ||v|| = 0 si y s olo si v = 0. Por ejemplo, utilizando los productos escalares
anteriores, en V = R
n
se obtiene
||v|| =

_
n

i=1
x
2
i
mientras que en V = C
[a,b]
,
||f|| =

_
b
a
f
2
(x)dx
y en V = R
mn
,
||A|| =
_
Tr [A
t
A] =

i,j
A
2
ij
Todo vector en un espacio eucldeo posee pues una norma, que es positiva si v = 0 y 0 si v = 0. Notemos
que R se cumple
||v|| =
_
(v, v) =
_

2
(v, v) = ||||v||
de modo que la norma de v es || veces la longitud de v.
Un vector de norma 1 se denomina vector unitario. Todo vector v no nulo puede ser normalizado, es decir,
convertido en vector unitario mediante la multiplicaci on por un escalar: Si ||v|| = ||||v|| = 1 basta con
elegir tal que || = 1/||v||, o sea, = 1/||v||. El vector normalizado con el mismo sentido de v es pues
v
n
= v/||v||
Un conjunto C de V se dice que es acotado si existe m R tal que ||v|| < m v C. El conjunto
{v, ||v|| 1} se l lama bola unidad, mientras que el conjunto {v, ||v|| = 1} esfera unidad. Estos conjuntos
no son subespacios (como el lector podra facilmente mostrar).
19.2 Desigualdad de Cauchy-Schwarz y angulo entre vectores
Dados dos vectores v, w de un espacio eucldeo V , se cumple siempre la desigualdad de Cauchy-Schwartz
|(v, w)| ||v|| ||w|| (19.1)
donde la igualdad rige si y s olo si v y w son LD (Linealmente Dependientes).
Demostracion: Si v, w son LD v = (o w = v) en cuyo caso |(v, w)| = |||(w, w)| = || ||w||
2
=
||v|| ||w||. Esto incluye en particular el caso en que v o w es nulo ( = 0 o = 0).
Si v = 0 y w = 0, se obtiene, para los correspondientes vectores normalizados v
n
= v/||v||, w
n
= w/||w||,
0 ||v
n
w
n
||
2
= (v
n
w
n
, v
n
w
n
) = (v
n
, v
n
) + (w
n
, w
n
) 2(v
n
, w
n
) = 2(1 (v
n
, w
n
))
lo que implica 1 (v
n
, w
n
) 1, o sea,
|(v
n
, w
n
)| 1
de donde |(v, w)| ||v|| ||w||, como se quera demostrar. Vemos tambien que la igualdad (|(v
n
, w
n
)| = 1)
implica ||v
n
w
n
||
2
= 0 y por lo tanto v
n
w
n
= 0, en cuyo caso v y w son LD.
Por ejemplo, en R
n
, la desigualdad de Cauchy-Schwarz implica, para v =

n
i=1
x
i
e
i
, w =

n
i=1
y
i
e
i
,
|
n

i=1
x
i
x

i
|

_
n

i=1
x
2
i

_
n

i=1
x

2
i
2
y en C
[a,b]
,
|
_
b
a
f(x)g(x)dx|

_
b
a
f
2
(x)dx

_
b
a
g
2
(x)dx
mientras que en V = R
mn
,
Tr[A
t
B]
_
Tr[A
t
A]
_
Tr[B
t
B]
El angulo entre dos vectores v, w no nulos se dene como
cos =
(v, w)
||v|| ||w||
= (v
n
, w
n
)
donde v
n
= v/||v||, w
n
= w/||w|| son los vectores normalizados. La desigualdad de Cauchy-Schwartz asegura
que 1 (v
n
, w
n
) 1, por lo que el angulo esta correctamente denido. Notemos que si v = w entonces
entonces = 0 ( > 0) o ( < 0).
Ejercicio: Determinar el angulo entre los vectores (1, 1, . . . , 1) y (1, 1, . . . , 1) pertenecientes a R
n
.
19.3 Desigualdad triangular y distancia entre vectores
La desigualdad de Cauchy-Schwarz permite demostrar en forma inmediata la desigualdad triangular
|||v|| ||w||| ||v +w|| ||v|| +||w||
ya que ||v +w||
2
= (v +w, v +w) = (v, v) + (w, w) + 2(v, w), y por lo tanto,
||v +w||
2
||v||
2
+ 2||v|| ||w|| +||w||
2
= (||v|| +||w||)
2
||v +w||
2
|v||
2
2||v|| ||w|| +||w||
2
= (||v|| ||w||)
2
Notemos que se cumple tambien (dado que || w|| = ||w||) |||v|| ||w||| ||v w|| ||v|| +||w||.
La distancia entre dos vectores d(v, w) se dene como
d(v, w) = ||v w||
y satisface las propiedades
d(v, w) 0, con d(v, w) = 0 sii v = w
d(v, w) = d(w, v)
d(v, w) d(v, u) +d(u, w)
donde la ultima es consecuencia de la desigualdad triangular: ||vw|| = ||vu(wu)|| ||vu||+||wu||.
19.4 Ortogonalidad y bases ortonormales
Dos vectores v, w V se dicen ortogonales si (v, w) = 0. En tal caso, si v = 0, w = 0, cos = 0 y por lo
tanto, = /2.
Un conjunto de m vectores v
i
son ortogonales si (v
i
, v
j
) = 0 i = j, es decir, si son mutuamente
ortogonales de a pares. Y se dicen que son ortonormales si adem as tienen norma no nula e igual a 1:
(v
i
, v
i
) = 1, i = 1, . . . , n. Una base ortonormal es una base compuesta por vectores ortonormales. La base
canonica en la que (e
i
, e
j
) =
ij
es pues una base ortonormal.
Independencia lineal de vectores ortogonales: Si v
1
, v
2
, . . . , v
m
son mutuamente ortogonales ((v
i
, v
j
) =
0 si i = j) y no nulos (||v
i
||
2
= (v
i
, v
i
) > 0) son linealmente independientes.
Demostraci on: Si

1
v
1
+
2
v
2
+. . . +
n
v
n
= 0
multiplicando escalarmente por v
i
, con 1 i m, y teniendo en cuenta que (v
i
, v
j
) = 0 si i = j, se obtiene
(v
i
,
1
v
1
+. . . +
n
v
n
) = (v
i
,
i
v
i
) = (v
i
, v
i
) = (v
i
, 0) = 0
lo que implica
i
= 0 pues (v
i
, v
i
) = ||v
i
||
2
> 0. Esto muestra que son LI. La prop. recproca no es,
obviamente, valida.
3
Por lo tanto, si dim V = n cualquier conjunto de n vectores ortogonales no nulos forma una base de V .
Generalizaci on del teorema de Pitagoras: Si v
1
, v
2
son ortogonales ((v
1
, v
2
) = 0)
||v
1
+v
2
||
2
= (v
1
+v
2
, v
1
+v
2
) = (v
1
, v
1
) + (v
2
, v
2
) + 2(v
1
, v
2
) = ||v
1
||
2
+||v
2
||
2
Y si (v
1
, v
2
, . . . , v
m
) son mutuamente ortogonales ((v
i
, v
j
) = 0 si i = j),
||
m

i=1
v
i
||
2
= (
m

i=1
v
i
,
m

j=1
v
j
) =
m

i,j=1
(v
i
, v
j
) =
m

i=1
(v
i
, v
i
) =
m

i=1
||v
i
||
2
Expansi on en una base ortonormal: Si escribimos, para un vector v V ,
v =
n

i=1
x
i
e
i
donde (e
1
, . . . , e
n
) es una base ortonormal de V , entonces
x
i
= (e
i
, v), i = 1, . . . , n
ya que (e
i
, v) = (e
i
,

n
j=1
x
j
e
j
) =

n
j=1
x
j
(e
i
, e
j
) = x
i
por ortonormalidad de los e
i
. Las coordenadas x
i
de v
en la base canonica se obtienen pues simplemente efectuando el producto escalar (e
i
, v), no siendo necesario
resolver explcitamente un sistema de ecuaciones lineales para su obtencion. Adem as, por la generalizaci on
del teorema de Pit agoras anterior,
||v||
2
=
n

i=1
||x
i
e
i
||
2
=
n

i=1
x
2
i
Los angulos que forma v con e
i
estan determinados por
cos(
i
) =
(e
i
, v)
||e
i
|| ||v||
= x
i
/||v||
(angulos directores) y satisfacen
n

i=1
cos
2
(
i
) =
n

i=1
x
2
i
/||v||
2
= 1
Se cumple entonces x
i
= ||v|| cos
i
para i = 1, . . . , n.
Si una base e

es ortogonal pero no necesariamente ortonormal, entonces


x
i
= (e

i
, v)/||e

i
||
2
con ||v||
2
=

n
i=1
||x
i
e

i
||
2
=

n
i=1
x
2
i
||e

i
||
2
y cos(
i
) =
(e

i
,v)
||e

i
|| ||v||
= x
i
||e

i
||/||v||. Se sigue cumpliendo que

n
i=1
cos
2
(
i
) = 1.
Notemos tambien que si F : V W es una transformacion lineal entre espacios eucldeos V y W de
dimensiones n y m respectivamente, y e, e son bases ortonormales de V y W, entonces los elementos F
ij
de
la matriz [F]
e
e
R
mn
que representa a F en estas bases estan dados por el producto escalar
F
ij
= ( e
i
, F(e
j
))
dado que por denicion, F(e
j
) =

m
i=1
F
ij
e
i
.
Relaci on entre bases ortonormales.
Si e es una base ortonormal de V y e

es otra base de V , tenemos


e

j
=
n

i=1
S
ij
e
i
, j = 1, . . . , n
con S
ij
= (e
i
, e

j
) y
(e

j
, e

k
) =
n

i=1
S
ij
S
ik
= (S
t
S)
jk
4
Vemos que e

sera una base ortonormal ((e

j
, e

k
) =
jk
) si y solo si la matriz de cambio de base S satisface
S
t
S = I
n
o sea, S
1
= S
t
. Las matrices reales que satisfacen esta relaci on se denominan ortonormales (o a veces
ortogonales). Dado que (S
t
S)
ij
es el producto escalar de la columna i por la columna j de S, las columnas
de estas matr ices son ortonormales ((S
t
S)
ij
=
ij
) formando entonces una base ortonormal de R
n
. Como
la ec. anterior implica asimismo SS
t
= I
n
, las las de S son tambien ortonormales y forman asimismo una
base ortonormal de R
n
(se prueba de la misma manera).
Notemos adem as que |S| DetS = 1, pues |S
t
S| = |S|
2
= 1.
Resumiendo, la base e

sera ortonormal sii la matriz de cambio de base S es una matriz ortonormal.


Para un vector arbitrario v =

n
i=1
x
i
e
i
=

n
i=1
x

i
e

i
, tenemos entonces
x

i
= (e

i
, v) =
n

j=1
x
j
(e

i
, e
j
) =
n

j=1
S
t
ij
x
j
es decir,
[v]
e
= S
t
[v]
e
lo que esta de acuerdo con la relaci on general [v]
e
= S
1
[v]
e
.
19.5 Teorema de ortogonalizaci on de Gram-Schmidt
Las propiedades anteriores muestran claramente la ventaja de trabajar con bases y conjuntos ortonormales.
Daremos ahora un metodo general para construir bases ortogonales de espacios y subespacios.
Sean v
1
, . . . , v
m
m vectores LI V , que generan un subespacio S V de dimension m n = dim V .
Entonces existen m vectores ortogonales no nulos w
1
, . . . , w
m
que general el mismo espacio (y que son, por
lo tanto, combinaciones lineales de los v
1
, . . . , v
m
).
La demostraci on es directamente constructiva. Comencemos con w
1
= v
1
. Denimos luego
w
2
= v
2
w
1
y exigimos que 0 = (w
1
, w
2
) = (w
1
, v
2
) (w
1
, w
1
). Por lo tanto = (w
1
, v
2
)/||w
1
||
2
y
w
2
= v
2

(w
1
, v
2
)
||w
1
||
2
w
1
An alogamente, denimos
w
3
= v
3

2
w
2

1
w
1
Las condiciones 0 = (w
2
, w
3
) = (w
2
, v
3
)
2
||w
2
||
2
, 0 = (w
1
, w
3
) = (w
1
, v
3
)
1
||w
1
||
2
(donde hemos
utilizado la ortogonalidad (w
1
, w
2
) = (w
2
, w
1
) = 0) implican
i
= (w
i
, v
i
)/||w
i
||
2
para i = 1, 2, y por tanto
w
3
= v
3

(w
2
, v
3
)
||w
2
||
2
w
2

(w
1
, v
3
)
||w
1
||
2
w
1
En general, deniendo para i = 2, . . . , m,
w
i
= v
i

i1

j=1

j
w
j
,
las i 1 condiciones (w
j
, w
i
) = 0 para j = 1, . . . , i 1 implican
j
=
(w
j
,v
i
)
||w
j
||
2
, teniendo en cuenta la
ortogonalidad (w
j
, w
k
) = 0 si j < k < i.
Por lo tanto,
w
1
= v
1
, w
i
= v
i

i1

j=1
(w
j
, v
i
)
||w
j
||
2
w
j
, i = 2, . . . , m
Los m vectores w
i
as denidos son no nulos: si w
i
= 0 v
i
=

i1
j=1

j
w
j
, lo que implicara, dado que los
w
j
son combinaciones lineales de los v
j
, que los vectores originales son LD, contradiciendo la hip otesis.
5
Los m vectores w
i
as construidos son entonces mutuamente ortogonales por construcci on ((w
i
, w
j
) = 0 si
i = j) y no nulos, por lo que son LI, conformando entonces una base de S. Si m = n, se obtiene as un
metodo para construir una base ortogonal del espacio completo V . Notemos que
||w
i
||
2
= (w
i
, w
i
) = (w
i
, v
i
) = ||v
i
||
2

i1

j=1
(w
j
, v
i
)
2
/||
j
||
2
Para obtener un conjunto ortonormal, se puede normalizar al nal del procedimiento (w
i
w

i
= w
i
/||w
i
||)
o en cada paso. En este ultimo caso, el metodo se resume en
w

1
= v
1
/||v
1
||, w

i
= [v
i

i1

j=1
(w

j
, v
i
)w

j
]/ [||v
i
||
2

i=1

j=1
(w

j
, v
i
)
2
]
1/2
, i = 2, . . . , m
Ejemplo: Sean v
1
= (1, 1, 1), v
2
= (1, 1, 1) vectores de R
3
, no ortogonales ((v
1
, v
2
) = 1, con (v
1
, v
1
) =
(v
2
, v
2
) = 3). Aplicando el metodo de Gram-Schmidt, se obtiene
w
1
= (1, 1, 1), w
2
= (1, 1, 1)
1
3
(1, 1, 1) = (2, 2, 4)/3
que son claramente ortogonales.
Para formar una base ortogonal de R
3
que contenga a w
1
y w
2
, podemos considerar un vector cualquiera v
3
tal que (w
1
, w
2
, v
3
) sean LI. Por ejemplo, v
3
= (1, 0, 0). Se obtiene entonces el resultado esperado
w
3
= v
3

(w
1
, v
3
)
||w
1
||
2
w
1

(w
2
, v
3
)
||w
2
||
2
w
2
= (1, 0, 0)
1
3
(1, 1, 1)
1
3
2/3
24/9
(2, 2, 4) =
1
2
(1, 1, 0)
Ejemplo: Sean p
1
(t) = 1, p
2
(t) = t, p
3
= t
2
vectores de P
2
(polinomios de grado 2). Determinar una
base ortogonal de P
2
para el producto escalar (p, q) =
_
1
1
p(t)q(t)dt.
Aplicando el metodo anterior, obtenemos, notando que (p
1
, p
1
) = 2, (p
2
, p
2
) = 2/3, (p
3
, p
3
) = 2/5, (p
1
, p
2
) =
0 = (p
2
, p
3
), (p
1
, p
3
) = 2/3,
w
1
(t) = 1, w
2
(t) = t, w
3
= t
2

2/3
2
= t
2
1/3
Si exigimos que w
i
(1) = 1 y extendemos P
2
P

se obtienen de esta manera los polinomios de Legendre:


P
1
(t) = 1, P
2
(t) = t, P
3
(t) = (3t
2
1)/2, etc.
De la misma manera, para productos escalares del tipo (p, q) =
_
b
a
p(t)q(t)(t)dt, donde (t) > 0 para
t (a, b), se obtienen otras familias de polinomios ortogonales.
19.6 Proyeccion ortogonal
Sea w un vector no nulo V y sea v V . Podemos descomponer v como una suma de un vector v
w
paralelo
a w y un vector v v
w
ortogonal a w:
v = v
w
+ (v v
w
)
donde exigimos (w, v v
w
) = 0. Esta condici on determina v
w
. Escribiendo v
w
= w, obtenemos
(w, v w) = (w, v) (w, w) = 0
por lo que = (w, v)/||w||
2
y
v
w
=
(w, v)
||w||
2
w
El vector v
w
es la proyecci on ortogonal de v sobre w y su signicado geometrico es muy claro (recordar
dibujo): Si trazamos la perpendicular desde el extremo de v a la recta generada por w, obtenemos un
tri angulo rectangulo formado por v, v
w
y v v
w
, siendo v
w
v v
w
. As, v
w
= 0 si v w, y v
w
= v si v||w.
6
El vector v
w
puede tambien interpretarse como el vector paralelo a w cuya distancia a v es mnima.
En efecto, si u
w
= w,
d
2
(v, u
w
) = ||v u
w
||
2
= ||v v
w
+ (v
w
u
w
)||
2
= ||v v
w
||
2
+||v
w
u
w
||
2
+ 2(v v
w
, v
w
u
w
)
Pero el ultimo termino es nulo pues v v
w
es a w y por tanto a v
w
u
w
, por lo que
||v u
w
||
2
= ||v v
w
||
2
+||v
w
u
w
||
2
||v v
w
||
2
La distancia mnima se obtiene pues para u
w
= v
w
.
Operador de Proyecci on: El operador de proyecci on sobre w queda denido por
P
w
(v) = v
w
y es un operador lineal que satisface P
2
w
= P
w
. En una base canonica de V , (w, v) = [w]
t
e
[v]
e
, ||w||
2
= [w]
t
e
[w]
e
y entonces
[v
w
]
e
=
[w]
t
e
[v]
e
[w]
t
e
[w]
e
[w]
e
=
[w]
e
[w]
t
e
[w]
t
e
[w]
e
[v]
e
La matriz [P]
e
que representa a P en una base canonica ([v
w
]
e
= [P]
e
[v]
e
) esta entonces dada por
[P]
e
=
[w]
e
[w]
t
e
[w]
t
e
[w]
e
Ejemplo: Proyectar el vector v = (1, 1, 1) sobre w = (1, 1, 1).
Tenemos, como (v, w) = 1 y ||w||
2
= 3,
v
w
=
1
3
(1, 1, 1)
El operador de proyecci on correspondiente queda denido, para v = (x, y, z) = xe
1
+ ye
2
+ ze
3
(base
canonica), por
v
w
= P
w
(v) =
(w, v)
||w||
2
w =
x +y z
3
(1, 1, 1)
y la correspondiente matriz es entonces
[P
w
]
e
=
1
3
_
_
1
1
1
_
_
(1, 1, 1) =
1
3
_
_
1 1 1
1 1 1
1 1 1
_
_
de forma que [v
w
]
e
= [P
w
]
e
[v]
e
.
Gram-Schmidt en terminos de proyectores:
El proceso de ortogonalizacion de Gram-Schmidt puede ahora escribirse como
w
1
= v
1
, w
i
= v
i

i1

j=1
P
w
j
(v
i
), i = 2, . . . , m
El signicado es muy claro: w
i
se construye a partir de v
i
quitandole a este ultimo las proyecciones sobre
cada uno de los vectores anteriores w
j
, j < i. De esta forma w
i
s olo conserva la parte de v
i
ortogonal al
espacio generado por los w
j
.
La expansion de un vector en una base ortonormal puede entonces verse tambien como la suma de
proyecciones ortogonales: Tenemos, para v V y (e
1
, . . . , e
n
) una base ortonormal,
v =
n

i=1
x
i
e
i
=
n

i=1
P
e
i
(v)
ya que x
i
e
i
= (e
i
, v)e
i
= P
e
i
(v).
7
19.7 Subespacios ortogonales
El conjunto de vectores ortogonales a un cierto vector v es un subespacio de V : Si (v, w
1
) = 0, (v, w
2
) = 0
(v, w
1
+w
2
) = (v, w
1
) + (v, w
2
) = 0 y (v, w
1
) = (v, w
1
) = 0. Adem as es no vaco pues (v, 0) = 0.
El conjunto de vectores ortogonales a todos los vectores de un cierto subespacio S V es tambien un
subespacio (se prueba de la misma forma), denominado complemento ortogonal de S o S

.
Mostraremos a continuaci on que V = S S

.
Demostraci on: Sea v V y v
s
un vector S. Mostraremos que es siempre posible escribir
v = v
s
+ (v v
s
)
con v
s
S y v v
s
S

. Si (w
1
, . . . , w
m
) es una base de S, que podemos escogerla ortogonal utilizando el
metodo de Gram-Schmidt, entonces
v
s
=
m

i=1

i
w
i
,
i
= (w
i
, v
s
)/||w
i
||
2
La condici on v v
s
S

implica entonces
0 = (w
i
, v v
s
) = (w
i
, v) (w
i
, v
s
) = (w
i
, v)
i
||w
i
||
2
, i = 1, . . . , m
o sea,
i
= (w
i
, v)/||w
i
||
2
. En tal caso, (v v
s
) sera tambien ortogonal a cualquier vector de S (pues estos
seran combinaciones lineales de los w
i
), por lo que v v
w
S

. Adem as S S

= {0}, pues si u S y
u S

(u, u) = 0 y por lo tanto u = 0. Queda probado entonces que V = S S

. Si V es de dimension
n y S de dimension m dim S

= n m.
El vector v
s
as construido es la proyecci on ortogonal de v sobre el subespacio S, y puede escribirse como
v
s
=
m

i=1
P
w
i
(v) = P
S
(v)
donde P
w
i
(v) =
(w
i
,v)
||w
i
||
2
w
i
es el proyector sobre w
i
y
P
S
=
m

i=1
P
w
i
el proyector otrogonal sobre S. En esta expresi on los w
i
deben formar una base ortogonal de S.
El vector v
s
es el vector S que posee distancia mnima a v: Si u
s
S,
||vu
s
||
2
= ||vv
s
+(v
s
u
s
)||
2
= ||vv
s
||
2
+||v
s
u
s
||
2
+2(vv
s
, v
s
u
s
) = ||vv
s
||
2
+||v
s
u
s
||
2
||vv
s
||
2
Esta distancia mnima dene la distancia de v a S:
d
min
(v, S) = ||v v
s
|| = ||v P
S
(v)||
Al disponer de una metrica, en un espacio eucldeo podemos pues no s olo determinar si un vector v pertence
al subespacio S generado por un conjunto de vectores {w
1
, . . . , w
m
}, sino tambien determinar que tan lejos
esta v de este subespacio, a traves de la distancia d
min
(v, S).
El metodo de Gram-Schmidt puede entonces expresarse en forma a un m as concisa como
w
1
= v
1
, w
i
= v
i
P
{w
1
,...,w
i1
}
(v
i
), i = 2, . . . , m
donde P
{w
1
,...,w
i1
}
= P
w
1
+. . . +P
w
i1
es el proyector ortogonal sobre el subespacio generado por los i 1
vectores anteriores.
Ejemplo 1: El espacio nulo de una matriz A de mn, N(A) = {X|AX = 0} con X vectores de n 1,
es el complemento ortogonal de las las de A, es decir, del espacio la de A (EF(A)), ya que (AX)
i
= A
i
X
es el producto escalar de la la i de A por X.
8
Se cumple por lo tanto dim EF(A)+dim N(A) = n.
Ejemplo 2: Encontrar S

si S es el espacio generado por los vectores (1, 1, 1), (1, 1, 1).


Una manera es resolver el sistema homogeneo
_
1 1 1
1 1 1
_
_
_
x
y
z
_
_
=
_
0
0
_
, que da como resultado el
conjunto {x(1, 1, 0), x R}. S

es entonces el espacio generado por (1, 1, 0).


Se cumple dim S+dim S

=2+1=3.
Ejemplo 3: a) Proyectar el vector v = (1, 2, 3) sobre el plano generado por los vectores ortogonales
w
1
= (1, 0, 1) y w
2
= (0, 1, 0).
Tenemos (v, w
1
) = 4, (v, w
2
) = 2, y
v
s
= P
S
(v) = P
w
1
(v) +P
w
2
(v) =
4
2
(1, 0, 1) +
2
1
(0, 1, 0) = (2, 2, 2)
b) Hallar la distancia mnima de v a S.
Tenemos v v
s
= (1, 0, 1) y d
min
= ||v v
s
|| =

2. Adem as, el angulo entre v y S puede obtenerse a


partir de cos = ||v
s
||/||v|| = 2

3/

14.
c) Hallar la matriz que representa el proyector ortogonal sobre S en la base canonica de R
3
.
[P
S
]
e
= [P
w
1
]
e
+ [P
w
2
]
e
=
1
2
[w
1
]
e
[w
1
]
t
e
+ [w
2
]
e
[w
2
]
t
e
=
_
_
1/2 0 1/2
0 1 0
1/2 0 1/2
_
_
Se verica [v
s
]
e
= [P
S
]
e
[v]
e
.
19.8 Representaci on general del operador de proyecci on
Es posible dar la expresi on general de la matriz que representa al proyector ortogonal sobre un subespacio
S generado por un conjunto LI de m vectores {w
1
, . . . , w
m
} no necesariamente ortogonales. Denamos la
matriz
R = ([w
1
]
e
, . . . , [w
m
]
e
)
de n m, con m n, que contiene las coordenadas de los vectores en una base canonica e (con n = dim
V ). Como v
s
S podemos escribir v
s
=

m
i=1

i
w
i
y por lo tanto
[v
s
]
e
=
m

i=1

i
[w
i
]
e
= R
donde = (
1
, . . . ,
m
)
t
. La condici on (w
i
, v v
s
) = 0 para i = 1, . . . , m implica
0 = R
t
([v]
e
[v
s
]
e
) = R
t
[v]
e
R
t
[v
s
]
e
= R
t
[v]
e
R
t
R
de donde
= (R
t
R)
1
R
t
[v]
e
Por lo tanto, [v
s
]
e
= R estara dado por
[v
s
]
e
= R(R
t
R)
1
R
t
[v]
e
La matriz que representa al proyector sobre S es entonces
[P
S
]
e
= R(R
t
R)
1
R
t
Notar que [P
S
]
2
e
= [P
S
]
e
, y que la expresi on anterior no se puede simplicar, pues R no es cuadrada.
Discutiremos luego las propiedades de la matriz R
t
R.
Ejemplo: Proyectar el vector v = (1, 2, 3) sobre el plano generado por los vectores w
1
= (1, 1, 1) y w
2
=
(2, 1, 2). Utilizando el metodo anterior, tenemos en este caso
R =
_
_
1 2
1 1
1 2
_
_
9
con R
t
R = (
3 5
5 9
), R
1
= (
9 5
5 3
)/2 y
[P
S
]
e
= R(R
t
R)
1
R
t
=
_
_
1/2 0 1/2
0 1 0
1/2 0 1/2
_
_
que coincide con el resultado del ultimo ejercicio. La raz on es que el espacio generado por (1, 1, 1) y
(2, 1, 2) coincide con el generado por los vectores ortogonales (1, 0, 1) y (0, 1, 0) ((1, 1, 1) = (1, 0, 1) +(0, 1, 0),
(2, 1, 2) = 2(1, 0, 1) +(0, 1, 0)). Una forma general de obtener el resultado anterior es precisamente ver si los
proyectores sobre el espacio generado son identicos.
Soluci on de cuadrados mnimos
Consideremos nuevamente el sistema de m ecuaciones lineales con n incognitas
AX = b
donde A R
mn
, X R
n1
b R
m1
. Si A representa un monomorsmo rango(A) = n m y la matriz
A
t
A R
nn
es no singular. De poseer solucion, el sistema tiene entonces una solucion unica dada por
X = (A
t
A)
1
A
t
b
donde (A
t
A)
1
A
t
es una inversa a izquierda de A. Esta solucion se obtiene al multiplicar ambos miembros
de AX = B por (A
t
A)
1
A
t
, y es valida cuando b pertenece al espacio columna de A (EC(A)), es decir,
cuando el sistema es compatible.
Cabe destacar, no obstante, que la expresi on anterior para X tiene sentido a un si el sistema no tiene
solucion: En tal caso
AX = A(A
t
A)
1
A
t
b
es la proyecci on ortogonal de b sobre el espacio generado por las columnas de A, es decir, AX = P
EC(A)
(b),
de modo que AX es el vector de EC(A) mas cercano a b. En otras palabras, es el X que minimiza la
distancia ||AX b|| =
_

m
i=1
(AX b)
2
i
.
Ejemplo: Dado un conjunto de m puntos (x
i
, y
i
), i = 1, . . . , m, con x
i
= x
j
si i = j, hallar el polinomio de
grado n 1 p(x) =

n1
j=0
c
j
x
j
tal que

m
i=1
(p(x
i
) y
i
)
2
es mnimo. Considerar el caso m n.
Tenemos un sistema de m ecuaciones p(x
i
) = y
i
, i = 1, . . . , m, con n incognitas c
j
, j = 0, . . . , n 1:
_
_
1 x
1
. . . x
n1
1
. . .
1 x
m
. . . x
n1
m
_
_
_
_
c
0
. . .
c
n1
_
_
=
_
_
y
1
. . .
y
m
_
_
Este sistema es en general incompatible si m n. No obstante, el objetivo es buscar la solucion que minimiza
la distancia ||p(X) Y || o equivalentemente ||p(X) Y ||
2
, donde Y = (y
1
, . . . , y
m
)
t
, X = (x
1
, . . . , x
m
)
t
y
p(X) = AC, con A la matriz de m n de elementos A
ij
= x
j1
i
y C el vector columna de coecientes
c
i
. Tal solucion estara dada entonces por C = (A
t
A)
1
A
t
Y , tal que AC = A(A
t
A)
1
A
t
Y es la proyecci on
ortogonal de Y sobre EC(A).
19.9 Matriz de Gram
Dado un conjunto de vectores v
1
, . . . , v
m
pertenecientes a un espacio vectorial eucldeo V de dimension nita,
la matriz simetrica G de mm productos escalares, de elementos
G
ij
= (v
i
, v
j
) = G
ji
se denomina matriz de Gram y posee importantes propiedades.
Notemos que en terminos de la matriz R = ([v
1
]
e
, . . . , [v
m
]
e
) de n m, con e una base canonica,
G = R
t
R
10
1) El producto escalar (w, u) de combinaciones lineales w =

n
i=1

i
v
i
, u =

n
i=1

i
v
i
, con [w]
e
= R,
[u]
e
= R, y = (
1
, . . . ,
m
)
t
, = (
1
, . . . ,
m
)
t
, puede expresarse como
(w, u) = [v]
t
e
[u]
e
= (R)
t
(R) =
t
R
t
R =
t
G
2) La matriz G es no singular sii los vectores v
i
son LI:
Si G es singular, existe un vector columna no nulo de m1 tal que G = 0 y por lo tanto, si u =

n
i=1

i
v
i
,
(u, u) =
t
G =
t
0 = 0
por lo que necesariamente u = 0. Por lo tanto, existe una combinacion lineal nula u con coecientes no
todos nulos. Esto implica que los v
i
son LD.
An alogamente, si existe una combinacion lineal nula u =

n
i=1

i
v
i
= 0, con los
i
no todos nulos, entonces
0 = (v
j
, u) =

n
i=1
G
ji

i
para cualquier j por lo que G = 0 y por lo tanto G es necesariamente singular.
Un metodo sencillo de determinar si los m vectores v
i
son LI es pues evaluar el determinante |G| = |R
t
R|:
{v
1
, . . . , v
m
} es LI sii |G| = 0.
Para m = n, R es de n n y |G| = |R|
2
, por lo que se reobtiene la condici on conocida |R| = 0 para n
vectores en R
n
.
3) Si w
i
=

n
j=1
S
ji
v
j
, i = 1, . . . , m, entonces G

ij
(w
i
, w
j
) =

k,l
S
ki
S
lj
G
kl
, o sea,
G

= S
t
GS
con |G

| = |S|
2
|G|. En particular, si los v
i
son LI, podemos ortogonalizarlos con el metodo de Gram-Schmidt,
generando vectores ortogonales w
i
. La correspondiente matriz S cumple, por construcci on, |S| = 1 y por lo
tanto |G| = |G

| =

m
i=1
||w
i
||
2
.
Este ultimo producto representa el cuadrado del volumen m dimensional del paraleleppedo formado por los
vectores w
1
, . . . , w
m
, y por lo tanto, por v
1
, . . . , v
m
. El volumen generado por estos m vectores es pues
V ol
v
1
,...,v
m
=
_
|G|
Si m = n, |G| = |R
t
R| = |R|
2
, y V ol
v
1
,...,v
m
= |Det(R)|.
4) La matriz G es diagonalizable, por ser real y simetrica, y los autovalores de G son positivos o nulos. Los
autovectores asociados a autovalores no nulos corresponden a vectores ortogonales, y los correspondientes a
autovalores nulos a combinaciones lineales nulas de los vectores v
i
.
En efecto, si G =

, con = 0, para w =

m
i=1

i
v
i
se obtiene
0 (w, w) =
t
G =

Como
t
> 0 entonces

0. Si

> 0 w es no nulo, mientras que si

= 0 w = 0, siendo pues
una combinacion lineal nula de los v
i
. Adem as, si G =

, con = 0, tenemos, para u =

m
i=1

i
v
i
,
(w, u) =
t
G =

t
= 0 si

por ser , autovectores de una matriz simetrica. La diagonalizaci on de G proporciona pues un metodo
directo de extraer un conjunto ortogonal de k vectores LI de los m vectores w
i
, que son los determinados
por los autovectores asociados a los autovalores no nulos.
El n umero k de autovalores no nulos de G es precisamente el rango de G y determina entonces la dimension
del subespacio generado por los m vectores v
i
: k = r(G) = dim{v
1
, . . . , v
m
}.
Ejemplo: Consideremos los vectores v
1
= (1, 1, 1, 1), v
2
= (1, 1, 1, 1), v
3
= (0, 0, 1, 0) de R
4
. Tenemos
R =
_
_
_
_
1 1 0
1 1 0
1 1 1
1 1 0
_
_
_
_
, G = R
t
R =
_
_
4 2 1
2 4 1
1 1 1
_
_
Como |G| = 0 los vectores son LD. Adem as, los autovalores de G son = 6, 3, 0, con autovectores (1, 1, 0),
(1, 1, 1), (1, 1, 2).
Por lo tanto, los vectores w

1
= v
1
+ v
2
= (2, 2, 0, 2), w
2
= v
1
v
2
+ v
3
= (0, 0, 3, 0), son ortogonales y
w

3
= w
1
+w
2
+ 2w
3
= (0, 0, 0, 0) es la combinacion lineal nula.
Pueden obtenerse resultados similares utilizando Gram-Schmidt. El determinante del primer menor de O,
16 4 = 12, representa el cuadrado del area del paralelogramo determinado por w
1
y w
2
.
11
19.10 Operadores adjuntos y autoadjuntos en espacios eucldeos
Sea F : V V un operador lineal en un espacio eucldeo V . El operador adjunto F

se dene por
(v, F(w)) = (F

(v), w)
v, w V . Si V es de dimension nita y e denota una base canonica de V , la denicion anterior implica
[v]
t
e
[F]
e
[w]
e
= ([F

]
e
[v]
e
)
t
[w]
e
= [v]
t
e
[F

]
t
e
[w]
e
por lo que la matriz [F

]
e
[F

]
e
e
que representa a F

en dicha base es la traspuesta de la matriz que


representa a F:
[F

]
e
= [F]
t
e
Esto tambien muestra que (F

= F (pues [(F

]
e
= ([F]
t
e
)
t
= [F]
e
) y que si G : V V es otro operador
lineal, (FG)

= G

(pues [(FG)

]
e
= [FG]
t
e
= [G]
t
e
[F]
t
e
). Estas dos ultimas propiedades pueden tambien
demostrarse a partir de la denci on de operador adjunto (se deja como ejercicio).
Notemos que (F(v), w) = (v, F

(w)).
Operador autoadjunto: Si F

= F el operador se dice autoadjunto. En este caso debe cumplirse


[F]
t
e
= [F]
e
por lo que F sera autoadjunto si y s olo si es representado por una matriz simetirca en una base canonica.
Notemos que en una base arbitraria B, no necesariamente ortogonal, con (b
i
, b
j
) = g
ij
= g
ji
, tendramos
(v, F(w)) = [v]
B
G[F]
B
[w]
B
, (F

(v), w) = [v]
t
B
[F

]
t
B
G[w]
B
y por lo tanto, [F

]
t
B
G = G[F]
B
, por lo que
[F

]
B
= G
1
[F]
t
B
G
Si F es autoadjunto [F]
B
= G
1
[F]
t
B
G.
En general, si F : V W es una transformacion lineal entre espacios eucldeos V , W, podemos denir
F

: W V de la misma forma: (w, F(v)) = (F

(w), v) v, w. Para espacios V , W de dimension nita n


y m respectivamente, esto implica [F

]
e
e
= ([F]
e
e
)
tr
en bases ortonormales e y e de V y W. De esta forma,
F
ij
= ( e
i
, F(e
j
)) = (F

( e
i
), e
j
) = (e
j
, F

( e
i
)) = F

ji
.
Diagonalizaci on de operadores autoadjuntos
Si F : V V es un operador lineal autoadjunto en un espacio V de dimension nita, demostraremos que
existe siempre una base canonica e

en la que [F]
e
es diagonal (Ya habamos demostrado que los autovalores
de matrices reales simetricas son todos reales y que los autovectores corresp. a autovalores distintos son
ortogonales). Un resultado a un m as general sera demostrado luego para espacios complejos.
Para n = dim V = 1, el resultado es trivial. Asumimos ahora que es valido para dim V = n 1. Si
e

1
es un autovector normalizado de F con autovalor
1
, tal que F(e

1
) =
1
e

1
, (e

1
, e

1
) = 1, se puede
construir, por Gram-Schmidt, una base ortonormal e de V tal que e
1
= e

1
, denida por una matriz de
cambio de base S ortonormal (S
t
= S). En tal caso [F]
e
= S
1
[F]
e
S = S
t
[F]
e
S sera tambien simetrica:
[F]
t
e
= S
t
[F]
e
S = [F]
e
. Pero como e

1
es autovector, [F]
e
tendr a entonces la forma (

1
0
0

F
), con

F una matriz
simetrica de (n 1) (n 1) que representa a un operador autoadjunto en un subespacio de dimension
n 1. Por hip otesis inductiva, existe una base ortonormal de este subespacio en la que el operador sera
representado por una matriz diagonal F

. Por lo tanto, agregando a esta base el autovector e

1
, tendremos
una base ortonormal e

de V en la que [F]
e
= (

1
0
0 F

) sera tambien diagonal.


Resumiendo, dado F autoadjunto ([F]
e
simetrica en una base canonica e) existe una base ortonormal denida
por una matriz de cambio de base S, con S
1
= S
t
, tal que
[F]
e
= S
t
[F]
e
S
es diagonal
12
19.11 Isometras
Las isometras son operadores U : V V que conservan el producto escalar. Ejemplos comunes en V = R
n
son rotaciones y reexiones. Si U es una isometra,
(U(v), U(w)) = (v, w) v, w V
Por lo tanto, si e es una base canonica, (U(v), U(w)) = [v]
t
e
[U]
t
e
[U]
e
[w]
e
= [v]
t
e
[w]
e
v, w V , por lo que
[U]
t
e
[U]
e
= I
n
con I
n
la matriz identidad, es decir, [U]
1
e
= [U]
t
e
. Esto implica a su vez [U]
e
[U]
t
e
= I
n
. Las matrces [U]
e
que representan a una isometra en una base canonica e son pues matrices ortonormales, y tanto las las
como las columnas de [U]
e
seran por lo tanto ortonormales, como se vi o anteriormente: Si U
ij
= ([U]
e
)
ij
,
n

j=1
U
ji
U
jk
=
ik
,
n

j=1
U
ij
U
kj
=
ik
En terminos de operadores adjuntos, (U(v), U(w)) = (v, U

U(w)), por lo que U sera una isometra si y s olo


si
U
1
= U

Demostraremos luego que toda isometra puede ser descompuesta en rotaciones y/o reexiones.
Las isometras transforman bases ortogonales en bases ortogonales. En efecto, al conservar todos los pro-
ductos escalares, si e

i
= U(e
i
) =

n
j=1
U
ji
e
j
, entonces
(e

i
, e

j
) = (U(e
i
), U(e
j
)) = (e
i
, e
j
) =
ij
La recproca es obviamente tambien valida: Cualquier par de bases canonicas e, e

de V estaran relacionadas
por una isometra e

i
= U(e
i
). Cualquier matriz de cambio de base S que represente una isometra debe
pues satisfacer S
t
S = I
n
, como se vi o anteriormente.
Ejemplo: Si
[U]
e
=
_
_
cos sin 0
sin cos 0
0 0 1
_
_
entonces U es una isometra ya que [U]
t
e
[U]
e
= I
3
. Tanto las las como las columnas de [U]
e
son ortonormales
(ortogonales y de longitud 1). Esta matriz representa una rotaci on de angulo antihoraria en el plano xy,
compuesta con una reexi on respecto a este plano:
[U]
e
=
_
_
cos sin 0
sin cos 0
0 0 1
_
_
_
_
1 0 0
0 1 0
0 0 1
_
_
Isomorsmo Eucldeo
Dados dos espacios eucldeos V, V

de la misma dimension, podemos siempre elegir bases canonicas e =


(e
1
, . . . , e
n
) en V y e

= (e

1
, . . . , e

n
) en V

tal que tales que (e


i
, e
j
) =
ij
, (e

i
, e

j
) =
ij
. Deniendo un
isomorsmo Q : V V

tal que Q(e


i
) = e

i
, i = 1, . . . , n, se tiene
(e

i
, e

j
) = (Q(e
i
), Q(e
j
)) = (e
i
, e
j
) =
ij
Por lo tanto, si v

n
i=1

i
e

i
, w

n
i=1

i
e

i
v

= Q(v), w

= Q(w), con v =

n
i=1

i
e
i
, w =

n
i=1

i
e
i
y
(v

, w

) = (Q(v), Q(w)) = (v, w) =


n

i=1

i
Un isomorsmo Q : V V

de este tipo (que conserva todos los productos escalares) se lo denomina isomor-
smo eucldeo. La existencia de Q muestra que todas las propiedades geometricas de R
n
pueden extenderse
directamente a cualquier espacio eucldeo V

de dimension n.
13
20 Descomposici on en valores singulares (DVS)
Consideremos una matriz real A de mn. Podemos formar la matriz de n n
A
t
A
la cual es simetrica ((A
t
A)
t
= A
t
A) y tiene la mismas propiedades que la matriz de Gram. Por lo tanto,
tiene un conjunto de n autovectores v
i
R
n1
ortonormales asociados a autovalores
i
positivos o nulos:
A
t
Av
i
=
i
v
i
, i = 1, . . . , n con v
t
j
v
i
=
ij
,
i
0
Sean
1
, . . . ,
k
, k n, los autovalores no nulos de O. Podemos denir los k vectores de m1
u
i
=
1

i
Av
i
, i = 1, . . . , k ,
i
= 0
que son ortonormales:
u
t
j
u
i
=
1
_

i
v
t
j
A
t
Av
i
=

i
v
t
j
v
i
_

j
=
ij
Si k < m, podemos completar estos k vectores con mk vectores obtenidos por el metodo de Gram-Schmidt,
tal que (u
1
, . . . , u
m
) forme un conjunto ortonormal (base de R
m1
). Adem as, para i = k +1, . . . n se cumple
A
t
Av
i
= 0 y entonces (Av
i
)
t
(Av
i
) = v
t
i
A
t
Av
i
= 0, es decir ||Av
i
|| = 0, lo que implica Av
i
= 0. Tenemos
entonces
A(v
1
, . . . , v
n
) = (
_

1
u
1
, . . . ,
_

k
u
k
, 0 . . . , 0) = (u
1
, . . . , u
m
)A

donde A

es una matriz diagonal de mn de la forma


A

=
_
_
_
_
_
_
_
_
_
_

1
0 . . . 0 . . . 0
0
2
. . . 0 . . . 0
. . .
0 . . .
k
0 . . . 0
0 . . . 0 0 . . . 0
. . .
0 . . . 0 0 . . . 0
_
_
_
_
_
_
_
_
_
_
,
i
=
_

i
, i = 1, . . . , k
Por consiguiente, deniendo las matrices ortonormales V = (v
1
, . . . , v
n
), U = (u
1
, . . . , u
m
) ( que satisfacen
V
t
V = I
n
, U
t
U = I
m
), se tiene AV = UA

y por lo tanto
A = UA

V
t
Esta representaci on de A se denomina descomposicion en valores singulares (del ingles singular value decom-
position) y los elementos
i
de A

los valores singulares de A, que son las races de los autovalores no nulos
de A
t
A (necesariamente positivos). Vemos as que rango(A) =rango(A

) = k, por lo que k Min[m, n].


Adem as, por construcci on, los primeros k vectores u
j
, j = 1, . . . , k forman una base del espacio columna
de A y los ultimos n k vectores v
k+1
, . . . , v
n
una base del espacio nulo de A (el subespacio ortogonal al
espacio la de A).
Notemos tambien que si A = UA

V
t
, con A

diagonal de mn con elementos positivos o nulos y U,


V matrices ortonormales, entonces necesariamente los elementos diagonales no nulos de A

son los valores


singulares, pues
A
t
A = V A
t
U
t
UA

V
t
= V (A
t
A

)V
t
con A
t
A

diagonal de n n. Esto implica V


t
A
t
AV = A
t
A

, lo que muestra que V es necesariamente una


matriz ortonormal de autovectores de A
t
A y A
t
A

la correspondiente matriz diagonal de autovalores.


Desde el punto de vista operacional, A puede considerarse como la representaci on [F]
e
e
de una transfor-
macion lineal F : V W entre espacios eucldeos V y W de dimension n y m respectivamente, en bases
canonicas e = (e
1
, . . . , e
n
) y e = (e
1
, . . . , e
m
) de V y W, siendo A
t
A la matriz de Gram del conjunto de
imagenes {F(e
1
), . . . , F(e
n
)}: (A
t
A)
ij
= (F(e
i
), F(e
j
)).
La descomposicion anterior muestra que es siempre posible encontrar bases ortonormales e

y e

de V
y W en la que F tiene una representaci on diagonal, con elementos diagonales reales positivos o nulos, es
decir
[F]
e

e
= U
t
[F]
e
e
V = A

14
con V = [I]
e

e
, U = [I]
e

e
y F(e

i
) =
i
e

i
, i = 1, . . . , k, con F(e

i
) = 0 si i > k. Los primeros k vectores
de e

forman pues una base ortonormal de Im(F) = F(V ), y los ultimos n k vectores de e

una base
ortonormal de N(F). Notemos que los valores singulares son independientes de las bases canonicas elegidas:
Si B = R
t
AS, con R
t
R = I
m
, S
t
S = I
n
B
t
B = S
t
A
t
RR
t
AS = S
t
A
t
AS, y los autovalores de B
t
B son
entonces identicos a los de A
t
A.
Otro comentario importante es que si A = UA

V
t

A
t
= V A
t
U
t
que es necesariamente la descomposicion singular de A
t
. Esto muestra que los valores singulares son tambien
las races de los autovalores no nulos de AA
t
(matriz real simetrica de mm) y U una matriz ortonormal
de autovectores de AA
t
. Para la obtencion de los valores singulares se puede pues diagonalizar la menor de
las matrices A
t
A y AA
t
.
Se ve tambien que si A es de n n y no singular,
A
1
= V A
1
U
t
lo que muestra que los valores singulares de A
1
son los inversos de los valores singulares de A (y que si A
es no singular estos son necesariamente no nulos). Notemos que para A de nn, |A| = |U||A

||V
t
| = |A

|,
donde |U| = 1, |V | = 1, por lo que |Det[A]| = Det[A

].
Si A representa un monomorsmo rango(A) = n, por lo que k = n m. En tal caso, conociendo la
descomposicion singular de A, una inversa a izquierda

A (de n m) puede obtenerse como

A = V

A

U
t
con

A

una matriz diagonal de n m de elementos


i
= 1/
i
, i = 1, . . . , n, ya que se verica

A

= I
n
y
por tanto

AA = V

A

V
t
= I
n
. Esto muestra asimismo que los valores singulares de

A son los inversos de
los de A. En forma an aloga, si A representa un epimorsmo, rango(A) = m, por lo que k = m n y una
inversa a derecha de A estara dada por

A = V

A

U
t
, pues en este caso A

= I
m
y A

A = UA

U
t
= I
m
.
Una ultima observaci on general muy importante es que la descomposicion singular de A permite expandir
a esta como
A =
k

i=1

i
u
i
v
t
i
lo que constituye la generalizaci on de la expansion de una matriz simetrica A de n n en terminos de
autovalores y autovectores ortonormales (ver siguiente comentario). En el caso de matrices de grandes
dimensiones, un metodo general de compresi on de informaci on (utilizado en la compresi on de imagenes
digitales) consiste precisamente en conservar de la expansion anterior los terminos con
i
mayor a cierto
valor inferior umbral.
En el caso especial de que A sea de nn y simetrica (A
t
= A) A
t
A = A
2
, por lo que
i
= (
A
i
)
2
, con

A
i
los autovalores de A. Se obtiene entonces

i
= |
A
i
|, i = 1, . . . , k
es decir, los valores singulares son los valores absolutos de los autovalores no nulos de A. La matriz V puede
entonces elegirse como la matriz de autovectores de A y U como la matriz U = (s
1
v
1
, . . . , s
n
v
n
), con s
i
el
signo de
i
. En este caso la expansion anterior se reduce a
A =
n

i=1

i
v
i
v
t
i
con v
i
v
t
i
la representaci on matricial del proyector ortogonal sobre el espacio generado por v
i
.
Ejemplo : Consideremos
A =
_
_
1 0
1 1
0 1
_
_
Tenemos
A
t
A =
_
2 1
1 2
_
15
Los autovalores de A
t
A son entonces

= 2 1 por lo que los valores singulares son


1
=

3,
2
= 1. Se
obtiene v
1
= (1, 1)
t
/

2, v
2
= (1, 1)
t
/

2, y u
1
= Av
1
/
1
= (1, 2, 1)
t
/

6, u
2
= Av
2
/
2
= (1, 0, 1)/

2. u
3
puede elegirse, utilizando GS a partir de u
1
, u
2
y (1, 0, 0), como (1, 1, 1)/

3. Se obtiene entonces
A =
_
_
1/

6 1/

2 1/

3
2/

6 0 1/

3
1/

6 1/

2 1/

3
_
_
_
_

3 0
0 1
0 0
_
_
_
1 1
1 1
_
/

2
Algunas aplicaciones
20.1 Norma inducida de una matriz
Primeramente, consideremos una forma cuadratica real

B(v) = X
t
BX, con B de n n real simetrica y
X = (x
1
, . . . , x
n
)
t
= [v]
e
de n 1. Diagonalizando B, tenemos S
t
BS = B

, con B

diagonal (B

ij
=
i

ij
) y
S = (X
1
, . . . , X
n
) una matriz ortonormal de autovectores (S
t
S = I
n
). Por lo tanto, deniendo X

= S
t
X =
(x

1
, . . . , x

n
), tal que X = SX

, se obtiene

B(v) = X
t
BX = X
t
S
t
BSX

= X
t
B

=
n

i=1

i
x

2
i
Como ||v||
2
= X
t
X = X
t
S
t
SX

= X
t
X

, se obtiene, para v = 0,
Q(v)

B(v)
||v||
2
=
X
t
BX
X
t
X
=
X
t
B

X
t
X

n
i=1

i
x

2
i

n
i=1
x

2
i
Si
1

2
. . .
n
, vemos entonces que

1

X
t
BX
X
t
X

n
con el valor m aximo
n
alcanzado si X = X
n
, con BX
n
=
n
X
n
y el mnimo
1
si X = X
1
, con BX
1
=
1
X
1
.
Hemos pues demostrado que el valor m aximo (mnimo) que toma la forma cuadratica X
t
BX en la esfera
unidad (X
t
X = 1) es el m aximo (mnimo) autovalor de B.
El cociente Q(v) se denomina en contextos fsicos cociente de Rayleigh y proporciona un metodo varia-
cional para la determinacion del autovalor m aximo y mnimo de una matriz simetrica B:

1
= Min
v=0
Q(v),
n
= Max
v=0
Q(v)
Consideremos ahora una transformacion F : R
n
R
m
, representada en las bases canonicas por una
matriz A de mn. Tenemos, para un vector no nulo v R
n
tal que [v]
e
= X,
||F(v)||
2
||v||
2
=
||AX||
2
||X||
2
=
(AX)
t
AX
X
t
X
=
X
t
A
t
AX
X
t
X
y por lo tanto, utilizando el resultado anterior,

2
m

||AX||
2
||X||
2

2
M
donde
2
M
y
2
m
denotan aqu el m aximo y mnimo autovalor de A
t
A (
M
y
m
son entonces los valores
singulares extremos si son no nulos). Por lo tanto,

m

||F(v)||
||v||

M
Los valores
M
y
m
indican pues la m axima y mnima dilataci on que puede experimentar un vector v al
ser transformado por F. Si m < n necesariamente
n
= 0.
La norma de una matriz A de m n (o de la transformacion asociada F) inducida por la norma
del vector se dene como
||A|| = Max
{X,X=0}
||AX||
||X||
= Max
{X,||X||=1}
||AX||
16
El resultado anterior implica entonces
||A|| =
M
es decir, la norma es el mayor valor singular de A. Este resultado se denomina en realidad norma 2 de la
matriz, pues esta derivado de la norma ||X||

X
t
X =
_
x
2
1
+. . . +x
2
n
.
Una consecuencia inmediata pero importante de esta norma es que se cumple
||AX|| ||A|| ||X|| X R
n
Esta norma satisface las cuatro propiedades basicas siguientes:
1) ||A|| > 0, con ||A|| = 0 si y s olo si A = 0
2) ||A|| = ||||A||
3) ||A+B|| ||A|| +||B||
(pues ||A+B|| = ||(A+B)X
M
||/||X
M
|| (||AX
M
|| +||BX
M
||)/||X
M
|| ||A| +||B||).
4) ||AB|| ||A|| ||B|| (B R
mn
, A R
pm
)
(pues ||ABX|| = ||A(BX)|| = ||A|| ||BX|| ||A|| ||B|| ||X|| X R
n1
.
20.2 Imagen de la esfera unidad
Consideremos ahora la imagen por F : R
n
R
m
de la esfera unidad C de R
n
, es decir F(C) = {F(v)| ||v|| =
1}. La descomposicion en valores singulares permite encontrar bases canonicas e

y e

de R
n
y R
m
en las que
la matriz A

que representa a F es diagonal, con elementos diagonales


i
0. Si [v]
e
= X

= (x

1
, . . . , x

n
)
t
,
con X
t
X

= 1 Y

= [F(v)]

= A

= (
1
x

1
, . . . ,
k
x

k
, 0, . . . , 0)
t
. Por lo tanto, si k = n m las k
componentes no nulas y

i
= x

i
de Y

satisfacen
n

i=1
y

2
i
/
2
i
= 1
lo que indica que la imagen en la base e

es la supercie de un elipsoide de dimension k = n con ejes


principales en la direccion de los e

i
y radios de longitud
i
. Si k < n al menos uno de los radios es nulo
y la supercie del elipsoide degenera en el interior y borde de un elipsoide de dimension k < n (en este caso

k
i=1
y

2
i
/
2
i
1). En resumen, los valores singulares determinan los radios del elipsoide obtenido como
imagen por F de la esfera unidad.
20.3 N umero de condici on de una matriz
Consideremos un sistema de n ecuaciones con n incognitas representado por la ecuaci on matricial
AX = Y
con A de nn, y X, Y de n1. Si A es no singular la unica solucion esta dada por X = A
1
Y . Estudiemos
ahora la estabilidad de esta solucion frente a variaciones Y de Y . Tenemos X = A
1
Y y por lo tanto
||X||
||X||
=
||A
1
Y ||
||X||

||A
1
||||Y ||
||X||
||A
1
|| ||A||
||Y ||
||Y ||
donde en la ultima expresi on hemos utilizado la desigualdad ||Y || = ||AX|| ||A|| ||X||. El n umero de
condici on de una matriz se dene entonces como
n
c
(A) = ||A|| ||A
1
||
y acota la inestabilidad de la solucion del sistema asociado frente a variaciones en la inhomogeneidad Y :
||X||
||X||
n
c
(A)
||Y ||
||Y ||
En virtud del resultado previo, se tiene, utilizando la norma 2, ||A|| =
M
, ||A
1
|| = 1/
m
, con
M
y
m
el
m aximo y mnimo valor singular, y por lo tanto
n
c
(A) =
M
/
m
1
17
El n umero de condici on es entonces adimensional y queda determinado por el cociente entre los valores
singulares extremos. Para matrices reales simetricas,
M
= |
M
|,
m
= |
m
|, con
M
y
m
los autovalores
de mayor y menor valor absoluto respectivamente. N otese que si la matriz A es singular,
m
= 0 y en tal
caso n
c
(A) = . N umeros de condici on grandes indican matrices cuasi singulares (o mal condicionadas),
para las que no se puede asegurar estabilidad en la solucion del sistema asociado.
Es importante destacar que la estabilidad frente a variaciones en la matriz A queda tambien determinada
por el mismo n umero de condici on. Si AX = Y y (A+A)(X +X) = Y , entonces, a primer orden en X
y A, se obtiene (A)X +AX = 0 y
X = A
1
(A)X
Por lo tanto
||X|| = ||A
1
(A)X|| ||A
1
|| ||A|| ||X||
de donde
||X||
||X||
||A
1
|| ||A|| = n
c
(A)
||A||
||A||
Ejemplo: Si
A =
_
0 1
0
_
entonces
A
t
A =
_

2
0
0 1
_
por lo que los valores singulares son || y 1 y el n umero de condici on es
n
c
(A) = 1/||
si || 1. Notemos que Det[A] = y que n
c
(A) si 0. La solucion al sistema AX = Y es
X = (y
2
/, y
1
)
t
con X = (y
2
/, y
1
)
t
y ||X||
2
/||X||
2
= (y
2
2
/
2
+ y
2
1
)/(y
2
2
/
2
+ y
2
1
). Si por ejemplo
y
2
= 0, y
1
= 1 y y
1
= 0 ||X||/||X|| = |y
2
|/|| = n
c
(A)||Y ||/||Y ||, por lo que ||X||/||X|| puede ser
mucho mayor que ||Y ||/||Y || cuando es suf. peque no.
Notemos en cambio que la matriz
B =
_
0
0
_
tiene n umero de condici on 1 a pesar de que Det[B] =
2
1 para || 1.
20.4 Pseudoinversa
Sea A R
mn
con A = UA

V
t
=

k
i=1

i
u
i
v
t
i
su DVS. La pseudoinversa de A (denominada tambien
pseudoinversa de Moore-Penrose) es una matriz

A R
nm
denida como

A = V

A

U
tr
=
k

i=1
1

i
v
i
u
t
i
con

A

una matriz de nm de elementos diagonales 1/


i
(A

ij
=
ij
/
i
si i k y 0 en caso contrario). Dado
que u
t
i
u
j
=
ij
, v
t
i
v
j
=
ij
, se verica que A

A =

k
i=1
u
i
u
t
i
es el proyector ortogonal sobre el espacio
columna de la matriz, mientras que

AA =

k
i=1
v
i
v
t
i
es el proyector ortogonal sobre el espacio la (es
decir, sobre el espacio columna de A
t
). Se verica entonces

AA

A =

A, A

AA = A
Es facil ver que si rango(A)= n

A = (A
t
A)
1
A
t
, coincidiendo con una inversa a izquierda de A, mientras
que si rango(A)= m

A = A
t
(AA
t
)
1
, coincidiendo con una inversa a derecha de A. Si rango(A)= n = m


A = A
1
es la inversa de A.
Consideremos ahora el sistema de ecuaciones lineales de mn
AX = b
18
donde X R
n1
y b R
m1
. Si el sistema es compatible, b = A

Ab (pues b EC(A)) y entonces una
solucion particular del sistema es
X =

Ab
pues AX = A

Ab = b. Si no existe solucion (b /EC(A)) entonces X =

Ab es el vector que minimiza la
diferencia ||AX b||, pues A

Ab es la proyecci on ortogonal de b sobre EC(A).
En el caso compatible, la solucion general del sistema AX = b puede expresarse como
X =

Ab + (I
n


AA)v
con v un vector arbitrario de R
n
. El segundo termino es un vector general del n ucleo de A, pues I
n


AA
es el proyector ortogonal sobre Nu(A) (A(I

AA) = (A A) = 0), y representa una solucion general del
sistema homogeneo AX = 0. El primer termino

Ab es una solucion particular de AX = b, y es la soluci on
particular de norma mnima, pues es ortogonal a (I

AA)w w (ya que pertence al espacio la de A).
En el caso general no necesariamente compatible, X =

Ab es el vector de norma mnima que minimiza
||AX b||.
21. Espacios semieucldeos y pseudoeucldeos
Resumen. Para dimV = 2 estos espacios quedan denidos por una forma bilineal (v, w)
G
= [v]
t
e
[G]
e
[w]
e
, con
[G]
e
= (
0 0
0 1
)
en el caso semieucldeo, tal que (v, w)
G
= yy

, (v, v)
G
= y
2
si [v]
e
= (
x
y
), [w]
e
= (
x

), y
[G]
e
= (
1 0
0 1
)
en el pseudoeucldeo, tal que (v, w)
G
= xx

yy

, (v, v)
G
= x
2
y
2
. En estos casos (v, v)
G
puede ser 0 aun
si v = 0, y en el caso pseudoeucldeo puede ser tambien negativo.
Se demostr o en clase que las transformaciones reales (
x
y
) = S(
x

) que preservan estas formas bilineales (tales


que [G]
e
= S
t
[G]
e
S = [G]
e
) corresponden en el caso semieucldeo a
S = (
a b
0 d
)
con d = 1, y a, b arbitrarios, a = 0, y en el caso pseudoeucldeo a
S = (
s cosh(z) s

sinh(z)
s sinh(z) s

cosh(z)
)
con s = 1, s

= 1 y z arbitrario.
En particular, estas transformaciones comprenden las transformaciones de Galileo
(
x
t
) = (
1 v
0 1
)(
x

t
)
en el caso semieucldeo (a = d = 1, b = v) y las transformaciones de Lorentz
(
x
ct
) = (
cosh z sinh z
sinh z cosh z
)(
x

ct
)
en el caso pseudoeucldeo, con tanh(z) = v/c, s = s

= 1, tal que cosh z =


1

1v
2
/c
2
, sinh z =
v/c

1v
2
/c
2
.
Para v/c 0, las transformaciones de Lorentz en las variables (x, t) se reducen a las de Galileo:
(
x
t
) = (
cosh z c sinhz
1
c
sinh z cosh z
)(
x

t
)
v/c0
(
1 v
0 1
)(
x

t
)
Recordemos que para n = 2, las transformaciones que dejan invariante el producto escalar eucldeo son de
la forma
S = (
s cos s

sin
s sin s

cos
)
con s = 1, s

= 1, que representan rotaciones (si |S| = ss

= 1) o reexiones (ss

= 1).
19
22 Formas bilineales complejas
Sea V un espacio vectorial sobre el cuerpo de los complejos C. Una funcion A : V V C se dice que es
una forma bilineal hermtica si
A(v
1
+v
2
, w) = A(v
1
, w) +A(v
2
, w), A(v, w
1
+w
2
) = A(v, w
1
) +A(v, w
2
)
A(v, w) = A(v, w), A(v, w) =

A(v, w)
v, v
1
, v
2
, w, w
1
, w
2
V y C. N otese que sale como conjugado cuando esta en el primer miembro.
Si V es de dimension nita n y e = (e
1
, . . . , e
n
) es una base de V , escribiendo v =

n
1=1

i
e
i
, w =

n
j=1

j
e
j
,
con [v]
e
= (
1
, . . . ,
n
)
t
, [w]
e
= (
1
, . . . ,
n
)
t
, se obtiene
A(v, w) =
n

i,j=1

j
A(e
i
, e
j
) = [v]

e
[A]
e
[w]
e
donde el smbolo denota traspuesto conjugado ([v]

e
([v]
t
e
)

) y [A]
e
es la matriz de n n de elementos
([A]
e
)
ij
= A(e
i
, e
j
)
Ejemplo: La siguiente es una forma bilineal de C C C:
A(v, w) =

1
+ (1 +i)

2
+ (1 i)

1
+ 2

2
= (

1
,

2
)
_
1 1 +i
1 i 2
__

1

2
_
donde hemos escrito en la base canonica v = (
1
,
2
) =
1
e
1
+
2
e
2
, w = (
1
,
2
) =
1
e
1
+
2
e
2
. A queda
entonces representada en esta base por la matriz
[A]
e
=
_
1 1 +i
1 i 2
_
con A(e
1
, e
1
) = 1, A(e
1
, e
2
) = 1 +i, A(e
2
, e
1
) = 1 i, A(e
2
, e
2
) = 2.
Si A(v, w) = A(w, v)

v, w la forma bilineal se dice que es hermticamente simetrica y si A(v, w) =


A(w, v)

, hermticamente antisimetrica En el primer caso, la matriz que la representa es hermtica: [A]

e
=
[A]
e
, ya que A(e
i
, e
j
) = A(e
j
, e
i
)

, y en el segundo caso antihermtica: [A]

e
= [A]
e
. An alogamente, si
[A]

e
= [A]
e
, A es herm. simetrica (+) o antisimetrica (). El ejemplo anterior corresponde a una forma
bilineal herm. simetrica.
Notemos que una forma bilineal compleja que satisface las 4 condiciones no puede ser simplemente simetrica
o antisimetrica a no ser que sea nula: Si A(v, w) = A(w, v) v, w, A(v, w) =

A(v, w) = A(w, v) =
A(w, v) = A(v, w) , v, w, lo que implica (

)A(v, w) = 0, es decir A(v, w) = 0 v, w.


Notemos tambien que toda forma bilineal puede expresarse como suma de una forma bilineal herm. simetrica
y una forma bilineal herm. antisimetrica:
A(v, w) =
1
2
[A(v, w) +A(w, v)

] +
1
2
[A(v, w) A(w, v)

]
22.1 Formas cuadraticas complejas
En forma an aloga al caso real, la funcion Q : V C denida por
Q(v) = A(v, v)
se denomina forma cuadr atica y satisface
Q(v) = A(v, v) =

A(v, v) = ||
2
Q(v)
Una diferencia importante con las formas bilineales reales es que ahora la forma cuadratica determina
completamente la forma bilineal (y no solamente la parte simetrica, como en el caso real). En efecto,
podemos expandir Q(v +w) = A(v +w, v +w) y Q(v +iw) = A(v +iw, v +iw) como
Q(v +w) = Q(v) +Q(w) +A(v, w) +A(w, v),
1
Q(v +iw) = Q(v) +Q(w) +i[A(v, w) A(w, v)]
de donde
A(v, w) = Q(v +w) iQ(v +iw) (1 i)(Q(v) +Q(w))
A(w, v) = Q(v +w) +iQ(v +iw) (1 +i)(Q(v) +QA(w))
De aqu se deduce tambien una propiedad fundamental:
Q(v) es real v si y s olo si A(v, w) = [A(w, v)]

v, w, es decir, sii la forma bilineal asociada es


hermticamente simetrica.
En efecto, de las expresiones anteriores se ve que si Q(v) R v V A(w, v) = [A(v, w)]

v, w V .
Y si A(w, v) = [A(v, w)]

v, w Q(v) = A(v, v) = [A(v, v)]

es real. Formas cuadraticas reales determinan


pues formas bilineales hermticamente simetricas y viceversa.
Por otro lado, si A(v, w) es hermticamente simetrica, A

(v, w) = iA(v, w) es hermticamente antisimetrica.


La forma cuadratica asociada Q

(v) = A

(v, v) es obviamente imaginaria.


Ejemplo: La forma bilineal del ej. anterior origina la forma cuadratica
Q(v) = A(v, v) = (

1
,

2
)
_
1 1 +i
1 i 2
__

1

2
_
=

1
+ 2

2
+ (1 +i)

2
+ (1 i)

1
= |
1
|
2
+ 2|
2
|
2
+ 2Re[(1 +i)

2
]
que es obviamente real.
22.2 Cambio de base
Si efectuamos un cambio de base e

i
=

n
j=1
S
ji
e
j
, con |S| = 0,
A(e

i
, e

j
) = A(
n

k=1
S
ki
e
k
,
n

l=1
S
lj
e
l
) =

k,l
S

ki
S
lj
A(e
k
, e
l
)
por lo que
[A]
e
= S

[A]
e
S
donde denota por su puesto la operacion de traspuesto+conjugado.
Notemos que Det([A]
e
) = |Det(S)|
2
Det([A]
e
), por lo que la fase del determinante es la misma en cualquier
base. Obtenemos entonces
A(v, w) = [v]

e
[A]
e
[w]
e
= [v]

[A]
e
[w]
e

donde [w]
e
= R[w]
e
, [v]

= [v]
e
R

y R = S
1
.
22.3 Base can onica: Si A es herm. simetrica, existe una base e

(base canonica) donde [A]

e
es diago-
nal:
[A]
e
= S

[A]
e
S =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
En esta base, si v =

n
i=1

i
e

i
, w =

n
i=1

i
e

i
, tenemos
A(v, w) =
n

i=1

i
La demostraci on de la existencia de esta base puede efectuarse en forma similar al caso real, completando
ahora m odulos cuadrados, y se deja comos ejercicio. Sug.: Llamando a
ij
= ([A]
e
)
ij
(con a
ji
= a

ij
) y
asumiendo a
nn
= 0, escribir la parte que contiene
n
y

n
en A(v, v) como
a
nn

n
+
n1

j=1
(a
nj

j
+a

nj

n
) = a
nn

n
(
n1

j=1
a

nj

j
)(
n1

j=1
a
nj

j
)/a
nn
2
con

n
=
n
+
1
a
nn

n1
j=1
a
nj

j
, y proceder luego por induccion. Si a
nn
= 0 se comienza con una variable
i
tal que a
ii
= 0, y si a
ii
= 0 i se efect ua un cambio de variables simple para que a
ii
sea no nulo para alg un
i (por ej., si a
ij
= a

ji
= 0, a
ij

j
+ a
ji

i
= 2|a
ij
|
2
(|

i
|
2
|

j
|
2
), con
i
= a
ij
(

i
+
j
),

j
=
i

j
.
El cambio

i
=

n
j=1
R
ij

j
dene una base e

i
=

n
j=1
S
ji
e
j
, con S = R
1
, en la que [A]
e
= S

[A]S es
diagonal.
Otra forma de demostrar la existencia es directamente diagonalizando la matriz [A]
e
, que es en este caso
hermtica y por lo tanto diagonalizable en una base ortonormal, tal que S
1
= S

y S

[A]
e
S es diagonal.
No obstante esto supone haber demostrado antes que tales matrices son diagonalizables, lo que nosotros
realizaremos luego.
La base canonica no es unica. Una base canonica puede obtenerse, al igual que en el caso real, comple-
tando m odulos cuadrados o bien diagonalizando la matriz [A]
e
.
Ejemplo: Hallar una base canonica para el ejemplo previo. Completando m odulos cuadrados, obtenemos
Q(v) = (

1
+ (1 i)

2
)(
1
+ (1 +i)
2
) +|
2
|
2
[2 (1 +i)(1 i)] = |

1
|
2
+ 0|

2
|
2
donde

1
=
1
+ (1 +i)
2
,

2
=
2
, o sea (

2
) = (
1 1+i
0 1
)(

2
). La matriz de cambio de base es entonces
S =
_
1 1 +i
0 1
_
1
=
_
1 1 i
0 1
_
y se verica
[A]
e
= S

[A]
e
S =
_
1 0
0 0
_
Alternativamente, diagonalizando la matriz [A]
e
se obtienen los autovalores y autovectores

1
= 1, v

1
= (1 +i, 2),
2
= 0, v
2
= (1 i, 1)
Normalizando los autovectores, la matriz de cambio de base es entonces
S =
_
(1 +i)/

6 (1 +i)/

3
2/

6 1/

3
_
con S
1
= S

(pues los autovectores en S estan normalizados). Se obtiene as la reprentaci on diagonal


[A]
e
= S

[A]
e
S =
_
3 0
0 0
_
Vemos que el n umero de coecientes diagonales positivos y nulos en las dos formas diagonales obtenidas es
el mismo. Esta propiedad es general y constituye el
22.4 Teorema de Inercia para formas cuadraticas hermticas: Si QA es una forma cuadratica
herm. simetrica, el n umero de terminos diagonales positivos, negativos, y nulos en una representaci on diag-
onal arbitraria es siempre el mismo. Se demuestra igual que en el caso real (Demostrar como ejercicio).
Es importante notar que el teorema de inercia no vale para formas cuadraticas comunes extendidas a los
complejos: Si Q(v) =
2
1
+
2
2
, la transformacion

1
= i
1
,

2
=
2
la lleva a

2
1
+

2
2
. Tal forma
cuadratica no proviene de una forma bilineal hermtica, ya que no cumple Q(v) = ||
2
Q(v).
22.5 Formas cuadraticas positivas:
Una forma cuadratica se denomina denida positiva (o estrctamente positiva) si Q(v) > 0 v = 0, y
semipositiva (o no negativa) si Q(v) 0 v (obviamente, en cualquier caso, Q(0) = 0). Por ser reales, estas
formas cuadraticas estan necesariamente asociadas a formas bilineales hermticamente simetricas.
La forma cuadratica es pues denida positiva si y s olo si los coecientes diagonales en una base canonica
satisfacen a
ii
> 0 i y semipositiva sii a
ii
0 i. El teorema de inercia asegura que el n umero de coe-
cientes diagonales positivos y nulos para estas formas cuadraticas (pero no su valor particular) es siempre
el mismo en cualquier base canonica.
En form an aloga, una matriz A C
nn
se dice denida positiva si X

AX > 0 X = 0, X C
n
, en cuyo
3
caso podemos considerarla como la representaci on en la base canonica de V = C
n
de una forma cuadratica
denida positiva. Notemos que necesariamente A debe ser hermtica (A

= A), para que X

AX sea real.
Una matriz hermtica A es pues denida positiva si y s olo si todos sus autovalores son positivos.
Notemos que si Q
A
(v) es una forma cuadratica denida positiva existe una base can onica e

donde
A(e

i
, e

j
) =
ij
, es decir,
[A]
e
= I
n
(matriz identidad). En efecto, existir a una base canonica, obtenida completando m odulos cuadrados o
diagonalizando, en la que A(e

i
, e

j
) = ([A]
e
)
ij
=
i

ij
, con
i
> 0 i. En la nueva base denida por
e

i
= e

i
/

i
tendremos A(e

i
, e

j
) = A(e

i
, e

j
)/
_

j
=
i

ij
/
_

j
=
ij
para i, j = 1, . . . , n.
Esto implica que existe una matriz S = [I]
e

e
no singular tal que
[A]
e
= S

[A]
e
S = I
n
con I
n
la matriz identidad.
Esto implica a su vez que toda matriz A [A]
e
denida positiva puede escribirse como
A = R

R
con R = S
1
no singular. La recproca es tambien valida: La matriz R

R es denida positiva R no
singular (probar como ejercicio).
Para saber si una forma cuadratica es denida positiva o semipositiva se completan m odulos cuadrados
o se obtienen los autovalores de la matriz que la representa en alguna base, y se observan lo signos de los
coecientes diagonales resultantes. El determinante de una matriz asociada a una forma cuadratica denida
positiva es obviamente positivo en cualquier base (Det[A] = Det[R

R] = |Det[R]|
2
), aunque esta condici on
no garantiza que A sea denida positiva.
Es valido no obstante el siguiente teorema: Una matriz hermtica A de n n es denida posi-
tiva si y s olo si todos sus determinantes principales son positivos (Det(A
m
) > 0, m = 1, . . . , n).
Dem.: Si A es denida positiva la forma cuadratica asociada debe ser positiva en cualquier subespacio de
V y por lo tanto cualquier submatriz de A (obtenida quitando un conjunto de las y las resp. columnas) es
denida positiva. En particular, todas las submatrices principales (A
m
= [a
ij
], i, j = 1, . . . , m, m = 1, . . . , n)
son denidas positivas y sus determinantes por ende positivos.
Recprocamente, si todos los determinantes principales son positivos, procedemos por induccion sobre n.
Para n = 1 se cumple trivialmente. Asumiendo la submatriz principal de (n1) (n1) denida positiva,
existir a una base (e

1
, . . . , e

n1
) del subespacio correspondiente en la que A(e

i
, e

j
) =
ij
. Denimos ahora
e

n
= e
n

n1
i=1

i
e

i
, con
i
= A(e

i
, e
n
), tal que A(e

i
, e

n
) = A(e

i
, e
n
)
i
= 0 para i = 1, . . . , n 1. En
tal caso, [A]
e
sera diagonal y con todos sus elementos diagonales positivos, pues A(e

i
, e

i
) = 1 para i < n y
A(e

n
, e

n
) = Det([A]
e
) > 0 por hip otesis (el signo del determinante no cambia al cambiar la base).
Recordemos tambien aqui los crculos de Gershgorin: Si A C
nn
es una matriz cuadrada de
elementos a
ij
, entonces sus autovalores se encuentran en la uni on de los crculos (en el plano complejo)
| a
ii
| |

j=i
|a
ij
|
En efecto, sea v = (x
1
, . . . , x
n
)
t
C
n1
, v = 0, un autovector de A asociado al autovalor , tal que Av = v,
es decir,

j
a
ij
x
j
= x
i
. Si |x
i
| = Max[|x
1
|, . . . , |x
n
|] = 0 es el m odulo de la coordenada de v de m odulo
m aximo, tenemos, dado que ( a
ii
)x
i
=

j=i
a
ij
x
j
,
| a
ii
| = |

j=i
a
ij
x
j
/x
i
|

j=i
|a
ij
|x
j
/x
i
|

j=i
|a
ij
|
Una desigualdad simular es valida para sumas sobre columnas, ya que los autovalores de A son identicos a
los de A
t
.
En el caso de matrices hermticas, tanto los elementos diagonales como los autovalores son todos reales.
La cota anterior implica entonces la siguiente condici on suciente (aunque no necesaria) de positividad de
una matriz hermtica A: Si a
ii
> 0 i y

j=i
|a
ij
| < a
ii
i, los autovalores seran todos positivos y por
ende A sera denida positiva.
4
23 Espacios Unitarios (Espacios de Hilbert)
Un espacio vectorial V sobre C se denomina unitario o espacio de Hilbert si esta equipado con una operacion
V V C, denominada producto interno o producto escalar, y denotada por (v, w), que satisface
(v, w) = (w, v)

, (v, w) = (v, w), (v, w


1
+w
2
) = (v, w
1
) + (v, w
2
)
(v, v) > 0 v = 0
Es decir, el producto interno no es otra cosa que una forma bilineal hermticamente simetrica y denida
positiva. En el caso de dimension innita, un espacio de Hilbert debe ser adem as completo: Si {u
n
} es una
sucesion de vectores tal que

n=0
||u
n
|| es convergente entonces lim
n
u
n
debe pertenecer al espacio.
En en el caso de dimension nita, en una base arbitraria e tendremos, denotando con [A]
e
la matriz de
elementos a
ij
= (e
i
, e
j
) = a

ji
,
(v, w) = [v]

e
[A]
e
[w]
e
=
n

i,j=1

i
a
ij

j
donde v =

n
i=1

i
e
i
, w =

n
i=1

i
e
i
Y si e denota ahora la base canonica en la que (e
i
, e
j
) =
ij
, obtenemos la forma corriente
(v, w) = [v]

e
[w]
e
=
n

i=1

i
Esta base es una base ortonormal para el producto escalar ((e
i
, e
j
) =
ij
). En esta base,
(v, v) = [v]

e
[v]
e
=
n

i=1
|
i
|
2
Ejemplo: En C
n
, el producto interno usual en la base canonica esta dado por
(v, w) =
n

i=1
x

i
y
i
, (w, v) =
n

i=1
y

i
x
i
= (v, w)

para v = (x
1
, . . . , x
n
), w = (y
1
, . . . , w
n
), lo que implica (v, v) =

n
i=1
|x
i
|
2
.
Ejemplo: En el espacio de funciones complejas de parte real e imaginaria continua, C
[a,b]
= {f : R
C, f = f
r
+if
i
, f
r
, f
i
R
[a,b]
}, con a < b, el producto interno usual esta dado por
(f, g) =
_
b
a
f

(x)g(x)dx = (g, f)

con (f, f) =
_
b
a
f

(x)f(x)dx =
_
b
a
|f(x)|
2
dx > 0 si f = 0.
Ejemplo: En el caso de matrices complejas de mn, V = C
mn
, podemos denir el producto escalar
(A, B) = Tr [A

B] =
m

i=1
n

j=1
A

ij
B
ij
con (A, A) =

i,j
|A
ij
|
2
> 0 A = 0.
En los espacios unitarios son validas propiedades similares a las de espacios eucldeos. En particular:
La norma de un vector se dene por
||v|| =
_
(v, v) 0
con ||v|| = 0 sii v = 0 y ||v|| = || ||v||. La distancia entre dos vectores es d(v, w) = ||v w||.
La desigualdad de Cauchy-Schwarz tambien se verica:
|(v, w)| ||v|| ||w||
5
donde la igualdad vale si y s olo si {v, w} son LD.
Demostracion: Si v = 0 o w = 0 la igualdad se cumple trivialmente: 0 = (v, w) = ||v|| ||w||.
Idem si v y w son LD: En tal caso w = v (o v = w) y por lo tanto |(v, w)| = |(v, v)| = || ||v||
2
= ||v|| ||w||.
Si v = 0 y w = 0, denotemos con v
n
= v/||v||, w
n
= w/||w
n
|| los vectores normalizados (||v
n
|| = ||w
n
|| = 1),
tal que (v, w) = (v
n
, w
n
)||v|| ||w||. Se obtiene, para s un n umero complejo arbitrario de m odulo 1 (|s| = 1),
0 (v
n
sw
n
, v
n
sw
n
) = ||v
n
||
2
+|s|
2
||w
n
||
2
s(v
n
, w
n
)s

(w
n
, v
n
) = 22Re[s(v
n
, w
n
)] = 2(1Re[s(v
n
, w
n
)])
Recordemos ahora que todo n umero complejo z puede escribirse como z = |z|e
i
, con |z| =

zz

(m odulo)
y reales. Por lo tanto, si z = (v
n
, w
n
) = |(v
n
, w
n
)|e
i
, eligiendo s = e
i
se obtiene
0 1 |(v
n
, w
n
)|
de donde |(v
n
, w
n
)| 1. Por lo tanto, |(w, v)| = |(v, w)| ||v|| ||w||, q.e.d.
Adem as, si |(w, v)| = 1 |(w
n
, v
n
)| = 1 y (v
n
sw
n
, v
n
sw
n
) = 0, por lo que v
n
sw
n
= 0, es decir,
v = sw||v
n
||/||w
n
||, lo que implica que v, w son L.D.
Las desigualdades triangulares permanecen v alidas en espacios unitarios, por la vigencia de la desigualdad
anterior: |||v|| ||w||| ||v +w|| ||v|| +||w||.
No obstante, no se pueden denir ahora angulos entre vectores pues (v, w)/(||v|| ||w||), si bien tiene m odulo
menor que 1, es en general complejo.
Ejemplo: Dados v = (1 +i, i), w = (i, 1 +i) C
2
, tenemos
(v, w) = (1 i)i + (i)(1 +i) = 2 ||v|| ||w|| =
_
|1 +i|
2
+ 1
_
1 +|1 +i|
2
=

3 = 3
Notaci on de Mecanica Cuantica:
La notaci on empleada en mecanica cu antica para los vectores de estado de un sistema (que pertenecen a
un espacio de Hilbert) es |v, y para el producto interno w|v. Es decir, v |v, (w, v) w|v, con
v|w = w|v

.
23.1 Ortogonalidad y Metodo de ortogonalizaci on Gram-Schmidt
Las propiedades de ortogonalidad son an alogas al caso eucldeo. Dos vectores v, w de un espacio unitario
son ortogonales si (v, w) = 0.
Al igual que en el caso eucldeo, dado un conjunto de m vectores v
i
L.I., es posible construir con el metodo
de Gram-Schmidt un conjunto ortogonal de vectores que genera el mismo espacio que los v
i
, dados por:
w
1
= v
1
, w
i
= v
i

i1

j=1
P
w
j
(v
i
) , i = 2, . . . , m
donde
P
w
j
(v
i
) =
(w
j
, v
i
)
||w
j
||
2
w
j
es la proyecci on ortogonal de v
i
sobre w
j
. Notemos que en el caso complejo es necesario ser cuidadoso con
el orden en el producto escalar, ya que (w
j
, v
i
) = (v
i
, w
j
) = (w
j
, v
i
)

. Es facil vericar que de esta forma,


(w
i
, w
j
) = 0 si i = j, siendo los w
i
no nulos si los vectores originales son L.I.
Dada una base arbitraria de V , es pues siempre posible por este metodo construir una base ortogonal de V ,
que puede convertirse en ortonormal normalizando los vectores resultantes.
Notemos que el cuadrado de la norma de los w
i
esta dado, para i > 1, por
||w
i
||
2
= (w
i
, w
i
) = (v
i
, w
i
) = ||v
i
||
2

i1

j=1
|(w
j
, v
i
)|
2
||w
j
||
2
||v
i
||
2
Notemos tambien que la matriz que representa al proyector sobre w
i
en la base canonica es
[P
w
i
]
e
=
[w
i
]
e
[w
i
]

e
||w
i
||
2
6
Ejemplo 1 : Consideremos los vectores v
1
= (1 +i, i, 0), v
2
= (i, 1 +i, 1). Tenemos
w
1
= v
1
= (1 +i, i, 0), w
2
= v
2

(w
1
, v
2
)
||w
1
||
2
w
1
= (i, 1 +i, 1)
2
3
(1 +i, i, 0) = (2 +i, 3 +i, 3)/3
que verican (w
1
, w
2
) = 0.
Ejemplo 2: Las funciones f
k
(x) = e
ikx
, con k entero, son ortogonales con el producto interno (f, g) =
_

(x)g(x)dx:
(f
k
, f
k
) =
_

e
ik

x
e
ikx
dx =
_

e
ix(kk

)
dx =
_
2 k = k

e
ix(kk

)
i(kk

)
|

= 0 k = k

Ejemplo 3 (Transformada de Fourier discreta): Sea V = C


n
y sea e = (e
1
, . . . , e
n
) una base canonica
((e
i
, e
j
) =
ij
). Los n vectores
e
k
=
1

n
n

j=1
e
i2kj/n
e
j
forman tambien una base ortonormal: ( e
k
, e
l
) =
kl
.
En efecto, utilizando que (e
i
, e
j
) =
ij
obtenemos, para k, l = 1, . . . , n,
( e
k
, e
l
) =
1
n
n

j=1
e
i2j(lk)/n
=
_
1 k = l
1

n
1e
i2(lk)
1e
i2(lk)/n
= 0 k = l
Ejemplo 4: Obtener una base ortonormal de C
22
(con escalares complejos) para el producto escalar (A, B) =
Tr A

B, partiendo de v
1
= I
2
= (
1 0
0 1
).
Consideremos las matrices v
1
= I
2
, v
2
= (
1 0
0 0
), v
3
=
1
2
(
0 1
1 0
), v
4
= (
0 1
0 0
), que forman una base no ortogonal de
C
22
. Obtenemos, w
1
= v
1
= I
2
,
w
2
= v
2

1
2
(w
1
, v
2
)w
1
= v
2

1
2
w
1
=
1
2
(
1 0
0 1
), w
3
= v
3

1
2
(w
1
, v
3
)w
1
2(w
2
, v
3
)w
2
= v
3
=
1
2
(
0 1
1 0
) ,
w
4
= v
4

1
2
(w
1
, v
4
)w
1
2(w
2
, v
3
)w
2
2(w
3
, v
4
)w
3
= v
4
w
3
=
1
2
(
0 1
1 0
)
Las matrices de Pauli se denen precisamente como

0
= I
2
= (
1 0
0 1
),
x
= 2w
3
= (
0 1
1 0
),
y
= 2iw
4
= (
0 i
i 0
),
z
= 2w
2
= (
1 0
01
)
y forman una base ortogonal y hermtica de C
22
:

, (

) = Tr

= 2

.
Considerando ahora C
22
sobre escalares reales, estas 4 matrices forman tambien una base del subespacio
de matrices hermticas de 2 2. Las matrices que representan las componentes del espn s = (s
x
, s
y
, s
z
) en
la base estandar de autoestados de s
z
son precisamente
s

=
1
2

, = x, y, z
23.2 Expansi on en una base ortonormal
Si e = (e
1
, . . . , e
n
) es una base ortonormal de V ((e
i
, e
j
) =
ij
) y
v =
n

i=1
x
i
e
i
entonces (e
i
, v) =

n
j=1
x
j
(e
i
, e
j
) = x
j
. Por lo tanto,
x
i
= (e
i
, v)
Se cumple entonces
v =
n

i=1
P
e
i
(v)
Se verica tambien, por la ortogonalidad de los e
i
, la generalizaci on del teorema de Pit agoras,
||v|| = (v, v) =
n

i=1
||x
i
e
i
||
2
=
n

i=1
|x
i
|
2
Notemos que en la notaci on de mecanica cu antica, e
i
|i y |v =

i
|i, con
i
= i|v.
7
23.3 Proyectores ortogonales y matriz de Gram
Dado un subespacio S V , es posible construir el complemento ortogonal S

= {v V |(w, v) = 0 w S},
cumpliendose que V = S S

y por lo tanto, dim S+ dim S

= n
Si v V , podemos escribir
v = v
s
+ (v v
s
)
con v
s
S y v v
s
S

. Si (w
1
, . . . , w
m
) es una base ortogonal de S, escribiendo v
s
=

m
i=1

i
w
i
, la
condici on (w
i
, v v
s
) = 0 para i = 1, . . . , m implica
i
= (w
i
, v)/||w
i
||
2
y por lo tanto
v
s
=
m

i=1
P
w
i
(v) = P
S
(v) , P
S
=
m

i=1
P
w
i
El vector v
s
es el vector de S con distancia mnima a v: Si w
s
S,
||v w
s
||
2
= ||(v v
s
) + (v
s
w
s
)||
2
= ||v v
s
||
2
+||w
s
v
s
||
2
||v v
s
||
2
En general, para una base arbitraria (w
i
, . . . , w
m
) de S no necesariamente ortogonal,
[P
S
]
e
= R(R

R)
1
R

donde R = ([w
1
]
e
, . . . , [w
m
]
e
) es la matriz de n m donde cada columna son las coordenadas de los m
vectores w
i
de la base de S en una base canonica de V ((e
i
, e
j
) =
ij
). Las formulas del caso eucldeo se
generalizan pues directamente al caso unitario reemplazando t (traspuesta) por (traspuesto conjugado).
Recordemos que
P
S
+P
S

= I
Notemos tambien que la matriz de Gram
G = R

R
de m m, con G
ij
= (w
i
, w
j
) = G

ji
, es ahora una matriz hermtica, que posee las mismas propiedades
anteriores: |G| = 0 sii los m vectores w
i
son LI, los autovalores
i
de G son reales y no negativos, los au-
tovectores X
i
(GX
i
=
i
X
i
) correspondientes a autovalores no nulos determinan vectores u
i
de componentes
[u
i
]
e
= RX
i
, que son ortogonales ((u
i
, u
j
) = 0 si
i
=
j
), y aquellos correspondientes a autovalores nulos
dan las combinaciones lineales nulas de los w
i
(Demostraciones totalmente similares al caso eucldeo).
Ejemplo: Proyectar el vector v = (1, i, 1+i) C
3
sobre el espacio generado por los vectores v
1
= (1+i, i, 0),
v
2
= (i, 1 +i, 1). Aplicando la representaci on general, tenemos
R =
_
_
1 +i i
i 1 +i
0 1
_
_
con R

R = (
3 2
2 4
), (R

R)
1
= (
4 2
2 3
)/8 y
[P
S
]
e
= R(R

R)
1
R

=
_
_
7 1 i 2 +i
1 +i 6 3 +i
2 i 3 i 3
_
_
/8
Podemos arribar a este mismo resultado considerando tambien la base ortogonal de S obtenida previamente
al ortogonalizar v
1
y v
2
por Gram-Schmidt, dada por w
1
= v
1
, w
2
= (2 +i, 3 +i, 3)/3:
[P
S
]
e
= [P
w
1
]
e
+ [P
w
2
]
e
=
[w
1
]
e
[w
1
]

e
||w
1
||
2
+
[w
2
]
e
[w
2
]

e
||w
2
||
2
=
1
3
_
_
1 +i
i
0
_
_
(1 i, i, 0) +
1
24
_
_
2 +i
3 +i
3
_
_
(2 i, 3 i, 3) =
_
_
7 1 i 2 +i
1 +i 6 3 +i
2 i 3 i 3
_
_
/8
Se obtiene nalmente
[P
S
(v)]
e
= [P
S
]
e
[v]
e
=
_
_
5
3 + 11i
2 + 5i
_
_
/8
La distancia mnima al plano es ||v v
s
|| = 3/

8.
8
23.4 Operadores adjuntos y autoadjuntos en espacios unitarios
Sea F : V V un operador lineal. El operador adjunto F

se dene por la relaci on


(v, F(w)) = (F

(v), w)
v, w V . Considerando una base canonica e de V ((e
i
, e
j
) =
ij
), y teniendo en cuenta que [F(v)]
e
=
[F]
e
[v]
e
, y (v, w) = [v]

e
[w]
e
, se obtiene (v, F(w)) = [v]

e
[F]
e
[w]
e
, (F

(v), w) = [v]

e
[F

e
[w]
e
y por lo tanto
[F

]
e
= [F]

e
La matriz que representa al operador adjunto de F en una base canonica es pues la traspuesta conjugada
de la que representa a F en dicha base. Notemos que:
1) si G = F, con C G

(pues (

(v), w) = (F

(v), w) = (v, F(w)) = (v, F(w)))


2) (F

= F (pues ((F

(v), w) = (v, F

(w)) = (F(v), w) v, w)
3) (FG)

= G

(pues (v, FG(w)) = (F

(v), G(w)) = (G

(v), w)).
Un operador F es autoadjunto si F

= F. En tal caso la matriz que lo representa en una base canonica


es hermtica:
[F]

e
= [F]
e
Una propiedad importante de operadores adjuntos es que si S es un subespacio invariante por F
S

es invariante por F

.
Demostraci on: si F(v) S v S, y w S

(w, F(v)) = 0 w S

y v S. Por lo tanto,
(F

(w), v) = (w, F(v)) = 0


w S

y v S, de modo que F

(w) S

En particular, si F es autoadjunto y S es invariante por F S

es tambien invariante por F.


Comentemos nalmente que en una base B general, donde (v, w) = [v]

B
A[w]
B
con A es una matriz
hermtica denida positiva (A

= A, X

AX > 0 X = 0, X C
n1
) la condici on (v, F(w)) = (F

(v), w)
v, w V implica [F

B
A = A[F]
B
, y por lo tanto,
[F

]
B
= A
1
[F]

B
A
La matriz que representa el operador adjunto F

en una base arbitraria es pues semejante (pero no nece-


sariamente igual) a [F]

B
.
23.5 Operadores Unitarios
Un operador lineal U : V V que conserva el producto interno en un espacio unitario se denomina unitario:
(U(v), U(w)) = (v, w)
v, w V . Como (U(v), U(w)) = (U

U(v), w) U

U = I (identidad), por lo que en una base canonica


tenemos
[U]

e
[U]
e
= I
n
y por lo tanto [U]
e
[U]

e
= I
n
. Las matrices que representan a un operador unitario en una base canonica se
denominan unitarias y satisfacen [U]
1
e
= [U]

e
, lo que implica las y columnas ortonormales:
n

j=1
S

ji
S
jk
=
ik
n

j=1
S
ij
S

kj
=
ik
donde aqu S
ij
= ([U]
e
)
ij
. El determinante de un operador unitario tiene m odulo 1:
1 = Det[U

U] = Det[U]

Det[U] = |Det[U]|
2
por lo que
|Det[U]| = 1
9
Podemos entonces escribir Det[U] = e
i
, con real.
Debe remarcarse que los operadores unitarios transforman bases ortonormales en bases ortonormales: si
e

i
= U(e
i
) =

m
j=1
S
ji
e
j
, i = 1, . . . , n
(e

i
, e

j
) = (U(e
i
), U(e
j
)) = (e
i
, e
j
) =
ij
An alogamente, cualquier par de bases ortonormales e, e

de V estan relacionadas por una transformacion


unitaria, es decir, por una matriz de cambio de base S que satisface S

S = SS

= I
n
, como es facil vericar:
Si e

i
=

j
S
ji
e
j
y (e

i
, e

j
) = (e
i
, e
j
) =
ij
entonces
(e

i
, e

j
) =

k,l
(S
ki
e
i
, S
lj
e
l
) =

k,l
S

ki
S
lj
(e
k
, el) =

k
S

ik
S
kj
= (S

S)
ij
=
ij
Remarquemos tambien que el producto (pero no la suma) de operadores unitarios es unitario: Si U, W
son unitarios (UW)
1
= W
1
U
1
= W

= (UW)

, por lo que UW es unitario. Esta propiedad es


tambien obvia a partir de la denicion.
24. Autovalores y Autovectores de operadores autoadjuntos
1) Si F : V V es un operador lineal autoadjunto sus autovalores son todos reales y los autovectores
correspondientes a autovalores distintos son ortogonales.
Demostraci on: Si F(v) = v,
(v, F(v)) = (v, v) = (v, v)
pero por ser F autoadjunto,
(v, F(v)) = (F(v), v) = (v, v) =

(v, v)
por lo que
(

)(v, v) = 0
lo que implica, si v = 0,

= 0, es decir, real. Todos los autovalores de F seran pues reales.


Adem as, si F(v) = v y F(v

) =

, entonces
(v

, F(v)) = (v

, v) = (F(v

), v) =

(v

, v)
por lo que
(v

, v)(

) = 0
lo que implica
(v

, v) = 0 si =

2) Si F : V V es un operador lineal autoadjunto en un espacio V de dimension nita, existe siempre una


base ortonormal de V formada por autovectores de F: e

= (e

1
, . . . , e

n
), tal que
F(e

i
) =
i
e

i
, i = 1, . . . , n, (e

i
, e

j
) =
ij
Es decir, F es siempre diagonalizable y adem as lo es en una base ortonormal, la cual estara relacionada con
la base canonica original por una transformacion unitaria U:
[F]
e
= S

[F]
e
S =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
, S

S = SS

= I
con S = [U]
e
y e

i
= U(e
i
).
Demostracion: Por induccion sobre n. Para n = 1 todo F es trivialmente diagonal en cualquier base. Con-
siderando ahora n > 1, si los n autovalores de F son todos distintos, entonces esta propiedad es inmediata,
ya que por 1) existir an n autovectores ortogonales entre si, que puede ser convertidos en ortonormales luego
de normalizacion (e

i
e

i
/||e

i
||).
10
En general, supongamos que e

1
es un autovector normalizado de F (F(e

1
) =
1
e

1
, ((e

1
, e

1
) = 1) y sea S
1
el
subespacio de V generado por e

1
. En tal caso S
1
es invariante por F y por lo tanto, el complemento ortog-
onal S
1
, de dimension n 1, sera tambien invariante por F

= F. F restringido a S
1
es obviamente
tambien autoadjunto. Por lo tanto, por hip otesis inductiva, existe una base ortonormal de S
1
en la que F
es diagonal. F resulta as diagonal en la base ortonormal de V formada por e

1
y la base anterior de S
1
. F
sera entonces diagonalizable n en una base ortonormal.
3) Si F y G son dos operadores autoadjuntos y [F, G] = 0 (o sea, FG = GF) existe una base ortonor-
mal com un e

en la que ambos operadores son simultaneamente diagonales:


F(e

i
) =
F
i
e

i
, G(e

i
) =
G
i
e

i
, i = 1, . . . , n
Demostraci on: Como F es autoadjunto, existe una base ortonormal donde F es diagonal. Como [G, F] = 0
si F(e

i
) =
F
i
e

i
, FG(e

i
) = GF(e

i
) =
F
i
G(e

i
), por lo que G(e

i
) V
F
(
F
i
) (espacio propio). V
F
(
F
i
) es
pues tambien invariante por G. Pero G restringido a V
F
(
F
i
) es asimismo autoadjunto, por lo que es siempre
posible elegir una base ortonormal de V
F
(
F
i
) en la que G sera tambien diagonal, con autovalores
G
i
. Los
elementos de dicha base seran, por pertenecer a V
F
(
F
i
), tambien autovectores de F. Repitiendo esto para
todos los autovalores, vemos que existir a una base ortonormal de V en la que tanto F y G seran diagonales.
24.1 Operadores normales
Un operador lineal A : V V se dice normal si A

A = AA

, es decir, si
[A, A

] = 0
donde [A, B] = AB BA denota el conmutador.
As, los operadores autoadjuntos (F

= F) son obviamente normales, y tambien son normales los unitarios


(U

= U
1
, con UU

= U

U = I). Otro caso de operador normal son las antiautadjuntos (F

= F).
Teorema de diagonalizaci on para operadores normales:
Si A : V V es un operador normal, entonces existe una base ortonormal e

en la cual [A]
e
es diagonal:
[A]
e
= S

[A]
e
S =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_
_
_
_
, S

S = SS

= I
n
Adem as si A : V V es diagonal en una base ortonormal es normal.
Demostracion: Hemos ya demostrado que para todo operador autoadjunto existe una base ortonormal donde
es diagonal. La extensi on para todo operador normal se basa en la descomposicion
A = A
r
+iA
i
, A
r
=
A+A

2
, A
i
=
AA

2i
valida para cualquier operador A, donde A
r
y A
i
son claramente operadores autoadjuntos: (A
r
)

= A
r
,
(A
i
)

= A
i
. Esta descomposicion del operador es similar a la de un n umero complejo z = x + iy en parte
real x e imaginaria iy (caso particular n = 1).
Si A es normal
[A
r
, A
i
] =
1
4i
[A+A

, AA

] = 0
y por lo tanto, existe una base ortonormal com un e

donde A
r
y A
i
son simultaneamente diagonales. Los
autovalores de A seran entonces de la forma

j
=
r
j
+i
i
j
con
r
j
y
i
j
reales y autovalores de A
r
y A
i
respect., por lo que
j
sera en general complejo.
Si A es autoadjunto (A

= A) A
i
= 0 y por lo tanto
i
j
= 0. Los autovalores de A son entonces todos
reales, como ya habamos demostrado.
Si A es antiautoadjunto (A

= A) A
r
= 0 y por lo tanto
r
j
= 0. Los autovalores de A son entonces
11
todos imaginarios puros.
Finalmente, si A es unitario, [A]

[A]
e
= I
n
, lo que implica
j

j
= |
j
|
2
= 1, es decir |
j
| = 1. Esto implica

j
= e
i
j
= cos
j
+i sin
j
con
r
j
= cos
j
,
i
j
= sin
j
.
Por otro lado, si A es diagonal en una base e

ortonormal A

es tambien diagonal en dicha base, con


[A

]
e
= [A]

=
_
_
_
_

1
0 . . . 0
0

2
. . . 0
. . .
0 0 . . .

n
_
_
_
_
Por lo tanto
[AA

A]
e
= [A]
e
[A

]
e
[A

]
e
[A]
e
= 0
lo que implica AA

A = 0. A es entonces normal.
En resumen, el teorema implica que en un espacio unitario, un operador tiene representacion diagonal
en una base ortonormal si y solo si es un operador normal. En terminos matriciales, si A es una matriz
de n n, entonces existe una matriz unitaria S tal que A

= S

AS es diagonal si y solo si A es normal


([A

, A] = 0). Esto comprende en particular las matrices hermticas (A

= A), antihermticas (A

= A) y
unitarias (A

= A
1
). Destaquemos tambien que todo v V puede expandirse en la base e

de autovectores
de un operador normal A,
v =
n

i=1

i
e

i
=
n

i=1
P
e

i
(v)
donde
i
= (e

i
, v) y P
e

i
(v) = (e

i
, v)e

i
=

i
e

i
. Por lo tanto
A(v) =
n

i=1
A(
i
e

i
) =
n

i=1

i
e

i
=
n

i=1

i
P
e

i
(v)
Como v es arbitrario, esto implica
A =
n

i=1

i
P
e

i
Un operador normal puede pues expresarse como combinacion lineal de proyectores ortogonales sobre sus
espacios propios.
De lo anterior se desprende adem as que todo operador unitario U puede escribirse en la forma
U = exp[iF]
con F autoadjunto: Como los autovalores de U son de la forma e
i
j
, podemos denir F como el operador
autoadjunto que es tambien diagonal en la base ortonormal e

en que U es diagonal y que tiene autovalores


reales
j
. En tal caso, [U]
e
= exp[i[F]
e
] = [exp[iF]]
e
, lo que implica [U]
e
= [exp(iF)]
e
en cualquier base.
Esto conduce a U = exp[iF].
Ejercicio: Utilizando la representaci on diagonal, mostrar que si F : V V es autoadjunto, entonces
v V , con v = 0, se tiene

m

(v, F(v))
(v, v)

M
donde
m
y
M
denotan resp. el menor y mayor autovalor de F.
24.2 Isometras en espacios euclideos
Hemos visto que los autovalores de un operador unitario U son necesariamente de la forma = e
i
=
cos()+i sin(), con real. Mediante el embedding de un espacio eucldeo en un espacio unitario discutido
en clase, esto permite demostrar que las isometras U en espacios eucldeos s olo pueden ser rotaciones
(DetU = 1) o rotaciones seguidas o precedidas de una reexi on (DetU = 1).
12
En efecto, si S [U]
e
es una matriz real que representa una isometra U en una base ortonormal de un
espacio euclideo (S
t
= S
1
), considerada en un espacio complejo representa una transformacion unitaria
(S

= S
1
). Dado que S es real, los autovalores vendr an de a pares conjugados con autovectores conjugados:
SX = X, SX

Escribiendo =
r
+i
i
, X = X
r
+iX
i
, con
r
= cos ,
i
= sin y X
r
, X
i
reales, esto implica
SX
r
=
r
X
r

i
X
i
, SX
i
=
r
X
i
+
i
X
r
Si no es real (
i
= 0) X
i
= 0 (pues S es real) y la ortogonalidad de los autovectores para autovalores
distintos (v alido para cualquier matriz normal [S

, S] = 0) implica (X

X = 0, o sea,
(X
r
+iX
i
)
t
(X
r
+iX
i
) = X
t
r
X
r
X
t
i
X
i
+ 2iX
t
i
X
r
= 0
de donde X
t
r
X
r
= X
t
i
X
i
y X
t
i
X
r
= 0. Por lo tanto, vemos que en el subespacio generado por X

, X,
existe una base real y ortonormal con el producto escalar euclideo, formada por (X
i
, X
r
), en la que el bloque
correspondiente de [U]
e
tiene la forma
S

=
_
cos sin
sin cos
_
que representa una rotaci on de angulo (Det[S

] = 1). Y en el espacio euclideo completo, vemos entonces


que existe una base ortonormal e

donde S

[U]
e
tiene la forma
S

=
_
_
_
_
_
_
S

1
0 . . . 0 0
0 S

2
. . . 0 0
0 0 . . . 0 0
0 0 . . . 1 0
0 0 . . . 0 1
_
_
_
_
_
_
donde S

i
son bloques de la forma anterior que representan rotaciones en subespacios de dimension 2, y
los elementos 1 representan los posibles autovalores reales. U representa pues rotaciones (Det[S

] = 1) o
rotaciones compuestas con reexiones (Det[S

] = 1). Por ej., en R


3
, las posibilidades son un bloque A

seguido de +1 (rotaci on) o 1 (rotaci on compuesta con reexi on).


24.3 Elementos de matriz de un operador lineal en una base ortonormal
Recordemos que si F : V V es un operador lineal la matriz T = [F]
e
( [F]
e
e
) que lo representa en
una base e de V queda denida por
F(e
i
) =
n

j=1
T
ji
e
j
En un espacio unitario y en una base ortonormal e, los elementos de matriz T
ji
= ([F]
e
)
ji
pueden entonces
obtenerse, por ortonormalidad de los e
i
, como
T
ji
= (e
j
, F(e
i
))
De esta forma,
v =
n

i=1

i
e
i
,
i
= (e
i
, v)
y
F =
n

i,j=1
T
ji
E
ji
, T
ji
= (e
j
, F(e
i
))
con E
ji
el operador lineal denido por
E
ji
(v) = (e
i
, v)e
j
ya que F(e
i
) =

n
j=1
T
ji
e
j
=

n
j,k=1
T
jk
(e
k
, e
i
)e
j
= (

n
j,k=1
T
jk
E
jk
)(e
i
).
Notemos que ([E
ji
]
e
)
kl
=
kj

il
.
13
Notaci on de Mecanica cuantica:
T
ji
= (e
j
, F(e
i
)) j|F|i, E
ji
|ji|
donde |i e
i
y i| f
i
(vector asociado del espacio dual). Por lo tanto
F =

i,j
F
ij
|ij|, F
ij
= i|F|j
Por ej., el proyector ortogonal sobre e
i
se escribe como P
e
i
= |ii| (ya que (e
j
, P
e
i
(e
i
)) = (e
j
, e
i
) =
ji
)
mientras que el operador identidad es I =

i
|ii|. En general, para todo operador normal F : V V
existe entonces una base ortonormal {|i} de V formada de autovectores de F en la que i|F|j =
ij

i
y
F =

i
|ii|
25 Descomposici on en valores singulares (DVS)
Sea F : V W una transformacion lineal arbitraria entre espacios unitarios V y W de dimensiones n y m
respectivamente, y e
V
, e
W
bases ortonormales de V y W. Entonces existen bases ortonormales e

V
, e

W
en
las que F queda representado por una matriz diagonal de elementos no negativos. En otras palabras, dada
una matriz A de mn, existen matrices unitarias U de mm y V de n n tales que
A = UA

con U

U = I
m
, V

V = I
n
y A

de mn diagonal de elementos A

kj
=
j

kj
, con
j
0. Aqu A = [F]
e
V
e
W
,
A

= [F]
e

V
e

W
, U = [I]
e

W
e
W
y V = [I]
e

V
e
V
, con V

= [I]
e
V
e

V
. Los
j
no nulos se denominan valores singulares y
son las races de los autovalores no nulos de la matriz hermtica A

A, de n n (que posee autovalores no


negativos). V es la correspondiente matriz de autovectores normalizados (tal que V

(A

A)V es diagonal).
La demostraci on es similar al caso de matrices reales (espacios euclideos) y se deja como ejercicio.
Recordemos que si k es el n umero de autovalores no nulos de A

A, las primeras k columnas de U son los


vectores u
i
= Av
i
/
i
, i = 1, . . . , k,
i
= 0, obteniendose las restantes m k columnas ortonormales de U
por el metodo de Gram-Schmidt complejo.
Ejercicios: Para A de mn compleja general, demostrar (en forma similar al caso euclideo) que:
0) Las matrices A

A y AA

son ambas hermticas.


1) Los autovalores de A

A son todos no negativos.


2) El n umero de autovalores no nulos de A

A es igual al rango de A.
3) Los autovalores no nulos de las matrices A

A y AA

son iguales.
4) ||A||
2
=
M
, siendo
M
el m aximo valor singular y ||A||
2
Max
v=0
||Av||/||v||, con ||v|| =

v.
5) Si m = n y es autovalor de A ||
M
.
6) Si m = n y A es invertible n
c
(A) =
M
/
m
, donde
m
es el mnimo valor singular de A y n
c
(A) es el
n umero de condici on.
25.1 Forma polar de un operador lineal
En el caso de V = W, la DVS permite obtener en forma inmediata la denominada forma polar de un
operador: Si F : V V es un operador lineal en un espacio unitario V entonces F puede escribirse como
F = WM =

MW
donde W es un operador unitario y M,

M operadores autoadjuntos positivos.
Dem.: Utilizando la DVS para la representaci on A = [F]
e
de F en una base ortonormal e de V , se tiene
A = UA

= (UV

)(V A

) = WM, W = UV

, M = V A

A
= (UA

)(UV

) =

MW,

M = UA

AA

donde W es unitario (W

= V U

= W
1
) y A

A = V A
2
V

, AA

= UA
2
U

.
Ejercicio: Discutir la DVS y la descomposicion polar de una matriz hermtica.
14
26 Desigualdad de Cauchy Schwarz y relaciones de incerteza
Consideremos dos operadores autoadjuntos F, G. El valor medio de un operador F en un estado
normalizado | (| = 1) es
F

= |F|
(o sea F

= (, F()) en notaci on de A.L.). Si F es autoadjunto, F

es real, ya que |F| =


|F

= |F|

(o sea, (, F()) = (F(), )

= (, F

())

= (, F())

).
La varianza de un operador F en el estado | se dene como el valor medio del cuadrado de la diferencia
entre F y F

y es una medida de la dispersi on alrededor de la media:

2
F = (F F

I)
2

= |(F F

I)
2
| = |F
2
| |F|
2
La desviacion estandar es la raz de la varianza: F =

2
F =
_
(F F

I)
2

.
Denamos ahora

F = F F

I,

G = GG

I
tal que F =
_
|

F
2
|, G =
_
|

G
2
|, y consideremos el producto escalar (

F(),

G()) = (,

F

G()),
es decir |

F

G| en notaci on cu antica. La desigualdad de Cauchy-Schwarz implica |(

F(),

G())|
||

F()|| ||

G()||, con ||

F()||
2
= (

F(),

F()) = (,

F
2
()), o sea,
||

F

G||
_
|

F
2
|
_
|

G
2
| = (F)(G)
Por otro lado, si [F, G] = FGGF denota el conmutador de F y G, entonces
|[F, G]| = |[

F,

G]| = |

F

G| |

F| = 2i Im[||

F

G|]
donde Im denota la parte imaginaria, ya que |

F| = |(

G

F)

= |

F

G|

. Por lo tanto
1
2
||[F, G]|| ||

F

G|| (F)(G)
es decir,
(F)(G)
1
2
|[F, G]

|
Esta es la denominada relaci on de incerteza entre dos operadores: Si el conmutador es no nulo entonces el
producto de sus incertezas (F)(G) en un estado | no puede ser menor que el m odulo del valor medio
del conmutador en dicho estado.
Como ejemplo fundamental, consideremos el espacio L
2
de funciones (x) de R C de norma nita
(||||
2
=
_

|(x)|
2
dx < ) y que tienden a 0 para x , tal que el producto escalar
(, ) =
_

(x)(x)dx
este bien denido. Los operatores X y P = i
x
= i

x
, donde = h/(2), con la constante de
Planck, son autoadjuntos en este espacio: (, X) =
_

(x)x(x)dx = (X, ), y
(, P) = i
_

(x)

(x)dx = i[

(x)(x)

(x)(x)dx] =
_

[i

(x)](x)dx = (P(), )
Dado que [X, P](x) = i(x

(x)(x(x))

) = i(x) , es decir, [X, P] = iI, obtenemos |[X, P]

| =
y el resultado anterior implica entonces
(P)(X)

2
El operador P representa en Mecanica Cuantica el operador impulso de una partcula (en una dimension).
Por lo tanto, en cualquier estado cu antico el producto de las desviaciones estandar de X y P es no nulo y
mayor que /2.
15
27 Tensores (Resumen)
27. 1 Notaci on tensorial
Mediante la convencion de Einstein para sumas, el cambio de base e

i
=

n
j=1
S
ji
e
j
, con S = [I]
e

e
una matriz
de n n no singular, se escribe
e

i
= S
j
i
e
j
donde S
j
i
e
j

n
j=1
S
j
i
e
j
y n es la dimension del espacio. El ndice superior en S denota la y el inferior
columna. En forma matricial, la relaci on anterior equivale pues a
(e

1
, . . . , e

n
) = (e
1
, . . . , e
n
)S
Por otro lado, la transformacion x
i
=

n
j=1
S
1
ij
x
j
de las componentes de un vector v =

n
i=1
x
i
e
i
=

n
i=1
x
i
e

i
, se escribe en la forma
x
i
= R
i
j
x
j
, R = S
1
donde R
i
j
x
j

n
j=1
R
i
j
x
j
. En forma matricial, la relaci on previa equivale pues a

x
1
. . .
x
n

= R

x
1
. . .
x
n

lo que esta tambien de acuerdo con el suprandice como ndice de la. Notemos que
R
i
j
S
j
k
= S
i
j
R
j
k
=
i
k
que es la expresi on tensorial de la relaci on matricial RS = SR = I. El vector v se escribe entonces como
v = x
i
e
i
= x
i
e

i
Como vericacion, reemplazando x
i
= R
i
j
x
j
, e

i
= S
k
i
e
k
, se tiene x
i
e

i
= R
i
j
S
k
i
x
j
e
k
=
k
j
x
j
e
k
= x
j
e
j
.
En general, n componentes a
i
que se transforman como
a

i
= S
j
i
a
j
se denominan covariantes, mientras que n componentes b
i
que se transforman como
b
i
= R
i
j
b
j
con R
i
j
S
j
k
=
i
k
(o sea, R = S
1
) se denominan contravariantes. En tal caso, el producto
b
i
a

i
= b
i
a
i
(donde la suma sobre i esta implcita) permanece invariante frente a cambios de base.
Notemos nalmente que las relaciones inversas estan dadas por
a
i
= R
j
i
a

j
, b
i
= S
i
j
b
j
Transformacion de las derivadas parciales:
Dado el cambio de variables lineal x
i
= R
i
j
x
j
y su relaci on inversa x
j
= S
j
i
x
i
, con S = R
1
, y R, S
independientes de las coordenadas, tenemos
S
j
i
=
x
j
x
i
, R
i
j
=
x
i
x
j
En virtud de la regla de la cadena, se obtiene entonces

x
i
=
n

j=1
x
j
x
i

x
j
o sea, en notaci on covariante,

i
= S
j
i

j
donde

i


x
i
,
j


x
j
. Las derivadas respecto de componentes contravariantes se transforman pues de
manera covariante.
1
27.2 Transformacion de vectores del dual
Dada una base e = (e
1
, . . . , e
n
) de V , los elementos de la base dual f = (f
1
, . . . , f
n
) del espacio dual V

(el
conjunto de formas lineales de V en K) quedan denidos por
(f
i
, e
j
) =
i
j
(utilizamos la notaci on f
i
(v) = (f
i
, v). Esto implica la ley de transformacion contravariante
f
i
= R
i
j
f
j
de forma que
(f
i
, e

j
) = R
i
k
S
l
j
(f
k
, e
l
) = R
i
k
S
l
j

k
l
= R
i
l
S
l
j
=
i
j
donde e

j
= S
i
j
e
i
. Un elemento arbitrario h V

puede entonces ser escrito como
h = a
i
f
i
= a

i
f
i
donde
a

i
= S
j
i
a
j
Notemos que si v = x
i
e
i
, h = a
i
f
i
,
a
i
= (h, e
i
), x
i
= (f
i
, v)
Finalmente, mencionemos que si (e
1
, . . . , e
n
), (f
1
, . . . , f
n
) son bases arbitrarias de V y V

respect., con
R
i
j
= (f
i
, e
j
)
una matriz no singular, la base dual de V asociada a la base f

de V

esta dada por
e

i
= S
j
i
e
j
con S = R
1
, ya que (f
k
, e

i
) = (f
k
, e
j
)S
j
i
= R
k
j
S
j
i
=
k
i
. An alogamente, la base dual de V

asociada a la
base e de V esta formada por
f
i
= S
i
j
f
j
ya que (f
i
, e
k
) = S
i
j
(f
j
, e
k
) = S
i
j
R
j
k
=
i
k
.
Ejemplo: Sea V = R
2
y sean (f
1
, f
2
) las formas lineales denidas por
f
1
(x, y) = 2x y, f
2
(x, y) = 3x + y
donde hemos escrito v = (x, y) = xe
1
+ ye
2
, con (e
1
, e
2
) la base canonica de R
2
.
Hallar la base dual de V asociada a f
1
, f
2
.
Podemos escribir f
i
= R
i
k
f
k
, con R = (
21
3 1
) y (f
1
, f
2
) la base dual asociada a (e
1
, e
2
) (f
1
(x, y) = x,
f
2
(x, y) = y).
Es claro que (f
1
, f
2
) es base de V

pues |R| = 5 = 0. La base dual asociada de V esta entonces dada por
e

i
= S
j
i
e
j
, con S = R
1
= (
1 1
3 2
)/5:
e

1
=
1
5
(e
1
3e
2
), e

2
=
1
5
(e
1
+ 2e
1
)
vericandose que f
1
(e

1
) = f
2
(e

2
) = 1, f
1
(e

2
) = f
2
(e

1
) = 0.
27.3 Tensor metrico
Dado un espacio euclideo V de dimension nita, con el producto escalar denotado por (v, w), y dada una
base arbitraria e = (e
1
, . . . , e
n
) de V , el tensor metrico se dene como
g
ij
= (e
i
, e
j
)
Es una matriz simetrica (g
ij
= g
ji
) no singular (|g| = 0). En tal caso, la norma al cuadrado de un vector
v = x
i
e
i
(es decir, la distancia al cuadrado del extremo del vector al origen) esta dada por
||v||
2
= (x
i
e
i
, x
j
e
j
) = x
i
(e
i
, e
j
)x
j
= x
i
g
ij
x
j
2
Podemos escribir lo anterior tambien en la forma
||v||
2
= x
i
x
i
, x
i
g
ij
x
j
Frente a un cambio de base, el tensor metrico se transforma como
g

ij
= (e

i
, e

j
) = S
k
i
S
l
j
(e
k
, e
l
) = S
k
i
S
l
j
g
kl
que corresponde a un tensor de rango (2, 0) (dos veces covariante), como se vera en breve.
Las componentes x
i
se transforman pues en forma covariante:
x

i
= g

ij
x
j
= S
k
i
S
l
j
R
j
m
g
kl
x
m
= S
k
i
g
kl
x
l
= S
k
i
x
k
En espacios euclideos V de dimension nita, podemos identicar con cada elemento h del dual V

uno y
s olo un vector w
h
V tal que
(h, v) = (w
h
, v)
v V , donde el segundo parentesis denota producto escalar: Si h = a
i
f
i
y w
h
= a
i
e
i
, con (f
i
, e
j
) =
i
j
,
(h, e
j
) = a
j
= (w
h
, e
j
) = a
i
(e
i
, e
j
) = a
i
g
ij
de modo que a
i
g
ij
= a
j
. Por lo tanto,
a
i
= g
ji
a
j
donde g
ij
denota los elementos de la matriz inversa de la matriz de elementos g
ij
:
g
ik
g
kj
=
i
j
En lo sucesivo denotaremos a w
h
directamente como h. Por consiguiente, podemos escribir los elementos
de la base dual como combinacion lineal de los e
i
. En notaci on tensorial,
f
i
= g
ik
e
k
con
(f
i
, e
j
) = g
ik
(e
k
, e
j
) = g
ik
g
kj
=
i
j
Notemos tambien que
(f
i
, f
j
) = g
jk
(f
i
, e
k
) = g
ji
por lo que g
ji
es el tensor metrico en la base dual. Un vector v puede pues escribirse en las formas
v = x
i
e
i
= x
i
f
i
donde x
i
= g
ij
x
j
, f
i
= g
ik
e
k
, ya que x
i
f
i
= g
ik
g
ij
x
j
e
k
=
k
j
x
j
e
k
= x
j
e
j
. Para el producto escalar de dos
vectores v = x
i
e
i
, w = y
j
e
j
se tienen pues las expresiones
(v, w) = x
i
g
ij
y
j
= x
i
y
i
= x
i
y
i
= x
i
g
ij
y
j
27.4 Tensores
Un tensor general de pndices covariantes y q indices contravariantes (que denotaremos aqu como tensor (
q
p
))
en un espacio de dimension n, es un conjunto de n
p+q
n umeros T
j
1
...j
q
i
1
...i
p
dependientes de una base ordenada
B = (e
1
, . . . , e
n
) de un espacio vectorial V , que se transforman frente a cambios de base e

i
= S
j
i
e
j
en la
forma
T
j

1
,...j

q
i

1
...i

p
= S
i
1
i

1
. . . S
i
p
i

p
R
j

1
j
1
. . . R
j

q
j
q
T
j
1
...j
q
i
1
...i
p
con R = S
1
. Por ejemplo, para un tensor (
1
1
), T
l
k
= R
l
j
S
i
k
T
j
i
, que involucra una suma sobre i y j.
Una posible realizacion de un tensor (
q
p
) es una forma multilineal T : V
p
(V

)
q
K de p vectores de
V y q vectores del espacio dual V

(una funcion es multilineal si es lineal en cada uno de sus argumentos:
3
T(
1
v
1
+

1
v

1
, v
2
, . . . , v
p
, w
1
, . . . , w
q
) =
1
T(v
1
, v
2
, . . . , v
p
, w
1
, . . . , w
q
) +

1
T(v

1
, v
2
, . . . , v
p
, w
1
, . . . , w
q
), y
similar para los restantes argumentos). En tal caso, si v
i
= x
j
i
e
j
y w
i
= a
i
j
f
j
,
T(v
1
, . . . , v
p
, w
1
, . . . , w
q
) = x
i
1
1
. . . x
i
p
p
a
1
j
1
. . . a
q
j
q
T(e
i
1
, . . . , e
i
p
, f
j
1
, . . . , f
j
q
)
Si los f
i
son los vectores de la base dual ((f
i
, e
j
) =
i
j
), los elementos
T
j
1
...j
q
i
1
...i
p
T(e
i
1
, . . . , e
i
p
, f
j
1
, . . . , f
j
q
)
se transforman como un tensor (
q
p
) frente a cambios de base: Si e

i
= S
j
i
e
j
, entonces f
i
= R
i
j
f
j
y
T
j

1
...j

q
i

1
...i

p
= T(e

1
, . . . , e

p
, f
j

1
, . . . , f
j

q
) = T(S
i
1
i

1
e
i
1
, . . . , S
i
p
i

p
e
i
p
, R
j

1
j
1
f
j
1
, . . . , R
j

q
j
q
f
j
q
)
= S
i
1
i

1
. . . S
i
p
i

p
R
j

1
j
1
. . . R
j

q
j
q
T
j
1
...j
q
i
1
...i
p
Otra posibilidad es considerar a T
j
1
...j
q
i
1
...i
p
como las coordenadas de un vector T perteneciente al producto
tensorial de espacios V . . . V

q veces
V

. . . V


p veces
en una base B = {e
j
1
. . . e
j
q
f
i
1
. . . f
i
p
}, donde
nuevamente (f
i
, e
j
) =
i
j
:
T = T
j
1
...j
q
i
1
...i
p
e
j
1
. . . e
j
q
f
i
1
. . . f
i
p
Si e
i
= R
j
i
e

j
y f
i
= S
i
j
f

j
(tal que e

i
= S
j
i
e
j
, f

i
= R
i
j
f
j
, con R = S
1
), tenemos
T = T
j
1
...j
q
i
1
...i
p
R
j

1
j
1
. . . R
j

q
j
q
S
i
1
i

1
. . . S
i
p
i

p
e

1
. . . e

q
f

1
. . . f

p
= T

1
...j

q
i

1
...i

p
e

1
. . . e

q
f

1
. . . f

p
por lo que
T

1
...j

q
i

1
...i

p
= S
i
1
i

1
. . . S
i
p
i

p
R
j

1
j
1
. . . R
j

q
j
q
T
j
1
...j
q
i
1
...i
p
Un tensor (
0
0
) es un escalar. Permanece invariante frente a cambios de base:
T

= T
Un tensor (
1
0
) representa el conjunto de coordenadas contravariantes de un vector. Se transforman como
T
i
= R
i
j
T
j
En forma matricial esto corresponde a T

= RT, con T un vector columna.


Por ejemplo, las coordendas x
i
de un vector v = x
i
e
i
V se transforman como x

i
= R
i
j
x
j
.
Un tensor (
0
1
) representa el conjunto de coordenadas covariantes de un vector. Se transforman como
T

i
= S
j
i
T
j
En forma matricial esto corresponde a T

= TS, con T un vector la.


Por ejemplo, las coordenadas a
i
de un vector h = a
i
f
i
V

se transforman como a

i
= S
j
i
a
j
.
Un tensor (
1
1
) se transforma como
T
j
i
= R
j
l
S
k
i
T
l
k
En forma matricial, esto corresponde a T
j
i
= (RTS)
j
i
, es decir, T

= RTS, con R = S
1
. Un ejemplo
son pues las matrices que representan operadores lineales F : V V . Estos pueden expresarse como
F = F
j
i
e
j
f
i
, de forma que F(e
k
) = F
j
i
e
j
(f
i
, e
k
) = F
j
k
e
j
, siendo F
j
i
= [F(e
i
)]
j
= ([F]
e
e
)
j
i
la matriz que
lo representa en la base e. Recordemos que esta matriz se transforma precisamente como F

= RFS con
R = S
1
, o sea, F
j
i
= R
j
l
S
k
i
F
l
k
.
4
Un tensor (
0
2
) se transforma como
T

ij
= S
k
i
S
l
j
T
kl
En forma matricial, esto equivale a T
ij
= (S
t
TS)
ij
, es decir, T

= S
t
TS. Un ejemplo son pues las matrices
que representan formas cuadraticas (funciones de V V K), de elementos A
ij
= A(e
i
, e
j
), las que se
transforman como A

= S
t
AS, es decir, A

ij
= S
k
i
A
kl
S
l
j
. En forma an aloga se ve el caso de un tensor (
2
0
)
(funciones de V

V

en K).
27.5 Producto Tensorial de Espacios Vectoriales. Recordemos aqu que el producto tensorial
V W de dos espacios vectoriales V , W sobre el mismo cuerpo K, de dimensiones n y m respectivamente,
es el espacio generado por los productos {e
i
e
j
}, i = 1, . . . , n, j = 1, . . . , m, donde {e
1
, . . . , e
n
} es una base
de V y { e
1
, . . . , e
m
} una base de W. Se verica, v V , w W y K,
(v w) = (v) w = v (w)
(v
1
+ v
2
) w = v
1
w + v
2
w, v (w
1
+ w
2
) = v w
2
+ v w
2
0 w = v 0 = 0
Si u V W
u =
n

i=1
m

j=1
c
ij
e
i
e
j
, c
ij
K
Destaquemos que esto incluye vectores producto u = v w, con v V y w W, como as tambien vectores
que son combinaciones lineales de productos pero que no pueden ser escritos como un unico producto. La
dimension de V W es n m (y no n + m, como sucede con V W).
En mecanica cu antica, el espacio de estados de un sistema compuesto por dos subistemas distinguibles es
justamente el producto tensorial de los espacios de estados de cada subsistema, siendo estos ultimos espacios
de Hilbert (K = C). Para e
i
e
j
se emplea la notaci on |i |

j o directamente |i|

j o |i

j.
Los estados producto |u = |v |w se denominan estados separables, mientras que los estados que no
pueden ser escritos como producto se denominan correlacionados o entrelazados.
27.6 Producto y Suma de tensores
Sea T un tensor (
q
p
) y U un tensor (
q

) sobre el mismo espacio. Su producto es un tensor (


p+p

q+q

) dado por
(TU)
j
1
...j
q+q

i
1
...i
p+p

= T
j
1
...j
q
i
1
...i
p
U
j
q+1
...j
q+q

i
p+1
...i
p+p

La suma esta denida para tensores del mismo rango (


p
q
): (T + U)
j
1
...j
q
i
1
...i
p
= T
j
1
...j
q
i
1
...i
p
+ U
j
1
...j
q
i
1
...i
p
.
27.7 Producto tensorial de operadores. Si F : V V y G : W W son operadores lineales en
espacios V , W, entonces F G : V W V W es un operador lineal en el espacio producto tensorial
V W, denido por
(F G)(v w) = F(v) G(w)
Si F(v
i
) =
F
i
v
i
, G(w
j
) =
G
w
j
, entonces
(F G)(v
i
w
j
) =
F
i

G
j
v
i
w
j
por lo que si F y G son diagonalizables, (F G) tambien lo es, con n m autovalores
F
i

G
j
, i = 1, . . . , n,
j = 1, . . . , m. Adem as, Det(F G) = Det(F)
m
Det(G)
n
. Notemos nalmente que (F G)
k
= F
k
G
k
,
valido para k N y tambien k Z si F y G son invertibles.
Si F = F
i
j
e
i
f
k
, G = G
k
l
e
k

f
l
, F G = F
i
j
G
k
l
(e
i
e
k
)(f
j


f
l
), por lo que (F G)
ik
jl
= F
i
k
G
j
l
.
Esto corresponde pues al producto tensorial de las matrices que representan a F y G, denominado tambien
producto Kronecker: Ordenando la base en la forma b = (e
i
e
1
, e
1
e
2
, . . . , e
n
e
m
), la matriz de nmnm
que representa a F G en esta base es
[F G]
b
= [F]
e
[G]
e
=

F
1
1
[G]
e
. . . F
1
n
[G]
e
.
.
.
.
.
.
.
.
.
F
n
1
[G]
e
. . . F
n
n
[G]
e

En notaci on de Mecanica Cuantica, e


i
|i, f
j
j| y F

i,j
F
ij
|ij|, G =

k,l
G
kl
|

l|, con
F G =

i,j,k,l
F
ij
G
kl
|i

jk

l|.
5
27.8 Contracci on de tensores
La contraccion de un tensor (
p
q
), con p 1, q 1, queda denida por una suma de la forma
T
j
1
...k...j
q
i
1
......k...i
p
(donde la suma es sobre el ndice repetido k), la cual se transforma como un tensor (
p1
q1
), pues S
i
k
R
k
j
=
i
j
.
Por ejemplo, si
U
j
i
= T
kj
ik
entonces
U
j

= T
k

= S
i
i
S
l
k
R
k

k
R
j

j
T
kj
il
= S
i
i

l
k
R
j

j
T
kj
il
= S
i
i
R
j

j
T
kj
ik
= S
i
i
R
j

j
U
j
i
donde hemos utilizado S
l
k

R
k

k
=
l
k
. Vemos pues que se transforma como un tensor (
1
1
).
As, dado un tensor T
ij
kl
(tensor (
2
2
)) son posibles las 4 contracciones
T
kj
ki
, T
jk
ik
, T
kj
ik
, T
jk
ki
que originan 4 tensores (
1
1
) (en general distintos). Por otro lado, las dos posibles contracciones dobles que
dan lugar a un escalar (tensor (
0
0
)) son
T
kj
kj
, T
jk
kj
Por ejemplo, dado el tensor T
j
i
, la unica contraccion posible es el escalar T
i
i
. Este representa la traza de
la matriz T:
Tr T = T
i
i
Esta es, como hemos visto, invariante frente a cambios de base.
Dado el tensor producto T
jk
il
= F
j
i
G
k
l
, el escalar T
jk
jk
= F
j
j
G
k
k
representa, matricialmente, el producto
de trazas: (TrF)(TrG) = F
i
i
G
k
k
, mientras que el escalar T
jk
kj
= F
j
k
G
k
j
representa la traza del producto:
Tr(FG) = F
j
k
G
k
j
.
Adem as, la contraccion T
jk
ki
= F
j
k
G
k
i
es un tensor (
1
1
), que representa el producto matricial FG.
Un tensor es simetrico respecto a dos ndices del mismo tipo si T
...i...j...
...
= T
...j...i...
...
, y es antisimetrico si
T
...i...j...
...
= T
...j...i...
...
(Denicion similar respecto de ndices inferiores). Esta propiedad es independiente de
la base: Por ejemplo, si T
ij
kl
= T
ji
kl
,
T
i

= R
i

i
R
j

j
S
k
k
S
j
j

T
ij
kl
= R
i

i
R
j

j
S
k
k
S
j
j

T
ji
kl
= T
j

Un tensor es completamente simetrico (antisimetrico) si es simetrico (antisimetrico) respecto de todo par


de ndices del mismo tipo.
27.9 Determinante: Consideremos una forma multilineal completamente antisimetrica de V
n
K.
En tal caso, si v
i
= x
j
i
e
j
,
F(v
1
, . . . , v
n
) = x
i
1
1
. . . x
i
n
n
F
i
1
,...,i
n
donde F
i
1
,...,i
n
= F(e
i
1
, . . . , e
i
n
). Se tiene F
...,i,...,j,...
= F
...,j,...,i,...
para cualquier par de ndices i, j. Es claro
entonces que F
...,i,...,j,...
= 0 si i = j, es decir, si dos (o m as) ndices coinciden, y que si los ndices son todos
distintos, F
i
1
,...,i
n
= (1)
n
i
1
,...,i
n
F
1,2...,n
, donde n
i
1
,...,i
n
es el n umero de permutaciones necesarias para llevar
(i
1
, . . . , i
n
) al orden normal (1, 2, . . . , n). Podemos pues escribir
F
i
1
,...,i
n
=
i
1
,...,i
n
donde = F
1,2,...,n
y
i
1
,...,i
n
es el smbolo completamente antisimetrico que satisface
1,2,...,n
= 1 (smbolo
de Levi-Civita). Por lo tanto,
F(v
1
, . . . , v
n
) = x
i
1
1
. . . x
i
n
n

i
1
...i
n
= Det[X]
donde
Det[X] = x
i
1
1
. . . x
i
p
n

i
1
...i
n
6
es el determinante de la matriz de elementos x
i
j
(la cual es una funcion multilineal completamente anti-
simetrica de las columnas de la matriz, que vale 1 para la matriz identidad). Por ejemplo, para n = 2,
Det[X] = x
i
1
x
j
2

ij
= x
1
1
x
2
2

12
+ x
2
1
x
1
2

21
= x
1
1
x
2
2
x
2
1
x
1
2
, mientras que para n = 3,
Det[X] = x
i
1
x
j
2
x
k
3

ijk
= x
1
1
x
2
2
x
3
3

123
+ x
1
1
x
3
2
x
2
3

132
+ x
2
1
x
3
2
x
1
3

231
+ x
2
1
x
1
2
x
3
3

213
+ x
3
1
x
1
2
x
2
3

312
+ x
3
1
x
2
2
x
1
3

321
= x
1
1
x
2
2
x
3
3
x
1
1
x
3
2
x
2
3
+ x
2
1
x
3
2
x
1
3
x
2
1
x
1
2
x
3
3
+ x
3
1
x
1
2
x
2
3
x
3
1
x
2
2
x
1
3
.
Notemos tambien que x
i
1
x
j
2

ij
= x
1
1
x
2
2
x
2
1
x
1
2
= x
1
1
x
2
2
x
1
2
x
2
1
= x
1
i
x
2
j

ij
, donde
ij
=
ij
, y en general,
Det[X] = x
j
1
1
. . . x
j
n
n

j
1
...j
n
=
1
n!
x
j
1
i
1
. . . x
j
n
i
n

j
1
...j
n

i
1
...i
n
= x
1
i
1
. . . x
n
i
n

i
1
...i
n
,
donde
i
1
...i
n
=
i
1
...i
n
.
Observemos que frente a un cambio de base general, F
i
1
,...,i
n
= F(e
i
1
, . . . , e
i
n
) transforma como
F

1
...i

n
= S
i
1
i

1
. . . S
i
n
i

n
F
i
1
...i
n
= S
i
1
i

1
. . . S
i
n
i

i
1
...i
n
= Det(S)
i

1
...i

n
= Det(S)F
i

1
,...,i

p
Subida y bajada de ndices y tensores cartesianos. En un espacio euclideo, es posible bajar o subir
ndices de un tensor mediante el tensor metricog
ij
= (e
i
, e
j
), y su inversa g
ij
= (f
i
, f
j
), que son tensores
simetricos de tipo (
0
2
) y (
2
0
) respectivamente:
T
j
1
,...,j
q
i
1
...,i
p
= T(e
i
1
, . . . , e
i
p
, f
j
1
, . . . , f
j
q
) = T(e
i
1
, . . . , e
i
p
, g
j
1
j

1
e
j

1
, . . . , g
j
q
j

q
e
j

q
)
= g
j
1
j

1
. . . g
j
q
j

q
T(e
i
1
, . . . , e
i
p
, e
j
1
, . . . , e
jq
) = g
j
1
j

1
. . . g
j
q
j

q
T
i
1
...,i
p
,j

1
,...,j

q
Por ejemplo, si T
j
i
es un tensor (
1
1
), T
ji
= g
ki
T
j
k
es un tensor (
2
0
) y T
ji
= g
jk
T
k
i
es un tensor (
0
2
). Ten-
sores cartesianos: En un espacio euclideo V , si nos restringimos a transformaciones isometricas entre bases
ortonormales, entonces g
ij
= (e
i
, e
j
) =
ij
, g
ij
=
ij
y f
i
= g
ij
e
j
= e
i
. En tal caso no se puede distinguir
entre ndices covariantes y contravariantes y se tiene T
i
= T
i
, T
i
j
= T
ij
= T
ij
, T
ij
kl
= T
ijkl
, etc.
Notemos precisamente que para transformaciones entre bases ortonormales (isometras) R = S
1
= S
t
,
es decir, R
i
j
= S
j
i
. En tal caso, T
j
= R
j
i
T
i
=

i
S
i
j
T
i
, vericandose que T
j
se transforma igual que T
j
.
Pseudotensores cartesianos: Si frente a un cambio de base isometrico en un espacio euclideo se tiene
T

1
...i

p
= Det(S)S
i
1
i

1
. . . S
i
p
i

p
T
i
1
...i
p
se dice que T es un pseudotensor cartesiano de rango p. Se comporta como un tensor de rango p frente
a cambios de base que satisfacen Det[S] = +1 (rotaciones) pero exhibe un cambio de signo adicional si
Det[S] = 1 (reexiones).
Por ejemplo, frente a isometras, el tensor completamente antisimetrico F
i
1
,...i
n
= F(e
1
, . . . , e
n
) es
un pseudoescalar, mientras que (a b)
k
= a
i
b
j

ijk
es un pseudovector (a
i

b
j

k
= R
i

i
R
j

j
a
i
a
j

k
=
R
i

i
R
j

j
R
k

l
S
l
k
a
i
a
j

k
= Det(R)S
l
k
a
i
a
j

ijl
= Det(S)S
l
k
(a b)
l
).
28 Campos tensoriales, smbolos de Christoel y derivada covariante
Consideremos un cambio general de coordenadas x
i
(x
1
, . . . , x
n
) en V = R
n
. Tenemos
dx
i
= R
i
j
dx
j
, R
i
j
=
x
i
x
j
=
j
x
i
La matriz inversa es
S
i
j
=
x
i
x
j
=

j
x
i
y satisface
S
i
j
R
j
k
= R
i
j
S
j
k
=
i
k
Tanto S como R dependen ahora de las coordenadas. Podemos considerar en c/punto la base denida por
e

i
= S
j
i
e
j
siendo aqu e = (e
1
, . . . , e
n
) una base de V independiente de las coordenadas, y e

= (e

1
, . . . , e

n
) dependiente
de las coordenadas.
7
Si e es la base canonica, el tensor metrico original es g
ij
= (e
i
, e
j
) =
ij
mientras que en la nueva base,
g

ij
= (e

i
, e

j
) = S
k
i
S
l
j
g
kl
= S
k
i
S
l
j

kl
, es decir, g

= S
T
S en notaci on matricial. Se obtiene entonces
ds
2
dx
i
dx
i
= dx

i
dx
i
= dx
i
dx
j
g

ij
Un campo vectorial v dependiente de las coordenadas puede pues escribirse como
v = v
i
(x
1
, . . . , x
n
)e
i
= v

i
(x
1
, . . . , x
n
)e

i
, v
i
= R
i
j
v
j
Generalizando, si D V , un campo tensorial real (
q
p
) es una funcion T : D V . . . V

q veces
V

. . . V


p veces
:
T = T
j
1
,...,j
q
i
1
,...,i
p
(x
1
, . . . , x
n
)e
j
1
. . . e
j
q
f
i
1
f
i
p
Frente a un cambio general de coordenadas, se obtiene
T = T

1
,...,j

q
i

1
,...,i

p
(x
1
, . . . , x
n
)e

1
. . . e

q
f
i
1
f
i
p
con
T

1
,...,j

q
i

1
,...,i

p
(x
1
, . . . , x
n
) = S
i
1
i

1
. . . S
i
p
i

p
R
j

1
j
1
. . . R
j

q
j
q
T
j
1
,...,j
q
i
1
,...,i
p
(x
1
, . . . , x
n
)
Por ejemplo, un campo vectorial es un campo tensorial (
1
0
).
Consideremos ahora la derivada de un campo tensorial (
1
0
),

j
v =

j
(v
i
e

i
) = (

j
v
i
)e

i
+ v
i
(

j
e

i
)
El segundo termino da cuenta de la dependencia de la base de las coordenadas. Dado que e

i
= S
k
i
e
k
, se
tiene

j
e

i
= (

j
S
l
i
)e
l
= (

j
S
l
i
)R
k
l
e

k
y por lo tanto

j
e

i
=
k
ij
e

k
donde
k
ij
= (

j
S
l
i
)R
k
l
= S
l
i

j
R
k
l
son los smbolos de Christoel, que dan cuenta de la variacion de los
elementos de la base. Como S
i
j
=

j
x
i

k
ij
=
k
ji
, pues

j
S
l
i
=

i
x
l
=

j
x
l
=

i
S
l
j
.
Se obtiene entonces

j
v = [(

j
v
k
) + v
i

k
ij
]e

k
La expresi on
v
k
;j
v
k
,j
+ v
i

k
ij
donde v
k
,j

j
v
k
, se denomina derivada covariante de las componentes contravariantes, y satisface las
reglas correctas de transformacion. Tenemos pues

j
v = v
k
;j
e

k
En el caso de que la base sea independiente de las coordenadas,
k
ij
= 0 y la derivada covariante se reduce
a la usual (v
i
;j
= v
i
,j
).
Por ejemplo, la divergencia de un campo vectorial v = v
i
e
i
= v
i
e

i
puede entonces expresarse en la forma
(demostrar como ejercicio)

i
v
i
= v
i
,i
= v
i
;i
= (

i
v
i
) + v
i

j
ij
Para componentes covariantes, tenemos v = v
i
f
i
= v

i
f
i
, con f
i
= R
i
k
f
k
, y f
k
independiente de las
coordenadas. Por lo tanto,

j
v = (

j
v

i
)f
i
+ v
i
(

j
f
i
)
Pero

j
f
i
= (

j
R
i
l
)f
l
= S
l
k
(

j
R
i
l
)f
k
=
i
kj
por lo que

j
v = [(

j
v

k
) v

i
kj
]f
k
8
La derivada covariante de componentes covariantes debe pues denirse como
v

k;j
= v

k,j
v

i
kj
para que

j
v = v

k;j
f
k
En forma an aloga se denen las derivadas covariantes de tensores arbitrarios de rango (
p
q
)
Dado que g

ik
= S
l
i
S
m
k
g
lm
, tenemos, para g
lm
independiente de las coordenadas,

j
g

ik
= (

j
S
l
i
)S
m
k
g
lm
+
S
l
i
(

j
S
m
k
)g
lm
= (

j
S
l
i
)R
r
l
S
s
r
S
m
k
g
sm
+ (

j
S
m
k
)R
r
m
S
s
r
S
l
i
g
ls
=
r
ij
g

rk
+
r
kj
g

ir
, por lo que
g

ik;j
= g

ik,j
g

lk

l
ij
g

il

l
kj
= 0
De esta forma, si v

i
= g

ik
v
k
se verica que v

i;j
= g

ik
v
k
;j
. La ultima ecuaci on permite tambien escribir los
smbolos de Christoel directamente en terminos de derivadas del tensor metrico:

i
kl
=
1
2
g
im
(g
mk,l
+ g
ml,k
g
kl,m
)
Ejemplo: Para V = R
2
y coordenadas polares, denidas por
x = r cos , y = r sin
se obtiene dx = dr cos r sin d, dy = dr sin + r cos d, de forma que
S =

cos r sin
sin r cos

, R =
1
r

r cos r sin
sin cos

, g

1 0
0 r
2

con dr = dxcos + dy sin , d = (dxsin + dy cos )/r,


e
r
= e
x
cos + e
y
sin , e

= r(e
x
sin + e
y
cos ), y e
x
, e
y
la base canonica. Obtenemos entonces
ds
2
= dx
2
+ dy
2
= dr
2
+ r
2
d
2
En este caso, los unicos smbolos de Christoel no nulos son

r
=

r
= 1/r,
r

= r.
La divergencia de un campo vectorial
v = v
x
e
x
+ v
y
e
y
= v
r
e
r
+ v

es entonces

x
v
x
+
y
v
y
=
r
v
r
+

+ v
r

r
=
r
v
r
+

+ v
r
/r
El gradiente de un campo escalar puede escribirse en la forma (
i
)e
i
= (
i
)e

i
, donde
i
= g
ij

j
.
Por lo tanto,

x
e
x
+

y
e
y
=

r
e
r
+
1
r
2

Finalmente, el Laplaciano de un campo escalar (la divergencia del gradiente de ) puede expresarse
como

i
=

i
+
i
ji

j
=

2

r
2
+
1
r
2

2
+
1
r

r
9

También podría gustarte