Está en la página 1de 140

Notas de Clase

Teor

a Avanzada de
Matrices
Humberto Sarria Zapata
Departamento de Matem

aticas
Universidad Nacional de Colombia, Bogot

Indice general
Prologo III
0. Algunos Problemas de la Teora de Matrices 1
0.1. Geometra de matrices . . . . . . . . . . . . . . . . . . . . . . 2
0.2. Supercies y bordes conicas . . . . . . . . . . . . . . . . . . . 4
0.3. Problemas de preservacion lineal . . . . . . . . . . . . . . . . 4
0.3.1. Preservacion de bordes conicos . . . . . . . . . . . . . 5
0.3.2. Preservacion de simetra y antisimetra . . . . . . . . . 5
0.4. Perturbacion y localizacion de valores propios . . . . . . . . . 7
0.5. Transformaciones lineales y matrices . . . . . . . . . . . . . . 7
0.5.1. Rango y kernel de una matriz . . . . . . . . . . . . . . 10
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1. Valores propios,Vectores propios y Similaridad 13
1.1. Valores propios y vectores propios . . . . . . . . . . . . . . . 13
1.2. Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . 16
1.3. Propiedades de la funcion determinante . . . . . . . . . . . . 17
1.4. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . 19
1.4.1. Caracterizacion de matrices diagonalizables. . . . . . . 19
1.4.2. Metodo de la potencia . . . . . . . . . . . . . . . . . . 27
1.5. Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Equivalencia Unitara y Matrices Normales 33
2.1. Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2. Equivalencia Unitaria . . . . . . . . . . . . . . . . . . . . . . 37
i

Indice general
2.3. Teorema de Schur . . . . . . . . . . . . . . . . . . . . . . . . 38
2.4. Algunas implicaciones del Teorema de Schur . . . . . . . . . . 39
2.5. Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6. La factorizacion QR . . . . . . . . . . . . . . . . . . . . . . . 53
2.6.1. Metodos para encontrar la factorizacion QR . . . . . . 54
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3. Formas Canonicas 62
3.1. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . 63
3.2. Polinomios y matrices . . . . . . . . . . . . . . . . . . . . . . 71
3.3. Matriz compa nera de un polinomio monico . . . . . . . . . . 76
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4. Matrices Hermitianas y Simetricas 80
4.1. Caracterizacion de matrices hermitianas . . . . . . . . . . . . 80
4.2. Caracterizacion variacional de valores propios . . . . . . . . . 86
4.2.1. Interpretacion geometrica de
max
= max
x

x=1
x

Axy

mn
= mn
x

x=1
x

Ax . . . . . . . . . . . . . . . . . . . . 88
4.3. Matrices Simetricas Complejas . . . . . . . . . . . . . . . . . 95
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5. Normas Matriciales 106
5.1. Normas Matriciales Inducidas . . . . . . . . . . . . . . . . . . 110
5.2. Normas unitariamente invariantes . . . . . . . . . . . . . . . . 117
5.2.1. Descomposicion a valores singulares . . . . . . . . . . 118
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6. Localizacion de Valores Propios 127
6.1. Teorema de Gershgorin . . . . . . . . . . . . . . . . . . . . . 127
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Apendice 131
A. Gracas 132
Bibliografa 132
ii
Prologo
iii
Prologo
iv
Captulo 0
Problemas de la Teora de
Matrices
El conjunto de las matrices de n las y m columnas, con entradas en
un cuerpo K, lo denotamos mediante /
nm
(K). En general el cuerpo K
representara, los cuerpos R o C. Si n = m, usaremos el smbolo /
n
(K),
para representar el espacio de las matrices cuadradas en el cuerpo K.
Notacion.
1. Si A /
nm
(K), con A = (a
ij
), la traspuesta de A, es la matriz A
t
cuya entrada (i, j)corresponde a la entrada a
ji
. La conjugada de A,
es la matriz A = (a
ij
). La adjunta o adjunta hermitiana es la matriz
A

= A
t
.
Ejercicio 1. A
t
= A
t
.
2. Una matriz A /
n
(K) se denomina, simetrica si A
t
= A, anti-
simetrica si A
t
= A, hermitiana A

= A, antihermitiana si A

= A,
normal si A

A = AA

, unitaria si A

A = AA

= I, ortogonal si
A
t
A = AA
t
= I.
3. Denotaremos:
1
2 Teoria Avanzada de Matrices
Mediante los smbolos Los conjuntos conformados por
S
n
(K) Matrices simetricas
AS
n
(K) Matrices antisimetricas
H
n
(K) Matrices hermitianas
AH
n
(K) Matrices antihermitianas
N
n
(C) Matrices normales,
U
n
(K) Matrices unitarias y
O
n
(K) Matrices ortogonales
(reales o complejas seg un K sea R o C)
Ejercicio 2. Cuales de los conjuntos denidos en el numeral 3 son
espacios vectoriales, cuales son grupos multiplicativos (considere la
suma, producto por escalar y producto entre matrices tradicional).
4. El conjunto de todas las matrices no singulares (invertibles o inversibles)
GL
n
(K), se denomina el grupo lineal general . En particular el conjun-
to conformado por todas las matrices con determinante 1, se denomina
grupo unimodular y se denota mediante SL
n
(K).
0.1. Geometra de matrices
Es bien conocido que el K-espacio de las matrices /
n
(K), es isomorfo
al K-espacio K
n
2
. Una manera de establecer este isomorsmo es mediante
la funcion vec() : /
n
(K) K
n
2
dada por
vec A = (a
11
, . . . , a
1n
, a
21
, . . . , a
2n
, . . . , . . . , a
n1
, . . . , a
nn
)
t
en donde t representa el operador de transposicion y los valores a
ij
corre-
sponden a las entradas de la matriz A.
En un espacio vectorial estamos interesados en nociones geometricas co-
mo las de distancia, y angulo. Estas nociones nos permiten inducir nociones
topologicas, y estudiar operaciones y convergencia de algoritmos denidos
sobre estos espacios desde un tipo de vista analtico.
Denicion 0.1. Sean A, B /
n
(K), denimos
A, B) = Tr(B

A) (1)
Problemas de la Teora de Matrices 3
Observese que A, I
n
) = Tr(A) .
Ejercicio 3. Pruebe que la operacion , ) es un producto interior.
Ejercicio 4. Dena |A|
F
=
_
A, A). Pruebe que | |
F
es una norma.
Llamaremos a esta norma, norma de Frobenius o norma euclidiana.
Por la desigualdad de Cauchy-Schwarz, [A, B)[ |A|
F
|B|
F
para todo
A, B /
n
(K). La igualdad se da si, y solo si, A es un m ultiplo escalar de
B.
Ahora, si A y B son no nulos y A, B) es un n umero real entonces
1
A,B)
|A|
F
|B|
F
1 En este ultimo caso podemos denir el coseno del
angulo que forman A y B, (A, B) mediante cos (A, B) =
A,B)
|A|
F
|B|
F
esta
ultima expresion nos permite calcular el angulo (A, B) entre las matrices.
graco 1
Ejercicio 5. Sean A, B /
n
(K), pruebe que la funcion d(A, B) = |B
A|
F
dene una metrica sobre /
n
(K).
Denicion 0.2. Sea S /
n
(K), S ,= . El ortogonal de S, es el conjunto
S

conformado por todo A /


n
(K), para el cual, se cumple que A, B) = 0
para todo B S.
Ejercicio 6.
/
n
(C) = S
n
(C) AS
n
(C)
= H
n
(C) AH
n
(C)
Ejercicio 7. S
n
(C)

= AS
n
(C). Sin embargo, H
n
(C)

,= AH
n
(C), brindar
un contra ejemplo en este ultimo caso.
Ejercicio 8. Existe alg un producto interior sobre /
n
(C), para el cual
H
n
(C)

= AH
n
(C)? Brinde un ejemplo o indique por que tal producto
interior no puede existir.
Ejercicio 9. Si existe el producto interior arriba denido se mantiene la
igualdad S
n
(C)

= AS
n
(C), para este?
4 Teoria Avanzada de Matrices
Ejercicio 10. Pruebe que existe un producto interior bajo el cual puede
medirse el angulo conformado por cualquier par de matrices A, B /
n
(C).
Ejercicio 11. Reconsidere los ejercicios 8 y 9.
Ejercicio 12. Existe alguna relacion entre los productos interiores denidos
por (1) y el producto interior denido en el ejercicio 10.
0.2. Supercies y bordes conicas
La supercie conica asociada a una matriz A /
n
(C), A ,= 0 es el
conjunto SC(A) = X /
n
(C) [ Tr A|X|
F
= Tr X|A|
F
Si A = 0,
entonces SC(A) = 0.
El borde c onico asociado a una matriz A /
n
(C), A ,= 0 es el conjunto
BC(A) = X SC(A) [ Tr X = Tr A Si A = 0, entonces BC(A) = 0.
Ejercicio 13. Que tipo de supercies son SC(A) y BC(A)? Son estas var-
iedades diferenciales?
0.3. Problemas de preservacion lineal
Los problemas de preservacion lineal plantean la busqueda de caracter-
izaciones de operadores lineales (u operadores continuos) denidos sobre
espacios de matrices y que preservan cierto tipo de propiedades, como por
ejemplo el determinante, la traza, el permanente; propiedades como conmu-
tatividad; conjuntos como el espectro, los vectores propios, matrices nor-
males, hermitianas, simetricas, antisimetra etc.
Historicamente Frobenius inicia este tipo de estudios al resolver el sigui-
ente resultado.
Teorema 0.1. Sea : /
n
(C) /
n
(C) un operador lineal, entonces las
siguientes armaciones son equivalentes:
(a) preserva determinante y traza.
(b) preserva estructura espectral.
(c) preserva polinomios caractersticos.
Problemas de la Teora de Matrices 5
(d) preserva polinomios caractersticos de matrices hermitianas.
(e) Existe una matriz no singular S /
n
(C), tal que para todo
X /
n
(C), (X) = S
1
XS.
0.3.1. Preservacion de bordes conicos
Considere un operador lineal : /
n
(C) /
n
(C). Y tomemos una
matriz A /
n
(C). Nos preguntamos que cualidades caracterizan a los
operadores lineales que preservan bordes conicos, es decir, que cualidades
ha de tener , para que (BC(A)) = BC(A). Planteamos una respuesta a
la anterior pregunta en la siguiente proposicion.
Proposicion 0.1. Sea : /
n
(C) /
n
(C) un operador lineal, entonces
las siguientes armaciones son equivalentes:
(a) es un operador ortogonal real tal que (I) = I.
(b) Tr((A)) = (Tr(A)), para toda A /
n
(C).
(c) (BC(A)) = BC(A), para toda A /
n
(C).
(d) (SC(A)) = SC(A), para toda A /
n
(C).
0.3.2. Preservacion de simetra y antisimetra
Denotemos con a un operador lineal y a su matriz de representacion en
la base canonica. Notese que la matriz es de tama no n
2
n
2
. Describiremos
en terminos de bloques de matrices
ij
, de tama no n n de la siguiente
manera
=
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_

_
Denotaremos la entrada (k, l) del bloque
ij
, con
kl
ij
, en terminos de esta
simbologa podemos enunciar el teorema central de operadores que preservan
simetra y antisimetra como sigue:
Teorema 0.2. preserva simetra y antisimetra, si y solo si,
kl
ij
=
ij
kl
,
para todo i, j, k, l = 1, . . . , n.
6 Teoria Avanzada de Matrices
Proposicion 0.2. preserva simetra y antisimetra, si y solo si, con-
muta con el operador de transposicion, es decir, si para todo A /
n
(C),
(A
t
) = (A)
t
.
Demostracion.
) Sea A /
n
(C). Sabemos que existen A
s
y A
as
, matriz simetrica y an-
tisimetrica, respectivamente, tales que A = A
s
+A
as
. Por hipotesis tenemos
que
(A
t
) = (A
s
A
as
)
= (A
s
) (A
as
)
= (A
s
)
t
+(A
as
)
t
= [(A
s
) +(A
as
)]
t
= (A)
t
) Tomemos ahora A S
n
. Por hipotesis,
(A)
t
= (A
t
)
por ser A una matriz simetrica.
(A)
t
= (A)
De lo anterior concluimos que (A) es una matriz simetrica. Ademas, si
A AS
n
, en este caso tenemos que
(A)
t
= (A
t
)
= (A)
= (A)
de donde se sigue que (A) es antisimetrica.
Proposicion 0.3. Si es un operador normal, las siguientes armaciones
son equivalentes:
(a) preserva simetra.
(b) preserva antisimetra.
Problemas de la Teora de Matrices 7
(c) tiena una base de vectores propios conformada unicamente por matri-
ces simetricas y antisimetricas.
Proposicion 0.4. Sea un operador lineal que preserva estructura espectral
y simetra, si y s olo si, existe una matriz ortogonal Q /
n
(C), tal que, o
bien (X) = QXQ
t
, o (X) = QX
t
Q
t
.
0.4. Perturbacion y localizacion de valores propios
Muchos problemas en matematica pura y aplicada que involucran calcu-
los con matrices se resuelven calculando los valores propios de las matrices
involucradas. En algunos casos no es necesario conocer con exactitud estos
valores sino que basta con conocer algunas cotas o su localizacion global en
el plano complejo.
Quizas uno de los resultados mas interesantes en este sentido es el teo-
rema de Gershgorin, que arma que si A = (a
ij
), y hacemos
R
i
=
n

j=1
j,=i
[a
ij
[
entonces los valores propios de A estan contenidos en la union de discos
n
_
i=1
z C : [z a
ii
[ R
i

Otro resultado interesante alrededor del tema es el teorema de Wolkwitz y


Styan que considera medidas estadsticas de los valores propios.
Tambien existen problemas que se reeren, a hacer estimaciones de la
modicacion que se presentan en los valores propios cuando se modican las
entradas de una matriz; consideremos por ejemplo una matriz A /
n
(C), y
supongamos que hemos modicado o perturbado de tal forma que obtenemos
una matriz A+E.
0.5. Transformaciones lineales y matrices
Existen dos aspectos importantes en la teoria de matrices. Por un lado
esta el aspecto practico del calculo en donde las matrices son usadas como un
8 Teoria Avanzada de Matrices
metodo practico para representas, manipular e interrelacionar informacion
que esta conectada de manera lineal. Este fue el primer aspecto historico de
la teora de las matrices que fue explotado, desde el III milenio antes de la era
cristiana, por culturas como la china y la babilonia , y por el otro lado esta el
aspecto teorico, explotado por los matematicos del siglo XIX, al observar que
el algebra de las transformaciones lineales es la misma que el algebra de las
matrices en donde las matrices surgen como un lenguaje que nos permite
representar cierto tipo de funciones especiales de las matematicas llamadas
transformaciones lineales. Presentamos en esta seccion este aspecto.
Consideremos dos K-espacios vectoriales V y W de dimensiones nitas n
y m respectivamente, y tomemos dos bases para estos espacios,
B
1
= v
1
, . . . , v
n
y B
2
= w
1
, . . . , w
m
, bases para V y W respectivamente.
Ahora consideremos el siguiente graco:
V
T
W
[ ]
B
1

_
[ ]
B
2
K
n

T
K
m
Con el n de describir cada uno de los terminos usados en el graco anterior,
tomemos v V y w W. Sabemos por el algebra lineal que existen colec-
ciones de vectores
1
,
2
, . . . ,
n
,
1
,
2
, . . . ,
m
K, unicas tales que
v =
1
v
1
+ +
n
v
n
y w =
1
w
1
+ +
m
w
m
Denimos la representacion
de v en la base B
1
[ v ]
B
1
=
_

2
.
.
.

n
_

_
El operador [ ]
B
1
, se denomina operador de representacion respecto a la
base B
1
y la representacion de w en la base B
2
[ w]
B
2
=
_

2
.
.
.

m
_

_
Problemas de la Teora de Matrices 9
Ejercicio 14. Para cualquier K-espacio vectorial V de dimension nita, y
para cualquier base B de V , el operador de representacion en la base B,
[ ]
B
es una transformacion lineal biyectiva entre los espacios vectoriales V
y K
n
.
El ejercicio anterior muestra que V K
n
y que W K
m
. (isomor-
smos entre espacios vectoriales) Nuestro problema siguiente consiste en
encontrar una transformacion lineal

T, tal que T(v) =
_

T[ v ]
B
1
_
1
B
2
. Sabemos
que T queda denida por T(v
1
), T(v
2
), . . . , T(v
n
), ademas, existe para cada
i = 1, 2, . . . , n una coleccion t
1i
, t
2i
, . . . , t
mi
K tal que
[ Tv
i
]
B
2
=
_

_
t
1i
t
2i
.
.
.
t
mi
_

_
Entonces,
[ Tv ]
B
2
=
_
T
n

i=1

i
v
i
_
B
2
=
n

i=1

i
[ Tv
i
]
B
2
=
n

i=1

i
_

_
t
1i
t
2i
.
.
.
t
mi
_

_
=
_

_
t
11
t
1n
.
.
.
.
.
.
.
.
.
t
n1
t
nn
_

_
_

2
.
.
.

n
_

_
La anterior igualdad la podemos escribir en forma compacta en la forma
[ Tv ]
B
2
=
B
2
[ T ]
B
1
[ v ]
B
1
10 Teoria Avanzada de Matrices
donde
B
2
[ T ]
B
1
= [ t
ij
]
mn
se denomina la matriz de representacion de T en
las bases B
1
y B
2
. Si V = W y B
1
= B
2
, entonces
B
2
[ T ]
B
1
, se denomina la
matriz de representacion de T en la base B
1
.
Consideremos ahora la transformacion identica Id : V V denida por
Idv = v, para todo v V. Entonces por lo expuesto anteriormente,
[ v ]
B
2
= [ Idv ]
B
2
=
B
2
[ Id]
B
1
[ v ]
B
1
.
Esta ultima ecuacion nos permite relacionar las representaciones de un
vector v, en las bases B
1
y B
2
, si conocemos la matriz
B
2
[ Id]
B
1
, es por esta
razon que esta matriz se denomina matriz cambio de base, de B
1
a B
2
.
Ejercicio 15. Probar que toda matriz de cambio de base es invertible.
Demostracion. De la ultima igualdad tenemos que
[ v ]
B
2
=
B
2
[ Id]
B
1
[ v ]
B
1
=
B
2
[ Id]
B
1
[ Idv ]
B
1
=
B
2
[ Id]
B
1
B
1
[ Id]
B
2
[ v ]
B
2
y esto se tiene para todo vector v V, en particular para los vectores que
conforman la base de B
2
, de aqu se concluye que
B
2
[ Id]
B
1
B
1
[ Id]
B
2
= I
n
.
Ejercicio 16. Sean, V un espacio vectorial n-dimensional, T : V V una
transformacion lineal y B
1
y B
2
bases para V, pruebe que
B
2
[ T ]
B
2
=
B
2
[ Id]
B
1
B
1
[ T ]
B
1
B
1
[ Id]
B
2
(2)
0.5.1. Rango y kernel de una matriz
1. Si A /
mn
(K), denimos el kernel o n ucleo de A como el conjunto
ker(A) = v K
n
: Av = 0
m

Notese que si K = R, ker(A) corresponde al conjunto de los vectores


en C
n
, que son ortogonales a los vectores columna de A.
Problemas de la Teora de Matrices 11
2. La imagen de K
n
, bajo A se denomina rango o espacio imagen de A,
y corresponde al conjunto
Ran(A) = Av K
m
: v K
n

Propiedades
(a) ker(A) es un subespacio de K
n
(ker(A) _ K
n
), y Ran(A)es un
subespacio de K
m
(Ran(A) _ K
n
).
(b) Denotemos mediante A
(i)
, la columna i-esima de la matriz A. En-
tonces,
Ran(A) = A
(1)
, A
(2)
, . . . , A
(m)
)
tambien llamaremos rango de A al valor
rank(A) = dimRan(A).
Teorema 0.3 (Teorema de la dimension). Para toda matriz A /
mn
(K),
se tiene que
dimRan(A) + dimker(A) = n.
Ejercicios
0.1 A
t
= A
t
.
0.2 Cuales de los conjuntos denidos en el numeral 3 son espacios vectori-
ales, cuales son grupos multiplicativos (considere la suma, producto por
escalar y producto entre matrices tradicional).
0.3 Pruebe que la operacion , ) es un producto interior.
0.4 Dena |A|
F
=
_
A, A). Pruebe que | |
F
es una norma (norma de
Frobenius).
0.5 Sean A, B /
n
(K), pruebe que la funcion d(A, B) = |BA|
F
dene
una metrica sobre /
n
(K).
12 Teoria Avanzada de Matrices
0.6
/
n
(C) = S
n
(C) AS
n
(C)
= H
n
(C) AH
n
(C)
0.7 S
n
(C)

= AS
n
(C). Sin embargo, H
n
(C)

,= AH
n
(C), brindar un contra
ejemplo en este ultimo caso.
0.8 Existe alg un producto interior sobre /
n
(C), para el cualH
n
(C)

=
AH
n
(C)? Brinde un ejemplo o indique por que tal producto interior no
puede existir.
0.9 Si existe el producto interior arriba denido se mantiene la igualdad
S
n
(C)

= AS
n
(C), para este?
0.10 Pruebe que existe un producto interior bajo el cual puede medirse el
angulo conformado por cualquier par de matrices A, B /
n
(C).
0.11 Reconsidere los ejercicios 8 y 9.
0.12 Existe alguna relacion entre los productos interiores denidos por (1) y
el producto interior denido en el ejercicio 10.
0.13 Que tipo de supercies son SC(A) y BC(A)? Son estas variedades difer-
enciales?
0.14 Para cualquier K-espacio vectorial V de dimension nita, y para cualquier
base B de V , el operador de representacion en la base B, [ ]
B
es una
transformacion lineal biyectiva entre los espacios vectoriales V y K
n
.
0.15 Probar que toda matriz de cambio de base es invertible.
0.16 Sean, V un espacio vectorial n-dimensional, T : V V una transfor-
macion lineal y B
1
y B
2
bases para V, pruebe que
B
2
[ T ]
B
2
=
B
2
[ Id]
B
1
B
1
[ T ]
B
1
B
1
[ Id]
B
2
(3)
Captulo 1
Valores propios,Vectores
propios y Similaridad
1.1. Valores propios y vectores propios
Denicion 1.1. Sean A /
nn
(C) y x C
n
, x ,= 0, decimos que x es un
vector propio de A, si existe un escalar C tal que
Ax = x
Al escalar , se le denomina valor propio de A asociado al vector propio
de x. Al par (x, ), se le denomina par propio de A.
Denicion 1.2. El conjunto de todos los valores propios de A se denomina
espectro de A y se nota por (A). El radio espectral de A es el valor
(A) = max
(A)
: [
(A) corresponde al radio de un crculo con centro en (0,0), que con-
tiene todos los valores propios de A.
13
14 Teora Avanzada de Matrices

(
A
)
y
x

Observaciones. Sea A /
n
(C)
1. (A) = (A
t
)
2. Para cada C, sea
V
A
() = x C
n
: Ax = x
3. V
A
() es un espacio vectorial para todo C. La dimension de V
A
()
se denomina multiplicidad geometrica de , y la denotamos mediante
el smbolo mg
A
(). Si (A), al conjunto V
A
() lo denominamos
espacio propio de A.
4. Si / (A), entonces V
A
() = 0.
Ejercicio 17. Para que tipos de matrices (de las denidas anterior-
mente) se tiene que (A) = (A

).
5. Suponga que
1
, . . . ,
s
, donde s n son los valores propios distintos
de A, y suponga ademas que v
1
, . . . , v
s
son vectores propios asocia-
dos. Entonces, v
1
, . . . , v
s
son vectores linealmente independientes y en
consecuencia V
A
(
i
) V
A
(
j
) = 0 para todo i ,= j.
Valores propios, Vectores propios y Similaridad 15
Demostracion. Sean,
1
, . . . ,
s
C tales que

1
v
1
+ +
s
v
s
= 0 (1.1)
tomemos i entero tal que 1 i s. y consideremos la transformacion
lineal
s

k=1
k,=i
(A
k
I),
aplicada a la igualdad (1.1) (notese que cualquier par de operadores
de la forma A
r
I conmutan)
s

k=1
k,=i
(A
k
I)(
1
v
1
+
2
v
2
+ +
s
v
s
) = 0
de donde se sigue que

i
s

k=1
k,=i
(A
k
I)v
i
=
i
s

k=1
k,=i
(
i

k
)v
i
= 0
y como v
i
,= 0 y
i

k
,= 0, para k ,= i, entonces
i
= 0, de
aqu concluimos que, los vectores v
1,
v
2
, . . . , v
s
son vectores linealmente
independientes, y que V
A
(
i
) V
A
(
j
) = 0, para todo i ,= j..
6. 0 (A) si, y solo si, A es no singular.
Denicion 1.3. Sean A /
n
(C) y v C
n
con v ,= 0, decimos que v es
un vector propio a izquierda de A, si existe un escalar (A), tal que
v

A = v

con v

= v
t
Proposicion 1.1. Para cada (A), existe un vector propio a izquierda
asociado.
Demostracion. Por hipotesis existe un vector no nulo v C
n
, tal que
Av = v, se sigue que A I es una matriz singular, de donde sus -
las son linealmente dependientes, en consecuencia existe un vector no nulo
u C
n
, para el cual u
t
(A I) = 0, o equivalentemente, u
t
A = u
t
, asi, si
w = u, claramente se tiene que w

A = w

.
16 Teora Avanzada de Matrices
Proposicion 1.2. Sean A /
n
(C) y , (A) con ,= . Entonces,
todo vector propio a izquierda asociado a , es ortogonal a todo vector propio
a derecha asociado a .
Demostracion. Sean u, v C
n
vectores propios a izquierda y derecha res-
pectivamente, asociados a y . Entonces
u

Av = u

v
= u

v
se sigue que ( )u

v = 0, pero ,= , concluimos que u

v = 0.
Ejercicio 18. Caracterizar las matrices para las cuales todo vector propio
a izquierda es un vector propio (a derecha).
1.2. Polinomio caracterstico
Existe alg un metodo algoritmico que nos permita calcular todos los
valores propios de una matriz A /
n
(C)? Sabemos que si A tiene como
vector propio a v, con valor propio asociado , entonces la ecuacion
(A I)x = 0
tiene una solucion no trivial a saber x = v, esto implica seg un el algebra
lineal que la matriz A I es no singular, lo cual es equivalente a armar
que
det(A I) = 0
Podemos en consecuencia caracterizar los valores propio de una matriz
cualquiera A, como las raices del polinomio
p
A
(t) = det(tI A)
al cual llamaremos polinomio caracterstico de A.
Ahora, dado que por la expansion de Lagrange
det A =

Sn
sgn()
n

i=1
a
i(i)
Valores propios, Vectores propios y Similaridad 17
en donde S
n
, denota el conjunto de las permutaciones del conjunto 1, . . . , n,
podemos armar que el polinomio caracterstico de A, tiene n raices.
Posteriormente (como una consecuencia del teorema de triangularizacion
de Schur) veremos que, si
1
,
2
, . . . ,
s
, donde s n son los valores propios
distintos de A, entonces el polinomio caractersco de A, puede expresarse
mediante la igualdad
p
A
(t) =
s

i=1
(t
i
)
m
i
aqu, el entero m
i
se denomina multiplicidad algebraica de
i
, y lo denotare-
mos mediante ma
A
(
i
).
1.3. Propiedades de la funcion determinante
1. Sean, A, B /
n
(C), entonces det(AB) = det(A) det(B).
2. Sea D =
_
A C
0 B
_
, donde D /
n
(C), A /
k
(C), B /
nk
(C) y
C /
kx(nk)
(C). Entonces
det(D) = det(A) det(B) (1.2)
Demostracion. Si A o B son singulares, entonces las columnas de A
son linealmente dependientes (l.d), o las las de B son linealmente
dependientes, de aqu, por la forma que tiene la matriz D, concluimos
que, sus primeras k columnas son l.d., o sus ultimas n k las son
l.d. y para este primer caso, la igualdad (1.2) se satisface. Supongamos
entonces que, A y B son no singulares, entonces podemos escribir
D =
_
A
1
2
CB
1
0 I
__
I
1
2
A
1
C
0 B
_
de esta igualdad y de la propiedad 1. se obtiene (1.2).
Corolario 1.1.
p
D
(x) = p
A
(x) p
B
(x)
18 Teora Avanzada de Matrices
Ejercicio 19. Sea A /
n
(C) y S /
n
(C) no singular, entonces
p
S
1
AS
(x) = p
A
(x)
Proposicion 1.3. Para toda matriz A /
n
(C), se tiene que
mg
A
() ma
A
()
para cada (A).
Demostracion. Sean (A), k = mg
A
() = dimV
A
().Ademas supong-
amos que s
1
, . . . , s
k
es una base para V
A
(), notese que s
1
, . . . , s
k
son
vectores propios asociados con . Completemos esta coleccion a una base
s
1
. . . , s
k
, s
k+1
, . . . , s
n
para C
n
. Consideremos la matriz
S =
_
S
(1)
S
(n)
_
en donde S
(i)
= s
i
, para cada 1 i n. Es claro que S es no singular.
Ahora escribamos S en bloques matriciales de la siguiente manera
S =
_

S
k

S
k+1
_
en donde

S
k
corresponde a las primeras k columnas de S, y

S
k+1
corresponde
a sus restantes nk columnas. Adicionalmente escribamos S
1
por bloques
en la forma
S
1
=
_

S
k

S
k+1
_
en donde

S
k
representa las primeras k las de S
1
y

S
k+1
representa las
restantes n k las de S
1
. Entonces,
S
1
AS = S
1
A
_

S
k

S
k+1
_
= S
1
_

S
k
A

S
k+1
_
=
_

S
k

S
k+1
_
_

S
k
A

S
k+1
_
=
_
I
k

S
k
A

S
k+1
0

S
k+1
A

S
k+1
_
Valores propios, Vectores propios y Similaridad 19
De aqu y por ejercicios anteriores tenemos que
p
A
(x) = p
S
1
AS
(x) = (x )
k
p

S
k+1
A

S
k+1
(x)
pero por otro lado tenemos que p
A
(x) = (x )
ma
A
()
q(x) en donde q(x)
es un polinomio que no tiene a x como factor. Del algebra sabemos que
el conjunto de los polinomios es un dominio de factorizacion unica, luego
necesariamente de lo anterior concluimos que
(x )
k
[ (x )
ma
A
()
de lo cual concluimos que k ma
A
() lo que es lo mismo que mg
A
()
ma
A
().
Comenzaremos el estudio de las factorizaciones de una matriz. Estas facto-
rizaciones revelaran la estructura de los vectores propios y/o de los valores
propios de una matriz. Iniciaremos con las matrices que pueden llevarse a
una forma diagonal va similaridad.
1.4. Matrices diagonalizables
Denicion 1.4. Una matriz es diagonalizable si es similar a una matriz
diagonal.
Ejercicio 20. No toda matriz es diagonalizable.
Por ejemplo la matriz, A =
_
0 1
0 0
_
tiene como valor propio al 0, con una
multiplicidad geometrica de 2. Si la matriz A fuera diagonalizable, existira
una matriz no singular S, tal que S
1
AS = 0, lo cual implicara que A = 0,
y esto evidentemente es una contradiccion.
1.4.1. Caracterizaci on de matrices diagonalizables.
Teorema 1.1. Sea A /
n
(C). Las siguientes armaciones son equiva-
lentes.
20 Teora Avanzada de Matrices
(a) A es diagonalizable.
(b) A tiene una coleccion de n vectores propios linealmente independientes.
(c) mg
A
() = ma
A
(), para todo (A).
Demostracion.
(a) (b). Si A es diagonalizable, existe una matriz no singular S, tal que
S
1
AS = diag(
1
,
2
, . . . ,
n
), en donde
1
,
2
, . . . ,
n
C. Se sigue que
AS = S diag(
1
,
2
, . . . ,
n
), as escribiendo S en terminos de sus columnas
esta igualdad podemos escribirla como
A[S
(1)
S
(2)
S
(n)
] = [S
(1)
S
(2)
S
(n)
]
_

1
0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
lo cual es equivalente a armar que
AS
(i)
=
i
S
(i)
, para cadai = 1, 2, . . . , n.
es decir, los vectores de la coleccion S
(1)
, S
(2)
, . . . , S
(n)
, son vectores pro-
pios de A, y son linealmente independientes por ser columnas de la matriz
no singular S.
(b) (a). Basta regresarnos en los pasos de la prueba anterior (cuidando el
lenguaje).
(a) (c). Si A es diagonalizable, existe una matriz no singular S, tal que
S
1
AS = diag(
1
,
2
, . . . ,
n
), en donde
1
,
2
, . . . ,
n
= (A). Supon-
gamos sin perdida de generalidad que
1
,
2
, . . . ,
n
estan ordenados de tal
manera que si

1
,

2
, . . . ,

k
, son todos los valores propios distintos de A,
con multiplicidades algebraicas 1 r
1
. . . r
k
n respectivamente.
entonces

1
=
2
= . . . =
r
1
=

1
,

r
1
+1
= . . . =
r
1
+r
2
=

2
,
.
.
.

r
1
++r
k1
+1
= . . . =
r
1
++r
k1
+s
k
=

k
,
Valores propios, Vectores propios y Similaridad 21
por denicion tomamos r
0
= 0. Seg un la anterior notacion, ma
A
(

j
) = r
j
,
para cada 1 j k. Notese que
AS
(j)
=

i
S
(j)
1 i k
i1

e=0
r
e+1
j
i

e=1
r
e
(1.3)
Es claro que la coleccion
_
S
(j)
:
i1

e=0
r
e+1
j
i

e=1
r
e
_
es una coleccion de vectores linealmente independiente y por (1.3)
S
(j)
V
A
(

i
). Ademas ma
A
(

j
) = r
j
, para cada 1 j k. Concluimos
que
ma
A
(

i
) mg
A
(

i
)
Ejercicio 21. (c) (a). Use ma
A
() = mg
A
() y construya la matriz
no singular S, que diagonalice a A. (Regresarse en los pasos de implicacion
anteriormente probada).
Proposicion 1.4. Sea A /
n
(C), una matriz con n valores propios dis-
tintos, entonces A es diagonalizable.
Demostracion. Es una consecuencia de la observacion (5), y de la parte (b)
del teorema anterior.
Observacion. El recproco de la proposicion no es cierto, basta observar que
la matriz identica es diagonalizable, pero sin embargo, sus valores propios
no son distintos.
Corolario 1.2. Sean, A /
n
(C), (A). Entonces, A no es diagona-
lizable, si
rank(A I) > n ma
A
() (1.4)
Demostracion. Por el teorema de la dimension, tenemos que
mg
A
() = dim(ker(AI))
= n rank(AI)
22 Teora Avanzada de Matrices
de aqu y (1.4)
mg
A
() < n (n ma
A
())
de donde
mg
A
() < ma
A
()
Proposicion 1.5. Sean A /
n
(C), B /
n
(C) y C =
_
A 0
mn
0
nm
B
_
una matriz diagonal por bloques. Entonces, C es diagonalizable si y solo si
A y B son diagonalizables.
Demostracion.
) El recproco es claramente evidente.
) Supongamos que C es diagonalizable. Por uno de los ejercicios anteriores
tenemos que
p
C
(x) = p
A
(x) p
B
(x) (1.5)
es decir
(C) = (A) (B) (1.6)
De (1.5) y (1.6) tenemos que
ma
C
() = ma
A
() + ma
B
() (1.7)
para todo (C). Probaremos a continuacion que
mg
C
() = mg
A
() + mg
B
() (1.8)
para ver (1.8). Probemos inicialmente lo siguiente:
V
C
() =

V
A
()

V
B
() (1.9)
para todo (C), en donde

V
A
() =
__
v
A
0
m
_
C
n+m
[ v
A
V
A
()
_
Valores propios, Vectores propios y Similaridad 23
y

V
B
() =
__
0
m
v
B
_
C
n+m
[ v
B
V
B
()
_
Para probarlo, tomemos v V
C
() y escribamos v =
_
v
A
v
B
_
, en donde
v
A
C
n
y v
B
C
m
. Entonces,
Cv = v
_
A 0
0 B
_ _
v
A
v
B
_
=
_
v
A
v
B
_
luego necesariamente, Av
A
= v
A
y Bv
B
= v
B
, concluimos de lo anterior
que v

V
A
()

V
B
(). Ahora si v ,= 0

V
A
()

V
B
(), existen v
A
C
n
y
v
B
C
m
vectores propios de A y B respectivamente, asociados con . Es
claro que v =
_
v
A
v
B
_
es un vector propio de C con valor propio .
Ahora como C es diagonalizable ma
C
() = mg
C
(), de aqu y de (1.7) y
(1.8) concluimos que
mg
A
() + mg
B
() = ma
A
() + ma
B
()
entonces
0 ma
A
() mg
A
() = mg
B
() ma
B
() 0
se sigue que ma
A
() = mg
A
() y que mg
B
() = ma
B
(), podemos armar
de lo anterior que A y B son diagonalizables.
Ejercicio 22. Sean, A
i
M
n
i
(C) donde 1 i k y consideremos la
matriz diagonal por bloques
A =
_

_
A
1
0
.
.
.
.
.
.
.
.
.
0 A
k
_

_
Entonces, A es diagonalizable si y solo si A
i
es diagonalizable para todo i.
24 Teora Avanzada de Matrices
Denicion 1.5. Un par de matrices diagonalizables A, B /
n
(C) son si-
multaneamente diagonalizables, si existe una matriz no singular
S /
n
(C), tal que S
1
AS y S
1
BS son matrices diagonales.
Ejercicio 23. La diagonalizacion simultanea dene una relacion de equivalen-
cia, sobre el conjunto de las matrices diagonalizables.
Teorema 1.2. Sean A, B /
n
(C) diagonalizables. Entonces A y B son
simultaneamente diagonalizables si y solo si A y B conmutan.
Demostracion.
) Si A y B son simultaneamente diagonalizables, podemos escribirlas en
la forma
A = S
1
diag(
1
, . . . ,
n
)S y B = S
1
diag(
1
, . . . ,
n
)S
en donde S es una matriz no singular, (A) =
1
, . . . ,
n
y (B) =

1
, . . . ,
n
, entonces
AB = S
1
diag(
1
, . . . ,
n
)SS
1
diag(
1
, . . . ,
n
)S
= S
1
diag(
1
, . . . ,
n
) diag(
1
, . . . ,
n
)S
= S
1
diag(
1
, . . . ,
n
) diag(
1
, . . . ,
n
)S
= S
1
diag(
1
, . . . ,
n
)SS
1
diag(
1
, . . . ,
n
)S
= BA
) Supongamos que A y B conmutan. Sabemos por hipotesis que existe
una matriz no singular S /
n
(C) tal que
S
1
BS = diag(
1
, . . . ,
n
)
en donde
1
, . . . ,
n
= (B). Entonces,
S
1
ABS = S
1
ASS
1
BS
= S
1
AS diag(
1
, . . . ,
n
)
Valores propios, Vectores propios y Similaridad 25
adem as
S
1
BAS = S
1
BSS
1
AS
= diag(
1
, . . . ,
n
)S
1
AS es diagonalizable
De lo anterior concluimos, que basta probar el resultado para el caso en que
B es una matriz diagonal. Supongamos entonces que B = diag(
1
, . . . ,
n
)
y ademas supongamos que las entradas en la diagonal son iguales y estan
ubicados en posiciones contiguas sobre esta. Tomemos A = (a
ij
)
nxn
, por
hipotesis,
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
_

1
0
.
.
.
0
n
_

_
=
_

1
0
.
.
.
0
n
_

_
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
entonces a
ij

j
=
i
a
ij
para cada i, j = 1, . . . , n. Se sigue que a
ij
(
i

j
) = 0,
entonces si
i
,=
j
, tenemos que a
ij
= 0, concluimos que la matriz A tiene
la misma estructura en bloques que la matriz diagonal B. En consecuencia
podemos escribir
A =
_

_
A
1
0 0
0
.
.
. 0
0 0 A
k
_

_
en donde cada A
i
es una matriz en bloques de tama no igual a la multiplicidad
algebraica del valor propio
i
y donde k corresponde al n umero de valores
propios distintos de B. Ahora, como A es diagonalizable, por un ejercicio
anterior cada uno de los bloques A
i
es diagonalizable, en consecuencia existe
una coleccion de k matrices no singulares T
1
, . . . , T
k
tales que T
i
, diagonaliza
a A
i
. Sea
T =
_

_
T
1
0 0
0
.
.
. 0
0 0 T
k
_

_
claramente T diagonaliza a A, y T
1
BT = B.
Denicion 1.6.
26 Teora Avanzada de Matrices
(a) Una familia conmutante, es una coleccion de matrices T /
n
(C),
en donde cada par de matrices conmutan.
(b) Sea A /
n
(C). Un subconjunto W C
n
, se dice que es un conjunto
A-invariante, si Aw W, para todo w W. Decimos que W es F-
invariante si para un conjunto F /
n
(C), W es A-invariante para
cada A F.
Ejercicio 24. Sean A /
n
(C) y W un subespacio de C
n
, A-invariante de
dimension 1. Mostrar que A tiene por lo menos un vector propio en W.
Lema 1.1. Sea T /
n
(C) una familia de matrices conmutantes, entonces
existe un vector v C
n
, que es un vector propio para todo A T.
Demostracion. Sean, 1 k n,
G
k
= X C
n
[ X es un subespacio T-invariante de dimension k
y r = mn1 k n [ G
k
,= . Notese que G
n
,= , pues G
n
= C
n
.
(Dado que toda coleccion de enteros positivos tiene un mnimo, entonces
r efectivamente existe). Sea W G
r
. Probaremos que todo elemento ,= 0
en W, es un vector propio de cada matriz en la coleccion T. Supongamos
que esto no es as, entonces existe una matriz A T y un vector no nulo
w W, tal que w no es un vector propio de A. Por otro lado, seg un el
ejercicio anterior, existe un vector no nulo v W y un escalar C, tal
que Av = v. Consideremos el conjunto
W
0
= w W [ Aw = w = V
A
() W
W
0
es un subespacio propio de W, pues w / W
0
, ademas es no nulo ya
que v W
0
. Podemos armar adicionalmente que W
0
no puede ser T-
invariante, por ser W un subespacio T-invariante de dimension mnima.
En consecuencia debe existir una matriz B T, para la cual W
0
no es
B-invariante. Ahora, si w W
0
entonces
A(Bw) = (AB)w
= (BA)w
= Bw
Valores propios, Vectores propios y Similaridad 27
As, por la denicion de W
0
, tenemos que Bw W
0
, para todo w W
0
. Se
concluye de lo anterior que W
0
es B-invariante, lo cual es absurdo. Por lo
tanto todo elemento de W, es un vector propio de todo elemento de T.
1.4.2. Metodo de la potencia
Objetivo. Calcular el valor propio dominante y un vector propio correspon-
diente a dicho valor propio. Este metodo solo es aplicable a matrices A, que
tienen las siguientes propiedades.
(i) Un unico valor propio, con modulo maximo;
(ii) Un conjunto de vectores propios linealmemte independientes (es decir,
solo aplica a matrices diagonalizables).
Desarrollo del metodo
Sean A /
n
(C) y
1
, . . . ,
n
(A). Supongamos que
1
es el valor
propio con mayor modulo y ademas supongamos que C
n
tiene una base
u
1
. . . , u
n
conformada con vectores propios de A, asociados a los valores
propios dados, es decir,
Au
i
=
i
u
i
, i = 1, . . . , n.
Sea x
(0)
C
n
, para el cual existen a
1
, . . . , a
n
C con a
1
,= 0, tales que
x
(0)
= a
1
u
1
+ +a
n
u
n
(1.10)
Ahora formemos la siguiente sucesion
x
(1)
= Ax
(0)
, x
(2)
= Ax
(1)
, . . .
es decir
x
(k)
= A
k
x
(0)
k = 1, 2, . . . (1.11)
Escribamos (1.10) de la siguiente manera
x
(0)
= u
t
1
+ +u
t
n
(1.12)
28 Teora Avanzada de Matrices
en donde
u
t
i
= a
i
u
i
, 1 i n
De acuerdo con (1.12) y (1.11)
x
(k)
= A
k
x
(0)
= A
k
u
t
1
+ +A
k
u
t
n
=
k
1
u
t
1
+ +
k
n
u
t
n
Esta ultima ecuacion, podemos escribirla en la forma
x
(k)
=
k
1
_
u
t
1
+
_

1
_
k
u
t
2
+ +
_

1
_
k
u
t
n
_
Como [
1
[ > [
j
[ para j 2, entonces lm
k
_

1
_
k
0 y por lo tanto
E
(k)
: =
_

1
_
k
u
t
2
+ +
_

1
_
k
u
t
n
lm
k
E
(k)
0
escribamos
X
(k)
=
k
1
(u
t
1
+E
(k)
)
y consideremos un funcional lineal : C
n
C, entonces
(X
(k)
) =
k
1
((u
t
1
) +(E
(k)
))
y hagamos

k
=
(X
(k+1)
)
(X
(k)
)
=
1
_
(u
t
1
) +(E
(k+1)
)
(u
t
1
) +(E
(k)
)
_
y observemos que lm
k

k

1
. Ademas
X
(k)

k
1
u
t
1
es decir, X
(k)
se aproxima a un vector propio.
Valores propios, Vectores propios y Similaridad 29
Algoritmo
Tomemos como funcional lineal
C
n

C
(x
1
, . . . , x
n
) x
1
+x
2
+ +x
n
es decir
(x) =
n

i=1
x
i
con x = (x
1
, . . . , x
n
)
input n, A, x, M
output , vec
p
for k = 1, . . . , M
_

_
y Ax

(y)
x
x
=
vec
p
= x
1.5. Similaridad
Denicion 1.7. Sean A, B /
n
C decimos que A y B son matrices si-
milares y en este caso escribimos A B, si existe una matriz no singular
S /
n
(C), tal que S
1
AS = B. S en este caso se denomina matriz de
similaridad. La transformacion
/
n
(C) /
n
(C)
A S
1
AS
se denomina transformacion de similaridad via
Observaciones.
1. Notese que la relacion de similaridad es una relacion de equivalencia
sobre el espacio /
n
(C).
30 Teora Avanzada de Matrices
2. Surgen las siguientes preguntas:
a) Cuales son las matrices similares a una matriz diagonal?
b) Que matrices son similares a la identica o a la matriz nula?
c) Y a las matrices diagonales constantes?
d) A que esta asociada cada clase de equivalencia? o mejor Que car-
acteriza cada clase de equivalencia?
T
1
/
n
(C)
T
2
T
3
Para responder a algunas de estas preguntas tomemos una transformacion
lineal T : C
n
C
n
y supongamos que tenemos dos bases B
1
y B
2
de C
n
,
la matriz de representacion de T en la base B
1
es [ T ]
B
1
B
1
y en la base B
2
es
[ T ]
B
2
B
2
y como se probo anteriormente
[ T ]
B
1
B
1
= [ Id ]
B
1
B
2
[ T ]
B
2
B
2
[ Id ]
B
2
B
1
y ademas
[ Id ]
B
2
B
1

1
= [ Id ]
B
1
B
2
As que en principio, parece ser que la respuesta a nuestras preguntas es:
cada clase de equivalencia denida por la relacion de similaridad corresponde
al conjunto de todas las matrices que son la representacion de una unica
transformacion lineal en diferentes bases. Siempre y cuando el conjunto de
todas las matrices de cambio de base coincidan con el conjunto de todas las
matrices no singulares.
Ejercicio 25. Pruebe que si dos matrices son similares tienen el mismo
polinomio caracterstico.
Valores propios, Vectores propios y Similaridad 31
Ejercicio 26. Pruebe que el concepto de similaridad dene una relacion de
equivalencia, en el espacio de las matrices M
n
(K).
Ejercicio 27. El conjunto de todas las matrices que son representaciones
(matriciales) de una transformacion lineal T : V V forman una unica
clase de equivalencia, denida por la relacion de similaridad.
Ejercicio 28. Determine la clase de equivalencia de la matriz identica y de
la matriz nula.
Ejercicio 29. Tiene toda clase de equivalencia (diferentes a las clases matriz
identica y nula) el mismo n umero de elementos?.
Ejercicios
1.1 Para que tipos de matrices (de las denidas anteriormente) se tiene que
(A) = (A

).
1.2 Caracterizar las matrices para las cuales todo vector propio a izquierda
es un vector propio (a derecha).
1.3 Sea A /
n
(C) y S /
n
(C) no singular, entonces
p
S
1
AS
(x) = p
A
(x)
1.4 Pruebe (c) (a) del teorema (1.1). Use ma
A
() = mg
A
() y construya
la matriz no singular S, que diagonalice a A. (Regresarse en los pasos
de implicacion anteriormente probada).
1.5 Sean, A
i
M
n
i
(C) donde 1 i k y consideremos la matriz diagonal
por bloques
A =
_

_
A
1
0
.
.
.
.
.
.
.
.
.
0 A
k
_

_
Entonces, A es diagonalizable si y solo si A
i
es diagonalizable para todo
i.
32 Teora Avanzada de Matrices
1.6 La diagonalizacion simultanea dene una relacion de equivalencia, sobre
el conjunto de las matrices diagonalizables.
1.7 Sean A /
n
(C) y W un subespacio de C
n
, A-invariante de dimension
1. Mostrar que A tiene por lo menos un vector propio en W.
1.8 Pruebe que si dos matrices son similares tienen el mismo polinomio
caracterstico.
1.9 Pruebe que el concepto de similaridad dene una relacion de equivalen-
cia, en el espacio de las matrices M
n
(K).
1.10 El conjunto de todas las matrices que son representaciones (matriciales)
de una transformacion lineal T : V V forman una unica clase de
equivalencia, denida por la relacion de similaridad.
1.11 Determine la clase de equivalencia de la matriz identica y de la matriz
nula.
1.12 Tiene toda clase de equivalencia (diferentes a las clases matriz identica
y nula) el mismo n umero de elementos?.
Captulo 2
Equivalencia Unitara y
Matrices Normales
2.1. Matrices unitarias
Denicion 2.1. Un conjunto de vectores v
1
, . . . , v
k
C
n
, es un conjunto
ortogonal, si v

i
v
j
= 0 para todo i ,= j, donde i, j = 1, . . . , k. Si ademas
v

i
v
i
= 1 para i = 1, . . . , k, entonces el conjunto es llamado ortonormal.
Observaciones.
1. Todo conjunto ortonormal de vectores no nulos es linealmente inde-
pendiente.
2. Todo espacio n-dimensional real o complejo tiene una base ortonormal
(Teorema de ortogonalizacion de Gram-Schmidt)
Denicion 2.2. Una matriz U /
n
(C) se dice unitaria si U

U = UU

=
I
n
, se dice ortogonal si U
t
U = UU
t
= I
n
. Una matriz ortogonal con en-
tradas reales se denomina ortogonal real.
Ejercicio 30. Observe que
T() =
_
cos sen
sen cos
_
con 0
es una matriz ortogonal. Son todas las matrices ortogonales reales 2 2 de
este tipo?. Describa todas las matrices ortogonales reales.
33
34 Teoria Avanzada de Matrices
Ejercicio 31. Caracterizar todas las matrices ortogonales 2 2. Probarque
el conjunto de las ortogonales 2 2 es no-acotado.
Teorema 2.1. Sea U /
n
(C), las siguientes armaciones son equiva-
lentes:
a) U es unitaria
b) Las columnas de U son ortonormales
c) Las las de U son ortonormales
d) Para todo u, v C
n
, tales que u = Uv
u

u = v

v
es decir, U preserva la norma euclideana.
Demostracion.
(a) (b) y (b) (c) es directo de la denicion de matriz unitaria.
(a) (d). Sean u, v C
n
, tales que u = Uv, entonces
u

u = v

Uv
= v

v
(d) (a). Sean U = [U
(1)
U
(n)
] /
n
(C), una matriz que preserva
norma euclideana y consideremos la base canonica e
1
, . . . , e
n
de C
n
. Notese
que U
(i)
= Ue
i
, para 1 i n. De aqu y por hipotesis
(U
(i)
)

U
(i)
= e

i
e
i
i = 1, . . . , n
= 1
Ahora denamos a
ij
= e
i
e
j
y a
ij
= e
i
e
j
donde ( =

1) para
1 i, j n. Entonces, si i ,= j
a

ij
a
ij
= (e
i
e
j
)

(e
i
e
j
)
= 2
(2.1)
Equivalencia Unitara y Matrices Normales 35
y
a

ij
a
ij
= (e
i
e
j
)

(e
i
e
j
)
= (e
i
+e
j
)(e
i
e
j
)
= 2
(2.2)
Ahora observese que
U
(i)
U
(j)
= Ua
ij
= U(e
i
e
j
)
(2.3)
y que
U
(i)
U
(j)
= U a
ij
= U(e
i
e
j
)
(2.4)
Usando la hipotesis, (2.1) y (2.3)
2 = a

ij
a
ij
= (U
(i)
U
(j)
)

(U
(i)
U
(j)
)
= ([U
(i)
]

[U
(j)
]

)(U
(i)
U
(j)
)
= [U
(i)
]

U
(i)
+ [U
(j)
]

U
(j)
[U
(j)
]

U
(i)
[U
(i)
]

U
(j)
= 2 + [U
(j)
]

U
(i)
[U
(i)
]

U
(j)
concluimos de lo anterior que
[U
(j)
]

U
(i)
= [U
(i)
]

U
(j)
para i ,= j
Usando la hipotesis, (2.2) y (2.4)
2 = a

ij
a
ij
= (U
(i)
U
(j)
)

(U
(i)
U
(j)
)
=
_
[U
(i)
]

+[U
(j)
]

_
(U
(i)
U
(j)
)
= [U
(i)
]

U
(i)
+ [U
(j)
]

U
(j)
+[U
(j)
]

U
(i)
[U
(i)
]

U
(j)
= 2 [U
(j)
]

U
(i)
+[U
(i)
]

U
(j)
36 Teoria Avanzada de Matrices
concluimos de la igualdad anterior que
(2.5)
[U
(j)
]

U
(i)
= [U
(i)
]

U
(j)
para i ,= j (2.6)
de (2.1) y (2.6) obtenemos que
[U
(i)
]

U
(j)
= 0 para i ,= j
Denicion 2.3. Un operador T : R
n
R
n
es una isometria euclideana
si
|x y| = |Tx Ty|
para todo x, y R
n
.
Ejercicio 32. Si T(0) = 0 pruebe que T es lineal.
Observaciones.
1. O
n
(R) O
n
(C), U
n
, pero no necesariamente O
n
(C) U
n
.
2. O
n
(R), O
n
(C), y U
n
son grupos multiplicativos.
3. Claramente O
n
(R) = O
n
(C) U
n
.
Ejercicio 33. Consideremos el espacio vectorial /
n
(C), dotado de la metri-
ca euclidiana, heredada del producto interior
A, B) = Tr(B

A)
para todo A, B /
n
(C). Sean A
k

kN
y B
k

kN
sucesiones de matrices
en /
n
(C) tales que A
k
A y B
k
B, siendo A y B matrices (jas).
Entonces:
(a) A
k
B
k
AB
(b)

A
k


A
Equivalencia Unitara y Matrices Normales 37
(c) A
t
k
A
t
(d) A

k
A

Proposicion 2.1. U
n
y O
n
(R) son conjuntos cerrados y acotados, y en
consecuencia compactos en /
n
(C).
Demostracion. (Para U
n
) Sea U U
n
, entonces U

U = I
n
, por consiguiente
|U|
F
=

n. Lo cual signica que todas las matrices unitarias estan sobre la


supercie de una bola B centrada en el origen de radio

n. Se sigue que U
n
es un conjunto acotado.Ahora tomemos una sucesion de Cauchy U
k

kN
de
elementos de U
n
. La bola B es un conjunto compacto en /
n
(C), de aqu se
sigue que existe una matriz U B, para la cual
U
k

k
U
pero por un ejercicio anterior U

k
U
k
U

U, luego automaticamente
U

U = I
n
. Concluimos que U
n
es cerrado y siendo acotado necesariamente
es compacto.
Pregunta: Son las colecciones U
n
, O
n
(R) y O
n
(C) conexos o arco-
conexos.
2.2. Equivalencia Unitaria
Denicion 2.4. Sean A, B /
n
(C), decimos que A es unitariamente
equivalente a B, si existe una matriz unitaria U /
n
(C) tal que
A = U

BU.
Ejercicio 34. Pruebe que la (similaridad) equivalencia unitaria es una
relaci on de equivalencia. Ademas pruebe que es mucho mas na que la
relaci on de similaridad.
Proposicion 2.2. Sean A = [ a
ij
]
nn
y B = [ b
ij
]
nn
matrices en /
n
(C).
Entonces si A es unitariamente equivalente a B,
|A
k
|
F
= |B
k
|
F
para cualquier n umero natural k
38 Teoria Avanzada de Matrices
Ejercicio 35. No todo par de matrices similares, son unitariamente equiv-
alentes, por ejemplo.
A =
_
3 1
2 0
_
y B =
_
1 1
0 2
_
son similares, pero no unitariamente equivalentes.
Respuesta. Notese que si S =
_
1 0
2 1
_
, entonces S
1
=
_
1 0
2 1
_
Ademas
_
1 0
2 1
__
1 1
0 2
__
1 0
2 1
_
=
_
3 1
2 0
_
Pero
|A|
2
F
= 14 ,= 6 = |B|
2
F
de lo anterior se sigue que A y B no son unitariamente equivalentes.
2.3. Teorema de Triangularizacion Unitaria de
Schur
Teorema 2.2. Sea A /
n
(C) con valores propios
1
, . . . ,
n
C, entonces
existe una matriz unitaria U /
n
(C) y una matriz triangular superior
T /
n
(C), tales que
U

AU = T.
Ademas, los elementos de la diagonal de T, corresponden a los valores pro-
pios de A.
Demostracion. (Por induccion sobre n)
El caso n = 1, es evidente.
Supongamos que el resultado es cierto para toda matriz de orden n1, con
n > 1. Sea u
1
un vector propio unitario de A, con valor propio asociado

1
, y completemos una base ortonormalizada u
1
, z
2
, . . . , z
n
para C
n
. Sea
U

la matriz unitaria cuyas columnas 1, . . . , n son los vectores u


1
, z
2
, . . . , z
n
respectivamente. Se sigue que
U

1
AU
1
=
_

1
u

1
A
_
z
2
z
n
_
0
n1,1

A
_
Equivalencia Unitara y Matrices Normales 39
Ahora,

A es una matriz de tama no n 1, con valores propios
2
, . . . ,
n
.
As, por la hipotesis de induccion existe una matriz unitaria

U y una matriz
triangular superior

T, tal que

U

U =

T. De esta manera la matriz unitaria
que triangulariza superiormente a A es
U = U
1
_
1 0
0

U
_
2.4. Algunas implicaciones del Teorema de Schur
Proposicion 2.3. Sea A /
n
(C), con valores propios
1
, . . . ,
n
, entonces
det(A
k
) =
_
n

i=1

i
_
k
y Tr(A
k
) =
n

i=1

k
i
.
Demostracion. (Ejercicio)
Ejercicio 36. El producto de matrices triangulares superiores es triangular
superior
Proposicion 2.4. Sean, A
1
, . . . , A
n
/
n
(C), matrices triangulares supe-
riores, tales que A
k
= (a
(k)
ij
)
nn
, en donde a
(k)
kk
= 0 para 1 k n, entonces
A
1
A
n
= 0
nn
.
Demostracion. (Ejercicio)
Ejercicio 37. A, U /
n
(C) U unitaria. Probar que (U

AU)
k
= U

A
k
U
k = 0, 1, . . .
Teorema 2.3 (Cayley-Hamilton). Sea p
A
(t) el polinomio caracterstico
de A /
n
(C), entonces
p
A
(A) = 0
nn
.
Demostracion. Supongamos que la matriz A, tiene valores propios
1
, . . . ,
n
.
Podemos escribir,
p
A
(t) =
n

i=1
(t
i
).
40 Teoria Avanzada de Matrices
Ahora, por el teorema de triangularizacion de Schur, existen U, T /
n
(C),
en donde U es unitaria y T es triangular superior, tales que
A = U

TU
en donde cada elemento de la diagonal de T = (t
ij
)
nn
, t
kk
=
k
, para
k = 1, . . . , n. Entonces,
p
A
(A) = p
A
(U

TU) = U

i=1
(t
i
)U
= U

((T
1
I
n
) (T
n
I
n
)) U.
Hagamos A
k
= T
k
I
n
, notese que si A
k
= (a
(k)
ij
)
nn
, entonces a
(k)
kk
= 0,
luego por una proposicion anterior
p
A
(A) = 0
nn
.
Ejercicio 38. Indique en donde fallan las siguientes dos seudo-pruebas del
Teorema de Cayley-Hamilton.
1. Sabemos que si q() es un polinomio y es un valor propio de A
entonces q() es un valor propio de q(A). Ahora, p
A
() = 0, para cada
(A), por lo tanto los valores propios de p
A
(A) son todos nulos y
en consecuencia p
A
(A) = 0
nn
.
2. p
A
(t) = det(A tI
n
), entonces si t = A tenemos que
p
A
(A) = det(A A)
= 0.
Proposicion 2.5. Sea A /
n
(C), entonces para todo r N, A
r
es una
combinacion lineal de I
n
, A, . . . , A
n1
.
Demostracion. (Por induccion sobre r)
El resultado es claro para r = 0.
Equivalencia Unitara y Matrices Normales 41
Supongamos ahora que el resultado es cierto para r 1, es decir, existe una
coleccion de escalares
0
,
1
, . . . ,
n1
, tales que
A
r1
=
0
I +
1
A+ +
n1
A
n1
Entonces
A
r
= A
r1
A
= (
0
I +
1
A+ +
n1
A
n1
)A
=
0
A+
1
A
2
+ +
n1
A
n
(2.7)
Pero del teorema de Cayley-Hamilton, si p
A
(t) = t
n
+a
n1
t
n1
+ +a
1
t+a
0
,
entonces p
A
(A) = A
n
+a
n1
A
n1
+ +a
1
A+a
0
I
n
= 0
n
, de donde
A
n
= a
n1
A
n1
a
1
A a
0
I
n
. (2.8)
De (2.7) y (2.8) se sigue claramente que A
r
I
n
, A, . . . , A
n1
)
Proposicion 2.6. Si A /
n
(C) es no singular, existe un polinomio q(t),
de grado a lo sumo n 1, tal que
A
1
= q(A)
Demostracion. (Ejercicio)
Proposicion 2.7. Sean, t
1
, . . . , t
n
C y R, > 0. Entonces, existe
una colecci on de escalares d
1
, . . . , d
n
C, tal que
[d
i
[ <
y t
1
+d
1
, . . . , t
n
+d
n
son todos distintos.
Demostracion. (Ejercicio)
Ejercicio 39. Para toda U unitaria |UA|
F
= |A|
F
para toda A
Proposicion 2.8. Sea A = (a
ij
) /
n
(C), entonces para todo > 0, existe
una matriz A() = (a
ij
()) /
n
(C) que tiene n valores propios distintos,
tal que
|A A()|
F
< .
42 Teoria Avanzada de Matrices
Demostracion. Sean, U /
n
(C) una matriz unitaria tal que U

AU = T =
(t
ij
), es una matriz triangular superior y > 0 . Por la proposicion anterior
existe una coleccion de escalares d
1
, . . . , d
n
C, tal que
[d
i
[ <
_

n
1/2
_
y t
11
+ d
1
, . . . , t
nn
+ d
n
son distintos. Sea E = diag(d
1
, . . . , d
n
). Observese
que T +E tiene n distintos valores propios. Notese que t
11
+d
1
, . . . , t
nn
+d
n
son los valores propios de la matriz A + UEU

. Sea A() = A + UEU

,
entonces
|A A()|
2
= |U

EU

|
2
= Tr(UE

EU)
= Tr(E

E)
=

[d
i
[
2
< n
_

n
_
=
Corolario 2.1. El conjunto de las matrices diagonalizables es denso en
/
n
(C).
Corolario 2.2. El grupo GL
n
(C) es denso en el espacio de las matrices
/
n
(C).
Ejercicio 40. Pruebe que GL
n
(C) es un conjunto abierto del espacio de las
matrices /
n
(C).
Denicion 2.5. Sean, A /
n
(C) y r > 0, llamaremos al conjunto
B
r
(A) = X /
n
(C) [ |X A|
F
< r
bola abierta con centro en A y radio r.
Ejercicio 41. (Opcional) Pruebe que para cualquier real r > 0, existe una
matriz no singular A /
n
(C) tal que B
r
(A) GL
n
(C).
Equivalencia Unitara y Matrices Normales 43
Ejercicio 42. Demostrar o refutar la siguiente armacion:
Dada cualquier matriz no singular A /
n
(C), y cualquier n umero real
r > 0, existe un real > 0, tal que B
r
(A) GL
n
(C).
Sabemos de un resultado anterior, que no toda matriz es diagonalizable
va similaridad, sin embargo podemos probar que toda matriz es casi
diagonalizable, en el sentido de que dada cualquier matriz, siempre es posible
encontrar otra, diagonalizable, lo sucientemente cercana a la dada.
Proposicion 2.9. Para cualquier matriz A /
n
(C), y para cada > 0,
existe una matriz no singular S

/
n
(C) tal que
S
1

AS

= T

= (t
ij
())
nn
,
en donde T

es una matriz triangular superior con [t


ij
()[ < , para cada
1 i < j n.
Demostracion. Por el teorema de Schur, existe una matriz unitaria
U /
n
(C), y una matriz triangular superior T /
n
(C), tales que
U

AU = T.
Denamos D

= diag(1, ,
2
, . . . ,
n1
) para cualquier C, ,= 0.
Hagamos t = max
i<j
[t
ij
[ y supongamos sin perdida de generalidad que

0
= mn1,

t
. Hagamos S

0
= UD

0
y observemos que
44 Teoria Avanzada de Matrices
S
1

0
AS

0
= D
1

0
U

AUD

0
= D 1

0
U

AUD

0
=
_

_
1 0 0 0
0
1

0
0 0
0 0
.
.
. 0
0 0 0
_
1

0
_
n1
_

_
_

_
t
11
t
12
t
1n
0 t
22
t
2n
0 0
.
.
.
.
.
.
0 0 0 t
nn
_

_
_

_
1 0 0 0
0
0
0 0
0 0
.
.
. 0
0 0 0
n1
0
_

_
=
_

_
1 0 0 0
0
1

0
0 0
0 0
.
.
. 0
0 0 0
_
1

0
_
n1
_

_
_

_
t
11

0
t
12

n1
0
t
1n
0
0
t
22

n1
0
t
2n
0 0
.
.
.
.
.
.
0 0 0
n1
0
t
nn
_

_
=
_

_
t
11

0
t
12

2
0
t
13

n1
0
t
1n
0 t
22

0
t
23

n2
0
t
2n
.
.
. 0 t
33

n3
0
t
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
nn
0
t
nn
_

_
Denotemos la ultima matriz por T() = (t
ij
())
nn
. Notese que
t
ij
() =
ji
t
ij
para 1 i j n y t
ij
() = 0 para i > j., ademas.
[t
ij
()[
ji
0
[t
ij[

0
t


t
t =
El teorema de triangularizacion de Schur arma que toda matriz puede
ser triangularizable superiormente usando matrices unitarias. Que tanto
podemos hacer con matrices ortogonales reales?
Proposicion 2.10. Sea A /
n
(R), entonces existe una matriz ortogonal
Equivalencia Unitara y Matrices Normales 45
real Q, tal que
Q
t
AQ = T =
_

_
A
1

0 A
2

.
.
.
.
.
.
.
.
.
0 0 A
n
_

_
(2.9)
en donde T es una matriz triangular superior por bloques, en donde, cada
A
i
, es o un n umero real o una matriz real 22 con valores propios complejos
no reales.
Demostracion. (Por induccion completa sobre n)
Para n = 1 la armacion es evidente.
Supongamos que la proposicion es valida para toda matriz de dimension
n 1 con n > 1.
Caso I: A tiene un valor propio real . Sea v
1
, un vector propio de A
asociado al valor propio . Podemos suponer que v, tiene las componentes
reales. Completemos una base v
1
, v
2
, . . . , v
n
ortonormal para R
n
y tome-
mos V =
_
v
1
v
2
v
n
_
, observemos que V es una matriz ortogonal real,
tal que
V
t
AV =
_
v
1
A
_
v
2
v
n
_
0
n1,1
A
t
_
,
en donde A
t
/
n1
(R). Por hipotesis de induccion tenemos que existe una
matriz ortogonal V
t
/
n1
(R) tal que [V
t
]
t
A
t
V
t
satisface la proposicion.
Hagamos
Q = V
_
1 0
1,n1
0
n1,1
V
t
_
,
y observemos que Q
t
AQ tiene la forma (19) indicada por la proposicion.
Caso II: Ahora supongamos que A es una matriz que no tiene valores
propios reales. Sean, (A) y v un vector propio unitario de A con valor
propio asociado . Escribamos = a +b, con a, b R y v = x +y con
x, y R
n
. Entonces,
Av = A(x +y)
= (a +b)(x +y)
= (ax by) +(ay +bx).
46 Teoria Avanzada de Matrices
de donde se sigue que
Ax = ax by y Ay = ay +bx (2.10)
v tambien es un vector propio, dado que
Av = Av
= v.
Ahora, por ser complejo no real, ,= , de aqu, v y v son vectores
linealmente independientes en C
n
, ademas observese que v, v) = x, y) co-
mo subespacios de C
n
. Elijamos un par de vectores q
1
, q
2
R
n
ortonor-
males, tales que q
1
, q
2
) = x, y) en R
n
, y completemos una base ortonormal
q
1
, q
2
, . . . , q
n
, para R
n
. Construyamos la matriz V =
_
q
1
q
2
. . . q
n
_
, y
efectuemos el producto
V
t
AV =
_

_
q
t
1
Aq
1
q
t
1
Aq
2
v
tr
1
A
_
v
3
v
n
_
q
t
2
Aq
1
q
t
2
Aq
2
v
t
1
A
_
v
3
v
n
_
.
.
.
q
t
n
Aq
1
.
.
.
q
t
n
Aq
2
A
t
_

_
=
_

_
q
t
1
Aq
1
q
t
1
Aq
2
v
t
1
A
_
v
3
v
n
_
q
t
2
Aq
1
q
t
2
Aq
2
v
t
1
A
_
v
3
v
n
_
0
0
0
0
A
t
_

_
Los ceros en las primeras dos columnas de la matriz anterior, aparecen ya
que,
Aq
1
, Aq
2
q
1
, q
2
) (2.11)
como R-subespacio de R
n
y que
q
1
, q
2
) = q
3
, . . . , q
n
)

.
Podemos comprobar (2.4) , mediante los siguientes razonamientos: Notese,
que
Aq
1
, Aq
2
v, v) = x, y), pero A, q
1
y q
2
tienen entradas reales, luego
Equivalencia Unitara y Matrices Normales 47
necesariamente (2.4)debe satisfacerse.
Finalmente, observemos que la matriz
A
1
=
_
q
t
1
Aq
1
q
t
1
Aq
2
q
t
2
Aq
1
q
t
2
Aq
2
_
es real con valores propios no reales conjugados y . Podemos aplicar ahora
la hipotesis de induccion a la matriz A
t
, con el n de encontrar una matriz
ortogonal Q
t
, tal que [ Q
t
]
t
A
t
Q
t
sea de la forma (19).
Proposicion 2.11. Sea T /
n
(R) una familia conmutante de matrices.
Existe una matriz ortogonal real Q, tal que Q
t
AQ, es de la forma (19) para
todo A T.
Demostracion. (Por induccion sobre n)
Por una proposicion anterior existe v C
n
, tal que v es un vector propio nor-
malizado, para cada A T. Si todas las entradas de v son reales, formamos
una base ortonormal v, q
2
, . . . , q
n
para R
n
, y formamos la matriz ortogo-
nal Q
1
=
_
v q
2
q
n
_
que lleva cada matriz A T via similaridad a la
forma
Q
t
1
AQ
1
=
_

A

0
(n1)x1
A
t
_
.
Notese que necesariamente
A
es un n umero real y el conjunto
T
t
= A
t
/
n1
(R) : A T
es una coleccion de matrices conmutantes, para las cuales seg un la hipotesis
de induccion existe una matriz ortogonal Q
2
, tal que Q
t
2
A
t
Q
2
es una matriz
de la forma (19) , para todo A T. Se sigue que
Q = Q
1
_
1 0
1x(n1)
0
(n1)x1
Q
2
_
es la matriz que lleva cada matriz en T, a la forma (19).
Ahora supongamos que el vector v, tiene por lo menos una entrada no real
entonces para cada A T, existe un valor propio asociado
A
. Notese que
si
A
es real o no real, en cualquiera de los dos casos se tiene que v y v
son vectores propios l.i. de cada A T. Podemos en este caso seguir un
48 Teoria Avanzada de Matrices
procedimiento similar que en el teorema anterior con el n de construir la
matriz ortogonal Q, requerida.
Proposicion 2.12. Sean, A, B /
n
(C) con valores propios
1
, . . . ,
n
y

1
, . . . , n respectivamente. Si A y B conmutan, existe una permutacion p de
1, . . . , n tal que los valores propios de A+B son
1
+
p(1)
, . . . ,
n
+
p(n)
.
Demostracion. Se deja como ejercicio para el lector.
Corolario 2.3. Si A y B conmutan, (A +B) (A) +(B).
2.5. Matrices normales
Denicion 2.6. Una matriz A /
n
(C), es normal si AA

= A

A.
Ejemplos.
(a) Toda matriz unitaria es normal.
(b) Toda matriz hermitiana es normal.
(c) Toda matriz antihermitiana es normal.
NOTA.
(a) Las matrices simetricas y antisimetricas complejas no son en general
normales. Un ejemplo de una matriz simetrica que no es normal es,
_
1 i
i 1
_
(b)
_
1 1
1 1
_
es una matriz normal, que no es unitaria, hermitiana o anti-
hermitiana.
(c) El conjunto de las matrices normales no forma un grupo; ya que
A =
_
0 1
1 0
_
y B =
_
1 i
i 1
_
Equivalencia Unitara y Matrices Normales 49
son matrices normales, pero
AB =
_
i 1
1 i
_
no lo es.
(d) El conjunto de las matrices normales no es acotado.
(e) Sea A /
n
(C) y denotemos por [ A]
U
la clase de la matriz A, via
la similaridad unitaria. Entonces, [ A]
U
esta conformado por matrices
normales, si y solo si, A es una matriz normal.
(f) El conjunto de las matrices normales es un conjunto conexo.
Proposicion 2.13. Una matriz A /
n
(C) es normal, si y solo si, es
unitariamente equivalente a una matriz normal.
Denicion 2.7. Diremos que una matriz es unitariamente diagonaliza-
ble, si es unitariamente equivalente a una matriz diagonal.
Teorema 2.4 (Teorema Espectral). Sea A = (a
ij
) /
n
(C) con valores
propios
1
, . . . ,
n
. Entonces, las siguientes armaciones son equivalentes:
(a) A es normal.
(b) A es unitariamente diagonalizable.
(c) |A|
F
=
_

n
i=1
[
i
[
2
.
(d) Existe un conjunto ortonormal de n valores propios de A.
(e) Existe una colecci on ortonormal v
1
, . . . , v
n
de vectores propios de A,
tal que
A =
n

i=1

i
v
i
v

i
.
Demostracion.
(a) (b) Supongamos que A es una matriz normal, entonces A conmuta con
su adjunta, se sigue por un teorema anterior que existe una matriz unitaria
U, tal que U

AU y U

U son matrices triangulares superiores, llamemos a


50 Teoria Avanzada de Matrices
estas matrices T
1
y T
2
respectivamente, entonces tenemos que T

1
= T
2
, de
aqu, T
1
y T
2
son matrices diagonales.
(b) (c) Supongamos que existe una matriz unitaria U, tal que U

AU = T
es una matriz diagonal. Necesariamente T = diag(
1
, . . . ,
n
) en donde

i
(A), 1 i n. Entonces,
|A|
F
=
_
Tr(A

A)
=
_
Tr(T

T)
=

_
n

i=1
[
i
[
2
.
(c) (d) Sabemos que existe una matriz unitaria U, tal que U

AU = T =
(t
ij
)
nn
es una matriz triangular superior. Se sigue que
|A|
2
F
= | T |
2
F
=
n

i=1
[
i
[
2
+
n

1i<jn
[t
ij
[
2
Pero por (c)
|A|
F
=

_
n

i=1
[
i
[
2
.
Se deduce de lo anterior que
n

1i<jn
[t
ij
[
2
= 0
de donde t
ij
= 0 para 1 i < j n, esto indica que T es una matriz diago-
nal, y en consecuencia las columnas de U forman un conjunto de n vectores
propios de A linealmente independientes. (d) (a) Sea v
1
, . . . , v
n
una
coleccion de vectores propios de A con valores propios asociados
1
, . . . ,
n
respectivamente. Entonces, si V =
_
v
1
v
n
_
V

AV = diag(
1
, . . . ,
n
)
Equivalencia Unitara y Matrices Normales 51
de aqu,
A

= V diag(
1
, . . . ,
n
)V

y como diag(
1
, . . . ,
n
) conmuta con diag(
1
, . . . ,
n
), se cumple que
A

A = AA

Ejercicio 43. Probar en el teorema anterior la equivalencia entre los lit-


erales (a) y (e).
Ejercicio 44. x

Ax = 0 para todo x C
n
, si y solo si, A es la matriz nula.
Respuesta.
) Notese que la hipotesis implica que todos los valores propios de A, son
nulos. Ademas, por el teorema de triangularizacion unitaria de Schur, pode-
mos suponer que A, es triangular superior. De lo anterior, si A = (a
ij
),
entonces a
ij
= 0 para i > j. Observese que
(e
i
+e
j
)
t
A(e
i
+e
j
) = a
ii
+a
ji
+a
jj
+a
ij
_
_
_
parai = j e
t
i
Ae
i
= a
ii
= 0
si i ,= j a
ij
+a
ji
= 0
por lo tanto a
ij
= 0.
Ejercicio 45. Probar que una matriz A es normal, si y solo si,
|Ax|
2
= |A

x|
2
para todo x C
n
Respuesta.
) Observemos primero que si A es normal, entonces
|Ax|
2
2
= Ax, Ax)
= x

Ax
= x

AA

x
= A

x, A

x)
= |A

x|
2
2
) Supongamos ahora que para todo x C
n
, se tiene que
|Ax|
2
= |A

x|
2
52 Teoria Avanzada de Matrices
o equivalentemente que
x

Ax = x

AA

x
se sigue que
x

(A

A AA

) x = 0
y por un ejercicio anterior se tiene que A es normal.
Ejercicio 46. Probar que una matriz A es normal si todo vector propio a
izquierda es un vector propio a derecha, de A.
Respuesta.
) Notese que AI
n
es normal, entonces
|(A

I
n
)v|
2
= |(A I
n
)v|
2
= 0.
Se sigue que, A

v = v y en consecuencia v

A = v

.
) (Por induccion sobre n)
Si n = 1 la armacion es evidente.
Supongamos que entonces que se cumple para todo natural mayor que 1.
Sean, v
1
C
n
, un vector propio unitario de A, y C su correspondiente
valor propio asociado, entonces por hipotesis
Av
1
= v
1
y v

1
A = v

1
.
Completemos una base ortonormal v
1
, u
2
. . . , u
n
para C
n
y construyamos
la matriz V
1
=
_
v
1
u
2
u
n
_
, se sigue que
V

1
AV
1
=
_

_
v

1
u
2
.
.
.
u

n
_

_
A
_
v
1
u
2
u
n
_
=
_

_
0
1x(n1)
0
(n1)x1
_

_
u

2
.
.
.
u

n
_

_
A
_
u
2
u
n
_
_

_
Equivalencia Unitara y Matrices Normales 53
Probaremos en lo que sigue que la matriz
A
t
=
_

_
u

2
.
.
.
u

n
_

_
A
_
u
2
u
n
_
cumple la hipotesis de induccion. Tomemos x = (x
2
, . . . , x
n
) C
n1
, un
vector propio de A
t
. Ahora, si mg
A
() = 1, entonces dado que mg
A
() < n
tenemos que necesariamente debe existir un vector propio unitario.
2.6. La factorizacion QR
Probaremos a continuacion que para toda matriz A /
n
(R) existe una
matriz ortogonal Q y una matriz triangular superior R en /
n
(R), tales que:
A = QR
Esta factorizacion tiene dos usos conocidos:
(1) Supongamos que desea resolver el siguiente sistema de ecuaciones
Ax = b x, b C
n
Si escribimos el sistema en la forma
QRx = b
el cual es equivalente al sistema
Rx = Q
t
b
Este ultimo sistema es triangular superior y es simple de resolver usando
sustitucion hacia atras.
(2) Permite el calculo aproximado de los valores propios de A, a partir de
una sucesion de matrices A
k

kN
, en donde
A
0
: = A
FQR
= Q
0
R
0
A
1
= R
0
Q
0
A
1
FQR
= Q
1
R
1
A
2
= R
1
Q
1
. . .
.
.
.
.
.
.
A
i1
FQR
= Q
i1
R
i1
A
i
= R
i1
Q
i1
i = 1, 2, . . .
54 Teoria Avanzada de Matrices
En donde Q
i
R
i
es la factorizacion QR de la matriz A
i
. Este procedi-
miento se denomina algoritmo QR. Este proceso aproxima a A
i
a una
forma triangular superior con bloques 1 1 o 2 2 sobre la diagonal de
esta manera los valores propios de la matriz se aproximan a los valores
propios de los bloques que aparecen sobre la diagonal. De esta forma los
valores propios de A, son aproximadamente los elementos de la diagonal
de A
n
, para n sucientemente grande.
Observemos que (A
i
) = (A), para todo i = 1, . . . , ya que
A
i
= R
i1
Q
i1
,
en donde A
i1
= Q
i1
R
i1
. Se sigue que
Q
i1
A
i
= A
i1
Q
i1
,
por lo tanto
A
i
= Q
t
i1
A
i1
Q
i1
.
2.6.1. Metodos para encontrar la factorizacion QR
Para matrices con entradas reales:
Via Rotores
Consideremos el plano R
2
. El operador que rota un angulo , cada vector
x R
2
puede representarse por la matriz
Q =
_
cos sen
sen cos
_
.

x
y = x2
=

x1
x2

L
Equivalencia Unitara y Matrices Normales 55
Una matriz de este tipo es llamada rotor o rotacion.
Observese que esta matriz es ortogonal. Usando este tipo de matrices pode-
mos crear algunos ceros sobre las entradas de un vector columna. Conside-
remos x =
_
x
1
x
2
_
, donde x
1
,= 0 y x
2
,= 0. Encontremos un rotor Q, tal que
Q
t
x tenga un cero en su segunda componente: Q
t
x =
_
y
0
_
para alg un y.
Observemos que,
Q
t
x =
_
cos sen
sen cos
__
x
1
x
2
_
=
_
cos x
1
+ senx
2
senx
1
+ cos x
2
_
=
_
y
0
_
.
Por lo tanto
senx
1
= cos x
2
,
entonces
tg =
x
2
x
1
.
Podemos calcular Q, sin necesidad de calcular usando las ecuaciones
cos =
x
1
_
x
2
1
+x
2
2
y sen =
x
2
_
x
2
1
+x
2
2
Ahora trabajemos sobre la matriz
A =
_
a
11
a
12
a
21
a
22
_
Necesitamos un rotor Q, tal que
Q
t
_
a
11
a
21
_
=
_
r
11
0
_
,
donde r
11
=
_
a
2
11
+a
2
21
. Denamos r
12
y r
22
mediante
_
r
12
r
22
_
= Q
t
_
a
12
a
22
_
,
56 Teoria Avanzada de Matrices
y hagamos
R =
_
r
11
r
12
0 r
22
_
.
Entonces
Q
t
A = R
o equivalentemente
A = QR
Si A /
n
(R), donde n es cualquier n umero natural el procedimiento es
similar. Un rotor i, j es una matriz de la forma
Q
ij
=
_

_
1 0
0 1
0 0
0 0
.
.
.
1
cos 0 0 sen
0 1 0
.
.
.
.
.
.
.
.
.
0 1 0
sen 0 0 cos
1
.
.
.
0 0
0 0
1 0
0 1
_

_
Un rotor luce como una matriz identica, salvo por un par de unos que
han sido reemplazados por cos y un par de ceros que fueron reemplazados
por sen y sen respectivamente.
Ahora efectuemos el producto Q
t
A, en donde
A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
a
n1
a
n2
a
nn
_

_
Equivalencia Unitara y Matrices Normales 57
En general si se desea hacer cero la posicion ji de A, en donde j > i, usamos
las ecuaciones
cos =
a
ii
_
a
2
ii
+a
2
ji
, sen =
a
ji
_
a
2
ii
+a
2
ji
Notese que Q
t
solo afecta las las i y j de A produciendo un cero en la
entrada ji de A.
Procedimiento para encontrar la descomposicion QR de A
1. Hacemos cero las posiciones ii de A para 2 i n. De esta forma
podemos encontrar una matriz
A
(1)
=
Q
t
1
..
Q
t
n1
Q
t
31
Q
t
21
A
debe observar que el cero en la posicion 21, hecho al aplicar el rotor
Q
t
21
, se mantiene al aplicar el rotor Q
t
31
.
2. Aplicamos un procedimiento similar sobre A
(1)
con el n de hacer cero
las posiciones ji para 3 j n. Es decir, calculamos
A
(2)
= Q
t
n2
Q
t
42
Q
t
32
. .
Q
t
2
A
(1)
Continuando as sucesivamente y tomando Q
t
= Q
t
n1
Q
t
1
tenemos
que
Q
t
A = R
en donde R es triangular superior.
Factorizacion QR usando reectores de Householder
Consideremos x, y R
n
tales que x ,= y y con |x|
2
= |y|
2
. Nuestro
objetivo es de nuevo encontrar una transformacion lineal que lleve x en y.
En este caso, consideraremos un operador Q que lleve x en y, dejando ja
la recta L que biseca el angulo que forma x con y. Para deducir la forma de
Q, observemos el siguiente graco
58 Teoria Avanzada de Matrices

v
ux
x
y
L
Sean u y v L R
n
linealmente independientes, sobre el plano que
contiene a x y y (consideramos x y y linealmente independientes) y ademas
los supondremos ortogonales y unitarios. Entonces existen , R, tales
que x = u +v. Ahora si Q reeja x sobre la recta L, tendremos que
Qx = u +v
= y
Observemos adicionalmente que Qu = u y Qv = v. Observemos que el
operador uu
t
, lleva a u en u, pero a v lo lleva en cero. Ahora consideremos
I 2uu
t
, este operador efectua lo que buscamos, este tipo de operadores se
llaman reectores de Householder.
Dados x y y, podemos construir u y v por las formulas
u =
x y
|x y|
, v =
x +y
|x +y|
Ahora consideremos que y tiene la forma
y =
_

_
y
1
0
.
.
.
0
_

_
Entonces como |x|
2
= |y|
2
, necesariamente y
1
= |x|
2
.
Podemos escoger cualquiera de los dos valores, en la practica se acostum-
bra a escoger el signo contrario al signo de x
1
, para evitar fenomenos de
cancelacion que se dan sobre un computador.
Ejercicio 47.
Equivalencia Unitara y Matrices Normales 59
(a) Probar que Q es ortogonal.
(b) Q = Q
1
, es decir Q
2
= I.
NOTA. Observese que un rotor de Householder es una matriz ortogonal
simetrica.
Ejercicios
2.1 Observe que
T() =
_
cos sen
sen cos
_
con 0
es una matriz ortogonal. Son todas las matrices ortogonales reales 22
de este tipo?. Describa todas las matrices ortogonales reales.
2.2 Caracterizar todas las matrices ortogonales 22. Probarque el conjunto
de las ortogonales 2 2 es no-acotado.
2.3 Si T(0) = 0 pruebe que T es lineal.
2.4 Consideremos el espacio vectorial /
n
(C), dotado de la metrica eucli-
diana, heredada del producto interior
A, B) = Tr(B

A)
para todo A, B /
n
(C). Sean A
k

kN
y B
k

kN
sucesiones de ma-
trices en /
n
(C) tales que A
k
A y B
k
B, siendo A y B matrices
(jas). Entonces:
(a) A
k
B
k
AB
(b)

A
k


A
(c) A
t
k
A
t
(d) A

k
A

60 Teoria Avanzada de Matrices


2.5 Pruebe que la (similaridad) equivalencia unitaria es una relacion de
equivalencia. Ademas pruebe que es mucho mas na que la relacion
de similaridad.
2.6 No todo par de matrices similares, son unitariamente equivalentes, por
ejemplo.
A =
_
3 1
2 0
_
y B =
_
1 1
0 2
_
son similares, pero no unitariamente equivalentes.
2.7 El producto de matrices triangulares superiores es triangular superior
2.8 A, U /
n
(C) U unitaria. Probar que (U

AU)
k
= U

A
k
U
k = 0, 1, . . .
2.9 Indique en donde fallan las siguientes dos seudo-pruebas del Teorema de
Cayley-Hamilton.
a) Sabemos que si q() es un polinomio y es un valor propio de A
entonces q() es un valor propio de q(A). Ahora, p
A
() = 0, para
cada (A), por lo tanto los valores propios de p
A
(A) son todos
nulos y en consecuencia p
A
(A) = 0
nn
.
b) p
A
(t) = det(A tI
n
), entonces si t = A tenemos que
p
A
(A) = det(A A)
= 0.
2.10 Para toda U unitaria |UA|
F
= |A|
F
para toda A
2.11 Pruebe que GL
n
(C) es un conjunto abierto del espacio de las matrices
/
n
(C).
2.12 (Opcional) Pruebe que para cualquier real r > 0, existe una matriz no
singular A /
n
(C) tal que B
r
(A) GL
n
(C).
2.13 Demostrar o refutar la siguiente armacion:
Dada cualquier matriz no singular A /
n
(C), y cualquier n umero real
r > 0, existe un real > 0, tal que B
r
(A) GL
n
(C).
Equivalencia Unitara y Matrices Normales 61
2.14 Probar en el Teorema Espectral la equivalencia entre los literales (a) y
(e).
2.15 x

Ax = 0 para todo x C
n
, si y solo si, A es la matriz nula.
2.16 Probar que una matriz A es normal, si y solo si, |Ax|
2
= |A

x|
2
para
todo x C
n
2.17 Probar que una matriz A es normal si todo vector propio a izquierda es
un vector propio a derecha, de A.
2.18 (a) Probar que Q es ortogonal.
(b) Q = Q
1
, es decir Q
2
= I.
Captulo 3
Formas Canonicas
Introduccion
Sabemos que no todas las matrices son diagonalizables via una relacion
de similaridad. Tambien sabemos que toda matriz puede triangularizarse
superiormente a traves de matrices unitarias. Ademas podemos llevar via
similaridad a cualquier matriz a la forma diagonal por bloques en donde
cada bloque es una matriz triangular superior con un unico valor propio.
En este captulo avanzaremos un poco mas, simplicaremos cada uno de
los bloques a un cierto tipo de matrices triangulares superiores denominadas
bloques de Jordan.
62
Equivalencia unitara y matrices normales 63
3.1. Forma canonica de Jordan
Denicion 3.1. Sea C, un bloque de Jordan J
k
(), k > 1, es una
matriz k k, triangular superior de la forma
_

_
1 0 . . . . . . . 0
0 1 . . . . . . . 0
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
0 . . . . . . . . . . . 0
_

_
Si k = 1, J
1
() := []
Una matriz de Jordan J /
n
(C) es una (suma directa) matriz en blo-
ques de Jordan.
J =
_

_
J
n
1
(
1
) 0 0
0 J
n
2
(
2
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 J
n
k
(
k
)
_

_
, n
1
+n
2
+ +n
k
= n.
En donde los escalares
i
, no son necesariamente distintos.
Observaciones.
1. Si n
i
= 1 y k = n, entonces J
n
i
(
i
) = [
i
] y la matriz de Jordan J es
diagonal.
2. Cualquier bloque de Jordan J
m
() con m > 1, no es diagonalizable.
Si fuera diagonalizable, existira una matriz no singular S, tal que
J
m
() = SS
1
en donde necesariamente = diag(, . . . , ) = I
m
,
de aqu
J
m
() I
m
= SS
1
SS
1
= S(I
m
I
m
)S
1
= [ 0 ]
mxm
pero esto se tiene si, y solo si, m = 1 y este no es el caso. Concluimos
que J
m
() no puede ser diagonalizable.
64 Teoria Avanzada de Matrices
El resultado principal de esta seccion se resume en la armacion.
Toda matriz compleja es, salvo ciertas
condiciones de permutacion de las y columnas,
similar a una unica matriz de Jordan.
Lema 3.1. Dado k 1 consideremos el bloque de Jordan
J
k
(0) =
_

_
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. 1
0 . . . . . . . . . . . . 0
_

_
Entonces
(a) J
t
k
(0)e
k
= 0.
(b) J
t
k
(0)e
i
= e
i+1
, para 1 i k 1.
(c) J
k
(0)e
i+1
= e
i
, para i = 1, 2, . . . , k 1.
(d) J
k
(0)
p
= 0, para p k.
(e) (I J
t
k
(0)J
k
(0))x = (x
t
e
1
)e
1
, x C
n
.
Demostracion.
(a)
J
t
k
(0)e
k
=
_

_
0 . . . . . . . . . . . . 0
1
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_

_
_

_
0
.
.
.
.
.
.
0
1
_

_
= 0
Equivalencia unitara y matrices normales 65
(b)
J
t
k
(0)e
i
=
_

_
0 . . . . . . . . . . . . 0
1
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_

_
_

_
0
.
.
.
1
.
.
.
0
_

_
= e
i+1
, 1 i k 1
(c)
J
k
(0)e
i+1
=
_

_
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. 1
0 . . . . . . . . . . . . 0
_

_
_

_
0
.
.
.
1
.
.
.
0
_

_
= e
i
, 1 i k 1
(d) evidente de (a), (b) y (c).
(e)
(I J
t
k
(0)J
k
(0))
_

_
x
1
.
.
.
x
n
_

_
=
_
_
_
_
_
_
_
_
_
_
I
_

_
0 . . . . . . . . . . . . 0
1
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_

_
_

_
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
. 1
0 . . . . . . . . . . . . 0
_

_
_
_
_
_
_
_
_
_
_
_
_

_
x
1
.
.
.
x
n
_

_
=
_

_
x
1
.
.
.
x
n
_

_
0
x
2
.
.
.
x
n
_

_
= x
1
e
1
= (x
t
e
1
)e
1
I J
t
k
(0)J
k
(0) es una proyeccion sobre el primer eje.
66 Teoria Avanzada de Matrices
Teorema 3.1. Sea A /
n
(C) una matriz triangular estrictamente supe-
rior (es decir, a
ij
= 0 para i ,= j ). Entonces, existe una matriz no singular
S /
n
(C) y enteros n
1
, n
2
, . . . , n
m
con n
1
n
2
n
m
1 y
n
1
+n
2
+ +n
m
= n tales que
A = S
_

_
J
n
1
(0) 0 0
0 J
n
2
(0)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 J
nm
(0)
_

_
S
1
. (3.1)
Si A es real, la matriz S puede tomarse real.
Demostracion. Si n = 1, A = [ 0 ], el resultado es trivial.
Si n = 2, A =
_
0 a
0 0
_
, a C, a ,= 0 y
_
1
a
0
0 1
__
0 a
0 0
__
a 0
0 1
_
=
_
0 1
0 0
_
Procedemos por induccion completa sobre n, asumimos que n > 1, y que el
resultado ha sido probado para todas las matrices estrictamente triangulares
superiores de orden mayor que n.
Inicialmente particionemos A, como sigue
A =
_

_
0 a
t
.
.
.
0
A
1
_

_
donde a C
n1
y A
1
/
n1
(C) es una matriz estrictamente triangular
superior. Por la hipotesis de induccion hay una matriz S
1
/
n1
(C) tal
que S
1
AS tiene la forma (3.1), es decir
S
1
1
A
1
S
1
=
_

_
J
k
1
J
k
2
.
.
.
J
ks
_

_
=
_
J
k
1
0
0 J
_
(3.2)
Equivalencia unitara y matrices normales 67
donde k
1
k
2
k
s
1 y k
1
+ +k
s
= n 1, aqu J
k
i
= J
k
i
(0) y
J =
_

_
J
k
2
.
.
.
J
ks
_

_
/
nk
1
1
Es importante observar que J
k
1
= 0. Ahora
_

_
1 0 0
0
.
.
.
0
S
1
1
_

_
_

_
0 a
t
0
.
.
.
0
A
1
_

_
_

_
1 0
0 S
1
_

_ =
_

_
1 0 0
0
.
.
.
0
S
1
1
_

_
_

_
0 a
t
S
1
0
.
.
.
0
A
1
S
1
_

_
=
_

_
0 a
t
S
1
0
.
.
.
0
S
1
1
A
1
S
1
_

_
(3.3)
Consideremos la particion del vector, a
t
S
1
=
_
a
t
1
a
t
2
_
, en donde a
1
C
k
1
y
a
2
C
n(k
1
+1)
. Podemos escribir (3.3), como
_
1 0
0 S
1
1
_
A
_
1 0
0 S
1
_
=
_

_
0 a
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_
Efectuemos, ahora la siguiente transformacion de similaridad
_

_
1 a
t
1
J
t
k
1
0
0 I 0
0 0 I
_

_
_

_
0 a
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_
_

_
1 a
t
1
J
t
k
1
0
0 I
k
1
0
0 0 I
_

_=
_

_
1 a
t
1
J
t
k
1
0
0 I 0
0 0 I
_

_
_

_
0 a
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_
=
_

_
0 a
t
1
(I J
t
k
1
J
k
1
) a
t
2
0 J
k
1
0
0 0 J
_

_
Pero (I J
t
k
(0)J
k
(0))x = (x
t
e
1
)e
1
, de donde
_

_
0 a
t
1
(I J
t
k
1
J
k
1
) a
t
2
0 J
k
1
0
0 0 J
_

_ =
_

_
0 a
t
1
e
1
e
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_ (3.4)
68 Teoria Avanzada de Matrices
Caso I Si a
t
1
e
1
,= 0, entonces
_

_
1
a
t
1
e
1
0 0
0 I 0
0 0
1
a
t
1
e
1
I
_

_
_

_
0 (a
t
1
e
1
)e
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_
_

_
a
t
1
e
1
0 0
0 I 0
0 0 (a
t
1
e
1
)I
_

_
=
=
_

_
1
a
t
1
e
1
0 0
0 I 0
0 0
1
a
t
1
e
1
I
_

_
_

_
0 (a
t
1
e
1
)e
t
1
(a
t
1
e
1
)a
t
2
0 J
k
1
0
0 0 (a
t
1
e
1
)J
_

_
=
_

_
0 e
t
1
a
t
2
0 J
k
1
0
0 0 J
_

_
=
_

J e
1
a
t
2
0 J
_
donde

J =
_
0 e
t
1
0 J
k
1
_
= J
k+1
(0)
Ahora usamos la propiedad

Je
i+1
= e
i
, para i = 1, 2, . . . , k
_
I e
2
a
t
2
0 I
__

J e
1
a
t
2
0 J
__
I e
2
a
t
2
0 I
_
=
_
I e
2
a
t
2
0 I
__

Je
2
a
t
2
+e
1
a
t
2
0 J
_
=
_

Je
2
a
t
2
+e
1
a
t
2
+e
2
a
t
2
J
0 J
_
=
_

J e
2
a
t
2
J
0 J
_
Ahora calculamos una serie de similaridades, para cada i = 2, 3, . . . , k.
_
I e
i+1
a
t
2
J
i1
0 I
__

J e
i
a
t
2
J
i1
0 J
__
I e
i+1
a
t
2
J
i1
0 I
_
=
_

J e
i+1
a
t
2
J
i
0 J
_
pero J
k
1
= 0, por lo tanto podemos concluir que A es similar a la matriz
_

J 0
0 J
_
Equivalencia unitara y matrices normales 69
La cual es una matriz de Jordan de la forma pedida.
Caso II Si a
t
1
e
1
= 0, en este caso A es similar a la matriz
_

_
0 0 a
t
2
0 J
k
1
0
0 0 J
_

_
la cual es una matriz similar por permutacion de las y columnas a la matriz
_

_
J
k
1
0 0
0 0 a
t
2
0 0 J
_

_ (3.5)
Por hipotesis de induccion, hay una matriz no singular S
2
/
nk
tal que
S
1
2
_
0 a
t
2
0 J
_
S
2
=

J /
nk
es una matriz con ceros en la diagonal principal. Por lo tanto la matriz (3.5)
y en consecuencia A son similares a la matriz de Jordan
_
J
k
1
0
0

J
_
Teorema 3.2 (Forma canonica de Jordan). Sea A /
n
(C), entonces
existe una matriz no singular S /
n
(C), tal que
A = S
_

_
J
n
1
(
1
) 0
.
.
.
0 J
n
k
(
k
)
_

_
S
1
=: SJS
1
en donde n
1
+ + n
k
= n y la matriz de Jordan J es unica, salvo per-
mutacion de sus bloques de Jordan diagonales. Los valores propios
1
, . . . ,
k
no son necesariamente todos distintos. Si A es una matriz real con valores
propios reales, entonces S puede ser tomada real.
70 Teoria Avanzada de Matrices
Demostracion. Sabemos por un teorema anterior que existe una matriz no
singular

S /
n
(C) y una coleccion de matrices triangulares superiores
T
i
/
n
i
(C), 1 i s, con n
1
n
s
y n
1
+ + n
s
= n con
elementos en la diagonal principal iguales a
i
, tales que

S
1
A

S =
_

_
T
1
0
T
2
.
.
.
0 T
n
_

_
=: T
Consideremos ahora la matriz
T
_

1
I
n
1
.
.
.

s
I
ns
_

_
=
_

_
T
1

1
I
n
1
0
.
.
.
0 T
s

s
I
ns
_

_
Notese que cada matriz T
i

i
I
n
i
, i = 1, . . . , k es una matriz triangular
superior estricta. As, por el teorema anterior, existe una matriz no singular
S
i
/
n
i
(C) para 1 i s, tal que
S
1
i
(T
i

i
I
n
i
)S
i
Es una matriz de Jordan para cada 1 i s.
Claramente la matriz
S =
_

_
S
1
0
S
2
.
.
.
0 S
s
_

_
es una matriz no singular que lleva a A por similaridad a una matriz de
Jordan.
Ejercicio 48. Si A B, entonces (AI)
m
(BI)
m
, para cada C
y cada m = 0, 1, 2, . . .
Equivalencia unitara y matrices normales 71
Ejercicio 49. Sea ,= y B /
nn
, si
J
n
()B = BJ
n
()
entonces B = 0
Ejercicio 50. Sea B /
nn
(C), tal que BJ
n
(0) = J
n
(0)B, entonces B es
una matriz Toeplitz triangular superior, es decir, B es de la forma
B =
_

_
b
1
b
2
b
n
0 b
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. b
2
0 0 b
1
_

_
Ejercicio 51.
(a) La suma y el producto de matrices Toeplitz triangulares superiores es
una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las armaciones (a) y (b) ciertas para matrices Toeplitz en general.
Ejercicio 52. Sea C y J
n
() /
n
(C) un bloque de Jordan entonces
rank J
n
() = n, si ,= 0
rank(J
n
() I
n
) =
_
_
_
n si ,=
n 1 si =
Denicion 3.2. Una matriz A es no derogatoria, si para todo (A),
mg() = 1
3.2. Polinomios y matrices
Teorema 3.3. Sea A /
n
(C) no derogatoria. Una matriz B /
n
(C)
conmuta con A, si y s olo si, existe un polinomio P(), tal que
B = P(A)
72 Teoria Avanzada de Matrices
Demostracion.
) Si existe un polinomio p() tal que
B = P(A),
evidentemente B conmuta con A.
) Supongamos ahora que A y B conmutan. Sabemos por el teorema de
descomposici on de Jordan, que existe una matriz no singular S, tal que
A = SJS
1
para alguna matriz de Jordan J. Observemos que
SJS
1
B = BSJS
1
de donde
JS
1
BS = S
1
BSJ
por lo tanto, si probamos que existe un polinomio p(), tal que
S
1
BS = P(J)
claramente tendramos que
B = SP(J)S
1
= P(SJS
1
)
= P(A),
en consecuencia podemos suponer que A = J. Supongamos ahora que
1
,
2
, . . . ,
k
son los distintos valores propios de A. Podemos escribir
A =
_

_
J
n
1
(
1
)
J
n
2
(
2
)
.
.
.
J
n
k
(
k
)
_

_
, 1 k n,
Equivalencia unitara y matrices normales 73
donde n
1
+n
2
+ +n
k
= n. Ademas, escribamos B por bloques, de tal ma-
nera que la estructura en bloques de B coincida con la estructura en bloques
de A. Es decir, B esta compuesto por k k bloques, en donde el bloque B
ij
es de tama no n
i
n
j
para cada 1 i, j k. Aplicando la conmutatividad
de A y B se tiene que
J
n
i
(
i
)B
ij
= B
ij
J
n
j
(
j
) 1 i, j k
esto implica por un ejercicio anterior que B
ij
= 0 para i ,= j, ya que,
i
,=
j
.
Se deduce que B tiene una estructura diagonal por bloques de la forma
B =
_

_
B
1
0
B
2
.
.
.
0 B
k
_

_
kk
en donde B
i
:= B
ii
, 1 i k. Usando de nuevo la conmutatividad
B
i
J
n
i
(
i
) = J
n
i
(
i
)B
i
Pero J
n
i
(
i
) = J
n
i
(0) +
i
I
n
i
, de donde se concluye que
B
i
J
n
i
(0) = J
n
i
(0)B
i
De aqu y un ejercicio anterior tenemos que B
i
es de la forma Toeplitz
triangular superior, es decir
B
i
=
_

_
b
(i)
1
b
(i)
2
b
(i)
n
i
b
(i)
1
.
.
.
.
.
.
.
.
. b
(i)
2
b
(i)
1
_

_
En lo que sigue, construiremos un polinomio q
i
(t) de grado n
i
1, con la
propiedad
q
i
(J
n
j
(
j
)) =
_
_
_
0, si i ,= j
B
i
, si i = j
74 Teoria Avanzada de Matrices
Para luego construir el polinomio que exige el teorema como
p(t) = p
1
(t) + +p
k
(t).
Sea
q
i
(t) =
k

j=1
j,=i
(t
j
)
n
j
notese que el grado de q
i
(t) es
k

j=1
j,=i
n
j
= n n
i
. Observemos que
q
i
(J
n
j
(
j
)) = 0, para todo i ,= j, ya que (J
n
j
(
j
)
j
I)
n
j
= 0, para
j ,= i, 1 j k. Ademas, observemos que q
i
(J
n
i
(
i
)) es una matriz de
Toeplitz, no singular por ser producto de matrices de Toeplitz no singulares.
En consecuencia, q
i
(J
n
i
(
i
))
1
existe, y es una matriz de Toeplitz triangular
superior. Podemos armar que
q
i
(J
n
i
(
i
))
1
B
i
, 1 i k
es una matriz de Toeplitz. Ahora observemos que cualquier matriz de Toeplitz
M =
_

_
m
1
m
2
m
p
m
1
.
.
.
.
.
.
.
.
. m
2
m
1
_

_
pxp
podemos escribirla en la forma
M = m
1
(J
p
(

m)

mI
p
)
0
+m
2
(J
p
(

m)

mI
p
)
1
+ +m
p
(J
p
(

m)

mI
p
)
p1
,

m ,= 0
As, si
(t) = m
1
+m
2
(t m
1
) + +m
p
(t m
1
)
p1
en general

i
(t) =
i
+m
2
(t
i
) + +m
p
(t
i
)
n
i
1
tenemos que
M = (J
p
(m
1
))
Equivalencia unitara y matrices normales 75
En particular para cada q
i
(J
n
i
(
i
))
1
B
i
existe un polinomio
i
(t), de grado
n
i
1, tal que

i
(J
n
i
(
i
)) = q
i
(J
n
i
(
i
))
1
B
i
Hagamos p
i
(t) := q
i
(t)
i
(t) y observemos que
p
i
(J
n
j
(
j
)) = q
i
(J
n
j
(
j
))
i
(J
n
j
(
j
))
=
_
_
_
0, si i ,= j
B
i
, si i = j
De esta forma el polinomio
p(t) = p
1
(t) +p
2
(t) + +p
k
(t)
es tal que P(J) = B.
Observacion. Notese que si
J =
_

_
J
n
1
(
1
)
.
.
.
J
n
k
(
k
)
_

_
entonces
P(J) =
_

_
P(J
n
1
(
1
))
.
.
.
P(J
n
k
(
k
))
_

_
=
_

_
B
1
0
.
.
.
0 B
k
_

_
= B
Teorema 3.4. Sea A /
n
(C), existe un unico polinomio monico q
A
(t) de
grado mnimo que anula a A. El grado de este polinomio es n. Ademas,
si p(t) es cualquier polinomio tal que p(A) = 0, entonces q
A
(t) divide a p(t).
76 Teoria Avanzada de Matrices
Denicion 3.3. El unico polinomio monico q
A
(t) que anula a una matriz
A /
n
(C) se denomina el polinomio minimal de A
Corolario 3.1. Las matrices similares tienen el mismo polinomio carac-
terstico y minimal.
Teorema 3.5. Sea A /
n
(C) una matriz cuyos valores propios distintos
son
1
, . . . ,
m
, el polinomio minimal de A es
q
A
(t) =
m

i=1
(t
i
)

i
en donde
i
es el orden del bloque de Jordan mas grande correspondiente al
valor propio
i
.
Demostracion. El resultado proviene de las propiedades de nilpotencia que
cumple un bloque de Jordan.
Corolario 3.2. Una matriz es diagonalizable, si y solamente si, sus bloques
de Jordan tienen tama no 1.
3.3. Matriz compa nera de un polinomio monico
Sabemos que para una matriz A /
n
(C), siempre existe un polinomio
de grado mnimo que anula a A.
Nos preguntamos ahora, si dado un polinomio monico
p(t) = t
n
+a
n1
t
n1
+a
n2
t
n2
+ +a
1
t +a
0
existe una matriz A, para la cual p(t) es un polinomio minimal?
La primera observacion que hacemos es que la matriz debe ser de tama no
mnimo n. Podemos probar que una matriz con la propiedad pedida es
A =
_

_
0 a
0
1 0 a
1
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0 a
n2
0 0 1 a
n1
_

_
(3.6)
Equivalencia unitara y matrices normales 77
veamos:
Ie
1
= e
1
= A
0
e
1
Ae
1
= e
2
= A
1
e
1
Ae
2
= e
3
= A
2
e
1
.
.
.
Ae
n1
= e
n
= A
n1
e
1
entonces
Ae
n
= a
n1
e
n
a
n2
e
n1
a
1
e
2
a
0
e
1
= a
n1
A
n1
e
1
a
n2
A
n2
e
1
a
1
Ae
1
a
0
Ie
1
= A
n
e
1
Concluimos de la anterior ecuacion que
p(A)e
1
= (A
n
+a
n1
A
n1
+a
n2
A
n2
+ +a
1
A+a
0
I)e
1
Ademas,
p(A)e
k
= p(A)A
k1
e
1
= A
k1
p(A)e
1
= A
k1
0
= 0
para cada k = 1, . . . , n.
Hemos probado que P(A)e
k
= 0, para todo vector en la base canonica de C
n
,
luego
P(A) = 0. Con esto comprobamos que p(t) es un polinomio monico de
grado n, que anula a A. Por otro lado si
q(t) = t
m
+b
m1
t
m1
+ +b
1
t +b
0
es un polinomio monico de grado m < n, que anula a A, tendriamos que
q(A)e
1
= A
m
e
1
+b
m1
A
m1
e
1
+ +b
1
Ae
1
+b
0
e
1
= e
m+1
+b
m1
e
m
+ +b
1
e
2
+b
0
e
1
= 0
78 Teoria Avanzada de Matrices
lo cual implicara que el vector basico e
m+1
es linealmente dependiente con
los vectores basicos e
1
, e
2
, . . . , e
m
. Pero como esto es imposible concluimos
que p(t) es el unico polinomio monico de orden mnimo que anula a A.
Ademas puesto que p(t) tiene grado n, y el polinomio caracterstico de A es
un polinomio monico de grado n, que anula a A, entonces p(t) debe ser el
polinomio caracterstico de A.
Denicion 3.4. La matriz (3.6) se denomina la matriz compa nera del
polinomio
p(t) = t
n
+a
n1
t
n1
+a
n2
t
n2
+ +a
1
t +a
0
Hemos probado anteriormente el siguiente
Teorema 3.6. Todo polinomio monico es simultaneamente el polinomio
mnimo y el polinomio caracterstico de su correspondiente matriz com-
pa nera
Proposicion 3.1. Una matriz A /
n
(C), es similar a la matriz com-
pa nera de su polinomio caracterstico, si y solamente si, el polinomio mnimo
y el polinomio caracterstico de A son identicos.
Demostracion.
) Si dos matrices son similares evidentemente sus polinomios caractersti-
cos y mnimo son iguales.
) Ahora supongamos que los polinomios mnimos y caractersticos de una
matriz Ay de la matriz compa nera del polinomio mnimo de A son iguales.
Se sigue de aqui que la matriz de Jordan asociada a A, debe tener por cada
valor propio de A un unico bloque de Jordan J
k
() en caso contrario el
polinomio mnimo de A tendria grado inferior, a su correspondiente poli-
nomio caracterstico y esto no puede suceder, lo mismo podemos armar de
su correspondiente matriz compa nera. Ahora, por la igualdad entre los poli-
nomios mnimos de A y la correspondiente matriz compa nera, se sigue del
razonamiento anterior que estas matrices son similares a la misma matriz
de Jordan y por lo tanto son similares entre si.
Proposicion 3.2. Una matriz A /
n
(C) es similar a la matriz compa nera
de su polinomio caracterstico si y solo si, es no derogatoria.
Equivalencia unitara y matrices normales 79
Ejercicios
3.1 Si A B, entonces (A I)
m
(B I)
m
, para cada C y cada
m = 0, 1, 2, . . .
3.2 Sea ,= y B /
nn
, si
J
n
()B = BJ
n
()
entonces B = 0
3.3 Sea B /
nn
(C), tal que BJ
n
(0) = J
n
(0)B, entonces B es una matriz
Toeplitz triangular superior, es decir, B es de la forma
B =
_

_
b
1
b
2
b
n
0 b
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. b
2
0 0 b
1
_

_
3.4 (a) La suma y el producto de matrices Toeplitz triangulares superiores
es una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las armaciones (a) y (b) ciertas para matrices Toeplitz en ge-
neral.
Captulo 4
Matrices Hermitianas y
Simetricas
4.1. Deniciones, propiedades y caracterizacion de
matrices hermitianas
Denicion 4.1. Una matriz A /
n
(C) es:
(i) hermitiana, si A = A

(ii) antihermitiana, si A = A

(iii) simetrica, si A = A
t
(iv) antisimetrica, si A = A
t
Notacion. Denotaremos el conjunto de las matrices hermitianas por H
n
, y
el de las simetricas por o
n
(C) si sus entradas son complejas, y por o
n
(R) si
sus entradas son reales.
Observaciones.
1. A +A

, AA

, A

A H
n
para toda matriz A /
n
(C)
2. Si A H
n
, A
k
H
n
para cada k = 0, 1, 2, . . . .
80
Matrices Hermitianas y Simetricas 81
3. Si A, B H
n
, entonces A + B H
n
para todo R. Es decir, H
n
es un R-espacio vectorial. (Puede comprobarse que no es un C-espacio
vectorial.)
4. AA

es antihermitiana para todo A /


n
(C).
5. Si A y B son antihermitianas entonces A+B es antihermitiana para
todo R. Es decir, el conjunto de las matrices antihermitianas es
un R-espacio vectorial.
6. Si A H
n
, entonces iA es antihermitiana.
7. Si A es antihermitiana, entonces iA H
n
.
8. Toda matriz A /
n
(C) puede escribirse de manera unica como la
suma de una matriz hermitiana y una antihermitiana. As, si Ant(H
n
)
denota las matrices antihermitianas, entonces
M
n
(C) = HAnt(H
n
)
9. dim(H
n
) =
n(n+1)
2
+
(n1)n
2
= n
2
Demostracion. Sea A H
n
, y sean A
R
su parte real y A
I
su parte
imaginaria, as:
A = A
R
+iA
I
entonces,
(A
R
+iA
I
)

= A
R
+iA
I
de donde
A
t
R
iA
t
I
= A
R
+iA
I
por lo tanto A
t
R
= A
R
y A
t
I
= A
I
, Es decir, su parte real es simetrica
y su parte imaginaria es antisimetrica.
10. Toda matriz A /
n
(C) puede escribirse univocamente como
A = S +iT en donde S y T son hermitianas. Aqui
S =
1
2
(A +A

) y T =
i
2
(A A

)
Es decir,
M
n
(C) = HiH
n
82 Teoria Avanzada de Matrices
11. Toda matriz A /
n
(C) pude escribirse de manera unica como la
suma de una simetrica y una matriz antisimetrica. As, si Ant(o
n
)
denota el conjunto de las matrices antisimetricas tenemos que
/
n
(C) = o
n
(C) Ant(o
n
)
12. Si consideramos el producto interno , ) sobre /
n
(C) denido por
A, B) = Tr(B

A)
entonces
o
n
(C)

= Ant(o
n
(C))
de aqu obtendriamos que
/
n
(C) = o
n
(C) o

n
(C)
NOTA. Sin embargo, H
n
y Ant(H
n
) no son necesariamente conjuntos
ortogonales seg un este producto interior, ya que si
A =
_
0 i
i 0
_
y B =
_
0 1
1 0
_
tenemos que A H
n
y B T
n
, pero
A, B) = Tr
__
0 1
1 0
__
0 i
i 0
__
= Tr
__
i 0
0 i
__
= 2i ,= 0
13. Sea A Ant(H
n
), y escribamos A = A
R
+iA
im
, entonces
(A
R
+iA
im
)

= A
R
iA
im
y por otro lado
(A
R
+iA
im
)

= A
t
R
iA
t
im
Matrices Hermitianas y Simetricas 83
de donde A
t
R
= A
R
y A
im
= A
t
im
.
Concluimos de lo anterior, que una matriz es antihermitiana si su parte
real es antisimetrica (real) y su parte imaginaria es simetrica (real).
14. Las matrices hermitianas, antihermitianas, simetricas reales y anti-
sime-tricas reales son normales. Sin embargo, existen matrices simetri-
cas y antisimetricas complejas que no son normales. Por ejemplo:
A =
_
i 1
1 1
_
es simetrica, pero no es normal
AA

=
_
i 1
1 1
_ _
i 1
1 1
_
=
_
2 1 +i
1 i 2
_
A

A =
_
i 1
1 1
__
i 1
1 1
_
=
_
2 1 i
1 +i 2
_
Teorema 4.1. Sea A /
n
(C). Entonces A H
n
si y solamente si, por lo
menos una de las siguientes armaciones se cumple:
(i) x

Ax es real para todo x C


n
(ii) A es normal y todos los valores propios de A son reales.
(iii) S

AS es hermitiana para todo S /


n
(C)
Demostracion.
(i) )
x

Ax = (x

Ax)

= x

x
= x

Ax
84 Teoria Avanzada de Matrices
concluimos que x

Ax es real.
)
x

Ax = x

Ax,
por lo tanto
x

x = x

Ax
para todo x, de donde
x

(A

A)x = 0
Sea B = (b
ij
) = A

A y x = e
i
, entonces e
t
i
Be
i
= 0, luego
e
t
i
_

_
b
1i
.
.
.
b
ni
_

_
e
i
= b
ii
= 0
Por otro lado tenemos que
(e
t
i
e
t
j
)B(e
i
+e
t
j
) = e
t
i
Be
i
+e
t
j
Be
j
+(e
t
i
Be
j
e
t
j
Be
i
) = 0
donde
2
= 1. Concluimos que
e
t
i
_

_
b
1j
.
.
.
b
nj
_

_
= e
t
j
_

_
b
1j
.
.
.
b
nj
_

_
por lo tanto
b
ij
= b
ji
por otro lado,
(e
i
+e
j
)
t
B(e
i
+e
j
) = 0,
de aqu
b
ij
= b
ji
.
Concluimos que B = 0 y por lo tanto A = A

Matrices Hermitianas y Simetricas 85


(ii) Fue ya probado.
(iii) Es evidente.
Ejercicio 53. Probar que una matriz A es hermitiana, si y solo si, para
todo x C
n
,
x

x = x

Ax.
Respuesta.
) En este sentido el resultado es evidente.
) N otese que necesariamente x

(A

A)x = 0, para todo x C


n
, se sigue
por el ejercicio anterior, que A

A = 0, lo cual implica que A es hermitiana.


Teorema 4.2. Sea T una familia de matrices hermitianas entonces, existe
una matriz unitaria U, tal que UA

U es diagonal real para toda A T si y


solo si, T es una familia de matrices conmutantes.
Teorema 4.3. Sea A /
n
(C). Las siguientes armaciones son equiva-
lentes.
(a) A es similar a una matriz B /
n
(R)
(b) A es similar a A

(c) A es similar a A

, via una transformacion de similaridad hermitiana.


(d) A = HK, donde H, K /
n
(C) son hermitianas y por lo menos una
de la dos es no singular.
(e) A = HK, en donde H, K /
n
(C) hermitianas.
Demostracion.
(a) (b) Existe una matriz no singular S y una matriz
B /
n
(R), tales que
A = SBS
1
86 Teoria Avanzada de Matrices
entonces
A

= (S
1
)

B
t
S

= (S

)
1
B
t
S

as A

B
t
, pero B
t
B A, concluimos.
4.2. Caracterizacion variacional de los valores pro-
pios de matrices hermitianas
Teorema 4.4 (Rayleigh-Ritz). Sea A /
n
(C) una matriz hermitiana, y
sean
mn
=
1

2

n
=
max
los valores propios de A. Entonces,
(i)
1
x

x x

Ax
n
x

x, para todo x C
n
(ii)
max
= max
x,=0
x

Ax
x

x
= max
x

x=1
x

Ax
(iii)
mn
= mn
x,=0
x

Ax
x

x
= mn
x

x=1
Matrices Hermitianas y Simetricas 89
Proposicion 4.1. Sea A una matriz hermitiana, tal que A = UU

donde
= diag(
1
, . . . ,
n
), y
1

n
son los valores propios de A, entonces
(a) Si x U
1
, U
2
, . . . , U
k1

,
mn
x,=0
x

Ax
x

x
= mn
x

x=1
x

Ax =
k
, k = 2, 3, . . . , n
(b) Si x U
n
, U
n1
, . . . , U
nk+1

,
max
x,=0
x

Ax
x

x
= max
x

x=1
x

Ax =
nk
, k = 1, 2, . . . , n 1
Demostracion.
(a) Sea x U
1
, U
2
, . . . , U
k1

, x ,= 0
x

Ax =
n

i=1

i
x

U
i
U

i
x
=
n

i=1

i
(U
i
x)

(U

i
x)
=
n

i=1

i
[U

i
x[
2
=
n

i=k

i
[U

i
x[
2

k
n

i=k
[U

i
x[
2
=
k
n

i=k
[(U

x)
i
[
2
=
k
x

x
(4.1)
de aqu se sigue que
x

Ax
x

x

k
, si x ,= 0
90 Teoria Avanzada de Matrices
Notese que la igualdad se alcanza para x = u
k
, por lo tanto
mn
x,=0
xu
1
,...,u
k1

Ax
x

x
=
k
y de (4.1) tambien se sigue que
mn
x

x=1
xu
1
,...,u
k1

Ax =
k
(b) Se prueba en forma similar a (a)
Las formulas anteriores son de valor poco practico, pues requieren el
conocimiento de algunos vectores propios lo cual en general no es posible.
Teorema 4.5 (Courant-Fisher). Sean, A H
n
con valores propios

1

2

n
y sea k un entero tal que 1 < k < n. Entonces,
mn
w
1
,...,w
nk
C
n
max
x,=0, xC
n
xw
1
,...,w
nk
x

Ax
x

x
=
k
max
w
1
,...,w
k1
C
n
mn
x,=0, xC
n
xw
1
,...,w
k1
x

Ax
x

x
=
k
La optimizacion se efectua sobre colecciones w
1
, . . . , w
n
ortogonales de
C
n
.
Demostracion. Escribamos A = UU

, en donde U es unitaria y
= diag(
1
, . . . ,
n
) y sea 1 < k < n. Si x ,= 0,
x

Ax
x

x
=
(U

x)

(U

x)
x

x
=
(U

x)

(U

x)
(U

x)

(U

x)
Matrices Hermitianas y Simetricas 91
y hagamos el cambio de variable y = U

x. As, si w
1
, . . . , w
nk
C
n
son
vectores ortogonales dados, tenemos
sup
x,=0
xw
1
,...,w
nk

Ax
x

x
= sup
y,=0
yU

w
1
,...,U

w
nk

y
y

y
= sup
y

y=1
yU

w
1
,...,U

w
nk

i=1

i
y
i
y
i
= sup
y

y=1
yU

w
1
,...,U

w
nk

i=1

i
[y
i
[
2
sup
y

y=1
yU

w
1
,...,U

w
nk

y
1
=y
2
==y
k1
=0
n

i=1

i
[y
i
[
2
sup
[y
k
[
2
++[yn[
2
=1
yU

w
1
,...,U

w
nk

i=k

i
[y
i
[
2
sup
[y
k
[
2
++[yn[
2
=1
yU

w
1
,...,U

w
nk

k
n

i=k
[y
i
[
2

k
.
Con esto estamos probando que
sup
x,=0
xw
1
,...,w
nk

Ax
x

x

k
para cualquier coleccion de n k vectores w
1
, . . . , w
nk
ortogonales. Con-
cluimos de aqui que

k
inf
w
1
,...,w
nk
C
n
sup
x,=0
xw
1
,...,w
nk

Ax
x

x
Podemos ver que el valor
k
se alcanza, si tomamos la coleccion
_
_
_
w
1
= u
1
, . . . , w
nk
= u
nk
, x = u
k
, si n < 2k
w
1
= u
n
, . . . , w
nk
= u
k+1
, x = u
k
, si n 2k
92 Teoria Avanzada de Matrices
NOTA. x w
1
, . . . , w
nk

y U

w
1
, . . . , U

w
nk

Teorema 4.6 (Weyl). Sean A, B /


n
(C) matrices hermitianas,
i
(A),

i
(B),
i
(A + B) i = 1, . . . , n los valores propios de las matrices A, B y
A + B respectivamente. Ademas supongamos que estos valores propios han
sido ordenados de manera creciente. Entonces, para cada k = 1, 2, . . . , n se
tiene que

k
(A) +
n
(B)
k
(A +B)
k
(A) +
1
(B)
Demostracion. Para cada vector no nulo x C
n
, tenemos por el Teorema
de Rayleigh-Ritz que:

1
(B)
x

Bx
x

x

n
(B)
Ahora, por el Teorema de Courant-Fischer si w
1
, . . . , w
n
es una coleccion de
vectores ortogonales de C
n
,
max
w
1
,...,w
k1
mn
x,=0
xw
1
,...,w
k1

(A +B)x
x

x
=
k
(A +B)
= mn
w
1
,...,w
nk
C
n
max
x,=0
xw
1
,...,w
nk

(A+B)x
x

x
max
w
1
,...,w
k1
mn
x,=0
xw
1
,...,w
k1

Ax
x

x
+
x

Bx
x

x
=
k
(A +B)
= mn
w
1
,...,w
nk
C
n
max
x,=0
xw
1
,...,w
nk

_
x

Ax
x

x
+
x

Bx
x

x
_
max
w
1
,...,w
k1
mn
x,=0
xw
1
,...,w
k1

Ax
x

x
+
n
(B)
k
(A +B)
mn
w
1
,...,w
nk
C
n
max
x,=0
xw
1
,...,w
nk

Ax
x

x
+
1
(B)

k
(A) +
n
(B)
k
(A +B)
k
(A) +
1
(B).
Matrices Hermitianas y Simetricas 93
Corolario 4.2. Sean, A, B, matrices hermitianas, con B semidenida pos-
itiva (i.e. sus valores propios son 0) ademas supongamos que los valores
propios de A y B son arreglados en orden creciente. Entonces,

k
(A)
k
(A +B), k = 1, 2, . . . , n. (4.2)
Demostracion. Por hipotesis
1
(B) 0, y por el teorema anterior se deduce
(4.2)
Teorema 4.7 (Principio de Inclusion). Sea A una matriz hermitiana, y
sea r un entero 1 r n. Denotemos por A
r
una matriz subprincipal r r
(obtenida al borrar n r las de A y las correspondientes columnas). Para
cada k, 1 k r tenemos que

k
(A)
k
(A
r
)
k+nr
(A)
Demostracion. Sea A
r
/
r
(C) la matriz que se obtiene de A, al borrar las
las i
1
, . . . , i
nr
y las correspondientes columnas, y sea 1 k r. Usando
el Teorema de Courant-Fischer tenemos que

k+nr
= mn
w
1
,...,w
rk
C
n
max
x,=0
xw
1
,...,w
rk

Ax
x

x
mn
w
1
,...,w
rk
C
n
max
x,=0
xw
1
,...,w
rk

xe
i
1
,...,e
i
nr

Ax
x

x
= mn
v
1
,...,v
rk
C
r
max
y,=0, yC
r
yv
1
,...,v
rk

A
r
y
y

y
=
k
(A
r
)
94 Teoria Avanzada de Matrices
Para la segunda desigualdad asumimos de nuevo que 1 k r y usamos el
Teorema de Courant-Fischer

k
(A) = max
w
1
,...,w
k1
C
n
mn
x,=0, xC
n
xw
1
,...,w
k1

Ax
x

x
max
w
1
,...,w
k1
C
n
mn
x,=0, xC
n
xw
1
,...,w
k1

xe
i
1
,...,e
i
nr

Ax
x

x
= max
v
1
,...,v
k1
C
r
mn
y,=0, yC
r
yv
1
,...,v
k1

Ay
y

y
=
k
(A
r
)
Corolario 4.3 (Teorema de separacion de Poincare). Sean A /
n
(C)
hermitiana, r un entero tal que 1 r n y u
1
, . . . , u
r
C
n
vectores or-
togonales. Si B
r
= [u

i
Au
j
] /
r
, y los valores propios de A y B
r
estan
ordenados en forma creciente, entonces

k
(A)
k
(B
r
)
k+nr
(A), 1 k r (4.3)
Demostracion. Si r n completamos el conjunto u
1
, . . . , u
r
a una base
ortonormal u
1
, . . . , u
r
, u
r+1
, . . . , u
n
. Hagamos U =
_
u
1
u
n
_
, como U
es unitaria, U

AU tiene los mismos valores propios de A. Observemos que


B
r
es una submatriz principal de U

AU obtenida al borrar las nr ultimas


las y columnas de U

AU. Entonces (4.3) se sigue del teorema anterior.


Corolario 4.4. Sean A /
n
(C) hermitiana y r un entero tal que 1 r
n. Entonces,

1
(A) + +
r
(A) = mn
U

U=Ir
Tr U

AU

nr+1
(A) + +
n
(A) = max
U

U=Ir
Tr U

AU
aqu el mnimo y el m aximo se toman sobre todas las matrices U /
nr
(C),
tales que sus columnas son vectores ortonormales.
Matrices Hermitianas y Simetricas 95
Ejercicio 54. Para cualquier permutacion

1
(A) + +
r
(A)
r

i=1
a
i(i)

nr+1
(A) + +
n
(A)
r

i=1
a
i(i)
Demostracion. Sea U /
nr
(C) con sus columnas ortonormales y haga-
mos B
r
= U

AU. Entonces, Tr(B


r
) =
1
(B
r
)+ +
r
(B
r
) y por el corolario
anterior
k
(A)
k
(B
r
), 1 k r, de donde

1
(A) + +
r
(A)
1
(B
r
) + +
r
(B
r
)
= Tr(U

AU)
por lo tanto

1
(A) + +
r
(A) inf
U

U=Ir
Tr(U

AU)
en particular, si U =
_
u
1
u
r
_
, donde Au
i
=
i
u
i
, 1 i r

1
(A) + +
r
(A) = Tr(U

AU)
luego

1
(A) + +
r
(A) = mn
U

U=Ir
Tr(U

AU)
4.3. Matrices Simetricas Complejas
Teorema 4.8. Sea A /
n
(C). Existen, una matriz unitaria U /
n
(C)
y una matriz triangular superior /
n
(C), tal que A = UU
t
, si y
solamente si, todos los valores propios de AA son reales no negativos. Bajo
estas condiciones, todas las entradas en la diagonal principal de , pueden
tomarse no negativas, y corresponden a las raices cuadradas no negativas de
los valores propios de AA.
96 Teoria Avanzada de Matrices
Demostracion.
) Si A = UU
t
, entonces
AA = UU
t
UU

= UU

notese que los elementos de la diagonal principal de , son reales no ne-


gativos, y que por ser triangular superior, los valores propios de
corresponden a los elementos en su diagonal principal.
) Asumamos que los valores propios de AA son reales no negativos. Sea
(, x) un par propio de AA, esto es, AAx = x, con R, 0.
Consideremos ahora las siguientes dos posibilidades:
(a) Ax y x son linealmente dependientes.
(b) Ax y x son linealmente independientes.
Probaremos que para cualquiera de estas dos posibilidades, existen C,
[[
2
= y v C
n
, v ,= 0 tales que Av = v.
Si (a) se da, existe C tal que Ax = x, luego
AAx = Ax
= x
= [[
2
x
luego necesariamente
[[
2
=
Si la condicion (b) se satisface, consideremos el vector y = Ax +x, el cual
es no nulo para todo C y tomemos , tal que [[
2
= . Entonces,
Ay = A(Ax +x)
= AAx +Ax
= x +Ax
= x +Ax
= (x +Ax)
= y
Matrices Hermitianas y Simetricas 97
Asumamos adicionalmente que v es unitario. Notese que para cualquier
R, tenemos
e
i
Av = e
i
v
= (e
2i
)(e
i
v)
notese que e
i
v es un vector unitario por ser v unitario. Elijamos , de tal
forma que e
2i
0, ademas [e
2i
[ = [[ = +

NOTA.
e
2i
= cos 2 i sen 2
e
2i
= [[e
i(2)
donde = [[e
i
0 2
= [[(cos( 2) +i sen( 2))
Determinamos tal que
sen( + 2) = 0
2 = k, k = 0, 1, 2, . . .
luego
=
k
2
De acuerdo a la NOTA concluimos que si A /
n
(C) y es un valor
propio no negativo de AA, entonces existen un vector unitario v y un escalar
= +

tales que Av = v. Hagamos v


1
= v y completemos una base
ortonormal v
1
, v
2
, . . . , v
n
de C
n
. Sea V
1
=
_
v
1
v
2
v
n
_
, notemos que
V
1
es unitaria. Podemos escribir
V
t
1
AV
1
=
_

_
w
t
0
.
.
.
0
A
2
_

_
98 Teoria Avanzada de Matrices
en donde w C
n1
, A
2
/
n1
(C). Se sigue que
_
V
t
1
AV
1
__
V
t
1
AV
1
_
= V

1
AV
1
V
t
1
AV
1
= V

1
AAV
1
=
_

2
w
t
+w
t
A
2
0
.
.
.
0
A
2
A
2
_

_
Ahora, puesto que los valores propios de AA son todos reales no negativos
(hipotesis), entonces los valores propios de A
2
A
2
son todos reales no nega-
tivos. Aplicando la induccion sobre, el tama no de la matriz, tenemos que
existe una matriz V
t
2
/
n1
(C) unitaria y una matriz triangular superior

2
con todos los elementos en la diagonal principal no negativos, tales que
V
t
t
2
A
2
V
t
2
=
2
Hagamos
V
2
=
_

_
1 0 0
0
.
.
.
0
V
t
2
_

_
y observemos que
V
t
2
V
t
1
AV
1
V
2
=
_

2
w
t
0
.
.
.
0

2
_

_
que es precisamente lo que se quera probar.
Observacion. Si A /
n
(C) es una matriz simetrica, entonces los valores
propios de AA son reales no negativos, ya que (AA)

= A
t
A
t
= AA, es
decir, AA es hermitiana, con valores propios no negativos, es decir, A

A
es semidenida positiva. Notese que si es un valor propio de A, entonces
= [[
2
es un valor propio de AA (Usar el Teorema de Schur).
Matrices Hermitianas y Simetricas 99
Corolario 4.5 (Factorizacion de Takagi). Si A /
n
(C) es simetri-
ca, existe una matriz unitaria U /
n
(C) y una matriz diagonal real no
negativa = diag(
1
, . . . ,
n
) tales que
i) A = UU
t
ii) Las columnas de U forman un conjunto ortonormal de vectores propios
de AA.
iii) Las entradas en la diagonal de , son las raices cuadradas no negativas
de los valores propios de AA.
Demostracion. Si A es simetrica, AA = AA

es hermitiana y sus valores


propios son reales no negativos. El teorema anterior garantiza que hay una
matriz unitaria U /
n
(C) y una matriz triangular superior /
n
(C),
=
_

1

0
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . . 0
n
_

_
, con
i
0, i = 1, . . . , n.
tales que A = UU
t
. Pero por la simetra de A implica que UU
t
= U
t
U
t
,
concluimos de aqu que =
t
y por lo tanto es diagonal. Ademas,
AA = UU
t
UU
t
= UU

= U
2
U

de esta ultima igualdad con-


cluimos que las columnas de U son vectores propios de AA
Teorema 4.9. Sea A /
n
(C) entonces A es simetrica y normal, si y sola-
mente si, hay una matriz ortogonal real Q /
n
(R) y una matriz diagonal
/
n
(C) tales que
A = QQ
t
. (4.4)
Demostracion. Podemos escribir A = B +iC, en donde B, C son matrices
simetricas reales. Si A es simetrica y normal, entonces
AA

= (B +iC)(B iC)
= (B
2
+C
2
) +i(CB BC)
100 Teoria Avanzada de Matrices
y
A

A = (B iC)(B +iC)
= (B
2
+C
2
) +i(BC CB)
de donde CB = BC. En consecuencia, B y C son simultaneamente diago-
nalizables, por una matriz ortogonal real Q. Si B = QD
1
Q
t
y C = QD
2
Q
t
en donde D
1
y D
2
son matrices diagonales reales. Entonces,
A = Q(D
1
+iD
2
)Q
t
= QQ
t
donde
= D
1
+iD
2
Reciprocamente, si una matriz A /
n
(C), puede escribirse en la forma
(4.4), es claro que A es simetrica. Ademas,
AA

= QQ
t
(QQ
t
)

= QQ
t
QQ
t
= QQ
t
= QQ
t
= QQ
t
QQ
t
= A

A
se concluye que A es normal.
Lema 4.1. Sean, A /
n
(C) y > 0. Entonces, existe una matriz no
singular S

/
n
(C), tal que
A = S

_
J
n
1
(
1
, ) 0
.
.
.
0 J
n
k
(
k
, )
_

_
S
1

(4.5)
Matrices Hermitianas y Simetricas 101
donde
J
m
(, ) =
_

_
0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
_

_
Demostracion. Sabemos que existe una matriz no singular S
1
/
n
(C), tal
que si
1
, . . . ,
k
son los valores propios distintos de A, entonces
S
1
1
AS
1
=
_

_
J
n
1
(
1
) 0
.
.
.
0 J
n
k
(
k
)
_

_
en donde n
1
+ +n
k
= n. Sea D

= diag(1, , . . . ,
n1
) y calculemos
D
1

S
1
AS
1
D

=
_

_
1
1

.
.
.
1

n1
_

_
_

_
J
n
1
(
1
) 0
.
.
.
0 J
n
k
(
k
)
_

_
_

_
1

.
.
.

n1
_

_
para determinar el resultado efectuemos
_

_
1
1

.
.
.
1

n
1
1
_

_
_

1
1
.
.
.
.
.
.
1

1
_

_
_

_
1

.
.
.

n
1
1
_

_
=
=
_

_
1
1

.
.
.
1

n
1
1
_

_
_

1

2
.
.
.
.
.
.

n
1
1

n
1
1
_

_
=
_

1

.
.
.
.
.
.

1
_

_
102 Teoria Avanzada de Matrices
Por lo tanto D
1

S
1
1
AS
1
D

es de la forma (4.5).
Teorema 4.10. Toda matriz A /
n
(C) es similar a una matriz simetrica.
Demostracion. Sea A /
n
(C), sabemos que A es similar a una forma
canonica de Jordan.
J =
_

_
J
n
1
(
1
) 0
.
.
.
0 J
n
k
(
k
)
_

_
en donde J
n
i
(
i
), i = 1, . . . , k son bloques de Jordan y
1
, . . . ,
k
son los
distintos valores propios de A.
Consideremos la matriz S
r
=
1

2
(I
r
+ iB
r
), en donde I
r
es la identica de
orden r, y
B
r
=
_

_
0 1
1 0
_

_
rr
.
.
.
.
B
r
=
_

_
0 1

1 0
_

_
rr
.
Entonces,
S
r
S
r
=
1
2
(I
r
+iB
r
)(I
r
iB
r
)
=
1
2
(I
r
+B
2
r
+i(B
r
B
r
))
=
1
2
(I
r
+I
r
)
= I
r
as, S
r
es unitaria simetrica.
Ahora probaremos que si J
r
() es un bloque de Jordan cualquiera de tama no
Matrices Hermitianas y Simetricas 103
r, con valor propio C, entonces S
r
J
r
()S
1
r
es una matriz simetrica.
Escribamos
J
r
() = I
r
+J
r
(0),
entonces
S
r
J
r
()S
1
r
= S
r
(I
r
+J
r
(0))S
r
= I
r
+S
r
J
r
(0)S
r
= I
r
+ (I
r
+iB
r
)J
r
(0)(I
r
iB
r
)
= I
r
+J
r
(0) +B
r
J
r
(0)B
r
+i(B
r
J
r
(0) J
r
(0)B
r
)
pero
B
r
J
r
(0) =
_

_
0 1
1 0
_

_
_

_
0 1
.
.
.
.
.
.
.
.
. 1
0
_

_
=
_

_
0 0
.
.
. 1
.
.
.
0 1 0
_

_
J
r
(0)B
r
=
_

_
0 1
.
.
.
.
.
.
.
.
. 1
0
_

_
_

_
0 1
1 0
_

_
=
_

_
0 1 0
1
0 0
_

_
104 Teoria Avanzada de Matrices
y
B
r
J
r
(0)B
r
=
_

_
0 0
.
.
. 1
.
.
.
0 1 0
_

_
_

_
0 1
1 0
_

_
=
_

_
0
1
.
.
.
.
.
.
.
.
.
1 0
_

_
Observemos que
J
r
(0) +B
r
J
r
(0)B
r
es simetrica, y que tambien lo es
B
r
J
r
(0) J
r
(0)B
r
Con esto hemos probado que cada bloque de Jordan es similar a una matriz
simetrica, de aqu se sigue que toda matriz es similar a una matriz simetrica.
Ejercicio 55. Toda matriz puede factorizarse como el producto de dos
matrices simetricas, en donde por lo menos uno de los factores es no singular.
Ejercicios
4.1 Probar que una matriz A es hermitiana, si y solo si, para todo x C
n
,
x

x = x

Ax.
4.2 Para cualquier permutacion

1
(A) + +
r
(A)
r

i=1
a
i(i)

nr+1
(A) + +
n
(A)
r

i=1
a
i(i)
Matrices Hermitianas y Simetricas 105
4.3 Toda matriz puede factorizarse como el producto de dos matrices simetri-
cas, en donde por lo menos uno de los factores es no singular.
4.4 Refute o demuestre, toda matriz simetrica A puede escribirse en la forma
A = QQ
T
en donde Q es ortogonal compleja y diagonal.
Captulo 5
Normas Matriciales
Denicion 5.1. Una funcion || : /
n
(C) R es una norma matricial, si
y solo si, para todo A, B /
n
(C) se satisfacen los siguientes cinco axiomas
(1) |A| 0
(2) |A| = 0 A = 0
(3) |A| = [[|A|, para todo C
(4) |A +B| |A| +|B|
(5) |AB| |A||B|
Propiedades.
1. Si A es invertible |I| |A
1
||A|
2. |A
k
| |A|
k
para todo k = 1, 2, . . .
3. Si A es idempotente, no nula |A| 1
NOTA. Una funcion | | : V R con V espacio vectorial sobre R, se
denomina norma vectorial, si satisface (1), (2), (3) y (4)
Ejercicio 56. Toda pnorma es una norma matricial? Es decir, si
|A|
p
=
_
_
n

i,j=1
[a
ij
[
p
_
_
1
p
, p 1
106
Normas Matriciales 107
entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la armacion es cier-
ta, si y solo si 1 p 2.
Ejercicio 57. |AB|
p
mn|A|
p
|B|
q
, |A|
q
|B|
p
p
1
+q
1
= 1
Ejercicio 58. Probar directamente que la 1-norma y la 2-norma son normas
matriciales.
Respuesta. Sea A /
n
(C), la 1-norma o
1
-norma esta dada por la
igualdad
|A|
1
=
n

i,j=1
[a
ij
[.
Puede vericarse facilmente que | |, satisface las propiedades (1), (2), (3)
(4) para vericar (5) observemos que
|AB|
1
=
n

i,j=1
[
n

k=1
a
ik
b
kj
[

i,j=1
n

k=1
[a
ik
b
kj
[

i,j=1
n

k=1
[a
ik
[[b
kj
[

i,j=1
n

k=1
n

s=1
[a
is
[[b
kj
[

i,j=1
n

s=1
[a
is
[
n

k=1
[b
kj
[

i=1
n

j=1
_
n

s=1
[a
is
[
n

k=1
[b
kj
[
_

i=1
_
_
n

s=1
[a
is
[
n

j=1
n

k=1
[b
kj
[
_
_

_
n

i=1
n

s=1
[a
is
[
_
_
_
n

j=1
n

k=1
[b
kj
[
_
_
|A|
1
|B|
1
108 Teoria Avanzada de Matrices
NOTA. Es interesante observar que una norma sobre un espacio vectorial
proviene de un producto interior, es decir, dado | |, si existe , ), tal que
| | = , )
1
2
, esto es posible, si y solo si,
1
2
_
|X +Y |
2
+|X Y |
2
_
= |X|
2
+|Y |
2
.
Ejercicio 59. Muestre que | | no proviene de un producto interior.
Ejercicio 60 (La norma innito). Denimos, para A /
n
(C)
|A|

= lm
p
|A|
p
= lm
p
_
_
n

i,j=1
[a
ij
[
p
_
_
1
p
probar que
|A|

= max
1i,jn
[a
ij
[
es una norma vectorial pero no una norma matricial.
Demostracion.
max
1i,jn
[a
ij
[ |A|
p
=
_
_
n

i,j=1
[a
ij
[
p
_
_
1
p

_
n
2
max
1i,jn
[a
ij
[
p
_1
p
(n
2
)
1
p
max
1i,jn
[a
ij
[.
Por el teorema del emparedado tenemos que
|A|

:= lm
p
|A|
p
= max
1i,jn
[a
ij
[
pueden probarse facilmente (1), (2), (3), y (4). Ahora (5) no se satisface
ya que, si J =
_
1 1
1 1
_
, entonces J
2
=
_
2 2
2 2
_
, ademas |J|

= 1, pero
|J
2
|

= 2 y
2 = |J
2
|

|J|

|J|

= 1
Normas Matriciales 109
Sin embargo
Ejercicio 61. |[A[|

:= n|A|

es una norma matricial


Demostracion.
|[AB[|

= n|AB|

= n max
1i,jn
[
n

k=1
a
ik
b
kj
[
n max
1i,jn
n

k=1
[a
ik
[[b
kj
[
n max
1i,jn
n

k=1
|A|

|B|

n|A|

n|B|

= |[A[|

|[B[|

Ejercicio 62. La norma euclideana o 2-norma es una norma matricial


|A|
2
=
_
_
n

i,j=1
[a
ij
[
2
_
_
1
2
.
Demostracion.
|AB|
2
2
=
n

i,j=1
[
n

k=1
a
ik
b
kj
[
2

i,j=1
_
n

k=1
[a
ik
[
2
__
n

k=1
[b
kj
[
2
_

i=1
n

j=1
_
n

k=1
[a
ik
[
2
__
n

k=1
[b
kj
[
2
_

i=1
n

k=1
[a
ik
[
2
n

j=1
n

k=1
[b
kj
[
2
= |A|
2
2
|B|
2
2
110 Teoria Avanzada de Matrices
5.1. Normas Matriciales Inducidas por Normas Vec-
toriales
Proposicion 5.1. Si || es una norma vectorial denida sobre C
n
, entonces
|[A[| := max
|x|=1
|Ax|,
es una norma matricial sobre /
n
(C).
Demostracion. 1), 2), 3) y 4) pueden vericarse facilmente. Veamos 5)
|[AB[| : = max
|x|=1
|ABx|
= max
x,=0
|ABx|
|x|
= max
x,=0
Bx,=0
|ABx|
|Bx|

|Bx|
|x|
max
y,=0
|Ay|
|y|
max
x,=0
|Bx|
|x|
= |[A[||[B[|.
Corolario 5.1. Si |[ [| es una norma matricial inducida por la norma
vectorial | |, entonces
1) |Ax| |[A[||x| para todo A /
n
(C) y x C
n
.
2) |[I[| = 1.
Demostracion. 1) Por denicion
|[A[| = max
x,=0
|Ax|
|x|
de aqu tenemos que para todo x C
n
, x ,= 0
|Ax| |[A[||x|
Normas Matriciales 111
2) Es evidente.
Proposicion 5.2. Sea A /
n
(C), entonces las funciones
1) |[A[|
1
= max
1jn

n
i=1
[a
ij
[, norma columna.
2) |[A[|
2
= max

[ (A

A) norma espectral, y
3) |[A[|

= max
1in

n
j=1
[a
ij
[ norma la.
son normas matriciales inducidas por las pnormas vectoriales | |
1
, | |
2
y | |

respectivamente.
Demostracion. 1) Sean A = [A
1
, . . . , A
n
] y x = (x
1
, . . . , x
n
)
t
C
n
|Ax|
1
= |a
1
x
1
+ +a
n
x
n
|
1

i=1
|A
i
x
i
|
1

i=1
[x
i
[|A
i
|
1

i=1
[x
i
[
_
max
1kn
|A
k
|
1
_
=
n

i=1
[x
i
[|[A[|
1
= |[A[|
1
|x|
1
de donde
|Ax|
1
|x|
1
|[A[|.
para todo x ,= 0. Por otro lado observamos que si hacemos z = e
k
,
|Ae
k
|
1
= |a
k
|
1
, para todo 1 k n de donde
|[A[|
1
= max
1kn
|Ae
k
|,
concluimos que
|[A[|
1
= max
x,=0
|Ax|
1
|x|
1
.
112 Teoria Avanzada de Matrices
2) Sabemos que A

A es hermitiana con todos los valores propios reales no


negativos. Sea x C
n
, x ,= 0, por el teorema de Rayleigh-Ritz

max
(A

A) = max
x,=0
x

Ax
x

x
= max
x,=0
|Ax|
2
2
|x|
2
2
=
_
max
x,=0
|Ax|
2
|x|
2
_
2
luego
|[A[|
2
=
_

max
(A

A)
= max
x,=0
|Ax|
2
|x|
2
.
3) Sea x C
n
, x ,= 0
|Ax|

= max
1in
[
n

j=1
a
ij
x
j
[
max
1in
n

j=1
[a
ij
[[x
j
[
max
1kn
[x
k
[ max
1in
n

j=1
[a
ij
[
|[A[|

|x|

de aqu se sigue que


max
|x|=1
|Ax|

|[A[|

Ahora probaremos que la igualdad se alcanza. Por cada la 1 k n


de A denimos z
k
= [z
k
1
, . . . , z
k
n
]
t
C
n
de la siguiente manera
z
k
i
=
_
_
_
a
ki
[a
ki
[
, si a
ki
,= 0
1, si a
ki
= 0
Normas Matriciales 113
entonces, |z
k
|

= 1 y a
kj
z
k
j
= [a
kj
[, j = 1, . . . , n. Entonces
max
|x|=1
|Ax|

|Az
k
|

= max
1in
[
n

j=1
a
ij
z
k
j
[
[
n

j=1
a
kj
z
k
j
[
=
n

j=1
[a
kj
[
para cualquier la k de A. Concluimos que
max
|x|=1
|Ax|

|[A[|

NOTA.
Si Aes hermitiana, [
(A

A)
max
[ =
_

max
(A

A), en otras palabras |[A[|


2
=
(A).
Si A es una matriz cualquiera, el valor singular maximo de A es

max
(A) =
_

max
(A

A)
En general |[A[|
2
|A|
F
Ejercicio 63. El radio espectral (A) de una matriz A /
n
(C) es
(A) = max[[ [ (A).
Si B es normal, entonces
[x

Bx[ (A)|x|
2
, para todo x C
n
Demostracion. Sean
1
, . . . ,
n
los valores propios de B. Existe U /
n
(C)
unitaria, tal que
B =

i
U
i
U

i
114 Teoria Avanzada de Matrices
U
i
es la columna iesima de U, de donde
[x

Bx[ = [
n

i=1

i
x

U
i
U

i
x[

i=1
[
i
[(U

i
x)

i
x
(A)
n

i=1
(U

i
x)

i
x
(A)x

x
(A)|x|
2
2
Ejercicio 64. Mostrar que |[UAV [|
2
= |[A[|
2
, para todo A /
n
(C) y
cualquier par de matrices unitarias U, V /
n
(C). As, la norma espectral
es una norma unitariamente invariante.
Demostracion.
|[UAV [|
2
= max
|x|
2
=1
|UAV x|
2
= max
|x|
2
=1
(x

UAV x)
1/2
= max
|x|
2
=1
(x

AV x)
1/2
=
_
max
|x|
2
=1
x

AV x
_
1/2
V

AV es hermitiana
=
max
(V

AV )
1/2
Teorema de Rayleight
=
max
(A

A)
1/2
= max[[ [ (A

A)
= |[A[|
2
Normas Matriciales 115
Teorema 5.1. Si |[ [| es una norma matricial, entonces
(A) |[A[|
para toda matriz A /
n
(C)
Demostracion. Sea A /
n
(C) y (A), tal que (A) = [[. Sea x un
vector propio de A, asociado a . Hagamos X /
n
(C), X =
_
x x
_
entonces
|[AX[| = [[|[X[|
por lo tanto
[[|[X[| |[A[||[X[|
y por ser x ,= 0, entonces
(A) |[A[|
Teorema 5.2. Si |[[| es una normas mtricial sobre /
n
(C) y si S /
n
(C)
es no singular, entonces
|[A[|
S
= |[S
1
AS[|
para todo A /
n
(C) es una norma matricial.
Demostracion. Sean A, B /
n
(C), entonces
|[AB[|
S
= |[S
1
ABS[|
= |[S
1
ASS
1
BS[|
|[S
1
AS[||[S
1
BS[|
Ejercicio 65. Dar un ejemplo de una norma vectorial | | sobre matrices
y una matriz tal que |A| < (A)
116 Teoria Avanzada de Matrices
Respuesta. Tomemos |[A[| = max
1i,jn
[a
ij
[, y denamos A =
_
2
1
2
1 2
_
, en-
tonces (A) si
( 2)
2

1
2
= 0
de donde = 2

2
2
. De aqu tenemos que
|[A[| = 2, pero (A) = 2 +

2
2
Lema 5.1. Sean, A /
n
(C) y > 0. Existe una norma matricial |[ [|,
tal que (A) |[A[| (A) +.
Demostracion. Por el teorema de triangularizacion de Schur, existe una ma-
triz unitaria U y una matriz triangular superior , tal que = U

AU. Sea
D
t
= diag(t, t
2
, . . . , t
n
) y calculemos
D
t
D
t
1 =
_

_
t
1
td
12
td
13
td
1n
t
2

2
t
2
d
23
t
2
d
2n
.
.
.
.
.
.
.
.
.
.
.
. t
1
d
n1,n

n
_

_
diag(t
1
, t
2
, . . . , t
n
),
= [d
ij
]
=
_

1
t
1
d
12
t
2
d
13
t
(n1)
d
1n

2
t
1
d
23
t
2
d
2n
.
.
.
.
.
.
.
.
.
.
.
. t
1
d
n1,n

n
_

_
Normas Matriciales 117
Ahora
|[D
t
D
t
1 [|
1
= max
1jn
_

_
[
j
[ +

i=1
j>1
t
i
[d
ij
[
_

_
(A) + max
1jn
_

i=1
j>1
t
i
[d
ij
[
_

_
(A) +d max
n1

i=1
t
i
(A) +d max
1
t

1
t
n
1
1
t
(A) +d max
1
t
1
1
t
(A) +d max
1
t 1
(A) +
Si tomamos t >
d max

+ 1. podemos denir la norma buscada por


|[X[| := |[D
t
U

XUD
1
t
[|
donde U es la matriz unitaria que triangulariza superiormente a A.
5.2. Normas unitariamente invariantes
Una propiedad importante de las normas euclideanas es que no cambian
bajo transformaciones unitarias. En particular para cualquier vector x y
para cualquier matriz unitaria U, tenemos que
|Ux|
2
= |x|
2
Esta propiedad tambien se tiene para la norma espectral y la norma de
Frobenius en el espacio de las matrices, es decir, para cualquier par de ma-
trices unitarias U y V y cualquier matriz A
|[U

AV [| = |[A[|
118 Teoria Avanzada de Matrices
Denicion 5.2. Una norma |[[| en /
n
(C) es unitariamente invariante,
si satisface
|[U

AV [| = |[A[|
para todo par de matrices unitarias U, V . |[ [| es normalizada si
|[A[| = |A|
2
cada vez que A es de rango 1.
NOTA. No todas las normas matriciales son unitariamente invariantes. To-
memos por ejemplo
A =
_
1 1
1 1
_
y observemos que |[A[|

= 2. Ahora, sea
U =
_
1

2
1

2
1

2
_
,
entonces
|[UA[|

=
_
_
_
_
_

2

2
0 0
_
_
_
_
_
= 2

2
Nos preguntamos entonces si:
Es posible caracterizar las normas vectoriales unitariamente invariantes?
En un sentido es simple resolver esta pregunta, pues si A /
n
(C) y
A = V W

5.2.1. Descomposicion a valores singulares


Teorema 5.3. Toda matriz compleja A /
mn
(C) se puede factorizar en
la forma
A = V W

Normas Matriciales 119


en donde V es una matriz unitaria en /
mn
(C), = (d
ij
)
mm
es una ma-
triz diagonal, donde sus entradas diagonales es su descomposicion a valores
singulares, y | | es una norma invariantemente unitaria entonces
|A| = ||
Por lo tanto, podemos denir | | via una funcion : R
n
R que
depende unicamente de los valores singulares de A, de la siguiente manera
|A| = (
1
(A),
2
(A), . . . ,
n
(A))
Ahora que propiedades debe cumplir , con el n de que dena una norma
(vectorial ) unitariamente invariante?
1. No deberia variar por permutaciones de los valores singulares, es decir,
si P es una matriz de permutacion, entonces
(
1
(A),
2
(A), . . . ,
n
(A)) = (
1
(PAP),
2
(PAP), . . . ,
n
(PAP))
2. Debe cumplir las propiedades propias de una norma denida sobre R
n
,
es decir,
(i) (x) 0, para todo x R
n
(ii) (x) = 0, si y solo si x = 0
(iii) (x) = [[(x), para todo R
(iv) (x +y) (x) +(y)
Una funcion que cumple estas cinco propiedades se denomina funcion simetri-
ca de Gauge.
Supongamos entonces que tenemos una funcion : R
n
R, que es simetrica
Gauge, la pregunta que sigue es, si la funcion | |

: /
n
(C) R denida
por
|A|

= (
1
(A),
2
(A), . . . ,
n
(A))
dene una norma.
1. Esta | |

bien denida?.
Si, ya que los valores singulares son unicos y no varia al cambiar el
orden de sus argumentos.
120 Teoria Avanzada de Matrices
2. Es | |

homogenea?
Si, por ser homogenea.
3. Si |A|

= 0 entonces A = 0?
Si, pues la descomposicion a valores singulares de A seria
A = U
_

_
0
.
.
.
0
_

_
W

= 0
4. Es |A|

> 0, si A ,= 0?
Si, pues si A ,= 0, entonces (
1
(A),
2
(A), . . . ,
n
(A)) ,= 0 y por lo
tanto (
1
(A),
2
(A), . . . ,
n
(A)) > 0.
Lo unico que nos quedaria por probar es la desigualdad triangular, para esto
probaremos un resultado previo.
Lema 5.2. Sean A, B /
n
(C) con valores singulares
1

2

n
y
1

2

n
respectivamente. Entonces
max
U,V unitarias
Re Tr(AUBV

) =
n

i=1

i
(5.1)
Demostracion. es suciente probar el lema para el caso en que los
i
son
todos distintos y positivos (ya que por un resultado anterior para > 0 existe
una coleccion de n umeros reales d
i
, 1 i n tales que 0 < d
i
<

n
) y

i
+d
i
son todos distintos y positivos. Ahora, consideremos la descomposicion
a valores singulares de A
A = UV

donde = diag(
1
, . . . ,
n
) y, U
1
y V
1
son unitarias. Sea
A

= U
1

1
donde

= diag(
1
+d
1
, . . . ,
n
+d
n
). Se sigue que
|A A

|
2
= |U
1
(

)V

1
|
2
= |

|
2
= | diag(d
1
, . . . , d
n
)|
2
Normas Matriciales 121
que se puede hacer tan peque na como se quiera) Entonces, para todo par de
matrices unitarias
Tr(AUBV

) Tr(A

UBV

)
y por tanto
Re Tr(AUBV

) Re Tr(A

UBV

)
Observese que 5.1) es equivalente a
max
U,V unitarias
Re Tr(UTV

) =
n

i=1

i
(5.2)
donde T = diag(
1
, . . . ,
n
). Ya que la descomposicion a valores singulares
de B es
B = U
2
TV

2
entonces
Tr(A

UB

) = Tr(U
1
V
1

UU
2
. .
U
T V

2

V

U
1
. .
V

U
1
1
)
= Tr(UTV

)
para cualquier

U,

V unitarias. Ahora, como el conjunto de matrices unitarias
es un conjunto cerrado y acotado existen matrices unitarias U
0
y V
0
para
las cuales el maximo en (5.2) se alcanza. Sea C = U
0
TV

0
mostraremos
que C es una matriz diagonal con los elementos en la diagonal principal no
negativos. Para ver esto supongamos que existe un elemento en la diagonal
de C negativo, digamos que c
11
< 0. Entonces multiplicando C a izquierda
por
U
t
=
_
_
c
11
[c
11
[
I
n1
_
_
obtenemos que
Re Tr(U
t
C) > Re Tr(C)
122 Teoria Avanzada de Matrices
pues

1
[c
11
[ +Re(
2
c
22
+ +
n
c
nn
) > Re(
1
c
11
+ +
n
c
nn
)

1
c
11
+ Re(
2
c
22
+ +
n
c
nn
)
contradiciendose la optimalidad de C.
Mostramos ahora que los elementos de C por fuera de la diagonal prin-
cipal son nulos. vamos a suponer que c
12
,= 0. Multipliquemos a izquierda y
derecha por
_
c
12
[c
12
[
0
0 I
2
_
y
_
[c
12
[
c
12
0
0 I
2
_
respectivamente. Obtenemos una matriz C
t
= [c
t
ij
], tal que c
t
12
= [c
12
[ > 0 y
c
t
ii
= c
ii
. Con esto queremos decir que podemos suponer c
12
> 0. Sea
R

=
_
cos sin
sin cos
_
y hagamos C

= C diag(R

, I
n2
). Entonces
Re Tr(C

) =
1
(c
11
cos +c
12
sin) +
2
(c
22
cos Re c
21
sin) +
n

i=3

i
c
ii
(5.3)
y sea C
t

= diag(R
,I
n2
)C. Entonces
Re Tr(C
t

) =
1
(c
11
cos Re c
21
sin) +
2
(c
12
sin +c
22
cos ) +
n

i
c
ii
(5.4)
Derivando (5.3) y (5.4) y evaluando en = 0.
d(Re C

)
d

=0
=
1
c
12

2
Re c
21
= 0 (5.5)
d(Re C
t

)
d

=0
=
1
Re c
21
+
2
c
12
= 0 (5.6)
Observese que hemos igualado a cero por ser C un optimo).
De (5.5),
1
=

2
Re c
21
c
12
y reemplazando en (5.6),
2
_
c
12

(Re c
21
)
2
c
12
_
= 0,
Normas Matriciales 123
pero
2
,= 0 luego Re c
21
= c
12
(Notese que el caso Re c
21
= c
12
debe
desecharse, pues esto implicaria
1
=
2
< 0). Entonces por (5.5) obte-
nemos que (
1

2
)c
12
= 0 lo cual no puede suceder ya que
1
>
2
y
c
12
> 0. Concluimos que c
12
= 0. Haciendo permutaciones sobre las las
y correspondientes columnas de y C simultaneamente, podemos probar
en forma similar que todas las entradas por fuera de la diagonal principal
de C son nulas. En consecuencia, existe una permutacion , tal que C =
diag(
(1)
, . . . ,
(n)
). se sigue
max
U,V unitarias
Re Tr(UTV

)
n

i=1

(i)

n

i=1

i
Pero puesto que C es optimal, identica y la igualdad se alcanza.
Puesto que es una norma, (
D
)
D
= . Caracterizamos |A|

en termi-
nos de la norma dual, y esta caracterizacion es justamente lo que necesitamos
para establecer la desigualdad triangular para | |

.
Lema 5.3. Sea una funci on simetrica Gauge y sea
D
su dual. Entonces
|A|

= max
|X|

D
=1
Re Tr(X

A)
Demostracion. Sean (A) =
1
, . . . ,
n
y (X) =
1
, . . . ,
n
valores
singulares de A y X respectivamente. entonces
max
|X|

D
=1
Re Tr(X

A) = max
|x|

D
=1
U,V unitarias
Re Tr(V X

UA)
= max

D
(
1
,...,n)=1
n

i=1

i
por el lema anterior
(
D
)
D
(
1
, . . . ,
n
) = (
1
, . . . ,
n
)
por tanto
max
|X|

D
=1
Re Tr(X

A) = |A|

124 Teoria Avanzada de Matrices


NOTA.
X [ |X|

D
=1
= UXV [ |X|

D
=1
, U, V unitarias
Sea A = X [ |X|

D
=1
y B = UXV [ |X|

D
=1
, U, V unitarias, entonces
evidentemente A B, sea Y B, entonces Y = UXV para alg un par
U, V de matrices unitarias y alguna matriz X con |X|

= 1, entonces
|Y |

= |UXV |

= |X|

, si y solo si Y A
Teorema 5.4 (Von Neumann). Sea una funcion simetrica Gauge sobre
R
n
. Entonces, ||

es una norma unitariamente invariante. Recprocamente,


si || es una norma unitariamente invariante sobre C
nn
, entonces hay una
funci on simetrica Gauge sobre R
n
tal que |A| = |A|

Demostracion. solo necesitamos probar que | |

satisface la desigualdad
triangular. Por el lema anterior
|A +B|

= max
|X|

D
=1
Re Tr[X

(A +B)]
max
|X|

D
=1
Re Tr(X

A) + max
|X|

D
=1
Re Tr(X

B)
= |A|

+|B|

NOTA. Dada una norma unitariamente invariante || sobre C


nn
podemos
denir una funcion simetrica Gauge
: R
n
R
0
de la siguiente forma
(x
1
, . . . , x
n
) = | diag(x
1
, . . . , x
n
)|
Podemos generar una norma ||

sobre C
n
a partir de toda funcion simetrica
Gauge , de la siguiente manera
|A|

= (
1
(A), . . . ,
n
(A))
donde
1
(A), . . . ,
n
(A) son los valore singulares de A
Normas Matriciales 125
Ejercicios
5.1 Toda pnorma es una norma matricial? Es decir, si
|A|
p
=
_
_
n

i,j=1
[a
ij
[
p
_
_
1
p
, p 1
entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la armacion es
cierta, si y solo si 1 p 2.
5.2 Muestre que | | no proviene de un producto interior.
5.3 |AB|
p
mn|A|
p
|B|
q
, |A|
q
|B|
p
p
1
+q
1
= 1
5.4 Probar directamente que la 1-norma y la 2-norma son normas matri-
ciales.
5.5 (La norma innito) Denimos, para A /
n
(C)
|A|

= lm
p
|A|
p
= lm
p
_
_
n

i,j=1
[a
ij
[
p
_
_
1
p
probar que
|A|

= max
1i,jn
[a
ij
[
es una norma vectorial pero no una norma matricial.
5.6 Probar que |[A[| := n|A|

es una norma matricial


5.7 La norma euclideana o 2-norma es una norma matricial
|A|
2
=
_
_
n

i,j=1
[a
ij
[
2
_
_
1
2
126 Teoria Avanzada de Matrices
5.8 El radio espectral (A) de una matriz A /
n
(C) es
(A) = max[[ [ (A)
Si B es normal, entonces
[x

Bx[ (A)|x|
2
, para todo x C
n
5.9 Mostrar que |[UAV [|
2
= |[A[|
2
, para todo A /
n
(C) y cualquier
par de matrices unitarias U, V /
n
(C). As, la norma espectral es una
norma unitariamente invariante.
5.10 Dar un ejemplo de una norma vectorial | | sobre matrices y una matriz
tal que |A| < (A)
Captulo 6
Localizaci on de Valores
Propios
6.1. Teorema de Gershgorin
Teorema 6.1 (Gershgorin). El espectro de una matriz A /
n
(C),
esta contenido en la uni on de los siguientes n discos del plano complejo.
D
i
=
_

_
z C [ [z a
ii
[
n

j=1
j,=i
[a
ij
[
_

_
, 1 i n
Demostracion. Sean (A), x C
n
tal que |x|

= 1 y Ax = x, e i un
ndice para el cual [x
i
[ = 1. Como (Ax)
i
= x
i
, tenemos que
x
i
=
n

j=1
a
ij
x
j
En consecuencia,
( a
ii
)x
i
=
n

j=1
j,=i
a
ij
x
j
127
128 Teoria Avanzada de Matrices
se sigue que
[ a
ii
[ = [( a
ii
)x
i
[

j=1
j,=i
[a
ij
[[x
j
[

j=1
j,=i
[a
ij
[
de donde D
i
.
Ejemplos. Sea
A =
_

_
1 +i 0
1
4
1
4
1
1
4
1 1 3
_

_,
entonces
D
1
=
_
z C [ [z (1 +i)[
1
4
_
D
2
=
_
z C [ [z 1[
1
2
_
D
3
= z C [ [z 3[ 2
Ahora, aplicamos el teorema de Gershgorin a la matriz
A
t
=
_

_
1 +i
1
4
1
0 1 1
1
4
1
4
3
_

_
D
t
1
=
_
z C [ [z (1 +i)[
5
4
_
D
t
2
= z C [ [z 1[ 1
D
t
3
=
_
z C [ [z 3[
1
2
_
Localizacion de Valores Propios 129
Corolario 6.1. Sean A = [a
ij
] /
n
(C), y p
1
, . . . , p
n
n umeros reales posi-
tivos. Entonces todos los valores propios de A, varian en las regiones
n
_
i=1
_
z C [ [z a
ii
[
1
p
i
n

j=1
j,=i
p
j
[a
ij
[
_
n
_
j=1
_
z C [ [z a
jj
[ p
j
n

i=1
i,=j
1
p
i
[a
ij
[
_
Demostracion. Sea P = diag[p1, . . . , p
n
], notese que (P
1
AP) = (A) y,
P
1
AP =
_
1
p
i
a
ij
p
j
_
. Aplicando el teorema de Gershgorin tenemos que, si
(A), existe i, 1 i n tal que
[ a
ii
[
n

j=1
j,=i
p
j
p
i
[a
ij
[
=
1
p
i
n

j=1
j,=i
p
j
[a
ij
[
Ejercicio 66. Considere la matriz
A =
_

_
7 16 8
16 7 8
8 8 5
_

_
Respuesta. Usando el teorema de Gershgorin
D
1
= z C [ [z 7[ 24 17 z 31
D
2
= z C [ [z 7[ 24
D
3
= z C [ [z 15[ 16 21 z 11
de donde
(A) [21, 31]
130 Teoria Avanzada de Matrices
Por otro lado si hacemos P = diag[16, 16, 8] entonces
P
1
AP =
_

_
7 16 4
16 7 4
16 16 5
_

_
En este caso tenemos
D
1
= z C [ [z 7[ 20 13 z 27
D
2
= z C [ [z 7[ 20 13 z 27
D
3
= z C [ [z + 5[ 32 37 z 27
(A) [37, 27] (A) [21, 27]
Proposicion 6.1. Sea A /
n
(C) y supongamos que, A es diagonalizable
por la transformacion de similaridad P
1
AP. Sea E /
n
(C) una matriz
arbitraria, entonces los valores propios de A+E, se encuentran en la union
de los discos
C [ [
i
[ k

(P)|E|

en donde
1
, . . . ,
n
(A) y k

(P) = |P|

|P
1
|

es el n umero de
condici on de P en la norma .
Demostracion. Sabemos que P
1
AP = D con D = diag(
1
, . . . ,
n
) en-
tonces,
(A +E) = (P
1
(A+E)P)
= (D +P
1
EP).
Sea C = P
1
EP, entonces los valores propios de D + C estan localizados
en los discos _

_
z C [ [z (
i
+c
ii
)[
n

j=1
i,=j
[c
ij
[
_

_
Por la desigualdad triangular, tenemos que
[z
i
[ [z (
i
+c
ii
)[ +[c
ii
[

j=1
i,=j
[c
ij
[ +[c
ii
[
Localizacion de Valores Propios 131
de donde
[z
i
[ |C|

|P
1
|

|E|

|P|

(P)|E|

NOTA. Si A es una matriz normal, entonces P en la proposicion anterior,


es unitaria. As, si P = [p
ij
] tenemos que
|P|

=
n

j=1
[p
kj
[
para alg un k, 1 k n
|P
k
|
2

n
por consiguiente
[
i
[

n|E|

en donde (A +E).
Ejercicios
5.1 Considere la matriz
A =
_

_
7 16 8
16 7 8
8 8 5
_

_
Apendice A
Gracas
132
Bibliografa
[1] Ayres Frank., Matrices, Mac-Graw-Hill, 1980.
[2] Birkho Garrett & Mac Lane Saunder A Survey of Modern Algebra,
MacMillan Company, 1965.
[3] De Castro Rodrigo., El Universo L
A
T
E
X, Universidad Nacional de
Colombia, 2003.
[4] Herstein N.,

Algebra Moderna, Trillas 1976.
[5] Homan Kenneth & Kunze Ray.,

Algebra Lineal, Prentice Hall His-
panoamericana S.A., 1973.
[6] Horn Roger & Johnson Charles., Topics in Matrix Analysis, Cambridge
University Press 1991.
[7] Lang Serge., Algebra, Agular, 1977.
[8] Lang Serge., Algebra Lneal, Agular, 1977.
[9] Marcus Marvin., Minc Henryk., Survey of matrix theory and matrix
inequalities, Allyn and Bacon, Boston, 1964
133

Indice alfabetico
Algoritmo
QR, 54
Bloques
de Jordan, 63
Bola
abierta, 42
Conica
supercie, 4
Conico
borde, 4
Conjunto
A invariante, 26
ortogonal, 33
Espacio
imagen, 11
propio, 14
Espectro, 13
Expansion
de Lagrange, 16
F
invariante, 26
Factorizacion
QR, 54
de Takagi, 99
Familia
conmutante, 26
Forma
canonica de Jordan, 69
Funcion
simetrica de Gauge, 121
Grupo
lineal general, 2
unimodular, 2
Isometria
euclideana, 36
Kernel, 10
Matrices
similares, 29
Matriz
adjunta, 1
antihermitiana, 1, 80
antisimetrica, 1, 80
cambio de base, 10
compa nera, 78
conjugada, 1
diagonalizable, 19
estrictamente superior, 66
hermitiana, 1, 80
no derogatoria, 71
normal, 1, 48
134
135
normalizada, 119
ortogonal, 1, 33
ortogonal real, 33
simetrica, 1, 80
Toeplitz, 71, 79
transpuesta, 1
unitaria, 1, 33
unitariamente diagonalizable,
49
unitariamente equivalente, 37
Multiplicidad
algebraica, 17
geometrica, 14
N ucleo, 10
Norma
de Frobenius, 3
euclidiana, 3
innito, 109
matricial, 116
Normas
Matriciales, 111
Operador
de representacion, 8
Ortogonal, 3
Par
propio, 13
Polinomio
caracterstico, 16
minimal, 76
Radio
espectral, 13
Rango, 11
Reectores
de Householder, 57
Rotores, 54
Simultaneamente
diagonalizables, 24
Teorema
de Cayley-Hamilton, 39
de Courant-Fisher, 90
de Gershgorin, 7, 128
de la dimension, 11
de ortogonalizacion, 33
de separacion de Poincare, 94
de Weyl, 92
de Wolkwitz y Styan, 7
Espectral, 49
Principio de Inclusion, 93
Rayleigh-Ritz, 86
Von Neumann, 125
Transformacion
de similaridad, 29
Unitariamente
invariante, 119
Valor
propio, 13
Vector
propio, 13
propio a izquierda, 15

También podría gustarte