Está en la página 1de 15

Tema 4

Determinantes. Reducción de matrices.


Caso diagonalizable

En este tema consideraremos matrices cuadradas y, para ellas, introduciremos el concepto de autovalor
de una matriz. Veremos también cómo algunas matrices, tras un cambio de base se pueden reducir a forma
diagonal, con elementos en la diagonal igual a dichos autovalores. Para definir el concepto de autovalor
necesitamos previamente el concepto de determinante.

4.1. Determinantes
Desde un punto de vista geométrico y en dimensiones dos y tres, podrı́a definirse el determinante de
una matriz en términos de áreas y volúmenes. Por ejemplo, dada una matriz 2 × 2,
µ ¶
a11 a12
A= ,
a21 a22

podrı́a definirse el determinante de A, denotado por det(A), como el área encerrada por el paralelogramo
de aristas determinadas por las columnas de A, entendidas como vectores en el plano, de modo que
µ ¶
a11 a12
det = a11 a22 − a21 a12 .
a21 a22

En el caso de una matriz 3 × 3,


 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33

el determinante de A podrı́a definirse igualmente como el volumen del paralelepı́pedo cuyas aristas están
generadas por las columnas de A, entendidas como vectores en el espacio. En este caso, la fórmula es un
poco más complicada de obtener y se llama regla de Sarrus,
 
a11 a12 a13
det  a21 a22 a23  = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a31 a32 a33
−a12 a21 a33 − a11 a32 a23 − a31 a22 a13 .
Para matrices de mayor tamaño no podemos dar una referencia geométrica realista, de manera que la
definición sigue otro enfoque.
Sea A = (aij ) ∈ Mn,n (K). Se define el determinante de A como el número
X
det(A) = π(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
¯ ¯
¯ a11 a12 ··· ··· a1n ¯
¯ ¯
¯ a21 a22 ··· ··· a2n ¯
= ¯ ¯,
¯ ··· ··· ··· ··· ··· ¯
¯ ¯
¯ an1 an2 ··· ··· ann ¯

donde Sn es el conjunto de permutaciones de orden n y π(σ) la paridad de la permutación σ (véase el


tema preliminar). Cuando σ recorre Sn , los términos a1σ(1) a2σ(2) , . . . , anσ(n) describen todos los posibles
productos de n factores extraı́dos de los elementos de A con la propiedad de que en dichos productos
siempre figura un elemento de cada fila y de cada columna de A.
En el cálculo efectivo de un determinante no suele usarse la definición salvo en los ejemplos clásicos
con n = 2 y n = 3, que hemos mencionado previamente.
El cálculo de un determinante puede hacerse de varias formas, y aquı́ mencionaremos algunas. La
primera está basada en propiedades fundamentales del determinante, que pasamos a describir. Dada
A = (aij ) ∈ Mn,n (K), denotamos sus filas por F1 , . . . , Fn , es decir,
 
F1
 F2 
 
 .. 
A=
 . .

 .. 
 . 
Fn

Las propiedades son las siguientes:


1. det(A) es lineal en cada fila, es decir, si 1 ≤ k ≤ n,

(a) Para λ ∈ K,
¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯
¯ ¯ = λ¯ ¯.
¯ ¯
λFk ¯ ¯ Fk ¯¯
¯ ¯
¯ ¯
.. ¯ ¯ .. ¯¯
¯ . ¯ ¯ . ¯
¯ ¯
¯ Fn ¯ ¯ Fn ¯

(b) Si la fila Fk = Fk0 + Fk00 es suma de otras dos, entonces


¯ ¯ ¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ ¯=¯ ¯+¯ ¯.
¯ Fk ¯¯ ¯¯ Fk0 ¯¯ ¯¯ Fk00 ¯
¯ ¯
¯ .. ¯¯ ¯¯ .. ¯¯ ¯¯ .. ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ ¯
¯ Fn ¯ ¯ Fn ¯ ¯ Fn ¯
Por ejemplo
¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 1 2 3 ¯¯
¯ ¯ ¯
¯ 0 1 −2 ¯ = 2 ¯¯ 0 1 −2 ¯¯
¯ ¯
¯ 1 4 1 ¯ ¯ 1 4 1 ¯
¯ ¯ ¯ ¯
¯ 1 2 3 ¯¯ ¯¯ 1 2 3 ¯
¯ ¯
= ¯ 0 1 −2 ¯¯ + ¯¯ 0 1 −2 ¯.
¯ ¯
¯ 1 4 1 ¯ ¯ 1 4 1 ¯

2. El determinante cambia de signo al intercambiar dos filas entre sı́.


Por ejemplo,
¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 1 4 1 ¯
¯ ¯ ¯ ¯
¯ 0 1 −2 ¯ = − ¯ 0 1 −2 ¯.
¯ ¯ ¯ ¯
¯ 1 4 1 ¯ ¯ 2 4 6 ¯

3. det(In ) = 1, n = 1, 2, . . ..
4. det(λA) = λn det(A).
5. Sea σ ∈ Sn y Aσ la matriz obtenida al permutar las filas de A según σ,

 
Fσ(1)
 Fσ(2) 
 
 .. 
Aσ = 
 . .

 .. 
 . 
Fσ(n)

entonces det(Aσ ) = π(σ)det(A).


Por ejemplo, si
µ ¶
1 2 3
σ= ,
3 1 2

entonces π(σ) = 1 y por tanto


¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 0 1 −2 ¯
¯ ¯ ¯ ¯
¯ 0 1 −2 ¯=¯ 1 4 1 ¯.
¯ ¯ ¯ ¯
¯ 1 4 1 ¯ ¯ 2 4 6 ¯

6. Si A tiene dos filas iguales, entonces det(A) = 0.


Por ejemplo,
¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 1 2 3 ¯
¯ ¯ ¯ ¯
¯ 1 2 3 ¯ = 2¯ 1 2 3 ¯ = 0.
¯ ¯ ¯ ¯
¯ 0 1 1 ¯ ¯ 0 1 1 ¯

7. El determinante no cambia cuando a una fila se le suma una combinación lineal de las restantes filas.
Por ejemplo,
¯ ¯ ¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 2 4 6 ¯ ¯ 2 4 6 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 0 1 −2 ¯=¯ 0 1 −2 ¯=¯ 0 1 −2 ¯.
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 4 1 ¯ ¯ 0 2 −2 ¯ ¯ 0 0 2 ¯

8. Si A tiene una fila nula, entonces det(A) = 0.


9. Si T = (tij ) es una matriz triangular (superior o inferior), entonces det(T ) = t11 t22 · · · tnn .
Por ejemplo,
¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 2 4 6 ¯
¯ ¯ ¯ ¯
¯ 0 1 −2 ¯=¯ 0 1 −2 ¯ = 4.
¯ ¯ ¯ ¯
¯ 1 4 1 ¯ ¯ 0 0 2 ¯

10. det(AB) = det(A)det(B). En particular, si A es invertible, entonces det(A−1 ) = 1/det(A).


11. det(AT ) = det(A). En consecuencia, cada propiedad para las filas tiene una análoga para las columnas.

Lo aconsejable para calcular determinantes, sobre todo si son grandes, es hacer uso de estas propiedades
fundamentales, aplicándolas para ir transformando el determinante en otros más fáciles de calcular. Lo
usual suele ser reducir con operaciones elementales el cálculo del determinante al de una matriz triangular
(véase el ejemplo en las propiedades 7 y 9). Por lo tanto, parte del proceso de la eliminación gaussiana
es de nuevo útil. Por ejemplo,
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ 1 3 1 1 ¯¯ ¯¯ 1 3 1 1 ¯¯ ¯¯ 1 3 1 1 ¯ ¯ 1 3 1 1 ¯
¯ ¯ ¯ ¯
¯ 2 1 5 2 ¯¯ ¯¯ 0 −5 3 0 ¯¯ ¯¯ 0 −5 3 0 ¯ ¯ 0 −5 3 0 ¯
¯ = = ¯=¯ ¯ = −115.
¯ 1 −1 2 3 ¯¯ ¯¯ 0 −4 1 2 ¯¯ ¯¯ 0 0 −7/5 2 ¯ ¯ 0 0 −7/5 2 ¯
¯ ¯ ¯ ¯
¯ 4 1 −3 7 ¯ ¯ 0 −11 −7 3 ¯ ¯ 0 0 −68/5 3 ¯ ¯ 0 0 0 −115/7 ¯

4.1.1. Desarrollo por los elementos de una lı́nea

Otro método más elaborado para calcular un determinante es el desarrollo por los elementos de una
fila o una columna. Dada una matriz A = (aij ) ∈ Mn,n (K) se llama menor complementario αkl del
elemento akl al determinante de la matriz (n − 1) × (n − 1) obtenida de A al suprimir su fila k y su
columna l. El cofactor de akl se define como

Akl = (−1)k+l αkl .

Entonces, para cualquier fila k se satisface la fórmula

det(A) = ak1 Ak1 + ak2 Ak2 + · · · + akn Akn ,

llamada desarrollo del determinante por los elementos de la fila k. Hay una fórmula análoga para el
desarrollo del determinante por una columna cualquiera l:

det(A) = a1l A1l + a2l A2l + · · · + anl Anl .

Por ejemplo
¯ ¯
¯ 2 4 6 ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 ¯¯ ¯ 0 −2 ¯¯ ¯ 0 1 ¯
¯ 0 1 −2 ¯ = 2 ¯¯ − 4 ¯¯ + 6 ¯¯ ¯ = 4.
¯ ¯ 4 1 ¯ 1 1 ¯ 1 4 ¯
¯ 1 4 1 ¯
¯ ¯
¯ 2 4 6 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ 0 −2 ¯¯ ¯¯ 2 6 ¯ ¯ 6 ¯¯
¯ 0 1 −2 ¯¯ = −4 ¯¯ + ¯ − 4¯ 2 = 4.
¯ 1 1 ¯ ¯ 1 1 ¯ ¯ 0 −2 ¯
¯ 1 4 1 ¯

Como se ve, el método reduce el cálculo de un determinante de una matriz al de determinantes de matrices
de un orden menos.
4.2. Semejanza de matrices
Sean A, B ∈ Mn,n (K). Se dice que A es semejante con B si existe una matriz no singular P ∈ Mn,n (K)
tal que
B = P −1 AP.
Hay que notar que si A es semejante con B y λ ∈ K entonces λIn − A es semejante con λIn − B.
Ya hemos visto un ejemplo de semejanza de matrices al hablar de la matriz de una aplicación lineal
en una base. Imaginemos que V es un espacio vectorial de dimensión finita, B, B 0 son dos bases de V y
T : V → V es una aplicación lineal (cuando el espacio de partida y el de llegada es el mismo, T se llama
endomorfismo). Denotemos por
M (T, B, B) = M (T, B), M (T, B 0 , B 0 ) = M (T, B 0 ).

M (T, B, B) - VB
VB T (~x)
6 6

M (B 0 , B) M (B 0 , B)

M (T, B 0 , B 0 )
-
VB 0 VB 0
~x

Recordemos que la relación entre las dos matrices de la aplicación lineal T viene dada por la matriz
P = M (B 0 , B) de cambio de base:
M (T, B 0 ) = P −1 M (T, B)P.
Esto no es otra cosa que una relación de semejanza: todas las matrices que representan al endomorfismo
T en las distintas bases son semejantes entre sı́.
Presentada la noción de semejanza de matrices, nos planteamos la cuestión de si dada una matriz
A ∈ Mn,n (K) puede haber una matriz semejante con ella cuya expresión sea sencilla, más concretamente
diagonal.

4.3. Autovalores y autovectores. Polinomio caracterı́stico


Sea una matriz cuadrada A ∈ Mn,n (K). La expresión
pA (z) = det(zIn − A), z ∈ C,
es un polinomio de grado n, de la forma

pA (z) = z n + an−1 z n−1 + · · · + a1 z + a0 ,

que se llama polinomio caracterı́stico de la matriz A. Las raı́ces de la ecuación pA (z) = 0 se llaman raı́ces
caracterı́sticas de la matriz A. Factorizando el polinomio según las distintas raı́ces,

pA (z) = (z − µ1 )m1 (z − µ2 )m2 · · · (z − µr )mr ,

el número mj , 1 ≤ j ≤ r se denomina multiplicidad algebraica de la raı́z caracterı́stica µj . Puesto que pA


tiene grado n, se cumple siempre que

n = m1 + m2 + · · · + mr .

Además det(A) = (−1)n a0 = µm mr


1 · · · µr .
1

El conjunto σ(A) = {µ1 , . . . , µr } se llama espectro de A.


Observemos que si A, B ∈ Mn,n (K) son semejantes, entonces comparten el polinomio caracterı́stico
y, por tanto, el espectro y el determinante. En particular, como las matrices que representan a un endo-
morfismo T en distintas bases son semejantes, es posible definir el determinante, el polinomio, las raı́ces
caracterı́sticas y el espectro de un endomorfismo T como los correspondientes a una matriz que represente
a T en alguna base.
Sea A ∈ Mn,n (K). Se dice que λ ∈ K es un valor propio o autovalor de A si existe algún vector ~v tal
que

A~v = λ~v .

Tales vectores se llaman autovectores de A asociados al autovalor λ.

Teorema 1. En esta situación, las siguientes condiciones son equivalentes:

(1) λ es autovalor de A.

(2) Existe un vector ~v tal que A~v = λ~v .

(3) La matriz λIn − A es singular.

(4) pA (λ) = det(λIn − A) = 0.

Ası́ pues, los autovalores de A son las raı́ces caracterı́sticas de la matriz A que se encuentran en el
cuerpo K considerado. Si K = C, el conjunto de valores propios coincide con el espectro de A, mien-
tras que si K = R, los autovalores son las raı́ces caracterı́sticas que son números reales. Normalmente,
para determinar los autovalores de una matriz se suele hacer uso de la cuarta condición del teorema,
determinando si es posible los ceros del polinomio caracterı́stico que están en el cuerpo considerado.
Dado un autovalor λ de A, es claro que los vectores del subespacio Ker(λIn − A) son los autovectores
asociados a λ y sólo ellos. El subespacio

E(A, λ) = Ker(λIn − A),

se llama subespacio propio asociado a λ y su dimensión

d(λ) = dimE(A, λ) ≥ 1,

es la multiplicidad geométrica del autovalor λ.

Ejemplos.
(1) Para la matriz
 
2 2 −6
A= 2 −1 −3  ,
−2 −1 1
el polinomio caracterı́stico es
 
z−2 −2 6
pA (z) = det(zI3 − A) = det  −2 z+1 3  = (z + 2)2 (z − 6).
2 1 z−1
De modo que los autovalores con sus multiplicidades algebraicas son
λ1 = −2, m1 = 2
λ2 = 6 m2 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geométrica.
Para λ1 = −2
  
−4 −2 6 x
E(A, λ1 ) = Ker(−2I3 − A) = {(x, y, z)T /  −2 −1 3   y  = ~0}
2 1 −3 z
= {(x, y, z)T /2x + y − 3z = 0} = span((1, −2, 0)T , (0, 3, 1)T )
⇒ d(λ1 ) = 2.
Mientras que para el otro autovalor
  
4 −2 6 x
E(A, λ2 ) = Ker(6I3 − A) = {(x, y, z)T /  −2 7 3   y  = ~0}
2 1 5 z
= {(x, y, z)T /2x − y + 3z = 0, y + z = 0} = span((−2, −1, 1)T )
⇒ d(λ2 ) = 1.

(2) Para la matriz


 
1 −1 0
A =  −1 2 −1  ,
0 −1 1
el polinomio caracterı́stico es
 
z−1 1 0
pA (z) = det(zI3 − A) = det  1 z−2 1  = z(z − 1)(z − 3).
0 1 z−1
De modo que los autovalores con sus multiplicidades algebraicas son
λ1 = 0, m1 = 1
λ2 = 1 m2 = 1
λ3 = 3 m3 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geométrica.
Para λ1 = 0
  
−1 1 0 x
E(A, λ1 ) = Ker(−A) = {(x, y, z)T /  −1 −2 1   y  = ~0}
0 1 −1 z
= {(x, y, z)T /x = y = z} = span((1, 1, 1)T ) ⇒ d(λ1 ) = 1.
Mientras que para el segundo autovalor
  
0 1 0 x
E(A, λ2 ) = Ker(I3 − A) = {(x, y, z)T /  1 −1 1   y  = ~0}
0 1 0 z
= {(x, y, z)T /y = 0, z = −x} = span((1, 0, −1)T ) ⇒ d(λ2 ) = 1,
y, para el tercero,
  
2 1 0 x
E(A, λ3 ) = Ker(3I3 − A) = {(x, y, z)T /  1 1 1   y  = ~0}
0 1 2 z
= {(x, y, z)T /x = z, y = −2z} = span((1, −2, 1)T ) ⇒ d(λ3 ) = 1.

(3) Para la matriz


 
0 −1 0
A= 1 0 1 
0 0 2
el polinomio caracterı́stico es
 
z 1 0
pA (z) = det(zI3 − A) = det  −1 z −1  = (z − 2)(z 2 + 1).
0 0 z−2
De modo que, como matriz de elementos complejos, los autovalores con sus multiplicidades algebraicas
son
λ1 = 2, m1 = 1
λ2 = i m2 = 1
λ3 = −i m3 = 1.
Como matriz real, sólo hay un valor propio λ1 , mientras que el espectro lo forman las tres raı́ces. Bus-
camos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad geométrica,
suponiendo que la matriz es compleja. Para λ1 = 2
  
2 1 0 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z)T /  −1 2 −1   y  = ~0}
0 0 0 z
= {(x, y, z)T /y = (2/5)z, x = −(1/5)z} = span((−1, 2, 5)T )
⇒ d(λ1 ) = 1.
Mientras que para el segundo autovalor
  
i 1 0 x
E(A, λ2 ) = Ker(iI3 − A) = {(x, y, z)T /  −1 i −1   y  = ~0}
0 0 i−2 z
= {(x, y, z)T /z = 0, x = iy} = span((1, −i, 0)T ) ⇒ d(λ2 ) = 1,
y, para el tercero,
  
−i 1 0 x
E(A, λ3 ) = Ker((−i)I3 − A) = {(x, y, z)T /  −1 −i −1   y  = ~0}
0 0 −i − 2 z
= {(x, y, z)T /z = 0, x = −iy} = span((1, i, 0)T ) ⇒ d(λ3 ) = 1.

Nota: como λ2 y λ3 son conjugados, los vectores que generan cada subespacio propio también lo son.
Cuando la matriz tiene elementos reales, esta propiedad es general (¿por qué?).
4.4. Diagonalización
A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos de definir,
es clara la importancia de los autovalores y los autovectores en la determinación de la solución a nuestro
problema. El objetivo es por tanto encontrar una manera de tratar de transformar una matriz cuadrada A
en una matriz diagonal o triangular sin cambiar sus valores propios. Esto no se cumple para la eliminación
gaussiana: los autovalores de la matriz triangular superior final del proceso de eliminación no son los de
la matriz original.
Comenzamos dando un criterio para determinar cuándo podemos transformar una matriz en otra
diagonal.
Sea A ∈ Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable si existe una matriz semejante
con ella que es diagonal. Esto significa que existe una matriz P ∈ Mn,n (K) no singular tal que

D = P −1 AP

es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal principal,
es claro que la matriz diagonal semejante a la matriz A tiene por entradas diagonales los autovalores de
A.

Teorema 2. Sea A ∈ Mn,n (K) y λ1 , . . . , λr los autovalores de A. Entonces

(a) Los subespacios E(A, λ1 ), . . . , E(A, λr ) son independientes.

(b) La multiplicidad geométrica d(λj ) de cada autovalor es a lo sumo su multiplicidad algebraica m(λj ).

(c) La matriz A es diagonalizable si y sólo si se verifican las dos condiciones siguientes:

(i) λj ∈ K, ∀j = 1, . . . , r (esta condición siempre se cumple si K = C).


(ii) d(λj ) = m(λj ), ∀j = 1, . . . , r.

(d) La matriz A es diagonalizable si y sólo si

Kn = E(A, λ1 ) ⊕ · · · ⊕ E(A, λr ).

Esto equivale a decir que A es diagonalizable si y sólo si existe una base en Kn formada por vectores
propios de A.

El criterio práctico para determinar si una matriz A es diagonalizable es el siguiente:

(1) Determinar los autovalores de A a través de las raı́ces de su polinomio caracterı́stico pA (z) =
det(zIn − A). Si alguna de sus raı́ces ya no está en K, la matriz ya no es diagonalizable.

(2) Supongamos que todas las raı́ces caracterı́sticas λ1 , . . . , λr están en K. La determinación de estas
raı́ces λj (los autovalores) nos permite conocer cada una de las multiplicidades algebraicas m(λj )
(que recordemos es la multiplicidad de λj como cero del polinomio caracterı́stico). A continuación
determinamos la dimensión de cada subespacio propio E(A, λj ) = Ker(λj In − A), es decir, la
multiplicidad geométrica d(λj ). Para cada autovalor λj comprobamos si se cumple la segunda
condición: d(λj ) = m(λj ). Si para alguno falla, la matriz no es diagonalizable.

(3) Caso de que todos los autovalores verifiquen las dos condiciones (i) y (ii) del apartado (c) del
Teorema 2, determinamos una base Bj de cada subespacio propio E(A, λj ) y juntamos todas las
bases para formar una base de Kn : B = B1 ∪ · · · ∪ Br . Entonces, si P es la matriz cuyas columnas
son los vectores de la base B, se tiene que P −1 AP es diagonal con los elementos de la diagonal
principal siendo los autovalores de A.
Ejemplos.

(1) Para la matriz


 
2 2 −6
A= 2 −1 −3  ,
−2 −1 1

ya hemos visto que los autovalores con sus multiplicidades son

λ1 = −2, mλ1 = 2, dλ1 = 2


λ2 = 6 mλ2 = 1, dλ2 = 1.

luego la matriz es diagonalizable en R. También calculamos anteriormente una base de cada subespacio
propio:

E(A, λ1 ) = span((1, −2, 0)T , (0, 3, 1)T )


E(A, λ2 ) = span((−2, −1, 1)T ).

Entonces, si
 
1 0 −2
P =  −2 3 −1  ,
0 1 1

se tiene que
 
−2 0 0
P −1 AP =  0 −2 0  .
0 0 6

(2) Para la matriz


 
1 −1 0
A =  −1 2 −1  ,
0 −1 1

se tiene

λ1 = 0, mλ1 = 1, dλ1 = 1
λ2 = 1 mλ2 = 1, dλ2 = 1
λ3 = 3 mλ3 = 1, dλ3 = 1.

La matriz es diagonalizable en R. La base de autovectores es la siguiente:

E(A, λ1 ) = span((1, 1, 1)T )


E(A, λ2 ) = span((1, 0, −1)T )
E(A, λ3 ) = span((1, −2, 1)T ).

Luego si
 
1 1 1
P = 1 0 −2  ,
1 −1 1
se tiene que
 
0 0 0
P −1 AP =  0 1 0 .
0 0 3

Este es un ejemplo de un caso particular de matrices diagonalizables: aquéllas cuyos autovalores están en
el cuerpo considerado y son todas distintas.

(3) Para la matriz


 
0 −1 0
A= 1 0 1 
0 0 2

se tiene

λ1 = 2, mλ1 = 1, dλ1 = 1
λ2 = i mλ2 = 1, dλ2 = 1
λ3 = −i mλ3 = 1, dλ3 = 1.

Como matriz real, A no es diagonalizable, pues tiene dos autovalores que no son reales. Pero como matriz
compleja, A es diagonalizable. La base de autovectores es la siguiente:

E(A, λ1 ) = span((−1, 2, 5)T )


E(A, λ2 ) = span((1, −i, 0)T )
E(A, λ3 ) = span((1, i, 0)T ).

Luego si
 
−1 1 1
P = 2 −i i  ,
5 0 0

se tiene que
 
2 0 0
P −1 AP =  0 i 0 .
0 0 −i

Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del teorema anterior, la matriz A
no es diagonalizable. Cuando la segunda de las condiciones de diagonalización falla manteniéndose la
primera (los autovalores están en el cuerpo considerado) la matriz aún puede reducirse a forma triangular
superior por semejanza.

Teorema 3. Sea A ∈ Mn,n (K). Entonces existen una matriz U ∈ Mn,n (K) no singular y una matriz
triangular superior S ∈ Mn,n (K) tales que S = U −1 AU si y sólo si los autovalores de A están en K (esta
condición se satisface siempre cuando K = C). La matriz U puede elegirse unitaria (U ∗ = U −1 ).
La demostración es constructiva, aunque no la daremos. Es importante, sin embargo, retener este
resultado, fundamentalmente por dos razones: (i) porque proporciona una reducción intermedia entre el
caso más simple (cuando la matriz diagonaliza) y el más general que trataremos en el tema siguiente;
(ii) porque se utiliza para deducir que un tipo importante de matrices es diagonalizable y da lugar a una
forma especial de diagonalización. Esto es lo que vamos a ver ahora.
4.5. Diagonalización ortogonal
Hemos visto que la diagonalización de una matriz, o de un endomorfismo, es un problema que no
siempre tiene solución. Hay, sin embargo, un caso particular de matrices que son siempre diagonalizables
y para las que las bases de diagonalización tienen estructura especial.
Recordemos que la adjunta A∗ ∈ Mn,m (K) de una matriz dada A ∈ Mm,n (K) se define como la
traspuesta conjugada (A∗ = AT ). Además, es importante la relación con el producto interno

hA~x, ~y i = h~x, A∗ ~y i, ~x ∈ Kn , ~y ∈ Km .

La adjunta se comporta con la suma y el producto por un escalar en el sentido siguiente:

(A + B)∗ = A∗ + B ∗ , (λA)∗ = λ̄A∗ .

Además, (A∗ )∗ = A.
Se dice que una matriz A ∈ Mn,n (R) es

simétrica si AT = A∗ = A,
antisimétrica si AT = A∗ = −A,
ortogonal si A es no singular y AT = A∗ = A−1 .

Análogamente, una matriz A ∈ Mn,n (C) es

hermı́tica si A∗ = A,
antihermı́tica si A∗ = −A,
unitaria si A es no singular y A∗ = A−1 .

Recordemos también que A ∈ Mn,n (R) (resp. A ∈ Mn,n (C)) es ortogonal (resp. unitaria) si sus
columnas forman una base ortonormal de Rn (resp. C n ).
Las matrices destacables son las simétricas en el caso real y las hermı́ticas en el caso complejo. Ambas
son siempre diagonalizables. Además, la matriz formada por la base de autovectores es ortogonal en el
caso real y unitaria en el caso complejo.

Teorema 4. Sea A ∈ Mn,n (R) una matriz simétrica. Entonces

(1) Todos los autovalores λ1 , . . . , λr de A son reales.


(2) Si λ y µ son autovalores de A distintos, los correspondientes subespacios propios E(A, λ), E(A, µ)
son ortogonales.
(3) Existe una matriz ortogonal P ∈ Mn,n (R) tal que P T AP = P −1 AP es diagonal.

IMPORTANTE: en la práctica, se procede como en una diagonalización normal, con la única diferencia
de que para cada subespacio propio se elige una base ortonormal.

Ejemplo. Vamos a diagonalizar ortogonalmente la matriz


 
3 1 1
A =  1 3 1 .
1 1 3

El polinomio caracterı́stico es

pA (z) = (z − 2)2 (z − 5),


de manera que los autovalores con sus multiplicidades algebraicas son

λ1 = 2, m(λ1 ) = 2
λ2 = 5, m(λ2 ) = 1.

Los subespacios propios son los siguientes. Para λ1 = 2


  
−1 −1 −1 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z)T /  −1 −1 −1   y  = ~0}
−1 −1 −1 z
= {(x, y, z)T /x + y + z = 0}
√ √ √ √ √
= span((1/ 2, 0, −1/ 2)T , (1/ 6, −2/ 6, 1/ 6)T ) ⇒ d(λ1 ) = 2.

Fijémonos en que hemos elegido una base ortonormal del subespacio. Esta es la única diferencia. Para el
otro autovalor
  
2 −1 −1 x
E(A, λ2 ) = Ker(5I3 − A) = {(x, y, z)T /  − − 1 2 −1   y  = ~0}
−1 −1 2 z
= {(x, y, z)T /x − 2y + z = 0, y − z = 0}
√ √ √
= span((1/ 3, 1/ 3, 1/ 3)T ) ⇒ d(λ2 ) = 1.

Los autovectores asociados a autovalores distintos ya son ortogonales entre sı́. Como las multiplicidades
coinciden, la matriz es diagonalizable. La base elegida al juntar las bases de cada subespacio propio, es
ortonormal, de modo que la matriz
 √ √ √ 
1/ 2 1/ √6 1/√3
P = 0√ −2/√ 6 1/√3  ,
−1/ 2 1/ 6 1/ 3

es ortogonal. Además,
 
2 0 0
P T AP = P −1 AP =  0 2 0 .
0 0 5

Teorema 5. Sea A ∈ Mn,n (C) una matriz hermı́tica. Entonces

(1) Todos los autovalores de A son reales.

(2) Si λ y µ son autovalores de A distintos, los correspondientes subespacios propios E(A, λ), E(A, µ)
son ortogonales.

(3) Existe una matriz unitaria U ∈ Mn,n (C) tal que U ∗ AU = U −1 AU es diagonal.

Ejercicio. Diagonaliza unitariamente la matriz


 √ √ 
2
√ −i 2 −i 2
A =  i√2 3 −1  .
i 2 −1 3

EJERCICIOS DEL TEMA 4


Ejercicio 1. Se considera la aplicación lineal T : R3 → R3 siguiente
T ([x, y, z]T ) = [2x + z, x + y + z, x − y + 3z]T .
Se considera en R3 la base B 0 = {[3, −1, 0]T , [−1, 3, 0]T , [0, 0, 1]T }.
a) Halla la matriz de T respecto de la nueva base B 0 .
b) Halla una base B 00 de R3 en la cual la matriz de la aplicación lineal sea diagonal.

Ejercicio 2. Sea T : R3 → R3 una aplicación lineal que admite por vectores propios a
v1 = (1, 1, 0)T , v2 = (1, −1, 0)T , v3 = (0, 0, 1)T .
Se sabe además que la imagen del vector w = (3, 1, 1)T es el vector (8, 0, 2)T . Halla los valores propios
de T .

Ejercicio 3. Encuentra los autovalores y autovectores de las siguientes matrices:


     
1 0 0 0 2 1 −1 0 4 1 −2 −1
 0 1 0 0   0 1 0 0   2 2 −2 −1 
 ,  ,  .
 0 0 1 0   1 1 0 0   4 2 −2 −2 
−1 −1 1 2 −1 −1 1 2 1 0 −1 1

Ejercicio 4. Demuestra que las matrices


   
4−a 1 −1 1−a 1 0
A =  −6 −1 − a 2  B= 0 1−a 0 
2 1 1−a 0 0 2−a

son semejantes independientemente del valor de a, pero que las matrices


   
2 0 0 2 0 3
C= 0 2 0  D= 0 2 −1 
0 0 2 0 0 2

no son semejantes.

Ejercicio 5. Estudia para qué valores de los parámetros reales a y b son diagonalizables las siguientes
matrices    
5 0 3 2 0 0
A= 0 −1 0  , B= 0 1 a .
0 a b 1 1 1
Halla un sistema completo de autovectores cuando sea posible.

Ejercicio 6. Encuentra autovalores, autovectores, forma diagonal y matriz de paso para las siguientes
matrices    
0 −1 2 1 0 1
 1 0 3  ,  0 1 −2  .
−2 −3 0 0 0 2

Ejercicio 7. Determina si las siguientes matrices son o no diagonalizables. En caso afirmativo, encuentra
la matriz de paso y la forma diagonal asociada.
     
1 1 −2 2 1 0 3 −1 −1
 −1 2 1  ,  0 0 1  ,  1 1 −1  ,
0 1 −1 0 0 0 1 −1 1
   
  −2 −2 0 0 4 1 0 1
7 −2 −4  −5
 3 0  1 0 0 ,
 2
 3 0 1 .
−2  ,  0 0 2 −1   −2 1 2 −3 
6 −2 −3
0 0 5 −2 2 −1 0 5

Ejercicio 8. Se consideran las matrices complejas siguientes:


 √ √   
2
√ −i 2 −i 2 5 −2i −4
A =  i√2 3 −1  , B =  2i 8 2i  .
i 2 −1 3 −4 −2i 5

Halla matrices unitarias U , V tales que U −1 AU , V −1 BV sean diagonales, y halla dichos productos.

Ejercicio 9. Diagonaliza ortogonalmente las matrices simétricas


     
4 0 2 3 −1 0 −1 2 1
A= 0 10 0  , B =  −1 3 0  , C =  2 2 2  ,
2 0 4 0 0 2 1 2 −1

encontrando matrices ortogonales P , Q y R tales que P −1 AP , Q−1 BQ y R−1 CR sean diagonales. Idem
para la matriz  
1 2 3
D =  2 4 6 .
3 6 9

Ejercicio 10. Sea  


2 1 0
A= 1 1 1 .
0 1 2
Halla una matriz ortogonal P con det(P )=1 y tal que P T AP sea una matriz diagonal con los elementos
diagonales dispuestos en orden decreciente.

También podría gustarte