Está en la página 1de 11

Complementos sobre matrices

Operaciones por columnas


 
a11 a12 · · · a1n  
  | | |
 a21 a22 · · · a2n    donde Ak representa el vector
  
Sea A =  . .. .. ..  =  A1 A2 · · · An 
,
 .. . . .  columna k-ésimo de la matriz A.
  | | |
an1 an2 · · · ann

 
v1 se obtiene una combinación lineal de las columnas
• Al multiplicar la matriz  
 v2 
  de A cuyos coeficientes son las componentes del
A por un vector v= .. 
 . 
  vector v:
vn

A · v = v1 · A1 + v2 · A2 + . . . + vn · An

 
se obtiene una matriz cuyas columnas
• Al multiplicar la matriz | | |
  son los productos de la matriz A por
A por la matriz B=
 B 1 B 2 · · · B n


las columnas de B:
| | |

 
| | |
 
A·B=
 A · B1 A · B2 · · · A · Bn


| | |

Operaciones por cajas

Si descomponemos una matriz en cajas, es decir, matrices más pequeñas contenidas en la ma-
triz original, podemos realizar operaciones considerando éstas como elementos siempre que la
descomposición realizada sea la misma en todas las matrices:
   
A11 A12 B11 B12
   
   
   
Sean A =  yB= 
 A21 A 22
  B21 B22

   

1
 
A11 · B11 + A12 · B21 A11 · B12 + A12 · B22
 
 
 
A·B= 
 A21 · B11 + A22 · B21 A21 · B12 + A22 · B22 
 

• Una matriz A se dice diagonal por cajas si podemos realizar una descomposición de esa
matriz en la que las únicas cajas con elementos no nulos sean aquellas cuya diagonal principal
contenga elementos de la diagonal principal de A

Ejemplo: Las siguientes matrices son diagonales por cajas:


   
   
1 2 0 0 1 2 0 0
    1 0 0 0 1 0 0 0
 0    
3 0 0  
  0 3 0 0 

 0 1 0 0   0

  =     1 0 0 

 0 0 1 2     = 
   0 0 1 2   0 0 1 5   0 0 1 5 
   
0 0 3 1 0 0 3 1 0 0 3 1 0 0 3 1

• El producto de dos matrices diagonales por cajas con la misma estructura de cajas es otra
matriz diagonal por cajas con la misma estructura.

Polinomios de matrices

Todo polinomio p : IR −→ IR
x −→ p(x) = an xn + . . . + a1 x + a0

define un polinomio sobre matrices:

p : Mn (IR) −→ Mn (IR)
A −→ p(A) = an · An + . . . + a1 · A + a0 · I

donde I es la matriz identidad

Exponencial de una matriz

Sea una matriz A ∈ Mn (IR). Se llama matriz exponencial de A a la matriz expA ∈ Mn (IR)


X 1 1 1 1
expA = · Ak = I + A + · A2 + · A3 + . . . + · Am + . . .
k! 2 3! m!
k=0

Propiedades

• ∀A ∈ Mn (IR), expA es regular

• Si A es diagonal por cajas, expA es otra matriz con la misma estructura en la que cada
caja es la exponencial de la correspondiente caja de A

• exp0 = I

2
∞ ∞
"∞ #
X 1 X λk X λk
• exp[λ · I] = k
· [λ · I] = ·I= · I = eλ · I
k! k! k!
k=0 k=0 k=0

• Si A y B conmutan, A y expB conmutan

• Si A y B conmutan, es decir, si A · B = B · A, entonces exp [A + B] = expA · expB

• exp[λ · I + A] = eλ · expA

• [expA]−1 = exp [−A]

(Consecuencia de anteriores propiedades: I = exp0 = exp [A − A] = expA · exp [−A])

• Si una matriz A es nilpotente de orden k (es decir, si Ak = 0 pero Ak−1 6= 0) la matriz


expA es un polinomio de grado k − 1 de A.

• Si A = P−1 · B · P entonces expA = P−1 · expB · P

" #
1 0
Ejemplo: Calcular la exponencial de A = .
0 −1
Observemos que A2 = I y que, por tanto, A2k = I ∀k = 0, 1, . . .
A2k+1 = A ∀k = 0, 1, . . .
Aplicando la definición de exponencial:
X∞ X ∞ X∞ X∞ X∞
1 k 1 2k 1 2k+1 1 1
expA = ·A = ·A + ·A = ·I+ ·A =
k! (2k)! (2k + 1)! (2k)! (2k + 1)!
k=0 k=0 k=0 k=0  k=0 
"∞ # "∞ #
X 1 X 1 1 1 1 1 e 0
= ·I+ · A = (e + ) · I + (e − ) · A =  1 
(2k)! (2k + 1)! 2 e 2 e 0
k=0 k=0 e
Mucho más sencillo era haber pensado “por cajas”:
" #  
exp 1 0 e 0
expA = = 1 
0 exp {−1} 0
e

Autovalores y Polinomio Característico

Sea A ∈ Mn (IR)
• λ es autovalor o valor propio de la matriz A si det [A − λ · I] = 0.
• v ∈ IRn es un autovector o vector propio asociado a un autovalor λ si v ∈ N [A − λ · I], es
decir, si (A − λ · I) · v = 0 ⇐⇒ A · v = λ · v
• Se llama polinomio característico de la matriz v al polinomio PA (λ) = det [A − λ · I]
• Los autovalores de A son las raíces de su polinomio característico.
• Se llama multiplicidad aritmética de un autovalor λ a la multiplicidad que tiene como raíz
del polinomio característico.

3
• Se llama multiplicidad geométrica de un autovalor λ a la dimensión del núcleo N [A − λ · I].
• la multiplicidad geométrica de un autovalor es siempre menor o igual a su multiplicidad
aritmética.
• Si para cada autovalor de una matriz A se cumple que las multiplicidades aritmética y ge-
ométrica coinciden, entonces A es diagonalizable.
Efectivamente, en este caso podemos encontrar una base de IRn formada exclusivamente por
vectores propios de A. En esta base, la matriz es diagonal.
Conviene recordar aquí que la expresión de una matriz en una base cualquiera se obtiene tomando
como columnas los coeficientes de las imágenes de cada vector de la base expresadas en ella misma.
Así, si v es un vector propio asociado a un autovalor λ, como A · v = λ · v, la correspondiente
columna de la expresión de A en una base que contiene a v como vector k-ésimo será un vector
con λ en la posición k y ceros en el resto de posiciones.
• La traza y el determinante de una matriz son invariantes, es decir, no cambian al cambiar la
base. Por tanto, la suma de los autovalores de una matriz es igual a su traza y su producto igual
a su determinante.

• Teorema de Cayley-Hamilton. Si pA (x) es el polinomio característico de la matriz A,


entonces
pA (A) = 0

Aplicaciones

• Cálculo de inversas

Sea A ∈ Mn (IR) una matriz regular. Su determinante es distinto de 0 y su polinomio característico


tendrá una expresión PA (x) = (−1)n xn + an−1 xn−1 + . . . a1 x + det (A). Si aplicamos el Teorema
anterior,

0 = (−1)n · An + an−1 · An−1 + . . . a1 · A + det (A) · I

de donde, despejando:

1 £ ¤
I =− (−1)n · An + an−1 · An−1 + . . . + a1 · A =
det (A)
1 £ ¤
=− (−1)n · An−1 + an−1 · An−2 + . . . + a1 · I · A
det (A)
y, por tanto

1 £ ¤
A−1 = − (−1)n · An−1 + an−1 · An−2 + . . . + a1 · I
det (A)

4
• Exponencial de una matriz que tiene un único autovalor

Sea A ∈ Mn (IR) una matriz que tiene un único autovalor λ de multiplicidad aritmética n.
expA = exp [λ · I + A − λ · I] = exp [λ · I] · exp [A − λ · I] = eλ · exp [A − λ · I]
Por el Teorema de Cayley-Hamilton, la matriz A − λ · I es nilpotente de orden a lo sumo n,
por lo que su exponencial se calcula sencillamente como un polinomio en A de grado a lo sumo
n − 1:

1 1
exp [A − λ · I] = I + [A − λ · I] + · [A − λ · I]2 + . . . + · [A − λ · I]n−1
2 (n − 1)!
y, por fin:
· ¸
λ 1 2 1 n−1
expA = e · I + [A − λ · I] + · [A − λ · I] + . . . + · [A − λ · I]
2 (n − 1)!
 
1 0 0
 
Ejemplo: Sea A = 
 −2 −2 −3 .
 Calcular A−1 y expA.
2 3 4
¯ ¯
¯ ¯
¯ 1−λ 0 0 ¯
¯ ¯
El polinomio característico de A es pA (λ) = det [A − λ · I] = ¯¯ −2 −2 − λ −3 ¯¯ =
¯ ¯
¯ 2 3 4−λ ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ −2 − λ −3 ¯ ¯ 1−λ 1−λ ¯ ¯ 1 0 ¯
¯ ¯ ¯ ¯ 2 ¯ ¯
= (1 − λ) ¯ ¯ = (1 − λ) ¯ ¯ = (1 − λ) ¯ ¯ = (1 − λ)3
¯ 3 4−λ ¯ ¯ 3 4−λ ¯ ¯ 3 1−λ ¯

Como A anula su propio polinomio característico, 0 = I−3·A+3·A2 −A3 de donde, despejando,


£ ¤
I = A · 3 · I − 3 · A + A2 . Por tanto
 
1 0 0
 
A−1 = 3 · I − 3 · A + A2 = 
 2 3 
4 
−2 −3 −2

Para calcular la exponencial hacemos expA = exp [I + A − I] = e · exp [A − I] =


· ¸
1 2
= e · I + [A − I] + [A − I]
2

   
0 0 0 e 0 0
   
A−I = 
 −2 −3 −3 ;
 2
[A − I] = 0 =⇒ expA = 
 −2e −2e −3e 

2 3 3 2e 3e 4e

5
Vectores propios generalizados

• v es un vector generalizado de una matriz A asociado a un autovalor λ si existe r ∈ IN tal que


(A − λ · I)r · v = 0, es decir v ∈ N [(A − λ · I)r ]
h i
• Los espacios generalizados N [(A − λ · I)r ] ⊆ N (A − λ · I)r+1

• Se llama cadena de vectores propios generalizados de tamaño s a un conjunto de vectores


h i
{v1 , v2 , . . . , vs } en la que cada vector vk ∈ N (A − λ · I)k y cumple [A − λ · I] · vk = vk−1
∀k = s, . . . , 2. (Obsérvese que, por construcción, v1 es un vector propio asociado a λ y, por tanto,
[A − λ · I] · v1 = 0

Para construir una cadena generalizada de tamaño k basta con buscar un vector vk ∈
h i h i
N (A − λ · I)k pero tal que vk ∈
/ N (A − λ · I)k−1 . Como su notación indica, este será el
último vector de la cadena. El resto se obtiene multiplicando sucesivamente por la matriz A−λ·I:

vk−1 = (A − λ · I) · vk
vk−2 = (A − λ · I) · vk−1 = (A − λ · I)2 · vk
..
.
vr = (A − λ · I) · vr+1 = . . . = (A − λ · I)k−r · vk
..
.
v1 = (A − λ · I) · v2 = . . . = (A − λ · I)k−1 · vk

Es fácil comprobar que, con esta construcción vr ∈ N [(A − λ · I)r ] ∀r = 1, . . . , k − 1:


r r k−r k
(A − λ · I) · vr = (A − λ · I) · (A − λ · I) · vk = (A − λ · I) · vk = 0

Propiedades

• Todos los vectores de una cadena generalizada son linealmente independientes

• Los vectores de dos cadenas generalizadas asociadas a autovalores distintos son todos
linealmente independientes.

• Los vectores de cadenas generalizadas asociadas a un mismo autovalor pero en las que
los vectores propios (los que tienen subíndice 1 en cada una de ellas) son linealmente
independientes, son linealmente independientes.

6
• Es posible encontrar una base de IRn formada por cadenas generalizadas asociadas a los auto-
valores de cualquier matriz A ∈ Mn (IR).

Base de vectores propios generalizados

Sea λ un autovalor de multiplicidad aritmética m de una matriz A ∈ Mn (IR). Como cada


espacio propio generalizado contiene a los anteriores y no es posible encontrar más de m vectores
linealmente independientes asociados a λ tendremos una cadena de espacios propios:

h i h i
N [(A − λ · I)] N (A − λ · I)2 ··· N [(A − λ · I)r ] = N (A − λ · I)r+1

en la que el espacio N [(A − λ · I)r ] tiene dimensión m.

h i
• Para simplificar la notación pondremos N k = N (A − λ · I)k
n h io
• Desde ahora escibiremos N k = r para indicar que dim N (A − λ · I)k = r

Procedimiento para el cálculo de la base

• A cada autovalor λ de multiplicidad m de una matriz A ∈ Mn (IR) le corresponden exactamente


m vectores de la base.
• Para calcularlos se considera la cadena de subespacios propios:

N1 N2 ... N k = N k+1

en la que N k = m y se realiza el siguiente proceso:

1. Se toman tantos vectores linealmente independientes como se pueda que estén en N k pero
que no estén en N k−1 (hay tantos como la diferencia de dimensiones de los subespacios).
Con cada uno de ellos se construye una cadena generalizada de tamaño k (ver el proced-
imiento descrito anteriormente).

2. Se cuentan los vectores obtenidos. Si hay m hemos terminado. Si hay menos

3. Se toman tantos vectores linealmente independientes como se pueda que estén en N k−1 pero
que no estén en N k−2 y que sean linealmente independientes con los obtenidos
en el paso anterior. (Para esto basta comprobar la independencia lineal de nuestros

7
candidatos con los vectores de subíndice k − 1 obtenidos hasta ahora). Con cada uno de
ellos se construye una cadena generalizada de tamaño k − 1.

4. Se cuentan los vectores obtenidos en total. Si hay m hemos terminado. Si hay menos

5. Se toman tantos vectores linealmente independientes como se pueda que estén en N k−2 pero
que no estén en N k−3 y que sean linealmente independientes con los obtenidos en
los pasos anteriores. (Para esto bsata comprobar la independencia lineal de nuestros
candidatos con los vectores de subíndice k − 2 obtenidos hasta ahora). Con cada uno de
ellos se construye una cadena generalizada de tamaño k − 2.

6. Se cuentan los vectores obtenidos en total. Si hay m hemos terminado. Si hay menos

7. Se repite este proceso hasta obtener exactamente m vectores

Comentarios:

• Este proceso siempre termina con m vectores exactamente.

• Si llamamos P a la matriz cuyas columnas son los elementos de la base obtenidas en


el proceso anterior (con los vectores de cada cadena generalizada ordenados según sus
subíndices) la matriz P−1 · A · P = JA es la forma canónica de Jordan de la matriz A.

Veámos con cierto detalle el segundo punto. Sea Pk la columna k-ésima de P. O bien es un vector
propio asociado a un autovalor λ o, si no es propio, es un vector propio generalizado asociado al
autovalor.
En el primer caso, A · Pk = λ · Pk , por lo que la columna k-ésima de la expresión de A en la
nueva base tendrá el valor λ en la fila k y 0 en el resto de posiciones.
En el segundo caso, (A − λ · I) · Pk = Pk−1 (véase la construcción de cadenas generalizadas),
por lo que A · Pk = λ · Pk + Pk−1 , es decir, la columna k-ésima de la expresión de A en la nueva
base tendrá el valor 1 en la fila k − 1, el valor λ en la fila k y 0 en el resto de posiciones.
Ésta es la estructura de la forma canónica de Jordan: una matriz diagonal por cajas en la
que a cada cadena generalizada de tamaño k asociada a un autovalor λ le corresponde una caja
elemental de Jordan de tamaño k cuya expresión es:
 
λ 1 0 ··· 0 0 0
 
 0 λ 1 ··· 0 0 0 
 
 
 0 0 λ ··· 0 0 0 
 
 .. .. .. . . . . . 
 . . . . .. .. .. 
 
 
 0 0 0 ··· λ 1 0 
 
 0 0 0 ··· 0 λ 1 
 
0 0 0 ··· 0 0 λ
| {z }
k columnas

8
Ejemplo: Calcular la forma canónica de Jordan y la matriz del cambio de base para la matriz
 
1 0 0
 
A=  −2 −2 −3 .

2 3 4
El polinomio característico lo hemos calculado anteriormente: pA (λ) = (1 − λ)3 por lo que solo
tenemos un autovalor
 λ = 1 con multiplicidad
 3.
0 0 0
 
La matriz A − I =  −2 −3 −3  tiene rango 1, por lo que la dimensión del nucleo N [A − I]

2 3 3
es 2. Hay dos vectores propios linealmente independientes.
La matriz (A − I)2 = 0, por lo que la cadena de espacios generalizados queda:

N1 N 2 = IR3

Buscamos un vector v2 ∈ N 2 que no esté en N 1 y construimos con él una cadena de tamaño 2.


     
0 0 0
     
v2 = 
 0 
 v1 = [A − I] ·   
 0  =  −3 

1 1 3

Aún no tenemos los 3 vectores que necesitamos. Para completar la base  buscamos
 un vector
3
 
w ∈ N 1 que sea linealmente independiente con el v1 . Por ejemplo w = 
 −2 

0
   
0 0 3 −2/9 −1/3 0
La matriz del    
P=  −3 0 −2   y su inversa P−1 = 
 2/3 1 1 
cambio de base es
3 1 0 1/3 0 0
     
−2/9 −1/3 0 1 0 0 0 0 3
     
JA = P · A · P = 
−1
 2/3 1 1    
 ·  −2 −2 −3  ·  −3 0 −2  =

1/3 0 0 2 3 4 3 1 0
     
−2/9 −1/3 0 0 0 3 1 1 0
     
=
 2/3 1 1     
 ·  −3 −3 −2  =  0 1 0 
1/3 0 0 3 4 0 0 0 1

• En la hoja siguiente presentamos la estructura con la que se buscan los vectores propios
generalizados asociados a un autovalor de multiplicidad aritmética m ≤ 5 en todos los casos
posibles. Se da a título orientativo. Un buen ejercicio consistye en reproducir la estructura que
se indica a la derecha en cada caso

9
Estructura de cadenas generalizadas para un autovalor λ.

• m=1 N=1 −→ vector propio



 N =2
 −→ 2 vectores propios
• m=2


 N = 1, N 2 = 2 −→ cadena de orden 2



 N =3 −→ 3 vectores propios






• m=3 N = 2, N 2 = 3 −→ cadena de orden 2 + v. propio








N = 1, N 2 = 2, N 3 = 3 −→ cadena de orden 3



 N =4 −→ 4 vectores propios









 N = 3, N 2 = 4 −→ cadena de orden 2 + 2 v. propios






 
• m=4  2

  N =4
 −→ 2 cadenas de orden 2

 N = 2,

 

 
 N 2 = 3, N 3 = 4

 −→ cadena de orden 3 + v. propio








 N = 1, N 2 = 2, N 3 = 3, N 4 = 4 −→ cadena de orden 4



 N =5 −→ 5 vectores propios









 N = 4, N 2 = 5 −→ cadena de orden 2 + 3 v. propios







 

  2

  N =5
 −→ 2 cadenas de orden 2 + v. propio




 N = 3, 


• m=5  N 2 = 4, N 3 = 5 −→ cadena de orden 3 + 2 v. propios





 


  2 3


  N = 4, N = 5
 −→ cadena de orden 3 + cadena de orden 2



 N = 2,

 


  N 2 = 3, N 3 = 4, N 4 = 5 −→ cadena de orden 4 + v. propio









 N = 1, N 2 = 2, N 3 = 3, N 4 = 4, N 5 = 5 −→ cadena de orden 5

10
José Olarrea Busto

11

También podría gustarte