Está en la página 1de 33

Cálculo de la función exponencial de una matriz

Rafael Morones E.
Dept. de Matemáticas, ITAM

22 de marzo de 2012

1. Introducción.
Originalmente este texto estaba concebido para obtener la solución de un sistema lineal de ecuaciones
diferenciales de primer orden, ẋ = Ax, determinando la función exponencial matricial de la matriz A
vı́a el cálculo de su forma canónica de Jordan. Sin embargo, una cita del texto de L. Perko [4] indicaba
la existencia de un método opcional desarrollado por E. J. Putzer [5] y, por otra parte, algunos métodos
adicionales para casos especiales citados en los problemas del texto de Arrowsmith y Place [1] en los
que se hace uso intensivo del teorema de Cayley-Hamilton. Esas notas también estaban restringidas a
matrices de tamaño [2 × 2]. Esta restricción implica la exclusión de problemas donde se puedan usar
vectores propios generalizados para calcular la matriz M de transformación por similaridad. Estas
cuestiones se ilustran con algunos ejemplos y se hace referencia a los apéndices para una demostración
del teorema de Cayley-Hamilton y a una breve exposición sobre vectores propios generalizados.
Estas notas no son exhaustivas y, en consecuencia, se recomienda al lector acudir a las referencias que
se citan en la bibliografı́a.

2. Sistemas de ecuaciones diferenciales de primer orden.


Sea el problema de valores iniciales

ẋ = Ax (1a)
x0 = x(t0 ) (1b)

donde

x = x(t), x ∈ Rn , t ∈ R.
A : [n × n] una matriz real tal que det A 6= 0.
x0 = [x1,0 , . . . xn,0 ] un vector de condiciones iniciales tal que x0 6= 0.

Se define a continuación la función exponencial matricial como una serie de potencias [1][4]

Definición 1 Sea P una matriz real de tamaño [n × n], entonces



X Pk
exp(P ) = eP = (2)
k!
k=0

1
Esto es
1 2 1
eP = I + P + P + ... + Pn + ...
2! n!

Una consecuencia de esta esta definición es que eP es una matriz de [n × n]. Se demuestra [4] que esta
función es absoluta y uniformemente convergente respecto a la norma

||T || = máx |T (x)|


|x|≤1

donde

T es un operador lineal
T : Rn → Rn ,
y si T está representado por una matriz A (de tamaño n × n) entonces

||A|| = n l, l : longitud máxima de los renglones de A.

|x| es la norma euclidiana de un vector en Rn .

Entre las propiedades más interesantes de esta función se tienen:

Para dos matrices del mismo tamaño P y Q tales que P Q = QP

eP eQ = eP +Q (3a)

y de donde se deduce que si Q = −P


eP +(−P ) = I, ecuación que implica
−1
e−P = eP (3b)
que define a la inversa de una función exponencial matricial.
Dada la convergencia absoluta y uniforme de la serie, esta se puede derivar e integrar término a
término y las series resultantes también gozan de estos tipos de convergencia. En particular, si
P = At se tiene
d At
e = AeAt = eAt A (3c)
dt

Con estos antecedentas es posible demostrar el siguiente

Teorema 1 Sea el sistema de ecuaciones diferenciales de primer orden (1a), sujeto a las condiciones
iniciales (1b), entonces su solución está dada por

x(t) = eA(t−t0 ) x0 (4)

Demostración.
Derivando la serie que define e−At , se tiene
d −At
e x = e−At ẋ − e−At Ax
dt
= e−At (ẋ − Ax)
= 0

2
Resultado que implica que
e−At x = C
El vector constante C se obtiene de las condicones iniciales (1b)
e−At0 x0 = C
Por lo que se tiene finalmente
x(t) = eA(t−t0 ) x0
...2

Observación. De este resultado se define, para un sistema lineal, el operador de evolución o flujo de
un punto x el cuál inicialmente (t = t0 ) ocupaba la posición x0 , como
x(t) = φt−t0 (x0 )

2.1. Algunos ejemplos.


Los siguientes ejemplos corresponden a sistemas de ecuaciones diferenciales lineales en R2 y representan
tres clases de problemas cuya solución es especialmente sencilla de obtener. Este no es el caso general,
sin embargo, en la siguiente sección se establecen las condiciones para reducir un problema complejo
en uno más simple.

Ejemplo 1. Resolver el sistema


ẋ = Ax (5a)
   
x1 (t0 ) x1,0
x0 = = , x21,0 + x22,0 6= 0 (5b)
x2 (t0 ) x2,0
donde  
1 0
A = (5c)
0 1
Solución.
Un sistema como este se dice que está desacoplado. Su solución es inmediata
c1 et
   
x1
=
x2 c2 et
Y las constantes de integración son

x1,0 e−t0
   
c1
=
c2 x2,0 e−t0
Por lo que la solución bajo esta restricción es
x1,0 et−t0
   
x1
=
x2 x2,0 et−t0
  
t−t0 1 0 x1,0
= e
0 1 x2,0
Claramente  
t−t0 1 0
φt−t0 (x0 ) = e x0
0 1
...3

3
Ejemplo 2. Resolver el sistema

ẋ = Ax (6a)
   
x1 (t0 ) x1,0
x0 = = , x21,0 + x22,0 6= 0 (6b)
x2 (t0 ) x2,0
donde  
−1 2
A = (6c)
0 −1

Solución.
En este caso el sistema está parcialmente acoplado. La solución comienza resolviendo la segunda
ecuación de (6a), esto es
x2 = c2 e−t
La sustitución de este resultado en la primera ecuación, deviene en

ẋ1 + x1 = c2 e−t

la que es una ecuación diferencial de primer orden, lineal. El factor integrante requerido para
obtener su solución es µ(t) = et , por lo que
d t 
e x1 = c2
dt
y
x1 = (c1 + c2 t)e−t
La solución del sistema en forma matricial es
 −t
2te−t
 
e c1
x=
0 e−t c2

Las constantes se obtienen, una vez más de las condiciones iniciales


  −t
e 0 2t0 e−t0
  
x1,0 c1
=
x2,0 0 e−t0 c2

Esto es
−1 
e−t0 2t0 e−t0
   
c1 x1,0
=
c2 0 e−t0 x2,0
  
1 −2t0 x1,0
= et0
0 1 x2,0

La solución del sistema con estas condiciones iniciales es


   
−(t−t0 ) 1 2t 1 −2t0 x1,0
x = e
0 1 0 1 x2,0
  
1 2(t − t0 ) x1,0
= e−(t−t0 )
0 1 x2,0

En este caso el operador de evolución es


 
1 2(t − t0 )
φt−t0 (x0 ) = e−(t−t0 ) x0
0 1

4
3. Formas canónicas de Jordan.
Los ejemplos de la sección anterior son suficientemente sencillos para obtener una solución casi in-
mediata. En general la matriz A no tiene la estructura diagonal que tienen los ejemplos sino que es
una matriz con n2 entradas distintas de cero. Es deseable obtener una transformación de coordenadas
que reduzca esa matriz a una de forma diagonal o triangular superior (o inferior). Entonces, sea el
sistema lineal
ẋ = Ax (7)
donde

x un vector en Rn referido a la base canónica {e1 , e2 , . . . , en }.


A una matriz real de tamaño [n × n] y tal que det A 6= 0.

y sea la transformación de coordenadas


n
X
xi = mij yj
j=1

o en forma matricial
x = My (8)
donde M es una matriz no singular, esto es, invertible y tal que el sistema original (7) se reduzca a
uno equivalente
ẏ = Jy, donde y = y(t) (9)
más sencillo de integrar. Si existe esta matriz M , se tiene de (8) que

ẋ = M ẏ = Ax = AM y

de donde
ẏ = M −1 AM y (10)
Esta ecuación define J como
J = M −1 AM
Las matrices definidas de esta manera se dice que[1, 2] son similares o semejantes.
Bajo la hipótesis de la existencia de tal matriz M se tiene que la solución del sistema

ẏ = Jy

está dada por


y(t) = eJt y0
y en consecuencia, de la ecuación (8)

M −1 ẋ = eJt M −1 x0

esto es
ẋ = M eJt M −1 x0
de donde se deduce
eAt = M eJt M −1 (11)
En el siguiente teorema se demuestra la existencia de la matriz M para el caso de vectores x ∈ R2 .

5
Teorema 2 Sea A : [2 × 2] una matriz real, existe entonces una matriz no singular M tal que
J = M −1 AM
corresponde a uno de los siguientes tipos

a)  
λ1 0
, λ1 > λ2
0 λ2

b1)  
λ0 0
, λ0 ∈ R
0 λ0

b2)  
λ0 1
, λ0 ∈ R
0 λ0

c)  
α −β
, α ∈ R, β > 0
β α

La matriz J dada por uno estos tipos se dice que es una forma canónica de Jordan para la matriz A.

Demostración.
Los valores propios de la matriz A (iguales que los de J) se obtienen del poliniomio caracterı́stico
P (λ) = λ2 − Iλ + II = 0 (12)
donde I = trA = a11 + a22 , II = det A, y los valores propios son
1 √  1 √ 
λ1 = I + ∆ , λ2 = I− ∆ (13)
2 2
donde ∆ = I 2 − 4II, es el discriminante de la forma cuadrática. Se tienen los casos

a) λ1 > λ2 . Sean u y v los vectores propios asociados a λ1 , λ2 respectivamente, esto es


Au = λ1 u y Av = λ2 v
dado que λ1 6= λ2 entonces u y v son linealmente independientes. La matriz M se construye con
estos vectores de la manera siguiente
.
M = [u..v]
Dado que J = M −1 AM implica AM = M J, se tiene que
.
AM = A[u..v]
.
= [Au..Av]
.
= [λ1 u..λ2 v]
 
λ1 0
= M
0 λ2
Esto demuestra este inciso.

6
b1) La matriz A es diagonal, esto es
 
1 0
A = λ0 I = λ0
0 1

en consecuencia cualquier matriz M no singular resuelve el problema y en este caso J = A.


b2) La matriz A no es diagonal y sus valores propios son iguales (λ1 = λ2 = λ0 ). En este caso sólo se
tiene un vector propio u, lo que implica que la multiplicidad geométrica (1: un sólo subespacio
invariante generado por u) es menor que la multiplicidad algebraica (2). Para construir otro
vector propio (v) linealmente independiente de u se hace uso de la teorı́a de vectores propios
generalizados. Entonces, si v es tal vector propio, satisface entonces

(A − λ0 I)v = u

de donde se deduce
Av = u + λ0 v
.
La matriz M = [u..v] satisface ahora

.
AM = A[u..v]
.
= [Au..Av]
.
= [λ0 u..u + λ0 v]
.
 
λ0 1
= [u..v]
0 λ0
= M J.

Esto demuestra el inciso b).


c) En este caso ∆ < 0 y se tienen raices complejas. Los valores propios son λ1,2 = a ± bı, b > 0 y
a ∈ R.

Demostración.
Sea el vector propio u = v + ıw asociado a λ1 . Del lema (1) en el apéndice B, v y w son
linealmente independientes y se propone
.
M = [w..v]

una matriz no singular. Se requiere demostrar que


 
α −β
J = M −1 AM =
β α

Se van a calcular la primera y segunda columnas de M −1 AM , para esto, si e1 = [1, 0]T y


e2 = [0, 1]T son lo vectores de la base canónica en R2

.
 
1
M e1 = [w..v] =w
0
..
 
0
M e2 = [w.v] =v
1

7
Y dado que M es invertible
e1 = M −1 w, e2 = M −1 v
Entonces, para la primera columna
M −1 AM e1 = M −1 Aw
= M −1 (βv + αw)
= βM −1 e2 + αM −1 w
 
α
=
β

Un procedimiento similar demuestra que la segunda columna de M −1 AM está dada por


 
−β
M −1 AM e2 =
α
En consecuencia  
α −β
J = M −1 AM =
β α
quedando demostrado el teorema.

...2

3.1. Formas canónicas de Jordan en R3 .


Las formas canónicas de Jordan para una matriz real A : [3 × 3] también tienen estructuras
sencillas ya que aún no se presenta la posibilidad de raices complejas de multiplicidad mayor
que 1. Estas se enlistan a continuación
a) A tiene 3 valores propios distintos λ1 > λ2 > λ3
 
λ1 0 0
J =  0 λ2 0 
0 0 λ3
b) A tiene tres raices reales, una de las cuáles es de multiplicadad 2
 
λ0 1 0
J =  0 λ0 0 
0 0 λ1
c) A tiene una raı́z real de multiplicidad 3
 
λ0 1 0
J = 0 λ0 1 
0 0 λ0
d) A tiene una raı́z real y dos raices conjugadas complejas
 
α −β 0
J = β α 0 
0 0 λ0
Para el cálculo de formas canónicas de Jordan de orden superior, en el texto[4] se presenta un
método basado en el ı́ndice de deficiencia de cada uno de los valores propios asociados a la matriz
A. El lector interesado puede consultarlo en el capı́tulo 1 de esta referencia.

8
3.1.1. Algunos ejemplos.

Se presentan dos ejemplos del cálculo de la matriz eAt para el caso de una matriz A : [3 × 3]
con valores propios distintos y uno para el caso de una con valores propios repetidos, usando la
matriz canónica de Jordan respectiva. Este procedimiento se contrasta con los métodos directos
para el cálculo de eAt que se discuten en la siguiente sección.
Valores propios distintos. Sea la matriz real
 
2 −7 0
A= 3 −8 0  (14)
0 0 1

Su polinomio caracterı́stico es

p(λ) = λ3 + 5λ2 − λ − 5 = 0 (15a)

con valores propios, ordenados en sentido creciente

λ1 = −1, λ2 = −5 y λ3 = 1 (15b)

Dado que los valores propios son todos distintos, la forma canónica de Jordan asociada es
 
−1 0 0
J =  0 −5 0  ,
0 0 1

forma canónica que corresponde al orden de los valores propios que se escogió en (15a). En
este caso la función exponencial matricial es inmediata
 −t 
e 0 0
eJt =  0 e−5 0  (16)
0 0 et

El cálculo de eAt es un poco más laborioso ya que requiere de la construcción de la matriz


M y el cálculo de su inversa M −1 . Ya se discutió que la primera columna de M es el vector
propio asociado a λ1 :
.. ..
   

..  1 −7 0 .0   1 −7 0 .0 
(A − 1I .0) =  3 −9 0 ...0  ∼  0 12 0 ...0  ,
   
   
.. ..
0 0 0 .0 0 0 0 .0

de donde se obtiene que x =< 0, 0, x3 = arb. >, haciendo x3 = 1 se tiene el primer vector
propio u(1) = [0, 0, 1]T .
Cálculos similares para λ2 y λ3 determinan vectores propios correspondientes u(2) =
[7, 3, 0]T y u(3) = [1, 1, 0]T , por lo que la matriz M es
   
7 1 0 1 −1 0
1
M =  3 1 0  ; M −1 =  −3 7 0 
4
0 0 1 0 0 4

9
El cálculo de eAt es
eAt = MJM −1
e−t
  
7 1 0 0 0 1 −1 0
1
= 3 1 0  0 e−5 0   −3 7 0 
4
0 0 1 0 0 et 0 0 4

7e−t − 3e−5t 7(e−t + e−5t ) 0


 
1
= 3(e−t − e−5t ) 3e−t + 7e−5t 0  (17)
4
0 0 4et
...3

Dos valores propios iguales. En los siguientes ejemplos se tranan los casos de una matriz de
tamaño 3 × 3 con dos valores propios iguales y uno distinto. En un caso la dimensión de
subespacio generado por el valor propio repetido es igual a su multiplicidad algebraica. En
el otro caso, la dimensión del subespacio propio es menor a la multiplicidad del valor propio
repetido y en consecuencia se genera otro vector linealmente independiente del obtenido
usando el criterio de vectores propios generalizados.[6]
El primer ejemplo es calcular eAt cuando
 
−1 −3 0
A= 0 2 0  (18)
0 0 −1
Sus valores propios y su polinomio caracterı́stico son
λ1 = 2, λ2 = λ3 = −1; p(λ) = (λ − 2)(λ + 1)2 = λ3 − 3λ − 2
Para el cálculo de sus vectores propios
• λ1 = 2, la matriz A − 2I es
 
−3 −3 0
A − 2I =  0 0 0 ,
0 0 −3
.
y el sistema (A − 2I ..0) tiene como solución el vector propio u(1) = [−1, 1, 0]T .
• λ2 = −1, la matriz A + I es
 
0 −3 0
A+I = 0 2 0 ,
0 0 0
.
y el sistema (A + I ..0) es reducible por renglones a la matriz
..
 
 0 1 0 .0 
. ,
0 0 .. 0 

 0
 
..
0 0 0 .0

que indica que la variable x2 = 0 pero las variables x1 y x3 son arbitrarias,1 escogiendo
estas variables de manera que x21 +x33 6= 0 en cada caso, se obtienen los vectores propios
1 El hecho de que aparezcan dos renglones con entradas 0 indica que la dimensión del subespacio generado por el

valor propio λ1 = −1 es 2 que corresponde a su multiplicidad.

10
u(2) = [1, 0, 0]T y u(3) = [0, 0, 1]T . En consecuencia, la matriz M y su correspondiente
inversa, son    
1 −1 0 1 1 0
M = 0 1 0  ; M −1 =  0 1 0 
0 0 1 0 0 1
La forma canónica de Jordan asociada se calcula como

J = M −1 AM
 
−1 0 0
=  0 2 0 
0 0 −1

y la correspondiente eJt
e−t
 
0 0
eJt = 0 e2t 0 
0 0 e−t
Finalmente, la matriz buscada es

eAt M eJt M −1
= 
e−t e−t − e2t

0
=  0 e2t 0 
0 0 e−t

Observación. La estructura de la matriz A se presta para el cálculo directo de la


solución del sistema. La última ecuación (renglón 3) está completamente desacoplada
de las otras dos y puede integrarse directamente. Las ecuaciones 1 y 2 (primer y segundo
renglones) están parcialmente acopladas y puede integrarse direntamente la ecuación
2 (renglón2) para sustituir el resultado en la primera ecuación e integrar. Se invita al
lector a llevar a cabo este proceso y comparar la solución obtenida con el resultado de
arriba.

El segundo ejemplo se desarrolla usando la matriz


 
2 3 2
A =  0 −1 1 
0 0 −1

con valores propios y polinomio caracterı́stico

λ1 = 2, λ2 = λ3 = −1; p(λ) = λ3 − 3λ − 2

En este caso solamente se pueden obtener dos vectores propios, uno asociado a λ1 = 2 y el
otro λ2 = −1
u(1) = [1, 0, 0]T , u(2) = [−1, 1, 0]T , respectivamente,
y consecuencia de que la multiplicidad geométrica del valor propio λ2 = −1 es > que su
multiplicidad algebraica. Para construir un vector propio generalizado linealmente inde-
pendiente de u(2) , se considera el sistema
.
A + I ..v = u(2)

de donde se encuentra que v = [−1 + v2 , v2 , 1]T , seleccionando v2 = 0 se tiene u(3) =


[−1, 0, 1]T .

11
El resto del cálculo es análogo al del ejemplo anterior y se tiene finalmente que
e2t e2t − e−t e2t − (1 + t)e−t
 

eAt =  0 e−t te−1 


0 0 e−t

3.2. Cálculo directo de la función exponencial matricial eAt .


Por otra parte, existen algunos métodos para el cálculo de eAt directamente, especialmente
útiles para el caso en que la multiplicidad algebraica de un valor propio excede su multiplicidad
geomética, pero que pueden ser usados en cualquier tipo de matriz A cuadrada de entradas
constantes. Estos métodos hacen uso del teorema de Cayley-Hamilton en algún momento de su
aplicación y no requieren pasar por el cálculo de una forma canónica de Jordan.
Un método directo. [1]
Proposición 1 Sea la matriz A : [2×2] con valores propios λ1 6= λ2 y defı́nanse la matrices
A − λ2 I A − λ1 I
Q1 = , Q2 =
λ1 − λ2 λ2 − λ1
entonces
A = λ1 Q1 + λ2 Q2 (19a)
Q1 Q1 = Q21 = Q1 , Q2 Q2 = = Q2 , Q22 Q1 Q2 = Q2 Q1 = 0 (19b)
k
A = λk1 Q1 k
+ λ2 Q2 , ∀ k ∈ N (19c)

X (At)k
eAt = = eλ1 t Q1 + eλ2 t Q2 (19d)
k!
k=0

Demostración.
La demostración de las ecuaciones (19a) y (19b) es inmediata.
De la expansión binomial se tiene
k
Ak = (λ1 Q1 + λ2 Q2 )
k  
X k
= (λ1 Q1 )k−j (λ2 Q2 )j
j
j=0

= λk1 Q1 + λk2 Q2 , k = 1, 2, . . .
consecuencia de las ecuaciones (19a) y (19b). La demostración de (19d) también es inmedi-
ata ya que
n
X Aj
eAt = lı́m tj
n→∞
j=0
j!
n
X λj Q1 + λj Q2
= lı́m 1 2
tj
n→∞
j=0
j!
n n
X λj1 Q1 j X λj2 Q2 j
= lı́m t + lı́m t
n→∞
j=0
j! n→∞
j=0
j!
λ1 t
= e Q1 + eλ2 t Q2
...2

12
Proposición 2 Para una matriz A como en la proposición anterior excepto con valores
propios iguales λ1 = λ2 sea ahora la matriz

Q = A − λ0 I, donde λ0 = λ1 = λ2

entonces
i) La matriz Q es nilpotente de grado 2.
ii)
eAt = (I + t(A − λo I))

Demostración.
i) Si Q es nilpotente de grado 2 entonces Qk = 0 para toda k ≥ 2 donde k es un natural.
Entonces

Q2 = QQ
= (A − λ0 I)(A − λ0 I)
= (A − λ0 I)2 = 0

del teorema de Cayley-Hamilton, ya que el polinomio caracterı́stico de A es

φ(λ) = |(λI − A)2 |

La demostración de que Qk = 0 para naturales k > 2 se hace por inducción en k.


ii) Para obtener la exponencial matricial para este caso, se requiere un resultado previo.

Ak = (λ0 I + Q)k = λk0 I + kλk−1


0 Q

entonces
n
!
X λj0 j
eAt = lı́m I + Q tj
n→∞
j=0
j! j!
n
X λj−1
= eλ0 t I + t lı́m 0
tj−1 Q
n→∞
j=0
(j − 1)!

= eλ0 t (I + t(A − λ0 I))

...2

Algoritmo de Putzer, método 1.[5] Sea el problema de valores iniciales

dx
ẋ = Ax, (0, x0 ), 0 ≤ t < ∞; x ∈ Rn , ẋ = ∈ Rn (20)
dt
donde A : [n × n] es una matriz real constante.
Se propone obtener la solución de este problema en la forma

x(t) = eAt (21)


sin calcular la forma canónica de Jordan asociada a la matriz A. Este procedimiento es
particularmente útil en el caso de raices repetidas del polinomio caracterı́stico, sin embargo,

13
del enunciado del problema, A aparte de satisfacer su descripción, es arbitraria. El polinomio
caracterı́stico de A se define como

p(λ) = det λI[n] − A = λn + cn−1 λn−1 + . . . + c0



(22)

Se define el operador diferencial lineal de coeficientes constantes

L ≡ p(D) = Dn + cn−1 Dn−1 + . . . + c1 D + c0 , (23)

de manera que la función z(t) es la solución del problema de valores iniciales

Lz = 0, z(0) = ż(0) = . . . z (n−2) = 0, z (n−1) = 1 (24)


La obtención de la solución de un problema lineal como este no ofrece ningún problema.
Se definen también el vector
 
c1 c2 · · · cn−1 1

z(t)
 
 c2 c3 · · · 1 

 ż(t)  
 · · 

Z(t) =  .. y la matriz C =  · · (25)
  

.
 
· · 0
   
z (n−1)
 
 cn−1 1 
1
Y se tiene
Teorema 3 (Putzer, Método 1) La matriz exponencial
n−1
X
At
e = qj (t)Aj
j=0

resuelve el problema de valores iniciales (20) y donde q0 , q1 , . . . , qn−1 son los elementos
del vector
q = CZ.

Demostración.
Se requiere demostrar que la función
n−1
X
Φ(t) = qj (t)Aj
j=0

resuelve el problema (20) esto es




= AΦ
dt
y
• satisface la condición inicial
Φ(0) = In

14
y dada la unicidad de la solución de un problema de valores iniciales: Φ(t) ≡ eAt .
Observación. Primero, ¿ cómo se ven las funciones qk (t) ?, llevando a cabo el producto
CZ
c1 z + c2 ż + . . . + z (n−1)
   
q0
 q1   c2 z + c3 ż + . . . + z (n−2) 
 ..  = 
   
.. 
 .   . 
qn−1 z
de donde se deduce que

n−j−1
X
qj = ck+j z (k−1) + z (n−j−1) (26)
k=1

De este resultado se tiene que

para t = 0, q0 = 1, q1 = . . . = qn−1 = 0

y en consecuencia
n−1
X
Φ(0) = qj (0)Aj = q0 (0)A0 = In
j=0

y se satisface la condición inicial.


Resta demostrar que la función Φ satisface la ecuación diferencial pero esto es equivalente
a demostrar que

− AΦ = 0
dt
entonces, de la definición de Φ

n−1 n−1
dΦ X dqj j X
− AΦ = A −A qj Aj
dt j=0
dt j=0
n−1
X n−1
X
= q̇Aj − qj Aj+1
j=0 j=0

Pn−1
El término j=0 qj Aj+1 requiere un poco de atención. En efecto

n−1
X n−2
X
qj Aj+1 = qj Aj+1 + qn−1 An
j=0 j=0

Pero del Teorema de Cayley-Hamilton


n−1
X
An + cj Aj = 0
j=0

por lo tanto
n−1
X n−2
X n−1
X
qj Aj+1 = qj Aj+1 − qn−1 cj Aj
j=0 j=0 j=0

15
y
n−1 n−1
dΦ X X
− AΦ = q̇Aj − qj Aj+1
dt j=0 j=0
n−1
X n−2
X n−1
X
= q̇Aj − qj Aj+1 + qn−1 c j Aj
j=0 j=0 j=0
n−1
X n−1
X n−1
X
= q̇Aj − qj−1 Aj + qn−1 cj Aj
j=0 j=1 j=0
n−1
X
= (q̇0 + c0 qn−1 ) In + (q̇j − qj−1 + cj qn−1 ) Aj
j=1

Entonces, si Φ satisface la ecuación diferencial, los coeficientes de esta serie de potencias


en la matriz A todos son 0. Esto es se requiere demostrar que
q̇0 + c0 qn−1 = 0 (27a)
q̇j − qj−1 + cj qn−1 = 0, para j = 1, 2, . . . , (n − 1) (27b)
Derivando la ecuación (26)
q̇j = c1+j ż + c2+j z̈ + . . . + cn−1 z (n−j−1) + z (n−j)
n−j−1
X
= ck+j z (k) + z (n−j) (28)
k=1

De aquı́ que, para j = 0 y z = qn−1

n−1
X
q̇0 = ck z (k) + z (n)
k=1

= c1 ż + c2 z̈ + . . . + cn−1 z (n−1) + z (n) ,


por lo que

q̇0 + c0 qn−1 = c0 qn−1 + c1 ż + c2 z̈ + . . . + cn−1 z (n−1) + z (n)


= c0 z + c1 ż + c2 z̈ + . . . + cn−1 z (n−1) + z (n)
= 0
ya que es la ecuación diferencial (24).
Para j ≥ 1, se requiere ahora demostrar que

q̇j + cj qn−1 = qj−1


Para demostrar la igualdad se examinan ambos lados de la ecuación por separado
Lado izquierdo:
n−j−1
X
q̇j + cj qn−1 = ck+j z (k−j) + z (n−j)
k=1
n−j−1
X
= ck+j z (k) + z (n−j) , j = 1, 2, . . . , n − 1 (29)
k=0

16
Lado derecho: De la ecuación (26)
n−j
X
qj−1 = ck+j−1 z (k−1) + z (n−j)
k=1
n−j−1
X
= ck+j z (k) + z (n−j)
k=0
cambiando el ı́ndice k − 1 → k en la sumatoria
De la comparación de este resultado con la ecuación (29) se tiene el resultado buscado.
En consecuencia Φ(t) satisface el sistema (1a) y las condiciones iniciales (1b) y
Φ(t) ≡ eAt
...2

3.2.1. Ejemplo.
El primer ejemplo es uno ya resuelto usando el algoritmo asociado a la forma canónica de
Jordan. Determinar la matriz eAt donde
 
2 −7 0
A =  3 −8 0 
0 0 1
cuyo polinomio caracterı́stico tiene tres valores propios distintos
p(λ) = λ3 + 5λ2 − λ − 5; y λ1 = 1, λ2 = −1, λ3 = −5
Este algoritmo de Putzer requiere resolver la ecuación diferencial
z 000 + 5z 00 − z 0 − 5z = 0, condiciones iniciales z(0) = z 0 (0) = 0, z 00 (0) = 1
La solución de este problema es inmediata
1 −5t 1 −t 1
z(t) = e − e + et
24 8 12
Con esta función y los coeficientes del polinomio caracterı́stico se construyen las matrices
   1 −5t 1 −t 1 t

z(t) 24 e − 8 e + 12 e
   
 0   5 −5t 1 −t 1 t 

Z =  z (t)  =  − 24 e
   + 8 e + 12 e  (30)
   
z 00 (t) 25 −5t
24 e − 18 e−t + 12
1 t
e
y  
−1 5 1
C= 5 1 0  (31)
1 0 0
Las funciones q se obtienen de
1 −5t
+ 85 e−t + 5 t
   
q0 − 24 e 12 e
   
− 21 e−t
   1 t

q = CZ =  q1 

=
 + 2e

 (32)
   
1 −5t
q2 24 e − 18 e−t + 1 t
12 e

17
La función exponencial matricial buscada es
2
X
At
e = qj Aj
j=0

= q0 I3 + q1 A + q2 A2

−3e−5t + 7e−t 7(e−5t − e−t )


 
0
 
1
 −3(e−5t − e−t ) −5t −t

= 7e − 3e 0 
4



t
0 0 4e

y que es la matriz obtenida arriba.


Observación. Cabe hacer notar que las operaciones con matrices fueron llevadas a cabo
usando Maple 9 ya que algunos productos matriciales involucran un número apreciable de
operaciones algebraicas y un pequeño error puede llevar fácilmente a un resultado equivo-
cado.
Algoritmo de Putzer, método 2. En el teorema siguiente cuya demostración se presenta, la
matriz A : [n × n] también es constante pero por lo demás es arbitraria. Se requiere que
tenga los valores propios λ1 , λ2 , . . . , λn no necesariamente distintos pero siguiendo un
orden arbitrario prestablecido.
Teorema 4 (Putzer, Método 2) La función matriz exponencial
n−1
X
At
e = rj+1 Pj (33)
j=0

resuelve el sistema (1a), (1b).


Donde
j
Y
P0 = I, Pj = (A − λk I) (34a)
k=1
r1 , r2 ... rn solución del sistema:
ṙ1 = λ1 r1 , r1 (0) = 1 (34b)
ṙj = rj−1 + λj rj , rj (0) = 0, j = 2, 3, . . . , n (34c)

Demostración.
Como en la demostración del teorema Putzer, Método 1 se define una función Φ y se
demuestra que satisface el sistema (1a) las condiciones iniciales asociadas (1b). Ası́, sean
n−1
X
Φ(t) = rj+1 Pj , y r0 (t) = 0,
j=0

entonces
n−1
dΦ X
= ṙj+1 Pj ,
dt j=0

18
y
n−1 n−1
dΦ X X
− λn Φ(t) = ṙj+1 Pj − λn rj+1 Pj
dt j=0 j=0
= ṙ1 P0 + ṙ2 P1 + . . . + ṙn−2 Pn−1 +
−λn (r1 P0 + r2 P1 + . . . + rn Pn−1 )
= (λ1 P0 + P1 − λn P0 ) r1 + (λ2 P1 + P2 − λn P1 ) r2 + . . . +
+ (λn−1 Pn−2 + Pn−1 − λn Pn−2 ) rn−1 + (λn Pn−1 − λn Pn−1 )rn
n−2
X
= (Pj+1 + (λj+1 − λn )Pj ) rj+1
j=0

Dado que
Pj+1 = (A − λj+1 I)Pj
(ver (34a)), se tiene

n−2
dΦ X
− λn Φ(t) = ((A − λj+1 I)Pj + (λj+1 − λn )Pj ) rj+1
dt j=0
n−2
X
= (A − λn I) Pj rj+1
j=0

Pero el lado derecho de esta ecuación no se altera si se suma y resta el mismo polinomio
n−2
dΦ X
− λn Φ(t) = (A − λn I) Pj rj+1 + (A − λn I)(Pn−1 rn − Pn−1 rn )
dt j=0
n−1
X
= (A − λn I) Pj rj+1 − (A − λn I)Pn−1 rn
j=0
= (A − λn I)Φ − Pn rn

Del teorema de Cayley-Hamilton se tiene que Pn = 0, en consecuencia la ecuación de arriba


implica

= AΦ(t)
dt
También, por otra parte para t = 0
Φ(0) = I
y con esto se demuestra el teorema. ...2

3.2.2. Ejemplo.

El siguiente ejemplo es un viejo conocido, calcular eAt donde


 
2 −7 0
A =  3 −8 0 
0 0 1

19
Dado que el polinomio caracterı́stico y los respectivos valores propios son

p(λ) = λ3 + 5λ2 − λ − 5; y λ1 = 1, λ2 = −1, λ3 = −5

De acuerdo con esta variante método de Putzer y considerando los valores propios en el orden
especı́fico indicado arriba, es necesario primero resolver el siguiente sistema de EDO

dr1 (t)
= (1)r1 (t), r1 (0) = 1
dt
dr2 (t)
= r1 (t) + (−1)r2 (t), r2 (0) = 0
dt
dr3 (t)
= r2 (t) + (−5)r3 (t), r3 (0) = 0
dt

Las soluciones a este sistema de ecuaciones son

r1 (t) = et (35a)
1 t
e − e−t

r2 (t) = (35b)
2
1 t 1 −t 1
r3 (t) = e − e + e−5t (35c)
12 8 24
Por otra parte, esta variante del método de Putzer requiere del cálculo de las siguientes matrices

P0 = I3 , P1 = P0 (A−I3 ), P2 = P1 (A+I3 ); P3 = P2 (A+5I3 ) = 0 (Teorema de Cayley-Hamilton)

Ası́:
 
1 −7 0
P 1 =  3 −9 0 
0 0 0
 
−18 42 0
P 2 =  −18 42 0 ,
0 0 0

y la exponcial matricial es

7e−t − 3e−5t 7(−e−t + e−5t )


 
2 0
X 1
eAt = rj+1 P j = 3(e−t − e−5t ) −3e−t + 7e−5t 0 
4
j=0 0 0 4et

3.3. Un último ejemplo.


Sea la matriz  
−2 0 0 0 0 0

 0 −1 1 0 0 0 

 0 0 −1 0 0 0 
F =  (36)

 0 0 0 3 1 1 

 0 0 0 0 3 1 
0 0 0 0 0 1

20
Calcular la función eF t .

Solución.
Como se puede observar la matriz puede ser particionada en cuatro bloques de tamaño 3 × 3:

..
 
B
 11 . B 12 
F =  · · · ... · · · 
 
 
..
B21 . B22

Más aún, las variables del bloque B11 son completamente independientes de las del bloque B22 por
lo que ambos bloques pueden ser procesados de manera independiente. Por simplicidad se denotarán
estos bloques como F 1 = B11 y F 2 = B22 .

i) La matriz F 1  
−2 0 0
F1 =  0 −1 1 
0 0 −1
tiene como polinomio caracterı́stico y valores propios

p(λ) = λ3 + 4λ2 + 5λ + 2, λ1 = −2, λ2 = λ3 = −1

La matriz exponencial de eF 1t se obtendrá siguiendo el método tradicional de obtener la forma


canónica de Jordan y también por la variante 2 del método de Putzer.

Forma canónica de Jordan. Para el valor propio λ1 = −2 se tiene


 
0 0 0
F 1 + 2I3 =  0 1 1 
0 0 1

Por lo que la solución del sistema

(F 1 + 2I3 )x = 0

tiene como solución


x = [x1 = arb., 0, 0]T
Con la selección de x1 = 1 se tiene el primer vector propio u = [1, 0, 0]T .
El valor propio λ2 = −1 tiene multiplicidad 2, su multiplicidad geométrica se observa de la
estructura de la matriz  
−1 0 0
F 1 + I3 =  0 0 1 
0 0 0
de donde se tiene que solamente se puede obtener un vector propio linealmente independi-
ente asciado a este valor propio.
El segundo vector propio se obtiene de resolver el sistema

(F 1 + I3 )x = 0

21
El vector x tiene la forma x = [0, x2 = arb., 0]T , escogiendo x2 = 1 se tiene el vector
propio u2 [0, 1, 0]T . El tercer vector requerido para generar la matriz M es un vector propio
generalizado y se obtiene de resolver el sistema
(F 1 + I3 )x = u2
El vector x = [0, x2 = arb., 1]t , asignando el valor x2 = 0 se tiene el tercer vector u3 =
[0, 0, 1]t . En consecuencia
. ..
M = [u .. u 1 2 . u3 ] = I3
En consecuencia
J = F1
y
e−2t
 
0 0
eF 1t = 0 e−t te−t 
0 0 e−t
...3

Método de Putzer,v. 2. Como ya se ha establecido este método requiere de la solución del


sistema
dr1
= −2r1
dt
dr2
= r1 − r2
dt
dr3
= r2 − r3
dt
sujeto a las condiciones iniciales
r1 (0) = 1, r( 0) = 0, r3 (0) = 0
Su solución es
r1 (t) = e−2t
r2 (t) = −e−2t + e−t
r3 (t) = (t − 1)e−t + e−2t
Y también requiere las matrices
P0 = I3

P1 = P 0 (F 1 − λ1 I3 )
 
0 0 0
=  0 1 1 
0 0 1

P2 = P 1 (F 1 − λ2 )
 
0 0 0
=  0 0 1 
0 0 0

22
La exponencial matricial de F 1 es

eF 1 t = r1 (t)P 0 + r2 (t)P 1 + r3 (t)P 2


(37)
−2t
 
e 0 0
=  0 e−t te−t  (38)
0 0 e−t

ii) La matriz F 2 Esta submatriz es interesante porque tiene un valor propio con multiplicidad
3. Su exponencial matricial se obtendrá mediante el cálculo de su forma canónica de Jordan, el
cálculo de la matriz Q descrita arriba en la Proposicón (2) y el método de Putzer en su versión
2. La matriz a tratar es  
3 1 1
F2 =  0 3 1  (39)
0 0 3
Forma canónica de Jordan. El polinomio caracterı́stico y los valores propios son

p(λ) = (λ − 3)3 , λ1 = λ2 = λ3 = 3 = λ

Para el cálculo de los vectores propios se requiere


 
0 1 1
F 2 − 3 I3 =  0 0 1 
0 0 0

De la solución sistema
(F 2 − 3 I3 )x = 0
se obtiene el primer vector propio u1 = [1, 0, 0]T . Este vector es único dado que dim (Vλ ) =
1 < 3 su multiplicidad algebraica. Los otros dos vectores propios necesarios para construir
a la matriz M se obtienen de la cadena de vectores propios generalizados asociada al vector
propio u

(F 2 − 3 I3 )V1 = u (40)
(F 2 − 3 I3 )2 V2 = u (41)

De la solución de la ecuación (40) se obtiene el vector [x1 = arb., 1, 0]T asignando un valor
x1 de manera que los vectores u1 y u2 sean linealmente independientes, un valor adecuado
es x1 = 0, y el vector u2 = [0, 1, 0]T .
La solución de la ecuación (41) arroja un vector con componentes [x1 = arb., x2 = arb., 1]T .
De la selección de los valores de x1 = x2 = 0 se tiene el tercer vector linealmente indepen-
diente de los dos primeros, u3 = [0, 0, 1]T . En consecuencia M = I3 , la matriz J es F 2 y
la matriz exponencial es

te3t (1 + 2t )te3t
 3t 
e
eF 2 t =  0 e3t te3t 
0 0 e3t

Matriz Q De acuerdo con la Proposicón (2), la matriz


 
0 1 1
Q = F 2 − 3I3 =  0 0 1 
0 0 0

23
y dado que

t2 2
eF 2 t = e3t (I3 + tQ + Q )
2

e3t te3t (1 + 2t )te3t


 

=  0 e3t te3t 
3t
0 0 e

Un procedimiento muy eficiente.


Método de Putzer,v. 2. Como ya está establecido, se requiere el cálculo de las matrices

P 1 = F 2 − 3I3 , P 2 = (F 2 − 3I3 )2

y la solución del sistema


dr1
= r1 , r1 (0) = 1
dt
dr2
= r1 + 3r2 , r2 (0) = 0
dt
dr3
= r2 + 3r3 , r3 (0) = 0
dt
que es

r1 (t) = e3t
r2 (t) = te3t
1 2 3t
r3 (t) = t e
2
Y

eF 2 t = r1 I3 + r2 P 1 + r3 P 2

e3t te3t (1 + 2t )te3t


 

=  0 e3t te3t 
3t
0 0 e

que es el resultado esperado.


Para regresar al problema original, la matriz eF t se construye usando las matrices eF 1 t y eF 2 t
por bloques, esto es
 −2t 
e 0 0 0 0 0
 0 e−t te−t 0 0 0 
−t
 
Ft
 0 0 e 0 0 0 
e =  3t 3t t

3t 
 0 0 0 e te (1 + 2 )te 
 0 0 0 0 e3t te3t 
0 0 0 0 0 e3t

24
4. Apéndices.

25
.1. Transformaciones por similaridad.
Sean las matrices A, B de tamaño [n × n] y sea λ un valor propio común. Si u es un vector propio
asociado a λ se tiene que
Au = λu
Sea P una matriz no singular de tamaño [n × n], entonces el vector w = P u no es, en general, un
vector propio asociado a λ ya que
P Au = λ(P u) = λw (42)
que no es lo mismo que A(P u) = λ(P u). Sin embargo P −1 P u = u y sustituyendo este valor en la
ecuación (42)
P AP −1 (P u) = λ(P u),
es decir
P AP −1 w = λw
por lo que w es un vector propio de la matriz B = P AP −1 . Las formas P AP −1 y P −1 AP son
equivalentes[3] y determinan si dos matrices son semejantes o similares de acuerdo a la siguiente

Definición 2 Sean las matrices A, B de tamaño n × n, se dice que son semejantes si existe una
matriz P : [n × n] no singular tal que
B = P −1 AP
y se escribe A ∼ B.

Similaridad es una relación de equivalencia lo que se establece en la siguiente

Proposición 3 Sean las matrices A, B y C reales de tamaño n × n. Entonces

A ∼ A,
Si A ∼ B entonces B ∼ A, y
Si A ∼ B y B ∼ C entonces A ∼ C.

Demostración.
Una relación de equivalencia es reflexiva, simétrica y transitiva. Esto es

a) A ∼ A. La matriz identidad I[n] de tamaño n × n es no singular y


−1
A = I[n] AI[n]

b) A ∼ B. Entonces existe una matriz no singular P tal que


A ∼ B ⇒ B = P −1 AP
De esta ecuación se tiene que

A = P BP −1
denotando R = P −1 , esta ecuación se escribe como
A = R−1 BR
y en consecuencia B ∼ A.

26
c) En el último caso la hipótesis es
A∼B y B∼C
ecuación que implica la existencia de matrices P y Q, de tamaño n × n, no singulares tales que

B = P −1 AP y C = Q−1 BQ

Entonces

C = Q−1 BQ
= Q−1 (P −1 AP )Q
= (Q−1 P −1 )A(P Q)

Pero (P Q)−1 = Q−1 P −1 , en consecuencia

C = (P Q)−1 A(P Q)

...2

El siguiente teorema es fundamental en la obtención de la solución de ẋ = Ax

Teorema 5 Las matrices A y B de tamaño [n × n] tales que A ∼ B entonces tienen los mismos
valores propios.

Demostración.
La hipótesis es A ∼ B se requiere demostrar que A y B tienen los mismos valores propios.
Es suficiente con demostrar que ambas matrices tienen el mismo polinomio caracterı́stico. Dado que
A ∼ B existe una matriz no singular P tal que

B = P −1 AP,

más aún det(P −1 ) det(P ) = 1. El polinomio caracterı́stico de A es

det(A − λI) = 0

Ahora

0 = det(A − λI)
= det(P −1 ) det(A − λI) det(P )
= det(P −1 (A − λI) det(P ))
= det(P −1 (A)P − λI)
= det(B − λI)

Esto demuestra el teorema. ...2

27
.2. Teoremas usados en el texto.
El siguiente lema se usa en la demostración del inciso c) del teorema (2).

Lema 1 Sea la matriz real C : [2 × 2] con valores propios α ± ıβ, con β > 0. Sea también el vector
propio u = v + ıw, entonces

Cv = αv − βw y Cw = βv + αw

Demostración.
El resultado es inmediato ya que

Cu = C(v + ıw)
Cv + ıCw = λu
= (α + ıβ)(v + ıw)
= (αv − βw) + ı(βv + αw)

Y se demuestra el lema después de comparar partes reales e imaginarias de ambos lados de la ecuación
anterior. ...2

.2.1. Teorema de Cayley-Hamilton.

El teorema que lleva este nombre dice

Teorema 6 Toda matriz A satisface su ecuación caracterı́stica. Esto es, si

φ(x) = |xA − A|, entonces, φ(A) = 0.

Demostración.
La demostración requiere de un resultado asociado al teorema fundamental del álgebra, el llamado
teorema del residuo

Teorema 7 Sea f (x) un polinomio mónico de grado n y sea a ∈ C entonces

f (x) − f (a) = (x − a)g(x) (43)

donde g(x) es un polinomio de grado n − 1.

Entonces, del teorema del residuo, que sigue siendo válido para polinomios con matrices constantes
como coeficientes, se tiene que para cualquier polinomio f

f (x)I − f (A) = (xI − A)g(x) (44)

para algún polinomio g(x) con matrices constantes como coeficientes.


Por otra parte, de la expansión de Laplace de un determinante

(xI − A) · adj(xI − A) = |xI − A| · I = φ(x)

28
donde φ(x) es el polinomio caracterı́stico de la matriz A y adj(xI − A) es una matriz cuyas entradas
son polinomios en x y que puede escribirse como un polinomio en x con coeficientes matriciales. De
la ecuación (44)
φ(x)I − φ(A) = (xI − A)ψ(x)
para algún polinomio ψ. Entonces

φ(A) = φ(x)I − (xI − A)ψ(x)


= (xI − A)adj(xI − A) − (xI − A)ψ(x)
= (xI − A) [adj(xI − A) − ψ(x)I]

Ahora, la matriz entre paréntesis cuadrados debe ser nula ya que si no lo es puede escribirse como
un polinomio en x de tipo xr C, donde C es una matriz distinta de la matriz 0. Por lo tanto el lado
derecho tiene un término con la potencia más alta en x, xr+1 C que no se cancela con ningún otro
término de ese lado; mientras que el lado izquierdo no depende de x. Esto es una contradicción y en
consecuencia el lado derecho es 0, y
φ(A) = 0
como era requerido.

...2

.2.2. Formas canónicas de Jordan.

En los siguientes teoremas se indica el cálculo del polinomio caracterı́stico y de la función exponencial
matricial de una matriz A de tamaño n × n.

Teorema 8 (Polinomio caracterı́sitco.) [3] Sea A de tamaño n × n entonces su polinomio carac-


terı́stico está dado por
p(λ) = (−λ)n + ξ1 (−λ)n−1 + · · · + ξn−1 λ + ξn
Donde

n
X
ξ1 = aii = a11 + a22 + · · · + ann , la traza de A
i=1

X aii
aij
ξ2 =
aji ajj
j>i

la suma de todos los menores principales de orden 2.

n!
ξr = la suma de
r!(n − r)!
menores principales de orden r que preservan el orden natural de las columnas.
ξn = det A

Distintos casos de valores propios.


n raices reales distintas.

29
Teorema 9 Sea A una matriz real con n valores propios reales distintos, entonces existe una matriz
. .
no singular M = [u1 .. · · · .. un ], donde uk es el vector propio asociado al valor propio λk y λ1 >
λ2 . . . > λn , tal que
J = M −1 AM = diag(λk ), k = 1, 2, . . . n
Además
eAt = M diag(eλk ) M −1 , k = 1, 2, . . . n
donde diag es una matriz diagonal de tamaño [n × n].

2n raices complejas conjugadas distintas.

Teorema 10 Sea A : [2n×2n] una matriz real con 2n valores propios complejos distintos λk = ak +ıbk
y λ̄k = ak − ıbk a los que corresponden los vectores propios uk = vk + ıwk y ūk = vk − ıwk , entonces
el conjunto {v1 , w1 , . . . , vn , un } es una base de R2n y

. . . .
M = [v1 .. w1 .. · · · .. vn .. wn ]

es una matriz no singular tal que

J = M −1AM 
ak −bk
= diag ; k = 1, . . . , , n
bk ak

es una matriz real, de tamaño [2n × 2n], con bloques de 2 × 2 a lo largo de la diagonal principal.
Más aún, sea la matriz ortogonal
 
cos bk t − sen bk t
Rk = ,
sen bk t cos bk t

entonces
eAt = M diag eak t Rk M −1


Raices reales repetidas.

Teorema 11 Sea A : [n × n] una matriz real con valores propios λk , k < n repetidos de acuerdo a su
multiplicidad algebraica. Entonces

Existe una base de vectores propios generalizados para Rn .


Si {u1 , . . . , un } es una base de vectores propios generalizados para Rn , la matriz

. .
M = [u1 .. . . . .. un ]

es no singular y la matriz A se puede descomponer en las matrices

A=S+N

donde
M −1 SM = diag(λk )

La matriz N = A − S es nilpotente de orden p ≤ n.

30
La matrices S y N conmutan en su producto.
La exponencial matricial es

N p−1 tp−1
 
At λk t −1

e = M diag e M I + Nt + · · · +
(p − 1)!

Y también el siguiente

Corolario 1 Con las hipótesis del teorema anterior, si A tiene un solo valor propio de multiplicidad
algebraica n, entonces

S = diag(λ), N = A − S, N es nilpotente de orden p

y
N p−1 tp−1
 
At λt
e =e I + Nt + · · · +
(p − 1)!

Raices complejas repetidas.


El tratamiento para este caso es muy similar al de raices reales repetidas.

Teorema 12 Sea la matriz real A : [2n×2n] con valores propios complejos λk = ak +ıbk y λ̄k = ak −ıbk
tales que la forma cuadrática λ2 − 2ak + (a2k + b2k ) tiene multiplicidad algebraica menor 2n, entonces

Existe una base de vectores propios generalizados complejos para C2n

u∗k = vk + ıwk y ū∗k = vk − ıwk , k = 1, . . . , n

Una base para R2n es {v1 , w1 , . . . , vn , wn }.


Para alguna de estas bases de R2n la matriz
. . . .
M = [v1 .. w1 .. · · · .. vn .. wn ]

es no singular y la matriz A se puede descomponer en las matrices

A=S+N

donde  
−1 ak −bk
M SM = diag
bk ak

La matriz N = A − S es nilpotente de orden p ≤ 2n.


La matrices S y N conmutan en su producto.
La exponencial matricial
  
cos bk t − sen bk t
eAt = M diag eak t M −1 ×
sen bk t cos bk t
N p−1 tp−1
 
× I + Nt + · · · +
(p − 1)!

31
.3. Vectores propios generalizados.
A continuación se definen vector propio generalizado y una cadena de vectores propios generalizados
asociados y se enumeran sus propiedades más importantes.
Su origen se encuentra en a necesidad de determinar una base para expresar una transformación lineal
T : Rn → Rn de la que A es su matriz asociada cuando A tiene un valor propio λ de multiplicidad
algebraica k > 1. Se define la multiplicidad geométrica de λ como la dimensión (dim Eλ ) del subespacio
generado por sus vectores propios linealmente independientes. Por simplicidad, si A tiene n − k valores
propios distintos y la multiplicidad geométrica de λ es igual a la algebraica, entonces se tienen n −
k vectores linealmente independientes asociados a los n − k valores propios distintos y además k
vectores linealmente independientes generadores de Eλ . En consecuencia, se tienen en total n vectores
linealmente independientes suficientes para una base de T . Por el contrario, si dim Eλ < k no se
tiene el número suficiente de vectores linealmente independientes para una base de T . Sin embargo,
esposible completar esa base construyendo vectores propios generalizados [6].

Definición 3 Sea A una matriz con un valor propio λ con multiplicidad mayor que 1. Se dice que v
en un vector propio generalizado de la matriz A de rango k asociado a λ, si

(A − λI)k v = 0 y (A − λI)k−1 v 6= 0

Definición 4 Para un vector propio generalizado v como en la definición anterior, se define una
cadena de vectores propios generalizados de longitud k de la manera siguiente. Sea vk = v, entonces

vk−1 = (A − λI)vk = (A − λI)v


vk−2 = (A − λI)vk−1 = (A − λI)2 v
..
.
v1 = (A − λI)v2 = (A − λI)k−1 v

Entre las propiedades más importantes de una cadena de vectores propios generalizados se listan

Si {v1 , v2 , . . . , vk } es una cadena de vectores propios generalizados de longitud k asociados al


valor propio λ entonces esta cadena es un conjunto de vectores linealmente independientes.
Vectores propios generalizados para la matriz A asociados a distintos valores propios son lineal-
mente independientes entre sı́.
Si S1 = {v1 , v2 , . . . , vk } y S2 = {u1 , u2 , . . . , um } son dos cadenas de vectores propios generaliza-
dos de longitudes k y m respectivamente, asociados al mismo valor propio λ, entonces, si vk y um
son linealmente independientes S1 ∪ S2 es un conjunto de vectores linealmente independientes.
La suma de las longitudes de todas las cadenas linealmente independientes asociadas al valor
propio λ es igual a su multiplicidad.

32
Referencias
[1] D. K. Arrowsmith and C. M. Place, Dynamical systems
differential equations, maps and chaotic behaviour, Chapman & Hall, London - Weinheim - New
York - Melbourne - Madras, 1996.
[2] P. M. Cohn, Elements of linear algebra, Chapman and Hall, Boca Raton London New York Wash-
ington, D.C., 1994.
[3] G. Hadley, Linear algebra, Addison Wesley Publishing Co., Reading, Massachusetts, U.S.A., 1961.

[4] L. Perko, Differential equations and dynamical systems, TAM vol 7, Springer-Verlag, 1991.
[5] E. J. Putzer, Avoiding the jordan canonical form in the discussion of linear systems with constant
coefficients, American Mathematical Monthly (1996), no. 1, 2–7.
[6] A. J. Insel S. H. Friedberg and L. Spence, Linear algebra, Prentice Hall, New York, 2003.

33

También podría gustarte