Está en la página 1de 11

64 4.

LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a

en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).

Figura 4.10.

� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.

A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.

Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3

p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 65

(2) Complejificación de la ecuación. Al ser las raíces del polinomio característico complejas (no reales),
necesitamos considerar la extensión del dominio de definición de la matriz A a C 2 ; consideremos, a su
vez, la extensión del dominio de la ecuación (es decir, su complejificación), ẋ C = AC xC ,
� � � �� �
ẋ1C −3 10 x 1C
= , con (x1C , x2C ) ∈ C2 .
ẋ2C −1 3 x 2C
En la complejificación tiene sentido calcular los vectores propios de A C :
� �� � � �
i + 3 −10 f11 0
= ,
1 i−3 f12 0
que implica la relación
f11 + (i − 3)f12 = 0.
Si f12 = 1, entonces f11 = 3 − i. Por consiguiente, f = (3 − i, 1) = (3, 1) + i(−1, 0) = u + iv es un vector
propio asociado al valor propio i; además f es también vector propio (correspondiente�a λ). �
3−i 3+i
(3) La ecuación diferencial diagonalizada y sus soluciones. Consideremos la matriz P C =
1 1
y el cambio de coordenadas yC = P−1 C xC . Así,
ẏC = P−1 −1 −1
C ẋC = PC AC xC = PC AC PC yC = ΛC yC ,

con � � � �
λ 0 i 0
ΛC = = .
0 λ 0 −i
Las soluciones de esta ecuación son:
yC (t) = (eλt c1 , eλt c2 ) = (eit c1 , e−it c2 ).
(4) Soluciones de la ecuación original complejificada. Usando el cambio de coordenadas x C = PC yC encon-
tramos las soluciones de la ecuación ẋC = AC xC del punto 2.
� �
� � � � eλt c1
x C = f f yC = f f = eλt c1 f + eλt c2 f .
eλt c2

(5) Obtención de las soluciones de la ecuación original: las soluciones reales satisfacen x C (t) = xC (t) y por
lo tanto son soluciones de ẋ = Ax. Estas soluciones se obtienen al desarrollar x C (t) = xC (t):
eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ (c1 − c2 )eλt f + (c2 − c1 )eλt f = 0
Si t=0, entonces
(c1 − c2 )f + (c2 − c1 )f = 0
Por lo tanto,
c1 = c2 y c2 = c 1 .
De aquí,
x(t) = 2Re(c1 eλt f )
= 2Re(c1 eit f )
� �� �� �
−1 3 cos t − sen t −2β
=
0 1 sen t cos t 2α
con c1 = α + iβ.
(6) Retrato de las fases de la ecuación original. La expresión de x(t) encontrada en el punto 5 nos indica
que hay
� una matriz �
−1 3
P = y un cambio de coordenadas ξ = P−1 x tal que en las coordenadas ξ la ecuación
0 1
� �
0 −1
ẋ = Ax tiene la forma ξ˙ = ξ (equivalentemente, ξ˙ = iξ. Esta ecuación tiene como soluciones
1 0
� � � �� �
ξ1 (t) cos t − sen t k1
a = que es una familia de círculos concéntricos (parametrizados
ξ2 (t) sen t cos t k2
por t, y que dependen de la condición inicial k = (k1 , k2 )).
Así, como x = Pξ, se tiene que las soluciones de la ecuación original son la imagen, bajo la
transformación P, de la familia de círculos concéntricos que está definida por las soluciones de la
ecuación ξ˙ = iξ. Esta imagen está dada por elipses, como se muestra en la figura 4.11.
Además, observamos que como det P < 0, entonces se invierte la orientación con respecto a la
ecuación en las coordenadas (ξ1 , ξ2 ).
66 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.11.

� �
−3 −4
Ejemplo 4.18. Sea ẋ = Ax definida por A = . Repetimos nuevamente varias etapas para resolver
10 9
la ecuación.
(1) Obtención del polinomio característico y sus raíces.
� �
−3 − λ −4
p(λ) = det(A − λId) = det =0
10 9−λ
= (λ + 3)(λ − 9) + 40 = 0
= λ2 − 6λ − 27 + 40 = λ2 − 6λ + 13 = 0 ,
y finalmente


36 − 52 6 ± 4i
λ= = = 3 ± 2i .
2 2
(2) Complejificación de la ecuación y obtención de los vectores propios de ẋ C = AC x.
� � � �� �
ẋ1C −3 −4 x 1C
= , (x1C , x2C ) ∈ C2 .
ẋ2C 10 9 x 2C
Podemos calcular los vectores propios a la matriz AC , que define a la ecuación anterior, como sigue:
� �� � � �
−6 − 2i −4 f11 0
= ;
10 6 − 2i f12 0
es decir,
(−6 − 2i)f11 − 4f12 = 0 .
Si f11 = −2, entonces f12 = 3 + i. Así f = (−2, 3 + i) = (−2, 3) + i(0, 1) y f = (−2, 3 − 1) =
(−2, 3) + i(0, −i).
(3) Ecuación diagonalizada
� ẏC = ΛC y�C y sus soluciones.
� Consideramos
� el cambio de coordenadas yC =
−1 −2 −2 λ 0
PC xC , con PC = . Así, ẏC = yC , y sus soluciones son:
3+i 3−i 0 λ
� � � � � �
y1C (t) c1 eλt c1 e(3+2i)t
= = , c1 , c2 ∈ C.
y2C (t) c2 eλt c2 e(3−2i)t

(4) Soluciones de ẋC = AC xC . Las soluciones son


� �
� � c1 e(3+2i)t
xC (t) = f f = c1 e(3+2i)t f + c2 e(3−2i)t f .
c2 e(3−2i)t
(5) Las soluciones reales de ẋC = AC xC , son
x(t) = 2Re(c1 e(3+2i)t f ), c1 = α + iβ
� �� �
� � cos 2t − sen 2t −2β
= v u e3t .
sen 2t cos 2t 2α
(6) Esta última expresión nos indica que las soluciones de la ecuación ẋ = Ax se obtienen de transformar
a las soluciones de la ecuación
� � � �� �
ξ˙1 3 −2 ξ1
= ,
ξ˙2 2 3 ξ2
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 67

con un cambio de coordenadas x = Pξ, con


� �
� � 0 −2
P= v u = ,
1 3
� �
3 −2
que lleva a las soluciones ξ(t) de la ecuación ξ˙ = ξ en las soluciones de ẋ = Ax.
2 3
� �
3 −2
Las soluciones de ξ˙ = ξ son de la forma
2 3
� �� �
cos 2t − sen 2t k1
ξ(t) = e3t ,
sen 2t cos 2t k2
y éstas corresponden a espirales que se abren en sentido positivo y se alejan del origen (ver figura 4.12):

Figura 4.12.

(7) Las soluciones de ẋ = Ax son, por consiguiente, x(t) = Pξ(t), y en consecuencia, también son espirales
(ver figura 4.13). Observamos que det P = 2 > 0, por lo que P es una transformación R-lineal que
deforma el plano sin cambiar la orientación.

Figura 4.13.

Ejercicio 4.19. Encontrar las soluciones y el retrato de fases de ẋ = Ax, x ∈ R 2 , en los siguientes casos. Hacemos
notar que en cada caso se indican, a un lado de la matriz A correspondiente, las raíces del polinomio característico
asociado; en el inciso c) se indica también el vector propio correspondiente a la complejificación A C de A:
� �
−2 1
(a) A= ❀ λ = −4 ± i .
−5 −6
� �
1 1
(b) A= ❀ λ = 2 ± i.
−2 3
� �
2 −5
(c) A= ❀ λ = ±i ❀ f = (5, 2 − i) = (5, 2) + i(0, −1) .
1 −2
� �
−8 −3
(d) A= ❀ λ = −2 ± 3i .
15 4
68 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Ejercicio 4.20. Construye un ejemplo de una ecuación diferencial ẋ = Ax, x ∈ R 2 , tal que su retrato de las
fases tenga una elipse cuyo eje mayor esté dado por el vector (5, 2), y tal que la curva que define a dicha elipse
pase por el punto (3, 1) del plano.

Hagamos ahora un ejemplo en dimensión tres.

Ejemplo 4.21. Sea ẋ = Ax con x ∈ R3 y


 
2 −2 2
A= 6 0 4 .
−3 2 −3
El polinomio característico es p(λ) = λ3 + λ2 + 4λ + 4 = (λ + 1)(λ2 + 4) = 0. Eso implica que λ1 = −1,
λ2 = 2i y λ3 = −2i. Ahora consideremos ẋC = AC xC , la complejificación de la ecuación.

Para λ1 = −1:     
3 −2 2 f11 0
 6 1 4   f12  =  0  ,
−3 2 −2 f13 0
es decir, 

3f11 − 2f12 + 2f13 =0
6f11 + f12 + 4f13 =0


−3f11 + 2f12 − 2f13 =0
Si f12 = 0, entonces 3f11 + 2f13 = 0. Y si f11 = −2, entonces f13 = 3. Esta elección anula a las tres
ecuaciones. Por lo tanto,
f1 = (−2, 0, 3).
Para λ2 = 2i:     
2 − 2i −2 2 f21 0
 6 −2i 4   f22  =  0 .
−3 2 −3 − 2i f23 0
Equivalentemente, 

(2 − 2i)f21 − 2f22 + 2f23 =0
6f21 − 2if22 + 4f23 =0


−3f21 + 2f22 − (3 + 2i)f23 = 0 .
Sumando la primera y la tercera ecuación se tiene (−1 − 2i)f21 − (1 − 2i)f23 = 0. Por lo tanto,
f21 + f23 = 0.
Si f21 = 1, entonces f23 = −1. Ahora, sustituyendo en la segunda ecuación, se tiene 6 − 2if22 − 4 = 0, que a su
vez implica que
f22 = −i.
Por lo tanto,
f2 = (1, −i, −1) = (1, 0, −1) + i(0, −1, 0)
Para λ3 = −2i:
f3 = f 2 = (1, i, −1) = (1, 0, −1) + i(0, 1, 0).
 
� � −2 1 1
Consideramos xC = PC yC con PC = f1 f2 f 2 =  0 −i i . Este cambio de coordenadas lleva a
3 −1 −1
ẋC = AC xC en la ecuación ẏC = ΛC yC con
 
−1 0 0
ΛC =  0 2i 0 .
0 0 −2i
   
y1C (t) c1 e−t
La solución de esta ecuación es  y2C (t)  =  c2 e 2it 
.
y3C (t) c3 e−2it
Ahora, para recuperar las soluciones de la ecuación ẋC = AC xC basta con multiplicar esta última expresión
por la matriz PC . A saber,
 
� � c1 e−t
xC (t) = PC yC (t) = f1 f2 f 2  c2 e2it  = c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 .
c3 e−2it
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 69

La condición xC (t) = xC (t) nos permite encontrar la soluciones de ẋ = Ax:


c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 = c1 e−t f 1 + c2 e−2it f 2 + c3 e2it f2 .
De esta última igualdad podemos escribir una ecuación equivalente igualada a cero y que se expresa como com-
binación lineal (con coeficientes variables) de los vectores propios f 1 , f2 y f¯2 :
(c1 − c1 )e−t f1 + (c2 − c3 )e2it f2 + (c3 − c2 )e−2it f 2 = 0 (Atención: f1 = f 1 ).3
Evaluando en t = 0 se tiene
(c1 − c1 )f1 + (c2 − c3 )f2 + (c3 − c2 )f 2 = 0;
por la independencia lineal de los vectores f1 , f2 y f¯2 los coeficientes deben ser cero y por consiguiente
c1 = c1 , c3 = c 2 y c 3 = c2 .
Por lo tanto,
x(t) = c1 e−t f1 + 2Re(c2 e2it f2 )
 −t  
� � e 0 0 k1
= f1 v u  0 cos 2t − sen 2t   k2  , kj ∈ R.
0 sen 2t cos 2t k3

� �
Observación 4.22. La matriz P = f1 v u sirve para definir un cambio de coordenadas x = Pξ de R3 en
R3 . Este cambio de coordenadas nos permite conocer el comportamiento geométrico de las soluciones (ver figura
4.14).

Si consideramos el cambio de coordenadas ξ = P−1 x, entonces la ecuación ẋ = Ax  induce una ecuación


 en
−1 0 0
las coordenadas ξ. A saber, ξ˙ = P−1 ẋ = P−1 Ax = P−1 APξ. No es difícil ver que ξ˙ =  0 0 −2  ξ, y que
0 2 0
las soluciones de esta ecuación son
 −t  
e 0 0 k1
ξ(t) =  0 cos 2t − sen 2t   k2  con k1 , k2 , k3 ∈ R.
0 sen 2t cos 2t k3
En efecto,
P−1 APe1 = P−1 Af1
= P−1 (−1)f1
= −P−1 f1
= −e1 .
Además, como AC f = λf = 2i(u + iv), se sigue
Au + iAv = −2v + i2u,
Av = 2u y Au = −2v.
Así,
P−1 APe2 = P−1 Av
= P−1 2u
= 2P−1 u
= 2e3
y
P−1 APe3 = P−1 Au
= P−1 (−2v)
= −2P−1 v
= −2e2 .
Por lo tanto,  
−1 0 0
P−1 AP =  0 0 −2  .
0 2 0

3Hacemos notar que al estar los vectores en el espacio complejo, pudimos haber tomado al primer vector con entradas complejas;
sin embargo, dicho vector sería un múltiplo complejo del vector f1 y nuestros razonamientos seguirían las mismas líneas. Por lo
tanto, siempre que el valor propio sea un número real podemos considerar al vector propio correspondiente como un vector propio
con entradas reales, o bien, un vector propio con entradas complejas.
70 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.14. Soluciones de la ecuación ξ˙ = P−1 APξ, y de la ecuación ẋ = Ax .

Observamos que para el caso de una ecuación ẋ = Ax, con x ∈ Rn para n arbitrario, se procede de manera
análoga. Por consiguiente, para el caso de raíces distintas del polinomio característico (asociada a la matriz A
que define la ecuación) se tiene el teorema siguiente.

Teorema 4.23. Sea A ∈ Mn×n (R), tal que el polinomio característico p(λ) = det(A−λId), tiene raíces λ1 , . . . , λn
distintas dos a dos; entonces toda solución de la ecuación ẋ = Ax se escribe como
n−r
r
� �
2
λk t
x(t) = ak e fk + c k e λk t f k + f k e λk t f k
k=1 k=r+1
n−r
r
� �
2

= a k e λk t f k + 2Re(ck eλk t fk ),
k=1 k=r+1

donde ak ∈ R, ck ∈ C, las raíces λ1 , . . . , λr están en R, y las raíces λr+1 , . . . , λ n−r están en C � R, considerando
2
los vectores
fk ∈ R2 tal que Afk = λk fk , para k = 1, . . . , r ,
fk ∈ C2 tal que A C f k = λk f k , para k = r + 1, . . . , n−r
2
.

Después de lo que hemos visto hasta ahora, el lector debe de ser capaz de escribir la demostración de este
teorema. La demostración, por lo tanto, se deja como ejercicio.

Observación 4.24. Hemos usado, a lo largo de los capítulos 3 y 4, el que los vectores propios asociados a valores
propios distintos (dos a dos) son linealmente independientes. Este hecho bien conocido de álgebra lineal, nos ha
servido para encontrar los cambios de coordenadas que simplifican a las ecuaciones; es por lo tanto pertinente
hacer un paréntesis para demostrar esta afirmación. En la demostración se procede por inducción. A saber, sea A
una matriz que define una transformación lineal de Rn en sí mismo (o de Cn en sí mismo), tal que todos sus valores
propios, λ1 , . . . , λn , son distintos dos a dos. Consideremos dos vectores propios f1 y f2 de ésta, correspondientes
a dos valores propios distintos λ1 y λ2 , λ1 �= λ2 , entonces afirmamos que f1 y f2 son linealmente independientes.
Si suponemos lo contrario, es decir, que existe una constante c tal que f 2 = cf1 , entonces, aplicando A de
ambos lados de la igualdad, se tiene que A(f2 ) = A(cf1 ) = cA(f1 ), de donde se sigue que λ2 f2 = cλ1 f1 .
Reagrupando se tiene que λ2 f2 = λ1 cf1 = λ1 f2 , lo que nos llevaría a que λ2 = λ1 , que es una contradicción.
Supongamos la afirmación válida para j vectores propios, f 1 , . . . , fj , j ≤ n, y sus valores propios correspondientes,
λ1 , . . . , λj . Sea λj+1 un valor propio distinto de los primeros j valores propios anteriores, y supongamos que el
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 71

vector propio correspondiente, fj+1 , puede ser expresado como combinación lineal de los primeros j vectores
propios, fj+1 = c1 f1 + · · · + cj fj ; entonces, aplicando la matriz A de ambos lados de la igualdad, se tiene
A(fj+1 ) = A(c1 f1 + · · · + cj fj ); por linealidad de A, obtenemos que λj+1 fj+1 = λ1 c1 f1 + · · · + λj fj . De aquí,
escribiendo a fj+1 como combinación lineal de f1 , . . . , fj , se tiene λj+1 (c1 f1 + · · · + cj fj ) = λ1 c1 f1 + · · · + λj cj fj .
Así, se llega a la igualdad, (λ1 − λj+1 )c1 f1 + · · · + (λj − λj+1 )cj fj = 0. Como, por hipótesis de inducción, los
vectores f1 , . . . , fj son linealmente independientes, y sabemos que los valores propios son distintos dos a dos,
entonces c1 = · · · = cj = 0. Eso significa que el vector propio fj+1 es el vector cero, lo que es una contradicción.
Así, la colección f1 , . . . , fj+1 es linealmente independiente. Como j ≤ n, entonces la afirmación es válida para
f1 , . . . , fn .
Es importante notar que en la demostración usamos fuertemente el que los valores propios λ 1 , . . . , λn fuesen
distintos dos a dos. Como veremos en la siguiente sección, tener valores propios repetidos nos llevará a proceder
de una manera diferente, ya que, por cada valor propio repetido, perdemos por lo menos un vector propio para
formar la matriz P (PC ) de cambio de coordenadas.

Para mirar más lejos: Razonamiento heurístico sobre el operador la exponencial de una matriz
para raíces simples del polinomio característico. Haremos una breve disgresión en la que veremos, dando
un razonamiento heurístico, la pertinencia de definir la transformación exponencial de una matriz para expresar
las soluciones de las ecuaciones ẋ = Ax. Más adelante, cuando definamos la norma de una matriz, haremos una
exposición formal y detallada de estas ideas (ver 4.7).
Afirmación: Las soluciones de ẋ = Ax, x ∈ Rn , se ven como x(t) = PeΛt P−1 c donde o bien
 
λ1 0
 .. 
Λ= . ,
0 λn
con λj ∈ R, o bien
 
λ1 0
 .. 

 . 

 λs 
Λ=

,

 A1 
 .. 
 . 
0 Am
� �
aj −bj
con λ1 , . . . , λs reales y distintas y Aj = , j = 1, ..., m, correspondientes a las raíces complejas
bj aj
(también distintas dos a dos). En ambos casos las soluciones son explícitas y únicas, una vez dada la condición
inicial.
Para argumentar el porqué de esta afirmación consideremos primero el caso Λ diagonal, es decir, λ 1 , . . . , λn
reales y distintas. Observemos que si definimos eΛt como sigue
 λ1 t 
e 0
 .. 
eΛt :=  . ,
λn t
0 e
entonces, por la convergencia de la exponencial en cada variable se tiene,
 � (λ1 t)k


k=0 k!
0 ∞
 ..  � (Λt)j
eΛt =  .
=
 .
�∞ (λn t)k j=0
j!
0 k=0 k!

La convergencia en R de cada una de las funciones eλj t nos permite definir perfectamente a la matriz eΛt .
Retomemos el problema: queremos encontrar la solución de la ecuación ẋ = Ax que pasa, en t = 0, por el
punto q. Para ello,
� consideremos � los vectores propios f1 , . . . , fn asociados a los valores propios λ1 , . . . , λn de A.
La matriz P = f1 · · · fn define un cambio de coordenadas y = P−1 x. En las coordenadas y la ecuación
ẋ = Ax se escribe como ẏ = Λy. Las soluciones de esta ecuación están dadas por y(t) = eΛt c, con
 
λ1 0
 .. 
Λ= . 
0 λn
y c = (c1 , . . . , cn ). Observamos también que, en las coordenadas y, el punto q se escribe como P−1 q. Así, la
solución de ẋ = Ax que pasa por q se escribe como
x(t) = PeΛt P−1 q .
72 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Hay que notar que



� ∞
(Λt)k −1 (∗) � P(Λt)k P−1
PeΛt P−1 = P P =
k! k!
k=0 k=0
(4.20) ∞ ∞
� (PΛP−1 )k tk � A k tk
= = =: eAt .
k! k!
k=0 k=0

La segunda igualdad (marcada con asterisco) en la expresión (4.20) se obtiene por la convergencia uniforme de
cada una de las funciones eλj t . Así, la expresión x(t) = PeΛt P−1 a la que hemos dado por ahora sólo el nombre
x(t) := eAt q es la solución con condición inicial x(0) = q.
Cabe destacar nuevamente que más adelante (ver 4.7) definiremos la norma de una transformación lineal
definida por una matriz y demostraremos, en general, la pertinencia de la expresión
�∞
(At)j
x(t) = eAt q = q, q ∈ Rn .
j=0
j!

Figura 4.15.

� �
En el caso de raíces complejas el razonamiento es semejante: para dimensión dos la matriz P = v u ,
con f = u + iv vector propio asociado a λ = a + ib, define un cambio de coordenadas que lleva a A en
� �
a −b
Λ= .
b a
4
Por lo tanto, si observamos que la expresión formal

� (Λt)k
eΛt c = c,
k!
k=0

es equivalente a la expresión compleja (convergente)



� λ k tk
eΛt c = · (c1 + ic2 ) .
k!
k=0

−1
Como PΛP = A, entonces podemos definir
−1
(4.21) eAt q := ePΛP t
q = PeΛt P−1 q .

La igualdad (4.21) es nuevamente la expresión de lo que se denomina una equivalencia lineal entre las soluciones
de dos ecuaciones lineales ẋ = Ax y ẏ = Λy. Puede verse en (4.21), que la solución φA (t, q) = eAt q de la ecuación
ẋ = Ax, con condición inicial q, es transformada bajo P en la solución φ Λ (t, P−1 q) = eΛt P−1 q de la ecuación
ẏ = Λy, con condición inicial P−1 q (ver figura 4.15).
Así, en general, para una matriz A con raíces del polinomio característico distintas, podemos escribir

x(t, c) = eAt c

4Esta afirmación no es evidente. Se requiere probar la convergencia de la expresión

�∞
(Λt)k
c
k=0
k!

para poder introducir en cada sumando el vector c y así demostrar que Λk c es equivalente a la multiplicación compleja λk (c1 + ic2 )
donde λ = a + ib. Esto lo veremos más adelante (ver sección 4.7) al hablar de la convergencia de la serie
�∞
At (At)k
e := .
k=0
k!
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 73

donde A = PΛP−1 , con


 
λ1 0
 .. 
 . 
 
 λr 
 
Λ= Ar+1 ,
 
 .. 
 
 . 
0 A n+r
2
� �
aj −bj
donde λ1 , . . . , λr ∈ R, Aj = ❀ λj = aj + ibj , con j = r + 1, . . . , n−r
2
,y
bj aj
� �
P = f1 · · · fr vr+1 ur+1 · · · v n−r 2
u n−r .
2

Ejercicio 4.25.

(1) Considera la ecuación ẋ = Ax, x ∈ R3 con


 
12 −4 −5
A =  12 2 −4 
30 −8 −13
con raíces del polinomio característico λ1 = −3, λ2 = 2 + 4i y λ̄2 = 2 − 4i, y vectores f1 , f2 y f¯2 de la
complejificación AC , correspondientes a los valores λ1 , λ2 y λ̄2 , dados por f1 = (1, 0, 3), f2 = (1, −i, 2)
y f¯2 = (1, i, 2) .
(a) Encuentra la matriz PC y el cambio de coordenadas que lleva a la ecuación ẋC = AC xC en la
ecuación ẏC = ΛC yC , con
 
λ1 0 0
ΛC =  0 λ 2 0  ,
0 0 λ2
y resuelve esta última ecuación.
(b) Encuentra las soluciones de ẋC = AC xC .
(c) Encuentra las soluciones de ẋ = Ax.
(d) Usando lo que encontraste en el inciso (c), define un cambio de coordenadas de R 3 en R3 que
transforme a la ecuación ẋ = Ax en una ecuación de la forma
 
−3 0 0
ξ˙ =  0 2 −4  ξ, ξ ∈ R3 .
0 4 2
(e) Haz el retrato de las fases correspondiente a las soluciones de la ecuación
 
−3 0 0
˙
ξ= 0 2 −4  ξ, ξ ∈ R3 .
0 4 2
(f) Explica, analizando los exponentes dados por la parte real de las raíces del polinomio característico,
si las soluciones se aproximan al origen siguiendo la forma de un paraboloide, un cono, un cilindro
o una pseudoesfera.
(g) Haciendo uso de lo que encontraste en (d) y (e) haz el retrato de las fases correspondiente a las
soluciones de la ecuación ẋ = Ax.
(2) Haz lo mismo para ẋ = Ax, x ∈ R3 , con
 
−7 −2 −6
A =  −1 2 −1  ,
9 3 8
tal que AC tiene valores propios, λ1 = 2 + i, λ2 = 2 − i y λ3 = −1, y vectores propios f1 = (−2i, −1, 3i),
f2 = f¯1 y f3 = (1, 0, −1).
(3) También considera ẋ = Ax, x ∈ R3 con
 
−9 2 4
A=  4 3 −2  ,
−24 6 11
con valores propios de AC λ1 = 3 − 2i, λ̄1 = 3 + 2i y λ3 = −1, y vectores propios f1 = (i, −1, 3i), f2 = f¯1
y f3 = (1, 0, 2).
74 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

(4) De igual forma, considera ẋ = Ax, x ∈ R3 , con


 
−7 −4 −4
A =  −2 −1 −2  ,
6 6 3
con valores propios de AC λ1 = −1 + 2i, λ̄1 = −1 − 2i y λ3 = −3, y vectores propios f1 = (−2i, −1, 3i),
f2 = f¯1 y f3 = (1, 0, −1).
(5) Igual para ẋ = Ax, x ∈ R3 , con
 
2 −2 2
A= 6 0 4 ,
−3 2 −3
con valores propios de AC , λ1 = −1, λ2 = 2i y λ3 = λ̄2 = −2i, y vectores propios f1 = (−2, 0, 3),f3 =
(1, −i, −1) y f3 = f¯2 .
(6) Finalmente, considera ẋ = Ax, x ∈ R3 , con
 
13 1 −5
A= 2 −2 −1  ,
30 3 −12
con valores propios de AC λ1 = −2 + i, λ̄1 = −2 − i y λ3 = 3, y vectores propios f1 = (i, −1, 3i), f2 = f¯1
y f3 = (1, 0, 2).

Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).

Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:

Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .

Demostración. La demostración es consecuencia directa de la linealidad de la derivada y de la linealidad


de la multiplicación por matrices.
(a) Si ϕ1 y ϕ2 son soluciones de ẋ = Ax, entonces ϕ1 + ϕ2 también lo es.
d(ϕ1 + ϕ2 ) dϕ1 dϕ2
= + = Aϕ1 + Aϕ2 = A(ϕ1 + ϕ2 ) .
dt dt dt
(b) Si µ ∈ R (o bien C) y ϕ es solución de ẋ = Ax (ẋC = AC xC ), entonces µϕ también lo es.
d(µ · ϕ) dϕ
=µ· = µ · Aϕ = A(µϕ) .
dt dt

Hemos probado que el conjunto de soluciones de ẋ = Ax (ẋC = AC xC ) forma un espacio vectorial sobre los
reales (los complejos) que denotaremos por χ. Ahora, es natural preguntarse por la dimensión de este espacio.
Más adelante (ver el teorema 4.37) probaremos que la dimensión del espacio de soluciones de la ecuación ẋ = Ax,
x ∈ Rn , es justamente n.

4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no

También podría gustarte