Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a
en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).
Figura 4.10.
� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.
A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.
Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3
p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 65
(2) Complejificación de la ecuación. Al ser las raíces del polinomio característico complejas (no reales),
necesitamos considerar la extensión del dominio de definición de la matriz A a C 2 ; consideremos, a su
vez, la extensión del dominio de la ecuación (es decir, su complejificación), ẋ C = AC xC ,
� � � �� �
ẋ1C −3 10 x 1C
= , con (x1C , x2C ) ∈ C2 .
ẋ2C −1 3 x 2C
En la complejificación tiene sentido calcular los vectores propios de A C :
� �� � � �
i + 3 −10 f11 0
= ,
1 i−3 f12 0
que implica la relación
f11 + (i − 3)f12 = 0.
Si f12 = 1, entonces f11 = 3 − i. Por consiguiente, f = (3 − i, 1) = (3, 1) + i(−1, 0) = u + iv es un vector
propio asociado al valor propio i; además f es también vector propio (correspondiente�a λ). �
3−i 3+i
(3) La ecuación diferencial diagonalizada y sus soluciones. Consideremos la matriz P C =
1 1
y el cambio de coordenadas yC = P−1 C xC . Así,
ẏC = P−1 −1 −1
C ẋC = PC AC xC = PC AC PC yC = ΛC yC ,
con � � � �
λ 0 i 0
ΛC = = .
0 λ 0 −i
Las soluciones de esta ecuación son:
yC (t) = (eλt c1 , eλt c2 ) = (eit c1 , e−it c2 ).
(4) Soluciones de la ecuación original complejificada. Usando el cambio de coordenadas x C = PC yC encon-
tramos las soluciones de la ecuación ẋC = AC xC del punto 2.
� �
� � � � eλt c1
x C = f f yC = f f = eλt c1 f + eλt c2 f .
eλt c2
(5) Obtención de las soluciones de la ecuación original: las soluciones reales satisfacen x C (t) = xC (t) y por
lo tanto son soluciones de ẋ = Ax. Estas soluciones se obtienen al desarrollar x C (t) = xC (t):
eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ eλt c1 f + eλt c2 f = eλt c1 f + eλt c2 f
⇒ (c1 − c2 )eλt f + (c2 − c1 )eλt f = 0
Si t=0, entonces
(c1 − c2 )f + (c2 − c1 )f = 0
Por lo tanto,
c1 = c2 y c2 = c 1 .
De aquí,
x(t) = 2Re(c1 eλt f )
= 2Re(c1 eit f )
� �� �� �
−1 3 cos t − sen t −2β
=
0 1 sen t cos t 2α
con c1 = α + iβ.
(6) Retrato de las fases de la ecuación original. La expresión de x(t) encontrada en el punto 5 nos indica
que hay
� una matriz �
−1 3
P = y un cambio de coordenadas ξ = P−1 x tal que en las coordenadas ξ la ecuación
0 1
� �
0 −1
ẋ = Ax tiene la forma ξ˙ = ξ (equivalentemente, ξ˙ = iξ. Esta ecuación tiene como soluciones
1 0
� � � �� �
ξ1 (t) cos t − sen t k1
a = que es una familia de círculos concéntricos (parametrizados
ξ2 (t) sen t cos t k2
por t, y que dependen de la condición inicial k = (k1 , k2 )).
Así, como x = Pξ, se tiene que las soluciones de la ecuación original son la imagen, bajo la
transformación P, de la familia de círculos concéntricos que está definida por las soluciones de la
ecuación ξ˙ = iξ. Esta imagen está dada por elipses, como se muestra en la figura 4.11.
Además, observamos que como det P < 0, entonces se invierte la orientación con respecto a la
ecuación en las coordenadas (ξ1 , ξ2 ).
66 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Figura 4.11.
� �
−3 −4
Ejemplo 4.18. Sea ẋ = Ax definida por A = . Repetimos nuevamente varias etapas para resolver
10 9
la ecuación.
(1) Obtención del polinomio característico y sus raíces.
� �
−3 − λ −4
p(λ) = det(A − λId) = det =0
10 9−λ
= (λ + 3)(λ − 9) + 40 = 0
= λ2 − 6λ − 27 + 40 = λ2 − 6λ + 13 = 0 ,
y finalmente
√
6±
36 − 52 6 ± 4i
λ= = = 3 ± 2i .
2 2
(2) Complejificación de la ecuación y obtención de los vectores propios de ẋ C = AC x.
� � � �� �
ẋ1C −3 −4 x 1C
= , (x1C , x2C ) ∈ C2 .
ẋ2C 10 9 x 2C
Podemos calcular los vectores propios a la matriz AC , que define a la ecuación anterior, como sigue:
� �� � � �
−6 − 2i −4 f11 0
= ;
10 6 − 2i f12 0
es decir,
(−6 − 2i)f11 − 4f12 = 0 .
Si f11 = −2, entonces f12 = 3 + i. Así f = (−2, 3 + i) = (−2, 3) + i(0, 1) y f = (−2, 3 − 1) =
(−2, 3) + i(0, −i).
(3) Ecuación diagonalizada
� ẏC = ΛC y�C y sus soluciones.
� Consideramos
� el cambio de coordenadas yC =
−1 −2 −2 λ 0
PC xC , con PC = . Así, ẏC = yC , y sus soluciones son:
3+i 3−i 0 λ
� � � � � �
y1C (t) c1 eλt c1 e(3+2i)t
= = , c1 , c2 ∈ C.
y2C (t) c2 eλt c2 e(3−2i)t
Figura 4.12.
(7) Las soluciones de ẋ = Ax son, por consiguiente, x(t) = Pξ(t), y en consecuencia, también son espirales
(ver figura 4.13). Observamos que det P = 2 > 0, por lo que P es una transformación R-lineal que
deforma el plano sin cambiar la orientación.
Figura 4.13.
Ejercicio 4.19. Encontrar las soluciones y el retrato de fases de ẋ = Ax, x ∈ R 2 , en los siguientes casos. Hacemos
notar que en cada caso se indican, a un lado de la matriz A correspondiente, las raíces del polinomio característico
asociado; en el inciso c) se indica también el vector propio correspondiente a la complejificación A C de A:
� �
−2 1
(a) A= ❀ λ = −4 ± i .
−5 −6
� �
1 1
(b) A= ❀ λ = 2 ± i.
−2 3
� �
2 −5
(c) A= ❀ λ = ±i ❀ f = (5, 2 − i) = (5, 2) + i(0, −1) .
1 −2
� �
−8 −3
(d) A= ❀ λ = −2 ± 3i .
15 4
68 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Ejercicio 4.20. Construye un ejemplo de una ecuación diferencial ẋ = Ax, x ∈ R 2 , tal que su retrato de las
fases tenga una elipse cuyo eje mayor esté dado por el vector (5, 2), y tal que la curva que define a dicha elipse
pase por el punto (3, 1) del plano.
Para λ1 = −1:
3 −2 2 f11 0
6 1 4 f12 = 0 ,
−3 2 −2 f13 0
es decir,
3f11 − 2f12 + 2f13 =0
6f11 + f12 + 4f13 =0
−3f11 + 2f12 − 2f13 =0
Si f12 = 0, entonces 3f11 + 2f13 = 0. Y si f11 = −2, entonces f13 = 3. Esta elección anula a las tres
ecuaciones. Por lo tanto,
f1 = (−2, 0, 3).
Para λ2 = 2i:
2 − 2i −2 2 f21 0
6 −2i 4 f22 = 0 .
−3 2 −3 − 2i f23 0
Equivalentemente,
(2 − 2i)f21 − 2f22 + 2f23 =0
6f21 − 2if22 + 4f23 =0
−3f21 + 2f22 − (3 + 2i)f23 = 0 .
Sumando la primera y la tercera ecuación se tiene (−1 − 2i)f21 − (1 − 2i)f23 = 0. Por lo tanto,
f21 + f23 = 0.
Si f21 = 1, entonces f23 = −1. Ahora, sustituyendo en la segunda ecuación, se tiene 6 − 2if22 − 4 = 0, que a su
vez implica que
f22 = −i.
Por lo tanto,
f2 = (1, −i, −1) = (1, 0, −1) + i(0, −1, 0)
Para λ3 = −2i:
f3 = f 2 = (1, i, −1) = (1, 0, −1) + i(0, 1, 0).
� � −2 1 1
Consideramos xC = PC yC con PC = f1 f2 f 2 = 0 −i i . Este cambio de coordenadas lleva a
3 −1 −1
ẋC = AC xC en la ecuación ẏC = ΛC yC con
−1 0 0
ΛC = 0 2i 0 .
0 0 −2i
y1C (t) c1 e−t
La solución de esta ecuación es y2C (t) = c2 e 2it
.
y3C (t) c3 e−2it
Ahora, para recuperar las soluciones de la ecuación ẋC = AC xC basta con multiplicar esta última expresión
por la matriz PC . A saber,
� � c1 e−t
xC (t) = PC yC (t) = f1 f2 f 2 c2 e2it = c1 e−t f1 + c2 e2it f2 + c3 e−2it f 2 .
c3 e−2it
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 69
� �
Observación 4.22. La matriz P = f1 v u sirve para definir un cambio de coordenadas x = Pξ de R3 en
R3 . Este cambio de coordenadas nos permite conocer el comportamiento geométrico de las soluciones (ver figura
4.14).
3Hacemos notar que al estar los vectores en el espacio complejo, pudimos haber tomado al primer vector con entradas complejas;
sin embargo, dicho vector sería un múltiplo complejo del vector f1 y nuestros razonamientos seguirían las mismas líneas. Por lo
tanto, siempre que el valor propio sea un número real podemos considerar al vector propio correspondiente como un vector propio
con entradas reales, o bien, un vector propio con entradas complejas.
70 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
Observamos que para el caso de una ecuación ẋ = Ax, con x ∈ Rn para n arbitrario, se procede de manera
análoga. Por consiguiente, para el caso de raíces distintas del polinomio característico (asociada a la matriz A
que define la ecuación) se tiene el teorema siguiente.
Teorema 4.23. Sea A ∈ Mn×n (R), tal que el polinomio característico p(λ) = det(A−λId), tiene raíces λ1 , . . . , λn
distintas dos a dos; entonces toda solución de la ecuación ẋ = Ax se escribe como
n−r
r
� �
2
λk t
x(t) = ak e fk + c k e λk t f k + f k e λk t f k
k=1 k=r+1
n−r
r
� �
2
= a k e λk t f k + 2Re(ck eλk t fk ),
k=1 k=r+1
donde ak ∈ R, ck ∈ C, las raíces λ1 , . . . , λr están en R, y las raíces λr+1 , . . . , λ n−r están en C � R, considerando
2
los vectores
fk ∈ R2 tal que Afk = λk fk , para k = 1, . . . , r ,
fk ∈ C2 tal que A C f k = λk f k , para k = r + 1, . . . , n−r
2
.
Después de lo que hemos visto hasta ahora, el lector debe de ser capaz de escribir la demostración de este
teorema. La demostración, por lo tanto, se deja como ejercicio.
Observación 4.24. Hemos usado, a lo largo de los capítulos 3 y 4, el que los vectores propios asociados a valores
propios distintos (dos a dos) son linealmente independientes. Este hecho bien conocido de álgebra lineal, nos ha
servido para encontrar los cambios de coordenadas que simplifican a las ecuaciones; es por lo tanto pertinente
hacer un paréntesis para demostrar esta afirmación. En la demostración se procede por inducción. A saber, sea A
una matriz que define una transformación lineal de Rn en sí mismo (o de Cn en sí mismo), tal que todos sus valores
propios, λ1 , . . . , λn , son distintos dos a dos. Consideremos dos vectores propios f1 y f2 de ésta, correspondientes
a dos valores propios distintos λ1 y λ2 , λ1 �= λ2 , entonces afirmamos que f1 y f2 son linealmente independientes.
Si suponemos lo contrario, es decir, que existe una constante c tal que f 2 = cf1 , entonces, aplicando A de
ambos lados de la igualdad, se tiene que A(f2 ) = A(cf1 ) = cA(f1 ), de donde se sigue que λ2 f2 = cλ1 f1 .
Reagrupando se tiene que λ2 f2 = λ1 cf1 = λ1 f2 , lo que nos llevaría a que λ2 = λ1 , que es una contradicción.
Supongamos la afirmación válida para j vectores propios, f 1 , . . . , fj , j ≤ n, y sus valores propios correspondientes,
λ1 , . . . , λj . Sea λj+1 un valor propio distinto de los primeros j valores propios anteriores, y supongamos que el
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 71
vector propio correspondiente, fj+1 , puede ser expresado como combinación lineal de los primeros j vectores
propios, fj+1 = c1 f1 + · · · + cj fj ; entonces, aplicando la matriz A de ambos lados de la igualdad, se tiene
A(fj+1 ) = A(c1 f1 + · · · + cj fj ); por linealidad de A, obtenemos que λj+1 fj+1 = λ1 c1 f1 + · · · + λj fj . De aquí,
escribiendo a fj+1 como combinación lineal de f1 , . . . , fj , se tiene λj+1 (c1 f1 + · · · + cj fj ) = λ1 c1 f1 + · · · + λj cj fj .
Así, se llega a la igualdad, (λ1 − λj+1 )c1 f1 + · · · + (λj − λj+1 )cj fj = 0. Como, por hipótesis de inducción, los
vectores f1 , . . . , fj son linealmente independientes, y sabemos que los valores propios son distintos dos a dos,
entonces c1 = · · · = cj = 0. Eso significa que el vector propio fj+1 es el vector cero, lo que es una contradicción.
Así, la colección f1 , . . . , fj+1 es linealmente independiente. Como j ≤ n, entonces la afirmación es válida para
f1 , . . . , fn .
Es importante notar que en la demostración usamos fuertemente el que los valores propios λ 1 , . . . , λn fuesen
distintos dos a dos. Como veremos en la siguiente sección, tener valores propios repetidos nos llevará a proceder
de una manera diferente, ya que, por cada valor propio repetido, perdemos por lo menos un vector propio para
formar la matriz P (PC ) de cambio de coordenadas.
Para mirar más lejos: Razonamiento heurístico sobre el operador la exponencial de una matriz
para raíces simples del polinomio característico. Haremos una breve disgresión en la que veremos, dando
un razonamiento heurístico, la pertinencia de definir la transformación exponencial de una matriz para expresar
las soluciones de las ecuaciones ẋ = Ax. Más adelante, cuando definamos la norma de una matriz, haremos una
exposición formal y detallada de estas ideas (ver 4.7).
Afirmación: Las soluciones de ẋ = Ax, x ∈ Rn , se ven como x(t) = PeΛt P−1 c donde o bien
λ1 0
..
Λ= . ,
0 λn
con λj ∈ R, o bien
λ1 0
..
.
λs
Λ=
,
A1
..
.
0 Am
� �
aj −bj
con λ1 , . . . , λs reales y distintas y Aj = , j = 1, ..., m, correspondientes a las raíces complejas
bj aj
(también distintas dos a dos). En ambos casos las soluciones son explícitas y únicas, una vez dada la condición
inicial.
Para argumentar el porqué de esta afirmación consideremos primero el caso Λ diagonal, es decir, λ 1 , . . . , λn
reales y distintas. Observemos que si definimos eΛt como sigue
λ1 t
e 0
..
eΛt := . ,
λn t
0 e
entonces, por la convergencia de la exponencial en cada variable se tiene,
� (λ1 t)k
∞
k=0 k!
0 ∞
.. � (Λt)j
eΛt = .
=
.
�∞ (λn t)k j=0
j!
0 k=0 k!
La convergencia en R de cada una de las funciones eλj t nos permite definir perfectamente a la matriz eΛt .
Retomemos el problema: queremos encontrar la solución de la ecuación ẋ = Ax que pasa, en t = 0, por el
punto q. Para ello,
� consideremos � los vectores propios f1 , . . . , fn asociados a los valores propios λ1 , . . . , λn de A.
La matriz P = f1 · · · fn define un cambio de coordenadas y = P−1 x. En las coordenadas y la ecuación
ẋ = Ax se escribe como ẏ = Λy. Las soluciones de esta ecuación están dadas por y(t) = eΛt c, con
λ1 0
..
Λ= .
0 λn
y c = (c1 , . . . , cn ). Observamos también que, en las coordenadas y, el punto q se escribe como P−1 q. Así, la
solución de ẋ = Ax que pasa por q se escribe como
x(t) = PeΛt P−1 q .
72 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO
La segunda igualdad (marcada con asterisco) en la expresión (4.20) se obtiene por la convergencia uniforme de
cada una de las funciones eλj t . Así, la expresión x(t) = PeΛt P−1 a la que hemos dado por ahora sólo el nombre
x(t) := eAt q es la solución con condición inicial x(0) = q.
Cabe destacar nuevamente que más adelante (ver 4.7) definiremos la norma de una transformación lineal
definida por una matriz y demostraremos, en general, la pertinencia de la expresión
�∞
(At)j
x(t) = eAt q = q, q ∈ Rn .
j=0
j!
Figura 4.15.
� �
En el caso de raíces complejas el razonamiento es semejante: para dimensión dos la matriz P = v u ,
con f = u + iv vector propio asociado a λ = a + ib, define un cambio de coordenadas que lleva a A en
� �
a −b
Λ= .
b a
4
Por lo tanto, si observamos que la expresión formal
∞
� (Λt)k
eΛt c = c,
k!
k=0
−1
Como PΛP = A, entonces podemos definir
−1
(4.21) eAt q := ePΛP t
q = PeΛt P−1 q .
La igualdad (4.21) es nuevamente la expresión de lo que se denomina una equivalencia lineal entre las soluciones
de dos ecuaciones lineales ẋ = Ax y ẏ = Λy. Puede verse en (4.21), que la solución φA (t, q) = eAt q de la ecuación
ẋ = Ax, con condición inicial q, es transformada bajo P en la solución φ Λ (t, P−1 q) = eΛt P−1 q de la ecuación
ẏ = Λy, con condición inicial P−1 q (ver figura 4.15).
Así, en general, para una matriz A con raíces del polinomio característico distintas, podemos escribir
x(t, c) = eAt c
�∞
(Λt)k
c
k=0
k!
para poder introducir en cada sumando el vector c y así demostrar que Λk c es equivalente a la multiplicación compleja λk (c1 + ic2 )
donde λ = a + ib. Esto lo veremos más adelante (ver sección 4.7) al hablar de la convergencia de la serie
�∞
At (At)k
e := .
k=0
k!
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 73
Ejercicio 4.25.
Observación 4.26. En el teorema 4.23 destacamos el hecho de que toda solución de las ecuaciones lineales de la
forma ẋ = Ax se expresa como combinación lineal de las soluciones eλk t · fk donde los vectores fk corresponden
a los vectores propios de A o de su complejificación AC (en cuyo caso se tienen combinaciones lineales en las que
aparecen exponenciales multiplicadas por seno y coseno).
Eso nos lleva a pensar en la estructura que tiene el conjunto formado por las soluciones de una ecuación
diferencial lineal. Veamos que éstas forman un espacio vectorial:
Lema 4.27. Sea ẋ = Ax, x ∈ Rn , una ecuación diferencial lineal con A una matriz de coeficientes reales. El
conjunto χ formado por las soluciones de la ecuación diferencial ẋ = Ax forma un espacio vectorial sobre R. Esta
afirmación se extiende a la complejificación de ẋC = AC xC , x ∈ Cn .
4.5. Ecuaciones diferenciales definidas por una matriz que tiene una única dirección invariante
real o compleja
Para finalizar el análisis de los campos vectoriales lineales definidos por una matriz A ∈ M 2×2 (R) nos resta
sólo ver lo que sucede cuando se tienen valores propios repetidos. Para ello veremos un caso particular (distinto
del caso diagonal): � � � �� �
ẋ1 µ 1 x1
= ;
ẋ2 0 µ x2
es decir,
ẋ1 = µx1 + x2
ẋ2 = µx2 .
Observamos que la ecuación ẋ2 = µx2 tiene solución dada por x2 (t) = eµt c, c ∈ R. Sustituyendo esta expresión
en la correspondiente a ẋ1 se tiene ẋ1 = µx1 + eµt c. Esta ecuación es una ecuación lineal de primer orden no