Está en la página 1de 27

Tema 5

Sistemas de EDOs. Puntos crı́ticos y


estabilidad

En este capı́tulo se consideran sistemas de EDOs. Como veremos, cualquier EDO de cualquier orden se puede
reescribir como un sistema, ası́ que el estudio de los sistemas de EDOs conduce a resultados generales, válidos
en particular para EDOs no lineales de orden arbitrario. Los resultados para EDOs lineales son, en realidad, una
reformulación de los que ya se han visto, aunque la descripción como sistema proporciona una perspectiva dife-
rente y más amplia. Veremos por último un método para obtener información sobre las soluciones de ecuaciones
no lineales mediante una aproximación con ecuaciones lineales, que sı́ se pueden resolver.

5.1. Resultados generales

Definición: se denomina sistema de EDOs de orden n a un conjunto de n EDOs de primer orden:

dx1
ẋ1 (t) = = V1 (t, x1 , . . . xn ),
dt
dx2
ẋ2 (t) = = V2 (t, x1 , . . . xn ),
dt
..
.
dxn
ẋn (t) = = Vn (t, x1 , . . . xn ),
dt
donde las n variables dependientes x1 (t), x2 (t), . . . xn (t) son funciones de la variable independiente t, mientras
que las funciones V1 , V2 , . . . Vn están dadas.

Lema: cualquier conjunto de EDOs de cualquier orden se puede escribir como un sistema de EDOs.
Ejemplos:

Sea la EDO ÿ + (ẏ)2 = 2e−y . Se introducen las dos nuevas variables

x1 (t) := y(t), x2 (t) := ẏ(t),

y se deduce trivialmente el sistema

dx1 dx2
= x2 =: V1 , = 2e−x1 − x22 := V2 .
dt dt

1
2 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

Se tiene el conjunto de EDOs

ü1 = −k1 u1 − k2 u2 , ü2 = −q1 u1 − q2 u2 .

Se introducen las nuevas variables

x1 (t) := u1 (t), x2 (t) := u2 (t), x3 (t) := u̇1 (t), x4 (t) := u̇2 (t),

y se deduce trivialmente el sistema


dx1 dx2 dx3 dx4
= x3 =: V1 , = x4 =: V2 , = −k1 x1 − k2 x2 =: V3 , = −q1 x1 − q2 x2 =: V4 .
dt dt dt dt

Notación vectorial: se definen los vectores n–dimensionales


   
x1 (t) V1 (t, x1 , . . . xn )
 x2 (t)   V2 (t, x1 , . . . xn ) 
x(t) :=  .  ∈ Rn (o Cn ), V(t, x) :=   ∈ Rn (o Cn ),
   
..
 ..   . 
xn (t) Vn (t, x1 , . . . xn )

de manera que el sistema de ecuaciones se escribe de forma compacta como ẋ(t) = V(t, x). Entonces se puede
identificar x como el vector posición de un punto en el denominado espacio de fases del sistema, y la solución x(t)
se puede visualizar geométricamente como una curva en el espacio de fases denominada trayectoria del punto
según varı́a t (que se puede reinterpretar como una variable temporal): la función vectorial V(t, x) representa
entonces un campo de direcciones o velocidades en el espacio de fases que es tangente a la trayectoria. La solución
general x(t; C1 , C2 , . . . Cn ) dependerá de n constantes de integración C1 , C2 , . . . Cn , que se podrán relacionar con
las n componentes de la condición inicial x0 := x(t = t0 ).

Teorema de Picard: [2, 3] sea el sistema de EDOs ẋ = V(t, x) de orden n, definido en la región a < t < b,
D := {c1 < x1 < d1 , . . . cn < xn < dn }. Si las funciones Vk , ∂Vk /∂xj son continuas en esa región, entonces el
problema de condiciones iniciales

ẋ = V(t, x), x(t0 ) = x0 , a < t0 < b, x0 ∈ D,

está bien planteado, es decir, por el punto x0 pasa una, y solo una curva integral x(t) del sistema de EDOs. Esto
implica, en particular, que las trayectorias en el espacio de fases no se cortan dentro del dominio D.
Ejemplo: consideremos el sistema del ejemplo anterior

dx1
 dt = V1 (x1 , x2 , t) = x2 ,



ÿ + (ẏ)2 = 2e−y ⇒
 dx2
= V2 (x1 , x2 , t) = 2e−x1 − x22 .



dt
En este caso, tanto V1 , V2 como las derivadas,
∂V1 ∂V1 ∂V2 ∂V2
= 0, = 1, = −2e−x1 , = −2x2 ,
∂x1 ∂x2 ∂x1 ∂x2
son continuas para todo t, x1 , x2 . Por tanto, el problema de condiciones iniciales

ÿ + (ẏ)2 = 2e−y , y(t0 ) = y0 , ẏ(t0 ) = ẏ0 ,

estará bien planteado para cualesquiera valores t0 , ẏ0 , ẏ0 . En efecto, ya se encontró la solución general

y(t) = ln C1 + (t + C2 )2 ,
 
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 3

de manera que las constantes arbitrarias C1 , C2 siempre se pueden expresar efectivamente en téminos de las
condiciones iniciales y0 , ẏ0 ∈ R:

ẏ ey0

!   
 C2 = 0
y0 = ln C1 + (t0 + C2 )2   − t0
2
 


! 2(t0 + C2 ) 2 2y0
 C1 = ey0 − (t0 + C2 )2 = ey0 − ẏ0 e
 
ẏ0 = 
 

C1 + (t0 + C2 )2 4

y(t) = ln ey0 + t2 − t20 − (ẏ0 ey0 − 2t0 ) (t − t0 ) .


 

Definición: un sistema se denomina autónomo si la función V no depende explı́citamente de t, es decir, el


sistema se escribe ẋ = V(x).
Comentarios: los sistemas autónomos tienen una serie de propiedades que facilitan el estudio.

Como el campo de direcciones no depende de t, se pueden construir las curvas integrales dibujando las
lı́neas tangentes al campo de direcciones V(x) en cada punto x del espacio de fases. No se trata más que
de una extensión a EDOs de cualquier orden del método que ya se discutió para las de primer orden.

Si x(t) es una solución de un sistema autónomo, entonces también lo es z(t) := x(t + C), con C una
constante arbitraria. En efecto, llamando τ = t + C a una nueva variable independiente, se verifica:

dz dx(t + C) dx(τ )
= = = V(x(τ )) = V(x(t + C)) = F(z).
dt dt dτ
Como consecuencia, una de las n constantes de integración de la solución general tiene la interpretación
de una translación en el origen de tiempos, y siempre se podrá elegir para que las condiciones iniciales se
impongan en un valor t = t0 convencional.

Definición: una función H(t, x) no idénticamente constante se denomina integral primera del sistema si
H(t, x(t)) no depende de t para cualquier solución x(t) del sistema.
Comentarios:

Cuando la variable independiente t tiene el significado fı́sico de tiempo, la integral primera se denomina
también cantidad conservada. En este sentido, la noción de integral primera extiende la idea de las leyes
de conservación al caso abstracto de sistemas de EDOs.
También se puede extender la idea de una entropı́a que solo puede crecer o mantenerse constante, nunca disminuir: se trata
de la denominada función de Lyapunov.

Puesto que el valor de H no cambia a lo largo de una trayectoria, se puede determinar su valor fácilmente
a partir de las condiciones iniciales: H(t, x(t)) = H(t0 , x0 ) constante.

En el caso particular de que H no dependa explı́citamente de t, esto es, H(x), la integral primera tiene una
interpretación geométrica simple y útil: puesto que la condición H(x) = constante define una hipersuperficie
en el espacio de fases, se puede concluir que las trayectorias x(t) que son solución del sistema están siempre
contenidas en una de estas hipersuperficies. De manera más precisa, la condición de que H no cambie a lo
largo de una trayectoria implica la siguiente relación:
n  
! dH(x(t)) X ∂H dxk ∂H ∂H ∂H
0= = = (∇H) · V, ∇H(x) := , ,..., ,
dt ∂xk |{z}
dt ∂x1 ∂x2 ∂xn
k=1
Vk

es decir, V ⊥ ∇H si ninguno de los dos vectores es nulo, lo cual significa que las trayectorias son efectiva-
mente tangentes a la hipersuperficie.
4 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

La utilidad de las integrales primeras es que permiten reducir el orden del sistema. La idea es que si H
es igual a una constante C1 a lo largo de la trayectoria, entonces se puede despejar una de las variables
dependientes en función de las otras, reduciendo ası́ el número de incógnitas:

H(x1 , x2 , . . . xn ) = C1 ⇒ x1 = X1 (C1 , x2 , . . . xn ).

En términos geométricos, el conocimiento de la integral primera permite concluir que la trayectoria no se


extiende por todo el espacio de fases n–dimensional, sino que está restringida al espacio n − 1–dimensional
de la hipersuperficie. De igual manera, el conocimiento de otra integral primera de la forma J(x) = C2
permite reducir el orden una vez más, pues la trayectoria se encontrará en la intersección de las dos
hipersuperficies H(x) = C1 , J(x) = C2 . Evidentemente, no pueden existir más de n integrales primeras
independientes.

Ejemplo: consideremos la ecuación de un oscilador armónico, escrito como sistema de EDOs:



ẋ = v
ẍ + ω 2 x = 0 ⇒
v̇ = −ω 2 x.

La cantidad correspondiente a la energı́a mecánica es una integral primera:


1 2 1 2 2
E= v + ω x ⇒ Ė = v v̇ + ω 2 xẋ = −ω 2 vx + ω 2 xv = 0.
2 2
Por tanto, como E no depende explı́citamente del tiempo, cada trayectoria en el espacio fásico (x, v) está
contenida en la elipse E = constante, centrada en el origen de coordenadas. Se puede utilizar la integral
primera para reducir el orden del sistema en uno:
1 2 1 2 2 p
E= v + ω x ⇒ ẋ = ± 2E − ω 2 x2 .
2 2
Pero en lugar de resolver esta EDO (son dos en realidad), la propia imagen geométrica sugiere un cambio
de variable mejor: en lugar del par (x, v) de variables dependientes se empleará el nuevo par (E, φ) definido
como
v =: 2E cos φ, ωx =: 2E sen φ
(se trata básicamente de las coordenadas polares adaptadas para la elipse). Entonces, estas nuevas variables
obedecen las ecuaciones
Ė = 0, ẋ = v ⇒ φ̇ = ω,
cuya solución es 
E = E0 2E0
⇒ x(t) = sen(ωt + φ0 ).
φ = ωt + φ0 ω

5.2. Sistemas lineales: resultados generales


A continuación veremos el caso especial de sistemas lineales y algunos resultados que generalizan trivialmente
los correspondientes resultados que vimos para EDOs lineales.

Definición: un sistema de EDOs se denomina lineal si es de la forma


   
A11 (t) . . . A1n (t) g1 (t)
ẋ = A(t)x + g(t), A(t) :=  .. .. g(t) :=  ...  ,
,
   
. .
An1 (t) . . . Ann (t) gn (t)

donde las funciones Aαβ (t) y gα (t) están dadas. La matriz cuadrada A se denomina matriz de coeficientes. Si
g(t) ≡ 0, el sistema se denomina homogéneo; en caso contrario, se dice inhomogéneo.
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 5

Teorema: [4, p.343] supongamos que A(t) y g(t) son continuas en un intervalo a < t < b. Entonces, el problema
de condiciones iniciales

ẋ = A(t)x + g(t), x(t0 ) = x0 , a < t0 < b, x0 ∈ Rn ,

está bien planteado (Picard) y además la solución x(t) existe en todo el intervalo a < t < b.

Definición: un conjunto {x(1) (t), . . . x(M ) (t)} de M funciones definidas en el intervalo a < t < b se dice
linealmente independiente si la condición
M
X
Ck x(k) (t) = 0, ∀t ∈ (a, b)
k=1

solo se satisface cuando todas las constantes C1 , C2 , . . . CM son nulas. En caso contrario, el conjunto se dice
linealmente dependiente.
Comentario: se debe destacar que los objetos matemáticos x(k) son a la vez elementos de un espacio de funciones
y de un espacio vectorial Rn (o Cn ). Por tanto, la cualidad de independencia lineal es diferente en cada espacio
y no se deben confundir. A modo de ejemplo, consideremos en el plano las tres funciones
     
(1) 1 (2) 0 (3) cos t
x (t) = ex = , x (t) = ey = , x (t) = eρ (φ = t) =
0 1 sen t

en el rango 0 ≤ t < 2π. Es evidente que estos tres vectores del espacio bidimensional R2 son linealmente
dependientes puesto que

− cos t∗ x(1) (t∗ ) − sen t∗ x(2) (t∗ ) + x(3) (t∗ ) = 0, para cada valor fijo t∗ ∈ [0, 2π).

Sin embargo, las tres funciones son linealmente independientes, porque C1 = C2 = C3 = 0 es la única solución
de la condición
!
C1 x(1) (t) + C2 x(2) (t) + C3 x(3) (t) = 0, ∀t ∈ [0, 2π).
En efecto, de estas infinitas ecuaciones solo se necesitan tres ecuaciones independientes para determinar las
tres incógnitas C1 , C2 , C3 . Evaluando la ecuación en un tiempo fijo, se encuentran dos ecuaciones (porque las
funciones x(k) (t) están definidas mediante dos componentes); se puede encontrar la tercera ecuación evaluando
en otro instante diferente o, de manera equivalente, evaluando la derivada en el mismo instante (lo cual es
posible porque las funciones involucradas son infinitamente derivables). Eligiendo, por ejemplo, el tiempo t = 0
se encuentra:  
C1 + C3 !
C1 x(1) (0) + C2 x(2) (0) + C3 x(3) (0) = = 0,
C2
 
0 !
C1 ẋ(1) (0) + C2 ẋ(2) (0) + C3 ẋ(3) (0) = = 0,
C3
de donde se deduce C1 = C2 = C3 = 0. Como ilustra este ejemplo, lo que sucede es que si se interpretan los
objetos matemáticos x(k) (t) como funciones de t, los coeficientes Ck en la combinación lineal no pueden depender
de t. Por el contrario, si se interpretan como vectores para cada valor t = t∗ fijo, entonces los coeficientes pueden
depender de t∗ . Es la diferencia entre considerar el objeto x(k) (t) como “una pelı́cula” o considerarlo como un
conjunto de “fotos fijas” sin relación mutua.

Teorema: el conjunto de todas las soluciones de un sistema de EDOs lineal y homogéneo de orden n tiene
estructura de espacio vectorial de dimensión n. Esto es, si S := {x(t) | ẋ = A(t)x} denota el espacio funcional
de las soluciones, entonces

x(1) (t), x(2) (t) ∈ S ⇒ αx(1) (t) + βx(2) (t) ∈ S, ∀α, β constantes, dim(S) = n.
6 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

Definición: Un conjunto {u(1) (t), . . . u(n) (t)} de n soluciones linealmente independientes de un sistema de orden
n se denomina conjunto fundamental de soluciones.
Comentario: El conjunto fundamental de soluciones no es único. Además forma una base del espacio de soluciones
S. En consecuencia, la solución general se puede escribir como la combinación lineal
n
X
x(t) = Ck u(k) (t), C1 , C2 , . . . Cn constantes.
k=1

Lema: Para cada valor t = t∗ donde el sistema de EDOs está bien planteado se verifica que los n vectores de
la forma v(k) := u(k) (t∗ ) son linealmente independientes y forman una base del espacio vectorial Rn .
Demostración: puesto que el problema está bien planteado en t = t∗ , la condición inicial

v(k)
n z }| {
X !
Ck u(k) (t∗ ) = x0
k=1

tiene siempre solución única para cualquier x0 ∈ Rn , en particular para x0 = 0: esto implica que la solución
Ck = 0 de la condición
n
X !
Ck v(k) = 0
k=1

es única, lo cual no es más que la condición de independencia lineal del conjunto de vectores {v(1) , v(2) , . . . v(n) }.
A la vista de este resultado, las constantes arbitrarias Ck en la expresión de la solución general se pueden
interpretar también como las componentes del vector x(t∗ ) para cada valor de t∗ en la base formada por el
conjunto de vectores {v(1) = u(1) (t∗ ), . . . v(n) = u(n) (t∗ )}.

Teorema: la solución general de un sistema de EDOs lineal se escribe como la suma de la solución general del
sistema homogéneo y una solución particular del sistema inhomogéneo.

Teorema (principio de superposición): sean dos sistemas de EDOs lineales con la misma matriz de coefi-
cientes:
ẋg = A(t)xg + g(t), ẋf = A(t)xf + f (t).
Entonces, x = xg (t) + xf (t) es solución del sistema

ẋ = A(t)x + g(t) + f (t).

5.3. Sistemas lineales: métodos de resolución


5.3.1. Por eliminación
La idea de este método es transformar el sistema de EDOs orden n en una sola EDO de orden n. Esto se con-
sigue despejando todas las funciones incógnitas en términos de una de ellas. Este método no está restringido a
ecuaciones lineales.

Ejemplo: Sea el sistema de EDOs lineal y homogéneo


A(t)

 ẋ1 = x2 ,
z }| !{
0 1 
ẋ = 1 1 x ⇔
− 1 1
t2  ẋ2 = x1 − x2 .

t 2
t t
Podemos concluir que las soluciones existirán en cualquier intervalo de la variable t que no contenga t = 0.
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 7

Derivando la segunda ecuación de nuevo y utilizando la primera para eliminar x1 y ẋ1 resulta
 
1 2 1 1 1 2 1 1 1 3
ẍ2 = 2 ẋ1 − 3 x1 − ẋ2 + 2 x2 = 2 x2 − 3 t2 ẋ2 + x2 − ẋ2 + 2 x2 = − ẋ2 ,
t t t t t t t t t t

que es una ecuación de Euler. También se puede resolver con el cambio de variable p = ẋ2 :
3 separable 2C1 separable C1
ṗ = − p ⇒ ẋ2 (t) = p(t) = − ⇒ x2 (t) = + C2 .
t t3 t2
Para determinar x1 (t) se despeja la función de la segunda ecuación,
   
2 1 2 2C1 C1 C2 C1
x1 (t) = t ẋ2 (t) + x2 (t) = t − 3 + 3 + =− + C2 t.
t t t t t

Esta ruta es mejor que la de integrar la primera ecuación, porque esto introducirı́a una constante de integración
adicional (es decir, soluciones espurias). En conclusión, la solución general, que permite identificar un conjunto
fundamental de soluciones {u(1) (t), u(2) (t)}, es

−C1 t−1 + C2 t −t−1


       
x1 (t) t
x(t) = = = C1 +C2 .
x2 (t) C1 t−2 + C2 t−2 1
| {z } | {z }
u(1) (t) u(2) (t)

5.3.2. Sistema lineal, homogéneo y autónomo

Definición: cuando la matriz de coeficientes A no depende de la variable independiente t, se dice que el sistema
lineal es de coeficientes constantes. Esto implica que el correspondiente sistema homogéneo también es autónomo.

Consideremos pues el sistema lineal homogéneo de coeficientes constantes

ẋ = Ax, A matriz n × n, independiente de t.

Buscamos una solución que dependa exponencialmente de t, análogamente a como se hizo con las EDOs lineales:
dx ! ∀t
x(t) = veλt ⇒ = λveλt = Aveλt ⇒ Av = λv,
dt
es decir, λ debe ser un autovalor de la matriz A y v el correspondiente autovector. Los autovalores se obtiene
resolviendo el polinomio caracterı́stico,

|A − λI| = 0, I = matriz identidad (Ijk = δjk ).

Esta ecuación siempre tiene n soluciones (reales o complejas) incluyendo multiplicidad, es decir, una matriz n × n
siempre tiene n autovalores. Sin embargo, no es cierto que posea n autovectores linealmente independientes: esto
solo ocurre cuando la matriz es diagonalizable.

Excursum: una matriz se dice diagonalizable si se puede construir una base del espacio vectorial con sus auto-
vectores, porque esto implica que se puede realizar un cambio a una base en la que la representación de la matriz
sea diagonal (y los elementos de la diagonal son los autovalores). Algunas condiciones suficientes para que la
matriz A sea diagonalizable y que son sencillas de comprobar:
1. A posee n autovalores diferentes.
2. A es real (Ajk ∈ R) y simétrica (Ajk = Akj ), esto es, igual a su traspuesta: AT = A.
3. A es hermı́tica (Ajk = A∗kj ), esto es, igual a su adjunta (traspuesta conjugada): A† := (AT )∗ = A.
8 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

4. A es normal, es decir, conmuta con su adjunta: AA† = A† A.

Es evidente que se verifican las relaciones de inclusión

simétrica real ⊂ hermı́tica ⊂ normal ⊂ diagonalizable

Además, se pueden elegir los autovectores para que formen una base ortonormal si, y solo si A es normal.

1. A es diagonalizable, es decir, existen n autovectores linealmente independientes [5, p.46], que formarán
por tanto una base del espacio vectorial de dimensión n. Entonces, estos autovectores se pueden usar para
construir un conjunto fundamental de soluciones,

u(k) (t) = v(k) eλk t , k = 1, 2, . . . n

En efecto, este conjunto de n funciones es linealmente independiente:


n n
X X !
Ck u(k) (t) = Ck v(k) eλk t = 0 ∀t,
k=1 k=1

ası́ que en particular para t = 0 se tiene


n n
! v(k) lin.ind.
X X
Ck u(k) (t = 0) = Ck v(k) = 0 ⇒ C1 = C2 = · · · Cn = 0.
k=1 k=1

Por tanto, la solución general del sistema se puede escribir como


n
X n
X
(k)
x(t) = Ck u (t) = Ck v(k) eλk t , Av(k) = λk v(k) .
k=1 k=1

(Resulta evidente que, como corresponde a un sistema autónomo, se puede absorber una traslación temporal
arbitraria t → t + t0 en la solución mediante una redefinición de las constantes arbitrarias Ck ).
Ejemplos:

a) Sea el siguiente sistema de EDOs lineal, homogéneo y autónomo de orden dos:


 
−α −β
ẋ = Ax, A= .
−β −α

La matriz de coeficientes constates A es simétrica; si además α, β son reales, se puede afirmar que
será diagonalizable si son reales y que los autovectores se podrán escoger para formar una base
ortonormal. (Aunque encontraremos que estas afirmaciones siguen siendo válidas si los números α, β
son complejos). La ecuación caracterı́stica es

−α − λ −β
|A − λI| = = (α + λ)2 − β 2 = 0 ⇒ λ = −α ± β.
−β −α − λ

Los correspondientes autovectores son:


!
  (1) (1)
 
(1) (1) −β −β v1 v1 = 1
(1) 1
Av = (−α + β)v ⇒ (1) =0 ⇒ v = .
−β −β v2 −1
!
  (2) (2)
 
(2) (2) β −β v1 v1 = 1 1
Av = (−α − β)v ⇒ (2) =0 ⇒ v(2) = .
−β β v2 1
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 9

Por tanto, el conjunto fundamental de soluciones es


   
1 1
u(1) (t) = v(1) e(−α+β)t = e(−α+β)t , u(2) (t) = v(2) e(−α−β)t = e−(α+β)t ,
−1 1

y la solución general se podrá escribir como

 x1 (t) = C1 e(−α+β)t + C2 e−(α+β)t ,


x(t) = C1 u(1) (t) + C2 u(2) (t) ⇔


x2 (t) = −C1 e(−α+β)t + C2 e−(α+β)t .

Dependiendo de si los números α y β son reales o complejos, puede resultar más conveniente escribir
esta expresión en términos de funciones trigonométricas como ya se ha visto en temas anteriores.
b) Resolver el problema de Cauchy
 A
ẋ1 = 2x2 
 z }| {  
ẋ2 = −x1 + 2x2 0 2 1

⇔ ẋ = x, x(0) = .
x1 (0) = 1 
 −1 2 0
x2 (0) = 0

Se trata de un sistema de EDOs lineal, homogéneo y autónomo. La matriz de coeficientes constates


A no es hermı́tica ni tampoco normal (A† A =
6 AA† ). La ecuación caracterı́stica de A es

−λ 2
|A − λI| = = λ2 − 2λ + 2 = 0 ⇒ λ = 1 ± i.
−1 2−λ

Se encuentra la solución del problema de autovectores:


   
(1) 1−i (2) 1+i
λ1 = 1 + i, v = , λ2 = 1 − i, v = .
1 1

Notemos que v(2)∗ = v(1) y λ∗2 = λ1 . Esto era de esperar, porque la matriz A es real:
A∗ =A
Av = λv ⇒ Av∗ = λ∗ v∗ .

Más aún, dado que la condición inicial también es real, la solución buscada será real. En efecto, la
solución general se escribe
x(t) = C1 v(1) eλ1 t + C2 v(2) eλ2 t
y la solución particular se encuentra imponiendo la condición inicial:
   
(1) (2) ! 1 (1 − i)C1 + (1 + i)C2 = 1
x(0) = C1 v + C2 v = ⇒ ⇒ C1 = −C2 = i/2
0 C1 + C2 = 0

iet h (1) it
      
sen t − cos t 1 1
i
⇒ xpart (t) = v e − v(1)∗ e−it = −et = et cos t − sen t .
2 | {z } sen t 0 1
2i Im [v(1) eit ]

Como veremos más adelante, la trayectoria en el espacio fásico R2 descrita por esta función es una
elipse centrada en el origen y de semiejes crecientes en el tiempo, esto es, una espiral elı́ptica.
c) Un caso que suele aparecer en problemas fı́sicos es el de una matriz cuyos autovectores forman una
base ortonormal, lo cual es equivalente a que la matriz A sea normal. En tal caso, puede resultar muy
útil proceder de manera que se aproveche esta propiedad. Sea {v(1) , . . . v(n) } una base ortonormal de
autovectores (que pueden ser complejos), esto es,

autovectores ⇒ Av(k) = λk v(k) , k = 1, 2 . . . n,


10 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

(algunos de los autovalores pueden ser iguales si existe multiplicidad),


n 
X (i)∗ (j) 1, i = j
ortonormalidad ⇒ v(i)∗ · v(j) = vk vk = δij = i, j = 1, 2, . . . n,
0, i 6= j
k=1

n n
" n # n
(k) (k)∗ (k) (k)∗
X X X X
n (k) (k)∗
base ⇒ ∀p ∈ C : p= v (v · p) ⇒ pi = vi vj pj ⇒ vi v j = δij .
k=1 j=1 k=1 k=1

Se puede construir la matriz cuyas columnas son los autovectores,


 
(1) (n)
  v1 · · · v1
. ..

T = v(1) · · · v(n) = 

 ..
,
. 
(1) (n)
vn ··· vn

ası́ como la matriz adjunta


  (1)∗ (1)∗

v(1)†

v1 ··· vn
† T ∗  ..   . .. 
T = (T ) =  .  =  ..
,
. 
v(n)† v1
(n)∗
···
(n)∗
vn

que resulta ser la matriz inversa,


n n
Tik†
(i)∗ (j)
X X

(T T )ij = Tkj = vk vk = v(i)∗ · v(j) = δij ⇒ T † T = I,
k=1 k=1

n n
† (k) (k)∗
X X
(T T † )ij = Tik Tkj = vi vj = δij ⇒ T T † = I,
k=1 k=1

es decir, T −1 = T † . Geométricamente, la matriz T † representa la transformación lineal a las coorde-


nadas en las cuales la representación de la matriz A es diagonal, es decir, se trata de una matriz de
cambio de base:
∀p
q = Ap ⇔ T −1 q = diag(λ1 , . . . λn ) (T −1 p) ⇔ T −1 AT = diag(λ1 , . . . , λn ).
En efecto,
n n  
(β) (β)
X X
(AT )αβ = Aαγ Tγβ = Aαγ vγ = Av(β) = λβ vα = λβ Tαβ ,
α
γ=1 γ=1
n
X n
X
(T −1 AT )αβ = −1 −1
λβ Tγβ = λβ T −1 T

Tαγ (AT )γβ = Tαγ αβ
= λβ δαβ = [diag(λ1 , . . . , λn )]αβ .
γ=1 γ=1

Podemos hacer el mismo cambio de coordenadas en el sistema de EDOs: definiendo la variable de-
pendiente z(t) := T −1 x(t) en las nuevas coordenadas, resulta

ẋ = Ax ⇒ ż = T −1 AT z = diag(λ1 , . . . , λn )z
dzk
⇒ = λk zk ⇒ zk (t) = zk (t0 )eλk (t−t0 ) , k = 1, . . . n.
dt
Es decir, el efecto de la transformación de coordenadas es desacoplar las ecuaciones y convertir el
sistema de EDOs en un conjunto de EDOs independientes entre sı́. Una vez resueltas, se deshace el
cambio de variables, x(t) = T z(t).
Ejemplo: Consideremos de nuevo el sistema
 
−α −β
ẋ = Ax, A= .
−β −α
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 11

La matriz A es real y simétrica, ası́ que sus autovectores forman una base ortonormal. Ya se calcularon
los autovectores y autovalores de A, de manera que podemos calcular la matriz de cambio de base
con facilidad:
normalizado normalizado
z }|
{ z }|
 {
(1) 1 1 (2) 1 1
λ1 = −α + β, v = √ , λ2 = −(α + β), v =√ , v(j)∗ · v(k) = δjk .
2 −1 2 1
   
  1 1 1 1 1 −1
T −1 T†= √
base ortonormal
T = v(1) v(2) = √ ⇒ = .
2 −1 1 2 1 1
El sistema para la variable transformada z(t) = T −1 x(t) y su solución es

dz1
= λ1 z1 ⇒ z1 (t) = C1 eλ1 t 

C1 eλ1 t
 
dt


⇒ z(t) =  .
dz2 
C2 eλ2 t
= λ2 z2 ⇒ z2 (t) = C2 eλ2 t 


dt
Deshaciendo el cambio de base obtenemos la solución en las variables originales:

C1 eλ1 t + C2 eλ2 t
 
1
x(t) = T z(t) = √  ,
2 − C eλ1 t + C eλ2 t1 2

en acuerdo con la expresión obtenida anteriormente.


2. A no es diagonalizable ya que no existen n autovectores linealmente independientes, es decir, la mul-
tiplicidad algebraica de algunos autovalores es mayor que su multiplicidad geométrica. En tal caso, no se
puede construir un conjunto fundamental de soluciones con funciones de la forma veλt . Por analogı́a con el
caso de EDOs lineales, las soluciones adicionales se obtienen proponiendo una dependencia temporal como
producto de polinomio por exponencial, incrementando el grado de polinomio secuencialmente según se
requiera. Como norma general, si un autovalor λ tiene multiplicidad algebraica m, la solución asociada a
este autovalor será de la forma

x(t) = eλt y(t), y(t) = polinomio en t de grado ≤ m − 1.

Ejemplos:
a) Encontrar la solución general del sistema

ẋ1 = x1 − x2 ,
ẋ2 = x1 + 3x2 .
En notación matricial, el problema se escribe
 
1 −1
ẋ = Ax, A := .
1 3
Se trata de un sistema lineal, homogéneo y autónomo. La matriz de coeficiente constantes A no es
normal. Buscamos primero las soluciones de la forma x(t) = veλt , lo cual conduce a que λ debe ser
un autovalor y v un autovector de la matriz A. La ecuación caracterı́stica de la matriz es
1−λ −1 !
|A − λI| = = λ2 − 4λ + 4 = (λ − 2)2 = 0 ⇒ λ = 2 (autovalor doble).
1 3−λ
Se calculan los autovectores:
    
−1 −1 v1 −v1 − v2 !
(A − 2I)v = = =0 ⇒ v1 + v2 = 0.
1 1 v2 v1 + v2
12 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

Existe por tanto solo un autovector independiente, por ejemplo


 
1
v= ,
−1
y se encuentra una solución del sistema,
u(1) (t) = ve2t .
La otra solución linealmente independiente se busca de la forma
x(t) = (tξ + η)e2t ,
que depende de dos vectores indeterminados η, ξ (notemos que esta propuesta incluye como posibilidad
la solución ya conocida u(1) (t)). Sustituyendo en el sistema de EDOs, se encuentra
dx !
= 2(tξ + η)e2t + ξe2t = Ax = (tAξ + Aη) e2t
dt
!
⇒ te2t (Aξ − 2ξ) + e2t (Aη − 2η − ξ) = 0.
Como esta expresión se debe verificar para todo t y las funciones {e2t , te2t } son linealmente indepen-
dientes, se deduce un sistema lineal de dos ecuaciones para las dos incógnitas η, ξ:
! !
Aξ − 2ξ = 0, Aη − 2η = ξ.
La primera ecuación es el problema de autovalores para la matriz A y por tanto la solución es ξ = Cv,
donde C es una constante arbitraria. La segunda ecuación es
   
! −η1 −η2 ! C
(A − 2I)η = Cv ⇒ = ⇒ η1 + η2 = −C,
η1 η2 −C
que claramente posee infinitas soluciones. Llamando η1 = D1 , C = D2 (constantes arbitrarias), se
encuentra    
D1 0
η2 = −D1 − D2 ⇒ η = = D1 v + D2 .
−D1 − D2 −1
| {z }
=:w
Combinando todo se llega finalmente a la solución
x(t) = (tξ + η)e2t = [D2 (tv + w) + D1 v] e2t .
Esta solución depende de dos constantes arbitrarias y representa por tanto la solución general del
sistema. Contiene en particular, como ya se comentó, la solución u(1) (t), correspondiente a la elección
D1 = 1, D2 = 0. Una segunda solución independiente se puede obtener eligiendo, por ejemplo, D1 =
0, D2 = 1:  
t
u(2) (t) = (tv + w)e2t = e2t .
−t − 1
b) Encontrar la solución del siguiente problema de condiciones iniciales:
   
5 −3 −2 1
ẋ = Ax, A :=  8 −5 −4  , x(0) =  1  .
−4 3 3 1
Se trata de un sistema lineal, homogéneo y autónomo. Buscamos primero las soluciones de la forma
x(t) = veλt , lo cual conduce a que λ debe ser un autovalor y v un autovector de la matriz A. La
ecuación caracterı́stica de la matriz es
5−λ −3 −2
!
|A − λI| = 8 −5 − λ −4 = 1−3λ+3λ2 −λ3 = (1−λ)3 = 0 ⇒ λ = 1 (autovalor triple).
−4 3 3−λ
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 13

Se calculan los autovectores:


      
4 −3 −2 v1 4v1 − 3v2 − 2v3 0
!
(A−I)v =  8 −6 −4   v2  =  8v1 − 6v2 − 4v3  =  0  ⇒ 4v1 −3v2 −2v3 = 0.
−4 3 2 v3 −4v1 + 3v2 + 2v3 0

Existen por tanto dos autovectores independientes, por ejemplo,


   
1 0
v(1) :=  0  , v(2) :=  2  ,
2 −3

y se encuentran dos soluciones linealmente indepedientes,

u(1) (t) := v(1) et , u(2) (t) := v(2) et .

Para encontrar la tercera, se propone una solución de la forma

x(t) = (tξ + η)et ,

que depende de dos vectores indeterminados η, ξ (notemos que esta propuesta incluye como posibilidad
las soluciones ya conocidas u(1) (t), u(2) (t)). Sustituyendo en el sistema de EDOs, se encuentra

dx ! !
= (tξ + η)et + ξet = Ax = (tAξ + Aη) et ⇒ tet (Aξ − ξ) + et (Aη − η − ξ) = 0.
dt
Como esta expresión se debe verificar para todo t y las funciones {et , tet } son linealmente indepen-
dientes, se deduce un sistema lineal de dos ecuaciones para las dos incógnitas η, ξ:

! !
Aξ − ξ = 0, Aη − η = ξ.

La primera expresión es la ecuación de autovalores de la matriz A, cuya solución es ξ = C1 v(1) +C2 v(2)
con C1 , C2 constantes arbitrarias. La segunda ecuación es pues de la forma
   
4η1 − 3η2 − 2η3 C1
! !
(A − I) η = C1 v(1) + C2 v(2) ⇒  8η1 − 6η2 − 4η3  =  2C2 .
−4η1 + 3η2 + 2η3 2C1 − 3C2

Se trata de un sistema lineal inhomogéneo para el vector η, y dado que su matriz A − I es singular (ya
que λ = 1 es autovalor de A), o bien no tiene solución, o bien tiene infinitas. Se puede ver fácilmente
que se da el segundo caso si se impone la condición de compatibilidad C2 = C1 , de manera que el
sistema se reduce a la ecuación única 4η1 − 3η2 − 2η3 = C1 . Llamando η1 = D1 , η2 = 2D2 , C1 = 2D3
(constantes arbitrarias), se encuentra la solución
   
D1 0
η3 = −D3 − 3D2 + 2D1 ⇒ η =  2D2  = D1 v(1) + D2 v(2) + D3  0  .
2D1 − 3D2 − D3 −1
| {z }
=:w

Combinando todo, resulta pues la solución


n h i o
x(t) = (tξ + η)et = D3 2t(v(1) + v(2) ) + w + D1 v(1) + D2 v(2) et .

Esta solución depende de tres constantes arbitrarias y de hecho es la solución general y, como ya
se anticipó, incorpora las soluciones ya conocidas: u(1) (t) para la elección D1 = 1, D2 = D3 = 0 y
14 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

u(2) (t) para la elección D2 = 1, D1 = D3 = 0. Por tanto, una tercera solución independiente podrı́a
ser (eligiendo D3 = 1, D1 = D2 = 0)
 
h i 2t
u(3) (t) := 2t(v(1) + v(2) ) + w et = et  4t .
−2t − 1

Falta determinar la solución particular que satisface la condición inicial:


    
D1 1  D1 = 1
! 
x(0) = D3 w + D1 v(1) + D2 v(2) =  2D2 = 1  ⇒ D2 = 1/2
2D1 − 3D2 − D3 1 D3 = −1/2

 
  1−t
1 1 h i
⇒ xpart (t) = v(1) + v(2) − 2t(v(1) + v(2) ) + w et =  1 − t  et .
2 2
1+t

5.3.3. Sistema inhomogéneo: método de variación de constantes


Sea un sistema lineal no homogéneo,
ẋ = A(t)x + g(t).
La solución general es la suma de la general del sistema homogéneo (esto es, poniendo g(t) = 0), y una solución
particular cualquiera del inhomogéneo. A veces esta se puede encontrar por simple inspección si el sistema es
lo suficientemente sencillo. Pero esto no es posible por lo general y el procedimiento sistemático es el método
de variación de constantes, como se hacı́a con las EDOs lineales: sea pues {u(1) (t), . . . u(n) (t)} un conjunto
fundamental de soluciones del sistema homogéneo asociado. Entonces se busca una solución particular de la
forma
Xn
x(t) = Ck (t)u(k) (t),
k=0

donde las funciones Ck (t) se deben determinar. Esta expresión verifica


n h
X i (k) n h
X i
u sol.
ẋ = Ċk u(k) + Ck u̇(k) = Ċk u(k) + Ck Au(k)
k=0 k=0
n
" n
# n
A lineal
X X X
= Ċk u(k) + A Ck u(k) = Ċk u(k) + Ax
k=0 k=0 k=0
n
! X !
= Ax + g(t) ⇒ Ċk u(k) (t) = g(t).
k=0

Esta última expresión es un sistema lineal de ecuaciones para las derivadas Ċk . Este sistema siempre tiene
solución, puesto que los n vectores u(k) (t), para cada t fijo donde el problema está bien planteado, forman una
base del espacio vectorial Rn . Ası́ pues,
n Z
X dCk (t) !
g(t) =: ĝk (t)u(k) (t) ⇒ = ĝk (t) ⇒ Ck (t) = dt ĝk (t),
dt
k=0

donde las funciones ĝk (t) son las componentes del vector g(t) en la base dada por la solución fundamental.

Ejemplo: encontrar la solución general del sistema


   
−α −β 0
ẋ = Ax + g(t), A= , g(t) = .
−β −α t
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 15

Ya se calculó en un ejemplo previo un conjunto fundamental de soluciones del sistema homogéneo,


   
(1) λ1 t 1 (2) λ2 t 1
u (t) = e , λ1 = (−α + β), u (t) = e , λ2 = −(α + β).
−1 1

Ası́ pues, proponemos buscar una solución particular como

xpart (t) = C1 (t)u(1) (t) + C2 (t)u(2) (t),

que como hemos visto conduce a la expresión


dC1 (t) (1) dC2 (t) (2) !
u (t) + u (t) = g(t)
dt dt
Debemos calcular las componentes del vector g(t) en la base de vectores (no funciones) formada por el conjunto
fundamental de soluciones:
 1
 ĝ1 (t) = − te−λ1 t ,
2
   λ1 t λ2 t
 
0 ĝ1 (t)e + ĝ2 (t)e



g(t) =: ĝ1 (t)u(1) (t) + ĝ2 (t)u(2) (t) ⇔  =  ⇒
t −ĝ1 (t)eλ1 t + ĝ2 (t)eλ2 t

 ĝ (t) = 1 te−λ2 t .



2
2
Por lo tanto,

dC1 (t) ! 1
 1 + λ1 t −λ1 t

= ĝ1 (t) := − te−λ1 t
 C1 (t) = e ,
2λ21
 
dt 2

 

 
dC1 (t) (1) dC2 (t) (2) !
 
u (t) + u (t) = g(t) ⇔ ⇒
dt dt 
 

1 + λ2 t −λ2 t
 dC2 (t) =
! 1
 
ĝ2 (t) := te−λ2 t
 
  C2 (t) = −
 e ,
dt 2 2λ22

(sin constante aditiva de integración, puesto que buscamos una solución particular). Ası́ pues, la solución general
del sistema completo es
sol. part.
sol. gen. sistema hom.
{ sist. inhom.      
1 + λ1 t 1 1 + λ2 t 1
z }| z }| {
(1) (2) λ1 t λ2 t
x(t) = C1 u (t) + C2 u (t) + xpart (t) = C1 e + + C2 e − .
2
2λ1 −1 2
2λ2 1

En este caso, podemos resolver el problema aprovechando que los autovectores forman una base ortonormal para
cambiar a la base en que la matriz de coeficientes es diagonal. Ya se encontró
   
  1 1 1 1 1 −1
⇒ T −1 T†= √
base ortonormal
T = v(1) v(2) = √ = .
2 −1 1 2 1 1

La variable transformada z(t) = T −1 x(t) verifica el sistema

ż = T −1 ẋ = T −1 Ax + T −1 g = T −1 AT T −1 x + T −1 g = diag(λ1 , . . . λn ) z + T −1 g.

La transformación del término g(t) a las nuevas coordenadas es


    
1 1 −1 0 1 −t
T −1 g(t) = √ =√ ,
2 1 1 t 2 t

de manera que el sistema transformado y su solución son


      √ 
ż1 λ1 0 z1 −t/√ 2
= +
ż2 0 λ2 z2 t/ 2
16 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

 dz t Rt
1
√1 1√
 λt 

 = λ1 z1 − √ ⇒ z1 (t) = C1 eλ1 t − 2 0
dτ τ eλ1 (t−τ ) = C1 eλ1 t − λ21 2
e 1 − 1 − λ1 t ,
 dt
 2

 dz2 t Rt
√1 1√
 λt 
z2 (t) = C2 eλ2 t + dτ τ eλ2 (t−τ ) = C2 eλ2 t +


 = λ2 z2 + √ ⇒ 2 0 λ22 2
e 2 − 1 − λ2 t
dt 2
 √
1 + λ1 t

λ1 t
2 C1 e + √
 λ21 2 
⇒ z(t) =  √ 1 + λ2 t  .

2 C2 eλ2 t − 2 √

λ2 2
Deshaciendo el cambio de base obtenemos la solución en las variables originales:
sol. particular sist. inhom.
sol. general sist. hom.
z }| {
 1 + λ1 t 1 + λ2 t 

z }| {
C1 eλ1 t + C2 eλ2 t

1   2λ21
 2λ22
x(t) = T z(t) = √ + 
 
2 λ1 t
− C1 e + C2 e λ2 t  1 + λ1 t 1 + λ2 t 
− −
2λ21 2λ22
     
C1 λ1 t 1 + λ1 t 1 C2 λ2 t 1 + λ2 t 1
= √ e + + √ e − .
2 2λ 2
1
−1 2 2λ 2
2
1

5.4. Puntos crı́ticos y estabilidad


En la práctica resulta imposible resolver exactamente la mayorı́a de los sistemas de EDO y hay que recurrir a
técnicas para obtener propiedades cualitativas de las soluciones sin encontrarlas. Entre estas propiedades destaca
la denominada “estabilidad de las soluciones”. En lo sucesivo consideraremos solo sistemas autónomos, ẋ = V(x),
aunque las definiciones y resultados que enumeraremos son generalizables al caso general. Ya hemos comentado
que se puede obtener una imagen cualitativa de las soluciones a partir del dibujo del campo de direcciones V(x)
en el espacio fásico. En este sentido son particularmente interesantes los puntos donde este campo se anula, lo
cual representa una solución independiente del tiempo (“estado de equilibrio”).

Definición: sea un sistema autónomo de EDOs de primer orden, ẋ = V(x). Un punto xc del espacio de fases
se denomina crı́tico o fijo si se verifica V(xc ) = 0. Los puntos crı́ticos son soluciones del sistema y se denominan
también puntos de equilibrio puesto que ẋ = 0. Un punto crı́tico se denomina aislado si existe algún entorno del
mismo que no contenga ningún otro punto crı́tico.
Comentario: el dibujo del campo de direcciones V(x) cerca de un punto crı́tico aislado puede dar la impresión
de que las trayectorias se pueden cortar en ese punto, donde por tanto el problema no estarı́a bien planteado.
Como veremos, esto no es ası́: trayectorias diferentes no se cortan en el punto fijo, el cual a su vez es en sı́ mismo
una trayectoria.

Definición: [4, p.472], [6, p.63], [7, estabilidad, p.68] un punto crı́tico aislado xc se denomina estable si se
verifica:
∀ε > 0, ∃δ > 0 | ∀x(t), |x(0) − xc | < δ ⇒ |x(t) − xc | < ε, ∀t > 0.
En caso contrario, el punto se denomina inestable. Un punto crı́tico xc se denomina asintóticamente estable si
es estable y además

∃δ 0 > 0 | ∀x(t), |x(0) − xc | < δ 0 ⇒ lı́m |x(t) − xc | = 0.


t→+∞

Comentarios:
La imagen geométrica asociada a estas definiciones es simple: en el caso de un punto crı́tico estable, tienden
a quedarse arbitrariamente cerca del mismo todas aquellas trayectorias que empiezan suficientemente cerca
del punto. Es asintóticamente estable si además todas las trayectorias acaban acercándose al punto.
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 17

La diferencia entre estabilidad y estabilidad asintótica es que en el primer caso la trayectoria puede quedar
“dando vueltas” indefinidamente alrededor del punto crı́tico, mientras que en el segundo acaba “cayendo”
sobre él. Notemos también que la condición para t → +∞ por sı́ sola no es suficiente para satisfacer la
definición de estabilidad: por ejemplo, puede ocurrir que existan trayectorias que empiecen arbitrariamente
cerca del punto crı́tico, se alejen hasta una distancia finita (independiente de la condición inicial) y vuelvan
asintóticamente al punto crı́tico. Por eso la definición de estabilidad asintótica incluye explı́citamente la
condición de estabilidad.
La condición de inestabilidad no significa que las trayectorias se alejen arbitrariamente del punto crı́tico,
sino solo que existen algunas que empiezan arbitrariamente cerca pero se alejan más allá de una distan-
cia independiente de la condición inicial. En particular, la condición de inestabilidad no excluye que la
trayectoria que escapa pueda volver a pasar arbitrariamente cerca del punto crı́tico o incluso caer en él.

5.4.1. Sistema lineal, homogéneo y autónomo


Estudiemos primero el caso del sistema ẋ = Ax. Aunque conocemos la solución exacta, el análisis de la estabilidad
es relevante porque este sistema lineal sirve como aproximación para sistemas generales no lineales.

Lema: El origen es siempre un punto crı́tico del sistema ẋ = Ax.


Comentarios:
La demostración es inmediata: la función x(t) = 0 verifica la ecuación. Más aún, este punto crı́tico es
aislado si det A =
6 0. En efecto, en tal caso, la única solución del sistema lineal de ecuaciones Ax = 0 es la
trivial.
Si det A = 0, al menos uno de los autovalores de A es nulo y entonces existe todo un subespacio de puntos
crı́ticos (una lı́nea, un plano,. . . según la dimensión del subespacio asociado al autovalor), de manera que
el punto crı́tico no está aislado.
Antes de analizar el caso general, consideraremos en detalle el caso n = 2. Tomamos A real y no singular
(det A 6= 0 ⇒ autovalores no nulos), de manera que el origen es un punto crı́tico aislado, y nos interesamos por
soluciones reales, x ∈ R2 . Se distinguen los siguientes casos:

autovalores reales,
A diagonalizable A no diagonalizable.
autovalores complejos,

I. A diagonalizable: la solución general tendrá la forma

x(t) = C1 v(1) eλ1 t + C2 v(2) eλ2 t , C1 , C2 constantes arbitrarias.

El comportamiento cualitativo de la solución estará controlado por los autovalores λ1 , λ2 6= 0.


a) Autovalores reales (suponemos λ1 ≤ λ2 sin pérdida de generalidad).
1) Supongamos λ1 < λ2 < 0. Se verifica

|x(t)| = C1 v(1) eλ1 t + C2 v(2) eλ2 t ≤ |C1 ||v(1) | + |C2 ||v(2) |, t > 0.

Por tanto, siempre se pueden elegir valores suficientemente pequeños de |C1 |, |C2 | (a través de la
condición inicial, x(0) = C1 v(1) + C2 v(2) ) para que la trayectoria quede siempre tan cerca del
origen como deseemos. Por tanto, el punto crı́tico es estable. Más aún, como lı́mt→+∞ |x(t)| = 0
debido al comportamiento de las exponenciales decrecientes, el origen es asintóticamente estable:
el punto crı́tico se denomina nodo sumidero. Si se escribe la solución general como
 
−λ2 )t 
x(t) = eλ2 t C2 v(2) + C1 v(1) e|(λ1{z } ,
e<0
18 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

nodo punto de silla

v (2)
v (2)

v (1) v (1)

Figura 5.1: Aspecto cualitativo de las trayectorias de un sistema autónomo lineal y homogéneo cerca del punto
crı́tico cuando A es diagonalizable, no singular y los autovalores son reales.

resulta patente que la mayorı́a de las trayectorias (esto es, aquella con C2 6= 0) se aproximan al
origen a lo largo de la dirección de v(2) . Notemos en el dibujo que las trayectorias no se cortan
en el punto crı́tico: se aproximan arbitrariamente a él sin llegar a alcanzarlo nunca. Por tanto,
no se viola el teorema de Picard y de hecho el problema está bien planteado en el punto crı́tico:
x(t) = 0 es la solución única que pasa por el mismo.
2) Supongamos 0 < λ1 < λ2 . Este caso no es más que el anterior pero cambiando t por −t, es decir,
“con el tiempo corriendo hacia atrás”. En particular, esto implica lı́mt→+∞ |x(t)| = ∞: todas
las soluciones se alejan del origen indefinidamente, que es por ello un punto crı́tico inestable,
denominado nodo fuente.
3) Supongamos, λ1 < 0 < λ2 : como lı́mt→+∞ |x(t)| = ∞ si C2 6= 0, algunas soluciones se alejan
del origen indefinidamente, que es pues inestable. Sin embargo, las soluciones con C2 = 0 decaen
monótonamente a cero a lo largo de la dirección de v(1) . En este caso, el punto crı́tico se denomina
punto de silla. Las cuatro trayectorias rectas, paralelas a v(1) y v(2) , se denominan separatrices.
4) En el caso particular λ1 = λ2 (y ambos reales y no nulos), el punto crı́tico se denomina nodo
propio, fuente si λ1 = λ2 > 0 (punto crı́tico inestable), o sumidero si λ1 = λ2 < 0 (punto crı́tico
estable). En este caso, todas las trayectorias son rectas dirigidas hacia el origen.

b) Autovalores complejos: como A es real, cuando los autovalores sean complejos se verificará
 
v1
λ1 = µ + iω, λ2 = λ∗1 = µ − iω, con µ = Re λ1 , ω = Im λ1 , v(1) = v(2)∗ =: v = .
v2

Entonces, la solución general se escribe como

C1 v(1) eλ1 t + C2 v(2) eλ2 t = eµt C1 veiωt + C2 v∗ e−iωt


 
x(t) =
x ∈ R2  C = Ceiφ h i
eµt C1 veiωt + C1∗ v∗ e−iωt 1 = Ceµt vei(ωt+φ) + v∗ e−i(ωt+φ)

=
Ceµt z(t), z(t) := Re v̂eiωt , v̂ := 2veiφ .

=

Para entender la forma de la trayectoria analizamos primero la función z(t):


c Alvaro Domı́nguez, Univ. Sevilla Tema 5 19

punto espiral centro

Figura 5.2: Aspecto cualitativo de las trayectorias de un sistema autónomo lineal y homogéneo cerca del punto
crı́tico cuando A es diagonalizable, no singular y los autovalores son complejos conjugados.

Como z(t) es una función periódica de t, describe en el espacio de fases una curva cerrada. Más
aún, el módulo está acotado:
1 1 1
|z(t)| = Re v̂eiωt v̂eiωt + v̂∗ e−iωt ≤ |v̂| eiωt + |v̂∗ | e−iωt = |v̂|.

=
2 2 | {z } 2 | {z }
1 1

Luego la curva descrita por z(t) nunca escapa al infinito. Como veremos, esto es todo lo que se
necesita para establecer la estabilidad del punto crı́tico.
Para obtener la forma geométrica de esta curva se busca eliminar la dependencia explı́cita con el
parámetro t y encontrar una relación F (z) = 0 que involucre solo al vector z. El vector complejo
bidimensional
z = v̂eiωt + v̂∗ e−iωt
se puede ver como un sistema lineal inhomogéneo de dos ecuaciones para las dos incógnitas
complejas e±iωt . Este sistema tiene solución única porque los autovectores v̂, v̂∗ forman una base
del espacio vectorial C2 . Definiendo

v̂∗ · v̂ = v̂1∗ v̂1 + v̂2∗ v̂2 = |v̂|2 =: v̂ 2 ∈ R, v̂ · v̂ = v̂12 + v̂22 =: β ∈ C

y proyectando z sobre los vectores de la base, se escribe

v̂ · z = βeiωt + v̂ 2 e−iωt β ∗ v̂ · z − v̂ 2 v̂∗ · z



∗ 2 iωt ∗ −iωt ⇒ eiωt = .
v̂ · z = v̂ e + β e |β|2 − v̂ 4
Se puede eliminar la dependencia explı́cita con t tomando el módulo y recordando que z es real:

β ∗ v̂ · z − v̂ 2 v̂∗ · z β v̂∗ · z − v̂ 2 v̂ · z
 
iωt 2
1= e = 2 2
(|β| − v̂ 2 ) (|β| + v̂ 2 )
2 2
0 = F (z) := (|β|2 + v̂ 4 )|v · z|2 − v̂ 2 β(v∗ · z)2 + β ∗ (v · z)2 − |β| − v̂ 2 |β| + v̂ 2 .
 

Se trata de una relación cuadrática para el vector z, el cual por tanto describe un lugar geométrico
en el plano correspondiente a una cónica (elipse o hipérbola, incluyendo los casos degenerados
20 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

de circunferencia y parábola). Además, si z verifica F (z) = 0, también lo hace el vector −z, de


manera que la cónica está centrada en el origen. Como hemos visto que z está acotado, la única
opción es que la curva z(t) sea una elipse.
Por tanto, se puede afirmar lo siguiente sobre la trayectoria x(t) = Ceµt z(t):
1) Si µ < 0, se verifica
|x(t)| ≤ C|z(t)| ≤ C|v̂|, t ≥ 0,
es decir, se puede elegir un valor suficientemente pequeño de C (a través de la condición inicial
x(0) = Cz(0) = C Re v̂) para que la trayectoria siempre permanezca tan cerca del origen como
se desee. Por tanto, el punto crı́tico es estable; además, como lı́mt→+∞ |x(t)| = 0, el punto crı́tico
es asintóticamente estable. Se denomina punto espiral sumidero y las trayectorias son espirales
elı́pticas que “caen” hacia el origen.
2) Si µ > 0, se tiene lı́mt→+∞ |x(t)| = ∞ para todas las soluciones, ası́ que el origen es inestable.
Este punto crı́tico se llama punto espiral fuente y las trayectorias son las reversas de las anteriores:
espirales elı́pticas que se “alejan” del origen.
3) En el caso especial µ = 0 (pero ω 6= 0) también se cumple |x| ≤ C|v̂| y el origen es estable, pero
lı́mt→+∞ |x(t)| = 6 0, ası́ que no es asintóticamente estable. El origen se denomina centro y las
trayectorias son elipses cerradas alrededor del mismo.

II. A no diagonalizable: esto implica necesariamente que posee un solo autovalor (real y no nulo) λ1 = λ2 =: λ,
y que existe un solo autovalor linealmente independiente v, ası́ que la solución general es de la forma

x(t) = eλt [C1 v + C2 (tv + w)] .

El carácter del punto fijo dependerá del signo de λ:

a) Si λ < 0: como la función teλt tiene un máximo local en t = −1/λ > 0, se verifica
t>0 |C2 |
|x(t)| ≤ eλt |C1 v + C2 w| + teλt |C2 v| ≤ |C1 ||v| + |C2 ||w| + |v|.
e|λ|

Por tanto, el punto es estable. Como además lı́mt→+∞ |x(t)| = 0, es asintóticamente estable. El origen
se denomina nodo sumidero impropio o degenerado.
b) Si λ > 0 se tiene lı́mt→+∞ |x(t)| = ∞ para todas las soluciones, ası́ que el origen es inestable. Se
denomina nodo fuente impropio o degenerado.

En ambos casos, las trayectorias se caracterizan por exhibir una inflexión para algún tiempo intermedio.

Se debe destacar que los casos de nodo, punto de silla y punto espiral son robustos, en el sentido de que se basan
en desigualdades sobre los autovalores. En cambio, los casos de centro y de nodo degenerado (ası́ como el caso
de matriz singular) no son robustos porque se basan en igualdades estrictas. Esta diferencia será relevante para
la aplicación de estos conceptos al caso de sistemas no lineales. Por último, este análisis para un sistema lineal
de segundo orden se puede extender a un sistema de orden arbitrario:

Teorema: sea un sistema de EDOs ẋ = Ax lineal, homogéneo, autónomo y de grado n. El origen xc = 0 es un


punto crı́tico inestable si existen autovalores de A con parte real positiva, y es asintóticamente estable si todos
los autovalores tienen parte real negativa.
Demostración: sean
λα = µα + iωα , µα := Re λα , ωα := Im λα , α = 1, . . . n
los autovalores de la matriz A (que pueden estar repetidos). La solución general del sistema tendrá la forma
n
X
x(t) = Cα u(α) (t), u(α) (t) = eλα t w(α) (t) = eµα t eiωα t w(α) (t), w(α) (t) polinomio en t.
α=1
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 21

nodo impropio sumidero nodo impropio fuente

w
w
v
v

Figura 5.3: Aspecto cualitativo de las trayectorias de un sistema autónomo lineal y homogéneo cerca del punto
crı́tico cuando A no es singular pero tampoco diagonalizable.

Supongamos que existen autovalores con parte real positiva, por ejemplo α = 1, con µ1 > 0. Entonces
existirá al menos una solución de la forma

x(t) = C1 u(1) (t) = eµ1 t eiω1 t w(1) (t).

Esta solución verifica lı́mt→+∞ |x(t)| = ∞ debido a la exponencial real para cualquier C 6= 0, es decir,
aunque la solución empiece muy cerca del origen, escapará al infinito. Por tanto, el punto es inestable.
Supongamos que todos los autovalores tienen parte real negativa. La función
2 h i
u(α) (t) = u(α)∗ (t) · u(α) (t) = |e2µ αt
{z } w (α)∗
(t) · w (α)
(t) ,
e<0 | {z }
polinomio en t

es continua y acotada en el semieje t ≥ 0 debido a la exponencial decreciente. Por tanto, alcanza un valor
máximo, |u(α) | ≤ Mα , y se verifica
n
X n
X n
X
|x(t)| = Cα u(α) (t) ≤ |Cα | u(α) (t) ≤ |Cα |Mα ,
α=1 α=1 α=1

de manera que el punto crı́tico es estable. Como además lı́mt→+∞ |x(t)| = 0 debido al decaimiento expo-
nencial, el punto es asintóticamente estable.
Cuando no se da alguno de los casos previos, entonces necesariamente existen algunos autovalores con parte
real estrictamente nula (esto es, imaginarios puros o nulos). Se trata de casos no robustos y lo más simple
es estudiar cada situación especı́fica.
22 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

5.4.2. La aproximación lineal


Sea el sistema autónomo general ẋ = V(x) de orden n. Supongamos que xc es un punto crı́tico aislado: si el
vector z := x − xc denota la desviación del punto crı́tico, entonces la ecuación V(x = xc + z) = 0 tiene z = 0
como solución única cuando nos restrinjimos al caso de que |z| es suficientemente pequeño. Si la función V(x)
se puede aproximar cerca del punto xc mediante su desarrollo en serie de Taylor, se escribirá
n
X ∂Vj
Vj (xc + z) ≈ Vj (xc ) + (xc ) zk = (Az)j ,
| {z } k=1 ∂xk
0
| {z }
=:Ajk

donde la matriz A de elementos Ajk se denomina la matriz jacobiana de la función V(x). Es razonable suponer
que aquellas soluciones del sistema que pasan cerca del punto crı́tico verificaran la ecuación lineal ẋ = ż ≈ Az.
Esta expresión se denomina aproximación lineal del sistema en el punto crı́tico xc y sugiere que el estudio local
de las soluciones del sistema lineal se puede reducir a un problema lineal. Los resultados exactos más sencillos
se resumen en el siguiente

teorema de la aproximación lineal: [3, p.227], [6, p.67,68], [8, p.27] un punto crı́tico aislado es asintótica-
mente estable si lo es en la aproximación lineal, y es inestable si lo es en la aproximación lineal. Si además
ningún autovalor tiene parte real nula, esto es, no existen autovalores nulos o imaginarios puros, entonces el
aspecto cualitativo de las trayectorias exactas cerca del punto crı́tico está bien descrito por las trayectorias de
la aproximación lineal.
Comentarios:
La primera parte del teorema se refiere solo a la estabilidad del punto crı́tico. Notemos que no es concluyente
si la aproximación lineal solo predice que el punto crı́tico es estable, pues este rasgo no es robusto en
esta aproximación. La segunda parte, relativa a la forma de las trayectorias, se conoce como teorema de
Hartman–Grobman [6, p.68], [8, p.27].
Las limitaciones de la aproximación lineal se entienden fácilmente en términos de la robustez de los rasgos:
aquellos resultados basados en una igualdad (en lugar de una desigualdad) que involucran los autovalores
de A pueden verse alterados de manera crucial por las correcciones a la aproximación lineal. Por ello no
se pueden extrapolar conclusiones que se basen en que algún autovalor (o su parte real) se anule o en que
algunos coincidan (multiplicidad). Por lo tanto, para orden n = 2 los únicos casos robustos respecto a las
correcciones no lineales despreciadas son el nodo propio, el punto de silla y el punto espiral.
Aunque se ha motivado la aproximación lineal a partir del desarrollo en serie de Taylor de la función V(x),
suficiente que se verifique
|B(z)|
V(xc + z) = Az + B(z), lı́m =0
|z|→0 |z|

para la validez del teorema. Esta condición es menos restrictiva que la existencia de un desarrollo en serie
de Taylor, el cual supone que V tiene derivadas de cualquier orden y, por tanto, que la función B(z) es de
orden |z|2 (debido a las derivadas segundas).
Ejemplos:
1. Péndulo con rozamiento: sea m la masa del péndulo y L la longitud de la varilla rı́gida que lo sujeta. La
ecuación de movimiento es
d2 r T = tensión de la varilla,
m = T + mg + froz ,
dt2 froz = −kv = fuerza de fricción, k > 0.
Solo nos interesa la componente de esta ecuación vectorial en la dirección normal a la varilla (y, por tanto,
normal a la tensión T). En términos del ángulo θ que forma la varilla con la vertical dirigida hacia abajo,
la ecuación de movimiento de la masa proyectada en esta dirección es
r
2 g k
mLθ̈ = −mg sen θ − kLθ̇ ⇒ θ̈ = −ω sen θ − 2rθ̇, ω := , 2r = > 0.
L m
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 23

ω = 1, r = 0 ω = 1, r = 0.1 ω = 1, r = 0.4 ω = 1, r = 1.5

Figura 5.4: Diagrama de fases del péndulo no lineal en los casos (por orden) sin fricción, subamortiguado con
rotación, subamortiguado sin rotación, y sobreamortiguado. Los puntos fijos son P1 = (0, 0) y P2 = (±π, 0).

Transformamos esta EDO de segundo orden en un sistema autónomo de orden dos:


 
x1 := θ   ẋ1 = x2  
x2
⇒ ⇒ ẋ = V(x) := .
2 −ω 2 sen x1 − 2rx2
x2 := θ̇ ẋ = −ω sen x − 2rx
 
2 1 2

El espacio fásico correspondiente a este sistema es una franja semi-infinita con condiciones de contorno
periódicas:
−π ≤ x1 ≤ π, −∞ < x2 < +∞.
Analicemos las soluciones cerca de los puntos crı́ticos:
a) Cálculo de los puntos crı́ticos Pk :
!
( 
! x2 = 0 P1 = (0, 0),
V(xc ) = 0 ⇒ ⇒
!
−ω 2 sen x1 − 2rx2 = 0 P2 = (π, 0) ≡ (−π, 0).

Fı́sicamente, P1 es el punto de equilibrio inferior, mientras que P2 es el punto de equilibrio superior.


b) El campo de direcciones V(x) es infinitamente derivable, ası́ que podemos construir la aproximación
lineal mediante un desarrollo de Taylor. En particular, la matriz jacobiana es
∂V1 ∂V1
 
 
 ∂x1 ∂x2  0 1
A(x) =  = .
  
 ∂V ∂V 2
−ω cos x1 −2r

2 2
∂x1 ∂x2

c) Aproximación lineal en el punto P1 = (0, 0):



   (r < ω) Re λ = −r < 0,

0 1 p
2 2
A(P1 ) = ⇒ λ = −r± r − ω ⇒
−ω 2 −2r
h p i
 (ω < r) Re λ = −r 1 ± 1 − ω 2 /r2 < 0.

Como r 6= 0, en ambos casos se concluye que P1 es asintóticamente estable: nodo sumidero si ω < r,
espiral sumidero si r < ω. Además, el aspecto cualitativo de las trayectorias cerca de P1 viene dado
correctamente por la aproximación lineal. En el lı́mite r = 0 (no hay fricción) se tiene λ = ±iω y
el análisis no es concluyente: en este caso, sin embargo, conocemos por razones fı́sicas una integral
primera (conservación de la energı́a), lo cual permite concluir que P1 es un centro más allá de la
aproximación lineal. Fı́sicamente, el carácter del punto P1 refleja las oscilaciones (amortiguadas si
r 6= 0) del péndulo alrededor del punto de equilibrio inferior.
24 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

d ) Aproximación lineal en el punto P2 = (π, 0):


 √
   λ = −r + r2 + ω 2 > 0,
0 1
A(P2 ) = ⇒ √
ω2 −2r
λ = −r − r2 + ω 2 < 0.

Los dos autovalores son reales. Como uno de los autovalores es positivo, P2 es inestable. Como además
el otro es negativo P2 es un punto de silla y la estructura cualitativa del conjunto de trayectorias cerca
de P2 viene dada correctamente por la aproximación lineal. Estas conclusiones siguen siendo válidas
incluso si r = 0. Este comportamiento representa el estado de equilibrio inestable de un péndulo
puesto boca arriba.
Algunos comentarios finales:
Los puntos crı́ticos se corresponden con lo esperado sobre la base de la interpretación fı́sica. El método,
sin embargo, solo permite reconstruir el aspecto cualitativo de las trayectorias cerca de los puntos
crı́ticos. No se puede deducir el comportamiento en el resto del espacio de fases a partir de estos
resultados (en particular, las trayectorias para energı́as suficientemente altas, que describen rotación
del péndulo sin cambio de signo en la velocidad).
Si la fuerza de rozamiento fuera no lineal, froz = −kv 2 v, se tendrı́a
 
  0 1
x2
V(x) = ⇒ A(x) =  .
−ω 2 sen x1 − 2rL2 x32 2 2 2
−ω cos x1 −6rL x2
En el punto P1 = (0, 0), la matriz jacobiana no depende de r, de manera que la aproximación lineal
no permite capturar el efecto de la fricción en este caso.
Este ejemplo ilustra cómo se pueden obtener propiedades de las soluciones de una EDO no lineal
utilizando las técnicas de análisis de un sistema lineal.
2. Especies en competición: consideremos un modelo sencillo para la evolución en el tiempo de las poblaciones
de dos especies biológicas en competición: si x1 (t), x2 (t) denotan el número de individuos de cada especie,
se escribe
dx1 dx2
= G1 (x1 , x2 ), = G2 (x1 , x2 ), x1 , x2 ≥ 0.
dt dt
Estas ecuaciones son una generalización de los problemas de nacimiento–muerte que se vio en el tema
de EDOs de primer orden. Las tasas G1 , G2 de crecimiento de las poblaciones no son constantes sino
que dependen de las poblaciones. Esto permite representar el efecto de la competición entre las especies
en un ecosistema (relaciones predador–presa, de simbiosis, de parasitismo, de competencia por los mismos
recursos,. . . ) Este tipo de ecuaciones también surge al modelar reacciones entre distintas especies quı́micas,
en cuyo caso x1 , x2 se interpreta como la concentración de los compuestos quı́micos y G1 , G2 como las tasas
de producción (o destrucción), dependientes de las concentraciones.
Consideremos a modo de ejemplo el siguiente sistema [4, p.492, Example 1]:

ẋ1 = x1 (1 − x1 − x2 )   
x1 (1 − x1 − x2 )


  

3 1   
ẋ2 = x2 − x1 − x2 ⇔ ẋ = V(x) :=    .
4 2  3 1 
x − x − x

2 1 2

4 2




x1 , x2 ≥ 0

Podemos interpretar estas ecuaciones como la descripción de un ecosistema donde ambas especies compiten
por los mismos recursos, de manera que las tasas de crecimiento disminuyen al aumentar cualquiera de las
poblaciones. Los distintos coeficientes numéricos reflejarı́an diferentes susceptibilidades de estas tasas: ası́,
por ejemplo, aunque en poblaciones pequeñas (x1 , x2 → 0) la tasa de crecimiento de la primera especie es
mayor que la tasa de la segunda especie (1 frente a 3/4), se ve reducida en mayor medida por el crecimiento
de la primera población (−x1 frente a −x1 /2).
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 25

especies en competición

Figura 5.5: Diagrama de fases de un modelo de dos especies en competición. Los puntos fijos son P1 = (0, 0) y
P2 = (0, 3/4), P3 = (1, 0), P4 = (1/2, 1/2).

a) Cálculo de los puntos crı́ticos Pk :


 

 x1 (1 − x1 − x2 ) = 0 
 P1 = (0, 0),
P2 = (0, 3/4),
 
V(xc ) = 0 ⇒   ⇒
3 1 P3 = (1, 0),
x − x − x =0
 
 2
 1 2

4 2 P4 = (1/2, 1/2).

b) Como las funciones Vk (x) son polinomios, existe el desarrollo de Taylor. La matriz jacobiana es

∂V1 ∂V1
 
1 − x2 − 2x1 −x1
 
 ∂x1 ∂x2 
A(x) =  = .
   
 ∂V ∂V2  1 3 1
2 − x2 − x1 − 2x2
∂x ∂x 2 4 2
1 2

c) Aproximación lineal en cada punto crı́tico:


   
1 0 λ = 1, v = (1, 0)
A(P1 ) = ⇒ ⇒ P1 es inestable (nodo fuente).
0 3/4 λ = 3/4, v = (0, 1)
   
1/4 0 λ = −3/4, v = (0, 1)
A(P2 ) = ⇒ ⇒ P2 es inestable (punto de silla).
−3/8 −3/4 λ = 1/4, v = (−8, 3)
   
−1 −1 λ = −1, v = (1, 0)
A(P3 ) = ⇒ ⇒ P3 es inestable (punto de silla).
0 1/4 λ = 1/4, v = (−4, 5)
   √ √ 
−1/2 −1/2 λ = −(2 − √2)/4, v = (−√ 2, 1) P4 es asintóticamente
A(P4 ) = ⇒ ⇒
−1/4 −1/2 λ = −(2 + 2)/4, v = ( 2, 1) estable (nodo sumidero).
26 Tema 5 c Alvaro Domı́nguez, Univ. Sevilla

x+


x = V (x)
x- x+
x0 =0 t

x
x-

2
√ de fases y solución de la EDO ẋ = V (x) = x (cosh x − σ). Los puntos fijos son x = x0 := 0,
Figura 5.6: Espacio
x = x± := ln(σ ± σ 2 − 1).

3. El caso n = 1: este ejemplo ilustra cómo se pueden emplear los métodos que estamos viendo para analizar
el comportamiento cualitativo de las soluciones de una EDO de primer orden separable:
Z
dx
sistema autónomo de orden uno: ẋ = V (x) ⇒ = t + C.
V (x)

Normalmente no se puede evaluar la integral indefinida sobre x en términos de funciones elementales.


Supongamos que V (x) posee un desarrollo de Taylor y que xc representa un punto crı́tico aislado, es decir,
V (xc ) = 0, V 0 (xc ) 6= 0 (xc es un cero de la función y no es un extremo local). Si se aplica la aproximación
lineal, resulta 0
z := x − xc ⇒ ż = V (xc + z) ≈ V 0 (xc )z ⇒ z(t) = CeV (xc )t ,
Entonces, si V 0 (xc ) > 0 el punto crı́tico es inestable y la solución se aleja del mismo, mientras que es
asintóticamente estable si V 0 (xc ) < 0. ¿Qué sucede si V 0 (xc ) = 0? Este caso requiere un análisis no lineal,
pero la ecuación de primer orden es lo bastante simple para permitirlo, pues el signo de ẋ viene dado por
el de V (x), que solo puede cambiar en los puntos crı́ticos si es una función continua.
Por ejemplo, consideremos la EDO de primer orden

ẋ = V (x) = x2 (cosh x − σ) , σ = constante > 1.

cuya solución no se puede expresar en términos de funciones analı́ticas. El teorema de Picard permite
afirmar que el problema está bien planteado en cualquier punto del plano (t, x), porque tanto V (x) como
V 0 (x) = 2x(cosh x − σ) + x2 senh x son continuas. Para obtener más información sobre las soluciones,
buscamos los puntos crı́ticos:

! x0 = 0 √
V (x) = 0 ⇒ 
cosh x = σ ⇒ x± = ln σ ± σ 2 − 1

La gráfica de la función V (x) muestra que ẋ = V (x) > 0 si x > x+ o x < x− , mientras que ẋ = V (x) < 0 si
x− < x < x+ (con la excepción de V (0) = 0). Combinando esta información con el hecho de que por cada
punto pasa una, y solo una curva integral, es posible reconstruir completamente el aspecto cualitativo de
las soluciones, como se muestra en las gráficas. Ası́ pues, el punto x− es asintóticamente estable, mientras
que los puntos x0 , x+ son inestables.
c Alvaro Domı́nguez, Univ. Sevilla Tema 5 27

Para concluir, cuando estos métodos no sirven (por ejemplo, porque la aproximación lineal no es concluyente),
hay que recurrir a otros métodos. Entre ellos destaca el concepto de función de Liapunov : de la misma manera
que las integrales primeras extienden la noción mecánica de “conservación” al espacio abstracto de fases, la
función de Liapunov extiende el concepto de “entropı́a”: la función nunca disminuye durante la evolución a lo
largo de las soluciones del sistema de EDOs.

También podría gustarte