Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ORDINARIAS
Miguel A. Rodrı́guez
Introducción. Métodos
elementales de integración
1.1 Introducción
Las Ecuaciones Diferenciales (ED) es uno de los campos de la Matemática donde
se siente con más fuerza la influencia mutua con la Fı́sica. Muchas de las leyes
de la Fı́sica adoptan en su enunciado matemático la forma de una ecuación
diferencial. Los grandes desarrollos en el mundo de las ED son motivados en su
mayor parte por la necesidad de estudiar el significado de esas leyes para poder
predecir comportamientos de los sistemas fı́sicos.
Desde muy pronto en la historia de la matemática moderna, es decir, los
tiempos de Euler, las ecuaciones diferenciales aparecen como una de las ra-
mas con un crecimiento espectacular aunque existan discontinuidades claras.
Desde los objetivos iniciales de Euler y los Bernouilli por resolver de manera
explı́cita el mayor número de euaciones posibles, hasta los supuestamente más
modestos de obtener el mayor número de resultados posibles aún sin saber la
solución, ha pasado un largo periodo en el que el desarrollo de las otra ramas
de la matemática, singularmente el análisis, han permitido conseguir un nivel
de conocimientos realmente impresionante en este tema.
f (x, u, ux , uxx , . . .) = 0
1
2 EDO. Versión 4. Mayo 1996
y = y
y = f (x)
donde C es una constante cualquiera (Fig.1). En efecto, sea y(x) una solución
de la ecuación, y multipliquémosla por exp(−x). Derivando respecto a x, es
fácil obtener:
d
(y(x)e−x ) = 0
dx
de donde se deduce la forma dada en (1).
Para finalizar este ejemplo, demostremos como las propiedades de la función
exponencial pueden deducirse del estudio de la ecuacion diferencial de la que es
solución; consideremos por ejemplo:
ea+b = ea eb .
Fig.1
f (a + b) = f (a)f (b)
f (x, y, c1 , c2 , . . . , cn ) = 0
una ecuación, en la que se supone que las operaciones a realizar son válidas.
Derivemos n veces respecto a la variable x, considerando a y como función
implı́cita de x. Esto permite obtener n + 1 ecuaciones de donde es posible, en
principio, eliminar las constantes ci , obteniéndose una ecuación diferencial de
grado n. El orden de esta ecuación puede ser menor si las constantes satisfacen
algunas relaciones. La solución de esta ED será la ecuación de partida, siempre
que y pueda ser escrita como función de x, y dependerá de n constantes de
integración. Esto es una solución general en el sentido habitual. Sin embargo es
posible que alguna solución pueda no estar representada en ella. Consideremos
4 EDO. Versión 4. Mayo 1996
∂f ∂f
+ y =0
∂x ∂y
∂f
dc = 0
∂c
es decir, o bien dc = 0 con lo cual c es constante y obtenemos la solución general
f (x, y, c) = 0, o bien:
∂f
=0
∂c
que puede en ocasiones ser una solución de la ED y no estar incluı́da en la
solución general. Se trata de una solución singular, y desde un punto de vista
geométrico es la envolvente de la familia de curvas dada por la solución general.
La mayor parte de los resultados sobre ecuaciones diferenciales se refieren a
aquellas que están escritas en la llamada forma normal, es decir aquellas en las
que la derivada de mayor orden está despejada:
y(x) = (x + c)3
y y
x x
Fig.2 Fig.3
donde c es una constante positiva. Ninguna solución pasa por (0, 0). Nótese
que esta expresión no es una solución en sentido estricto pues y no es función
de x en todos los puntos. Sin embargo contiene a las soluciones de la ecuación.
Con más propiedad la podemos llamar una integral de la ED (Fig.3).
6 EDO. Versión 4. Mayo 1996
y y
1 x
Fig.4 Fig.5
1.3.3 Prolongación
Al ser una solución una función y = y(x), puede ocurrir que no esté bien definida
para cualquier valor de x. En general uno considera soluciones definidas en el
mayor intervalo posible. Se llaman soluciones maximales en el sentido que el
intervalo no se puede ampliar más. Este intervalo puede ser, por supuesto, no
acotado por la derecha, izquierda o por ambas simultáneamente. Los siguientes
MAR 7
x2 + y 2 = c.
Está claro que esta solución no se puede prolongar hacia la derecha (x crecientes)
más allá de c1/2 . Un razonamiento similar muestra que no se puede prolongar
hacia la izquierda más allá de −c1/2 . Por tanto esta solución está definida en
el intervalo (−c1/2 , c1/2 ) y es no prolongable en el sentido dicho anteriormente
(Fig.3).
b) y = y 2 tiene como solución general y(x) = 1/(c − x). Para cualquier c la
solución no se puede prolongar más allá de c.
Por ejemplo, para fijar ideas, consideremos una solución particular que ver-
ifica y(0) = 1, es decir, y(x) = 1/(1 − x). Está claro que esta solución no puede
prolongarse más allá de x = 1, donde tiene una ası́ntota vertical. Por la izquierda
no presenta ninguna dificultad ası́ que el intervalo máximo de definición es
(−∞, 1) (Fig.5). Se dice muchas veces que la solución no es prolongable ha-
cia la derecha y sı́ lo es hacia la izquierda, para indicar que la solución maximal
tiene como intervalo de definición el anteriormente citado. Esta misma ecuación
tiene soluciones con intervalo de definición del tipo (c, ∞), e incluso una solución
definida en toda la recta, y(x) = 0. Las dificultades de extensión del intervalo,
son distintas en los dos ejemplos expuestos. En el primero de ellos la derivada se
hace infinito en un punto mientras que en el segundo existe una ası́ntota vertical
pero la derivada no se hace infinito en ningún punto en el que la función esté
definida.
Fig.6
decir la pendiente de las soluciones que pasan por ellas. El dibujo de isoclinas
y soluciones es el que aparece en la figura 7.
b) xy +(1−x)y = 0. Las isoclinas son ahora (x−1)y/x = m, o si despejamos
y:
mx
y=
x−1
curvas que pasan por (0, 0) y tienen una ası́ntota vertical en el punto x = 1.
La pendiente en el origen no está definida. De la expresión obtenida en primer
lugar, uno puede deducir que la recta x = 1 es una isoclina de pendiente = 0.
Asimismo x = 0 es una isoclina de la ecuación asociada (dx/dy) con pendiente
igual a 0 (o si se quiere de la ecuación inicial con pendiente ∞). El dibujo de
las isoclinas y soluciones puede verse en la figura 8.
y y
x x
Fig.7 Fig.8
∂f ∂f
y = + f (x, y) = 0.
∂x ∂y
y = 2y y − 1 = 2y(y 2 − x) − 1
Fig.9
ω = df
de donde:
h (y) = Q(x0 , y)
ecuación que se integra facilmente dando:
x y
f (x, y) = P (s, y)ds − Q(x0 , s)ds.
x0 y0
P (x, y) = y − x3
Q(x, y) = x + y 3
luego:
∂P ∂Q
= = 1.
∂y ∂x
Sea f (x, y) la función cuyas curvas de nivel contienen a las soluciones de la
ecuación:
∂f
= P (x, y)
∂x
1
f (x, y) = yx − x4 + h(y)
4
∂f
= x + h (y) = x + y 3
∂y
por tanto:
y4 x4 − y 4
h(y) = , f (x, y) = yx −
4 4
12 EDO. Versión 4. Mayo 1996
y las curvas integrales son f (x, y) = c. Nótese que Q(x, y) = 0 cuando x+y 3 = 0
por lo que en estos puntos no es obvio que y pueda definirse como función de x
(al menos no se verifican las hipótesis del teorema de la función implı́cita). En
los demás puntos esa ecuación define a y como función de x, y es una solución
de la ecuación.
x = ρ cos θ
y = ρ sen θ
la nueva ecuación es:
ρµρ + 2µθ = −2µ
y suponiendo que µ no depende de θ, ρµρ = −2µ, ecuación de la que se obtiene
como solución particular µ(ρ) = 1/ρ2 , es decir el factor integrante antes dado.
MAR 13
(x + 1)µ = µ
ecuación que tiene por solución µ(x) = x + 1. De esta forma uno obtiene
fácilmente la solución general
f (x)dx − g(y)dy = 0
14 EDO. Versión 4. Mayo 1996
y por tanto se pueden usar los métodos expuestos anteriormente. Sin embargo,
en la práctica resulta más directo prescindir de estos planteamientos y escribir:
g(y)y (x)dx = f (x)dx + C
k−x
y(x) = .
1 + kx
f (1, z) − z
z =
x
y que puede resolverse con el método dado anteriormente.
Ejemplo: y − 2x − (2y + x)y = 0.
MAR 15
Esta ecuación fue resuelta antes buscando un factor integrante que la hiciera
exacta. Sin embargo es más sencillo calcular su solución considerándola como
una ecuación homogénea. Si y = zx:
z2 + 1
xz = −2
2z + 1
que es una ecuación de variables separadas:
2z + 1 dx
2
dz = −2
z +1 x
y por tanto:
y
log(x2 + y 2 ) + arctg( ) = C
x
que es la misma solución anterior (aunque el significado de la constante C sea
distinto).
ii) Ecuación de Bernouilli. El siguiente tipo de ecuaciones se puede resolver
mediante un cambio en la variable dependiente:
y = f (x)y + g(x)y r
que es una ecuación lineal de primer orden sobre la que hablaremos a contin-
uación.
Ejemplo: y = y −4y 2 cos2 (x/2). Poniendo z = 1/y, obtenemos una ecuación
lineal de primer orden:
x
z = −z + 4 cos2 ( )
2
que será resuelta en la próxima sección.
iii) La ecuación de Riccati. Se trata de una ecuación con términos no lineales
cuadráticos:
y = a(x) + b(x)y + c(x)y 2 .
En general no se puede reducir a cuadraturas, y solo cuando uno conoce
una solución particular puede convertirla mediante un cambio de variable en
una ecuación de Bernouilli para desde allı́ pasar a una ecuación lineal de primer
orden. La ecuación de Riccati es un caso interesantı́simo que puede ser estudiado
desde numerosos puntos de vista. Veamos primero como el conocimiento de una
solución particular simplifica la ecuación. Sea y1 (x) esa solución y llamemos:
c (x)
v = c(x)a(x) + (b(x) + v) + v 2
c(x)
z + (b + c /c)z + acz = 0.
z
y(x) = −
cz
es decir:
k1 z1 (x) + k2 z2 (x)
y(x) = −
c(x)(k1 z1 (x) + k2 z2 (x))
que no depende de dos constantes, sino solo de una, por ejemplo del cociente
k1 /k2 = k. En cualquier caso, el cálculo de las soluciones de esta ecuación lineal
no es más sencillo que el problema inicial.
Una propiedad de la ecuación de Riccati es que la solución general se puede
expresar en función de tres soluciones particulares distintas y de una constante,
o lo que es lo mismo, la siguiente expresión es constante:
de donde uno puede despejar y(x) suponiendo que conoce las otras tres solu-
ciones. Esta propiedad es debida a la relación que existe entre la ecuación de
Riccati y el grupo de matrices 2 × 2 con coeficientes reales y determinante igual
a uno, hecho tambien relacionado con la ecuación lineal de segundo orden que
antes hemos estudiado. No podemos seguir aquı́ esta lı́nea de razonamiento pues
necesitarı́amos un aparato matemático del que carecemos.
Ejemplo: y = y 2 − 2/x2 .
Es fácil comprobar que y(x) = 1/x es una solución particular de esta ecua-
ción. Más difı́cil es establecer esa conjetura, aunque en este caso se puede
pensar que una función del tipo k/x podrı́a ser solución. Introduciéndola en
la ecuación se obtienen dos valores diferentes de k para los que esta función
MAR 17
y = a(x)y
que es una ecuación de variables separadas y por lo tanto integrable por cua-
draturas:
dy
= a(x)dx
y
es decir:
log |y| = a(x)dx + C
o despejando y(x):
a(x)dx
y(x) = Ke
donde K es una constante real (lo que nos permite eliminar el valor absoluto que
aparecı́a en el logaritmo neperiano). Esta es la solución general de la ecuación
homogénea. Como se ve, todas las soluciones de esta ecuación son propor-
cionales, o dicho de otra manera, forman un espacio vectorial real de dimensión
igual a 1. El cálculo de la solución general de la ecuación completa puede hac-
erse utilizando el llamado método de variación de constantes, que consiste en
probar soluciones de la forma:
y(x) = K(x)e a(x)dx (1.5)
18 EDO. Versión 4. Mayo 1996
Ejemplo: z = −1 − 2z/x
Esta es la ecuación que obtuvimos al tratar de calcular las soluciones de una
ecuación de Riccati. La ecuación homogénea correspondiente es:
2z
z = −
x
y su solución se obtiene de:
K
z(x) = Ke−2 dx/x
= .
x2
En este caso, una solución particular de la homogénea se puede obtener por
el método de variación de constantes (o directamente):
x
zp (x) = − .
3
MAR 19
3x2 1
y(x) = + .
C − x3 x
Las ecuaciones lineales de primer orden son siempre resolubles por cuadra-
turas cuando las funciones a(x) y b(x) que aparecen en ellas son integrables,
en particular cuando son continuas. Como veremos más adelante cuando la
ecuación es de orden superior a uno, sólo si los coeficientes son constantes o en
otros casos muy especı́ficos, es posible encontrar la solución general en forma
compacta.
Nótese que para la ecuación lineal homogénea, si se conoce una solución que
no sea la trivial (y(x) = 0), las demás se obtienen de manera algebraica, es
decir:
y(x)
= C.
y1 (x)
Para la ecuación no homogénea necesitamos dos soluciones distintas, y1 (x),
y2 (x), de forma que y(x) − y1 (x), y(x) − y2 (x) son soluciones de la ecuación
homogénea, con lo que:
y(x) − y1 (x)
=C
y(x) − y2 (x)
a comparar con la ecuación de Riccati donde son necesarias tres soluciones. De
esta forma, las ecuaciones lineales, homogéneas o no, se pueden considerar como
casos particulares de la ecuación de Riccati.
y1 = y0 + hf (x0 , y0 )
y2 = y1 + hf (x1 , y1 )
...
yn = yn−1 + hf (xn−1 , yn−1 ).
Ejemplo: Consideremos la ecuación de Riccati cuya solución encontramos
anteriormente: y = y 2 − 2/x2 , y apliquemos el método de Euler al cálculo del
valor en b = 2.1 de la solución que pasa por (2, 0.5). En las tablas siguientes se
dan los valores que proporciona el método con diferentes pasos:
n = 1, a = x0 = 2, y0 = 0.5
x6 = 2.06, y6 = 0.487356
x7 = 2.07, y7 = 0.483006
x8 = 2.08, y8 = 0.480671
x9 = 2.09, y9 = 0.478359
x10 = 2.1, y10 = 0.476069, error = 0.0001
n = 100 x0 = 2, y0 = 0.5
x100 = 2.1, y100 = 0.476178, error = 0.00001.
Como otro ejemplo que usaremos más tarde, el valor en x = 3 de esta
solución, con n = 10, es 0.322438, frente al valor exacto de 0.333333.
ki1 = f (xi , yi )
errado de la utilización del cálculo numérico sin antes saber si la solución existe
para los valores que se está intentando calcular.
Consideremos nuevamente la ecuación de Riccati: y = y 2 − 2/x2 , pero
intentemos calcular ahora la solución con valor inicial: y(2) = 1. Usando el
método de Euler con n = 10 podemos calcular el valor en x = 3, que resulta
ser 3.248222 frente a 5.733333 que es el valor exacto. El error cometido es
mucho mayor que antes, para la solución con dato inicial y(2) = 0.5. Si usamos
el método de Runge-Kutta, también con n = 10, obtendremos 5.726704 que
es un valor mucho más aproximado. Sin embargo, supongamos que queremos
calcular el valor de esta solución en x = 3.2. El método de Euler con n = 10
nos da 6.093062, mientras que el Runge-Kutta con el mismo número de pasos
da: 447.0796. En realidad, ninguno de los dos resultados es correcto. En este
caso disponemos de la solución exacta por lo que podemos averiguar que es lo
que ocurre. La solución es:
1 3x2
y(x) = +
x 32 − x3
que tiene una singularidad en x = 3.1748, por lo que no tiene sentido preguntarse
cuál es su valor en x = 3.2, donde no está definida.
Nótese también, que los errores cometidos en este caso son mayores que en
el anterior, debido a la variación tan fuerte de la solución.
MAR 23
1.7 Ejercicios
1. Resolver las siguientes ecuaciones diferenciales:
e) y = y 2 − xy + 1
lim y(t).
t→∞
Existencia y unicidad,
dependencia continua,
prolongabilidad y
estabilidad
25
26 EDO. Versión 4. Mayo 1996
f (t, x1 ) − f (t, x2 ) ≤ Lx1 − x2
D = {(t, x) : |t − t0 | ≤ a, |x − x0 | ≤ b}
detalles). Entonces existe una solución única x(t) que verifica x(t0 ) = x0 y que
está definida en un entorno de t0 , |t − t0 | ≤ T , donde T = min{a, b/K} siendo
K = sup{f (t, x) : (t, x) ∈ D}.
Demostración: Transformamos la ecuación diferencial en una integral:
t
x(t) = x0 + f (s, x(s))ds
t0
Las sumas parciales de esta serie son iguales a xn (t), luego, la sucesión xn (t)
converge uniformemente a una función continua x(t). Probaremos ahora que
esa función verifica la ecuación diferencial y la condición inicial:
t t
x(t) = lim xn (t) = x0 + lim f (s, xn (s))ds = x0 + f (s, x(s))ds
n→∞ n→∞ t0 t0
|x̃(t) − x0 | ≤ b, t ∈ [t0 − T , t0 + T ]
Entonces:
t t
|x̃(t) − xn (t)| ≤ |f (s, x̃(s)) − f (s, xn−1 (s))|ds ≤ L |x̃(s) − xn−1 (s)|ds
t0 t0
igual que en el caso anterior, sin embargo las soluciones son x(t) = Kt, ası́ que
por el origen pasan infinitas soluciones. En estos dos ejemplos la función f (t, x)
no está definida en t = 0. Veamos ahora un caso donde la discontinuidad de f
es de salto y existe una única solución al problema.
Ejemplo:
x(1 − 2t) t > 0
x =
x(2t − 1) t < 0
la función f es discontinua en t = 0 (x = 0). Calculemos la solución que verifica
x(1) = 1. En el intervalo t > 0, la solución es: x(t) = Ket(1−t) , y aplicando
la condición inicial, obtenemos K = 1. En el intervalo t < 0, la solución es:
x(t) = K e−t(1−t) . Podemos empalmar estas dos funciones de forma continua
en t = 0 calculando ası́ el valor de K = 1. La solución completa es
t(1−t)
e t>0
x(t) =
e−t(1−t) t < 0
y repitiendo el proceso:
E = C([t0 , t1 ], IRn ), es decir las funciones continuas del intervalo [t0 , t1 ] en IRn ,
y como norma en este espacio:
xe = sup{e−K(t−t0 ) x(t) : t ∈ [t0 , t1 ]}
donde K es una constante estrictamente mayor que L. El espacio (E, .e ) es de
Banach, como se puede probar facilmente. Construiremos ahora una aplicación
contractiva en este espacio:
T :E→E
t
x → (T x)(t) = x0 + f (s, x(s))ds.
t0
Dadas las propiedades de f , T está bien definida. Probemos que es contractiva
en la métrica que proviene de la norma .e .
T x1 − T x2 e = sup{e−K(t−t0 ) T x1 (t) − T x2 (t) : t ∈ [t0 , t1 ]}
ahora bien:
e−K(t−t0 ) T x1 (t) − T2 x(t)
t
= e−K(t−t0 ) [f (s, x1 (s)) − f (s, x2 (s))]ds
t0
t
−K(t−t0 )
≤ Le x1 (s) − x2 (s)ds
t0
t
≤ Le−K(t−t0 ) x1 − x2 e e−K(s−t0 ) ds
t0
L L
= x1 − x2 e [1 − e−K(t−t0 ) ] ≤ x1 − x2 e
K K
de donde tenemos la siguiente acotación:
L L
T x1 − T x2 e ≤ x1 − x2 e , <1
K K
es decir T es una aplicacion contractiva y E es un espacio de Banach, por lo que
T tiene un único punto fijo que es la única solución de la ecuación diferencial
que verifica la condición inicial. Nótese que en contraposición con el teorema
anterior, la solución está definida en todo el intervalo [t0 , t1 ], es decir, se trata
de un resultado global. No es que el teorema sea más eficaz que el anterior, sino
que aquı́ se exige a la función f ser lipschitziana en la segunda variable (que
ya se ha dicho que puede ser vectorial) en todo el espacio IRn . Veamos en un
ejemplo que significa ésto.
Ejemplo: x = x2 , x(0) = 1. La función f (t, x) = x2 es continua en todo
IR × IR. Sin embargo no es lipschitziana en la segunda variable en todo IR. Se
puede probar que f es localmente lipschitziana, pues su derivada con respecto a
x, 2x, está acotada en compactos de IR, aunque no en IR. Que no es lipschitziana
globalmente puede demostrarse por el siguiente razonamiento:
|f (x1 ) − f (x2 )| = |x21 − x22 | ≤ |x1 + x2 |.|x1 − x2 |
32 EDO. Versión 4. Mayo 1996
y |x1 + x2 | no se puede acotar más que en conjuntos acotados de IR. Por tanto
el teorema anterior no puede aplicarse sin más. Veamos como el resultado no es
correcto en nuestro ejemplo. Para ello tomemos t0 = 0 y t1 = 2. La solución es
x(t) = 1/(1−t) que no está definida en t = 2. Concretamente tiene una ası́ntota
vertical en t = 1, y por lo tanto su intervalo máximo de definición (hacia la
derecha) es (0, 1). Sin embargo el primer teorema se aplica sin dificultad. En
este caso uno puede tomar como intervalo de valores de t, [0, 2], y de x, [0, 2].
Una constante de Lipschitz en este conjunto puede ser L = 4, y una cota para f
en el conjunto [0, 2] × [0, 2] es también 4. De acuerdo con el teorema, la solución
está definida (hacia la derecha) en el intervalo [0, T ] donde T es el mı́nimo de 2
y 1/4, es decir T = 0.25. De hecho la solución se puede extender como hemos
visto hasta cualquier T < 1.
El método empleado en la demostración de estos teoremas puede aplicarse
en casos concretos. Las aproximaciones sucesivas se llaman de Picard y pueden
en ocasiones servir para representar la solución. Por ejemplo, consideremos un
caso simple, x = x, x(0) = 1. Como sabemos la solución de este problema es
x(t) = exp(t). Veamos como las aproximaciones de Picard proporcionan en este
caso la serie de Taylor de la exponencial (no es cierto que se obtenga la serie de
Taylor en general).
t
T (x)(t) = 1 + x(s)ds
0
2
t t2 tn
x0 = 1, x1 = 1 + t, x2 = 1 + t + ,..., xn = 1 + t + + ··· + ,...
2 2 n!
que tiende a et .
Existen numerosos resultados sobre existencia y unicidad que difieren en las
hipótesis y restricciones que se hacen a la función f . Nos limitaremos a utilizar
estos dos, que si bien no son los más potentes, sı́ son suficientemente sencillos
como para poderlos aplicar en numerosas circunstancias sin un esfuerzo exce-
sivo. Ambos se pueden expresar para un sistema de ecuaciones de primer orden
escrito en forma normal es decir, con la derivada despejada. A continuación
trataremos de obtener resultados sobre la solución una vez que ya sabemos en
que circunstancias ésta existe y es única. Ası́, estudiaremos la prolongabilidad,
dependencia continua de datos y parámetros y la estabilidad.
Se puede probar que existe una solución maximal, es decir que no puede
prolongarse a la derecha. El siguiente teorema nos dice que una solución llega
siempre a la frontera del dominio bajo ciertas restricciones sobre la función f .
Teorema 2.4 Supongamos una ecuación diferencial x = f (t, x), donde f está
definida y es continua en un compacto K ⊂ IR × IRn . Sea x(t) una solución
maximal con x(t0 ) = x0 , y sea I su intervalo de definición. Entonces, I =
[t0 , t1 ], t1 < ∞ y el extremo de la gráfica de esta solución, es decir, el punto
(t1 , x(t1 )), pertenece a la frontera del compacto K.
Supongamos ahora que f está definida y es continua en un abierto A ⊂
IR × IRn . Sea, como antes, x(t) una solución maximal, con x(t0 ) = x0 , definida
en un intervalo I. En este caso, I = [t0 , t1 ) con t1 ≤ ∞, la gráfica de x(t)
está contenida en A, y su extremo (que en este caso puede no alcanzarse para t
finito), (t1 , limt→t1 x(t)) pertenece a la frontera de A. Si A no esta acotado, se
supone que ∞ está en la frontera de A.
Teorema 2.5 Sean f1 (t, x), f2 (t, x) funciones continuas y con derivada parcial
con respecto a x continua en un abierto de IR2 . Supongamos que: f1 (t, x) <
f2 (t, x) en ese abierto. Si x1 (t) y x2 (t) son soluciones de las ecuaciones dife-
renciales x = f1 (t, x), x = f2 (t, x) respectivamente, con la misma condición
inicial x1 (t0 ) = x2 (t0 ) = x0 , entonces:
x1 (t) ≤ x2 (t)
x1 (t) ≥ x2 (t)
λ 1
fx = , fλ = −
(x + t)2 x+t
λ
x(t) = t − log t
2
como solución aproximada.
La dependencia de las condiciones iniciales adopta la misma estructura que
el teorema dado más arriba:
MAR 37
cuando t ∈ [a, b], entonces la función h está acotada en todo ese intervalo:
t t
h(t) ≤ f (t) + f (s)g(s) exp g(r)dr .
a s
h(t) ≤ AeB(t−a) .
y llamemos: f0 (x) = f (x, 0), f1 (x) = f (x, 0). La ecuación diferencial será
ahora:
x = f0 (x) + 2f1 (x) + O(22 ).
De acuerdo con el teorema de dependencia de la solución con respecto a
parámetros, podemos desarrollar la solución en serie de potencias de 2:
2.4 Estabilidad
Como ya hemos comentado anteriormente, una de las cuestiones más intere-
santes que se pueden plantear en torno a las ecuaciones diferenciales es la de
estabilidad de las soluciones, es decir, si se varı́an los datos iniciales una pequeña
cantidad, qué se puede decir del comportamiento, para todo valor de la variable
independiente, de las soluciones correspondientes. El tema no resulta sencillo y
solo para algunos tipos de ecuaciones se pueden dar respuestas generales. Sin
embargo, como iremos viendo a lo largo de estas notas, existen teorı́as y re-
sultados muy potentes para tratar muchos casos. Definiremos primeramente
que entendemos por estabilidad de una solución, y la aplicaremos a algunos
problemas sencillos.
Definición 2.4 Consideremos el problema:
x = f (t, x)
x(t0 ) = x0
que se supone admite una solución única, x(t), definida para todo t ≥ t0 . Se dice
que x(t, x0 ) es una solución estable (a la derecha) si: ∀2 > 0, ∃δ > 0 tal que, si
x̃0 ∈ IRn verifica x̃0 − x0 < δ, entonces ∃x(t, x̃0 ) solución con x(t0 , x̃0 ) = x̃0 ,
definida en [t0 , ∞) y tal que:
x(t, x̃0 ) − x(t, x0 ) < 2, ∀t ≥ t0
es decir, las soluciones que tienen puntos iniciales cerca del punto inicial de la
solución a estudiar, se mantienen cerca de ésta para todo tiempo posterior. Se
puede considerar una clase más particular de estabilidad, la llamada estabilidad
asintótica. Otros tipos serán estudiados más adelante.
MAR 39
Por tanto, si el exponente esta acotado, la solución trivial será estable, y con
ella todas las soluciones de la ecuación homogénea y completa. Si además, el
exponente tiende a −∞ cuando t tiende a ∞, las soluciones (la ecuación) son
asintóticamente estables.
En general, la acotación de una solución de una ecuación no implica su
estabilidad. Sin embargo, para la ecuación lineal homogénea sı́ que ocurre ası́.
Teorema 2.11 Sea la ecuación x = a(t)x + q(t, x), que tiene a x(t) = 0 como
solución, es decir q(t, 0) = 0, y donde a(t) y q(t, x) son funciones continuas
en las regiones donde trabajamos. La función a(t) es constante o periódica.
Además supondremos que la función q es lipschitziana y que la constante tiende
a 0 uniformemente en t cuando x tiende a cero, es decir:
Esto hace que la ecuación (que puede ser resuelta por cuadraturas al ser de
variables separadas) presente unas propiedades especiales que hacen su estudio
más sencillo. Veamos en primer lugar unas propiedades elementales.
Teorema 2.12 Todas las solucionas acotadas de una ecuación autónoma tien-
den a una solución constante. Aquı́ la acotación debe entenderse en el sentido
que ya le dimos antes: x(t), con x(t0 ) = x0 está acotada a la derecha si ∃M > 0
tal que |x(t)| ≤ M para todo t ≥ t0 .
Demostración. Sea x(t) una solución acotada, no constante. Por ser monótona,
existe el lı́mite de x(t) cuando t tiende a infinito. Sea a ese lı́mite. La función
f es continua, ası́ que también existe el lı́mite de f cuando t tiende a infinito,
es decir el lı́mite cuando x → a, f (a). Entonces:
an = x(n + 1) − x(n).
1
x(t) = .
1 − Ket
x x
t
t
Fig.1 Fig.2
x
x
t
t
Fig.3 Fig.4
Para terminar esta sección dedicada a las ecuaciones autónomas, nótese que
podemos proyectar las soluciones sobre el eje x. Debido a las propiedades de
estas ecuaciones, las soluciones que se obtienen unas de otras por traslación, se
proyectan en los mismos puntos aunque para distinto t. Las soluciones constan-
tes se proyectan en un solo punto (puntos crı́ticos). Si se supone que las gráficas
de las soluciones se recorren en el sentido de t creciente, se obtienen las gráficas
que aparecen en la figura 4. Las soluciones que unen dos puntos crı́ticos están
definidas para todo t. Tienden a uno u otro punto crı́tico cuando t tiende a más
o menos infinito. Las otras soluciones pueden no estar definidas para todo t, en
particular las del ejemplo no lo están, llegan a infinito en un tiempo finito, y
tienden a un punto crı́tico, bien cuando t tiende a más infinito o cuando t tiende
a menos infinito. Observando las flechas se advierte con claridad la estabili-
dad o inestabilidad de los puntos crı́ticos. Como hemos dicho antes, todos ellos
son asintóticamente estables (focos estables) o inestables (focos inestables si las
flechas se alejan del punto crı́tico por los dos lados, es decir ninguna solución
tiende a ese punto, o puntos silla, si una de las flechas entra en el punto y la
otra sale, es decir hay soluciones que tienden a ese punto y otras que se alejan).
Todas estas propiedades requieren una cierta regularidad de la función f (x). Es
posible encontrar ejemplos con f no derivable donde dejan de ser ciertos.
MAR 45
2.6 Ejercicios
1. Sea y = 1 − y −2
a. Estudiar si por cada punto del plano pasa una única curva integral.
Dibujar aproximadamente las curvas integrales.
b. Sea y la solución que satisface y (0) = 2. ¿ Para qué valores de la
variable independiente está definida y .? Calcular aproximadamente
y (0.2).
λ
y = 1 − , λ ≥ 0,
x+y
se pide:
ẋ = x2 − λx3 , λ > 0.
Se pide:
5. Sea la ecuación
y = y 2 − (cos t)y
a) Resolverla.
b) Dibujar las zonas del plano (t, y) en que las soluciones son crecientes
o decrecientes.
c) Basándose en a) y b) hacer un esquema de las soluciones de la ecuación
arriba indicada.
d) Dibujar la poligonal de Euler entre 0 y 2 con h = 1 si y(0) = −1.
e) Determinar para qué valores de a la solución con y(0) = a es pro-
longable hasta ∞.
f ) Estudiar la estabilidad de las soluciones con y(0) = 0 e y(0) = −1.
a) Existencia y unicidad
b) Hallar la solución general.
c) Dibujar aproximadamente las curvas integrales.
9. Sea (A):
y − y2
y =
t
i) Utilizar el teorema de existencia y unicidad para estudiar para que
instantes inciales t0 existe solución única local de (A) satisfaciendo
y(t0 ) = 2.
ii) Hallar la solución general de (A).
iii) Estudiar la estabilidad de las soluciones de (A) que satisfacen y(1) = 0
e y(1) = 1.
a) y = y 3 /(1 + y 2 )
b) y = f (y) donde
−y y > 0
f (y) =
0 y≤0
Sistemas y ecuaciones
lineales
3.1 Introducción
Como ya hemos visto en capı́tulos anteriores, toda ecuación diferencial de or-
den n puede ponerse como un sistema de ecuaciones de primer orden. Es obvio
que habrá sistemas que no tengan esa forma tan especial, aunque en muchos
casos sea posible encontrar una ecuación a la que equivalen. De los teoremas ex-
puestos en el capı́tulo anterior conocemos condiciones suficientes bajo las cuales
un sistema de ecuaciones diferenciales admite una única solución, especificadas
las condiciones de Cauchy adecuadas.
Ejemplo:
x1 = (a − bx2 )x1
x2 = (cx1 − d)x2
es un sistema de ecuaciones de primer orden no lineal. Este sistema describe
un modelo de evolución de poblaciones x1 , x2 en relacion presa-predador, cono-
cido como ecuaciones de Lotka-Volterra. La desaparición de las presas (x1 ) se
debe a sus encuentros con los predadores (x2 ) (término bx2 x1 ) y se supone que
no encuentran otros obstáculos a su desarrollo (término ax1 ). En cuanto a los
predadores su capacidad de supervivencia está relacionada con los encuentros
con las presas (término cx1 x2 ) y se supone que su número excesivo afecta neg-
ativamente a su crecimiento por razones obvias. Aunque el modelo considerado
es muy simple, permite hacer ciertas predicciones sobre la evolución de ambas
especies. Un modelo más general incluirı́a dos funciones M (x1 , x2 ) y N (x1 , x2 )
de manera que las ecuaciones son ahora:
x1 = M (x1 , x2 )x1
x2 = N (x1 , x2 )x2
y donde M y N deben cumplir ciertas restricciones para poder obtener resulta-
dos interesantes, como por ejemplo:
49
50 EDO. Versión 4. Mayo 1996
∂M ∂N
1. ∂x2 < 0, ∂x1 <0
2. ∃k > 0 tal que M (x1 , x2 ) ≤ 0, N (x1 , x2 ) ≤ 0 si x1 ≥ k o x2 ≥ k
3. ∃a, b > 0 tales que:
• M (x, 0) > 0 para x < a, M (x, 0) < 0 para x > a
• N (0, y) > 0 para y < b, N (0, y) < 0 para y > b
Ejemplo:
x = x − sen y
y = 12x + y
es otro sistema autónomo. Este sistema tiene nueve soluciones constantes, en
los puntos en los que la recta x = −y/12 corta a x = sen y.
Ejemplo:
x =y
y = (a + b cos t)x
Se trata de un sistema no autónomo con coeficientes periódicos. Es equivalente
a la llamada ecuación de Mathieu.
Como es de esperar los sistemas no lineales resultan mucho más complicados
que los lineales. Por eso, estudiaremos en este capı́tulo sistemas lineales, sobre
todo de coeficientes constantes y dejaremos para capı́tulos posteriores el estudio
de una clase particular de sistemas no lineales, los sistemas autónomos en el
plano.
x = A(t)x + b(t)
donde x(t) y b(t) son funciones vectoriales de variable real y A(t) es una función
de variable real con valores en un espacio de matrices cuadradas. Tanto A(t)
como b(t) se suponen definidas en un intervalo de la recta [t0 , t1 ]. Los val-
ores de A y b podrán ser complejos, aunque en general los consideraremos
reales. Además podrı́a pensarse en sistemas con matrices no cuadradas, es
decir con menos ecuaciones que incógnitas o viceversa, pero nos limitaremos al
caso cuadrado.
Las cuestiones de existencia y unicidad de soluciones para este tipo de pro-
blemas pueden deducirse del caso general directamente.
Teorema 3.1 Sea el problema:
x = A(t)x + b(t)
x(t0 ) = x0
donde:
A : [t0 , t1 ] → Mn (IR)
MAR 51
b : [t0 , t1 ] → IRn
son funciones continuas. Entonces existe una única solución al sistema que
verifica la condición inicial dada.
Demostración: Es una aplicación de los teoremas estudiados. Veamos como la
función f (t, x) = A(t)x + b(t) es continua y lipschitziana. Sobre la continuidad
no hay ningún problema puesto que A(t) y b(t) lo son y x aparece en forma
lineal. En cuanto a la lipschitzianidad, aplicando la definición:
f (t, x) − f (t, y) = A(t)x − A(t)y ≤ A(t)s x − y
donde A(t)s es la norma del supremo en el espacio de matrices Mn (IR):
A(t)x
A(t)s = sup{ , x ∈ IRn , x = 0}
x
por tanto, si A(t)s es una función continua en un intervalo compacto, tiene un
máximo que es una constante de Lipschitz para la función f (t, x). Aplicando el
teorema de Cauchy-Peano, podemos asegurar, al menos localmente, la existencia
y unicidad de la solución.
Si A(t) y b(t) son continuas en toda la recta, la solución se puede extender
a todo IR. En particular, los sistemas lineales con coeficientes constantes tienen
solución definida para todo t.
Consideremos la función:
n
x(t) = ci xi (t) (3.2)
i=1
que al ser una combinación lineal de soluciones es una solución del sistema
homogéneo. Además verifica una condición inicial (en τ ) dada por (3.1). De
acuerdo con el teorema de existencia y unicidad, la solución dada en (3.2) es la
solución trivial, y por tanto:
n
ci xi (t) = 0, ∀t ∈ I
i=1
MAR 53
Esta solución es justamente x(t), pues ambas verifican la misma condición inicial
en t = t0 .
C = Φ(t0 )−1 x0
(pues Φ(t) tiene una inversa) y por lo tanto la correspondiente solución es:
Sin embargo, el cálculo de Φ(t) puede ser muy complicado. Tan solo cuando
los coeficientes de A no dependen de t puede calcularse una matriz fundamental
fácilmente. Si los coeficientes de la matriz A son funciones periódicas de t, la
teorı́a de Floquet porporciona indicaciones sobre la forma de las soluciones y
permite en algunos casos simples calcularlas.
MAR 55
∞
An A2
eA = =I +A+ + ···
n=0
n! 2
Ax
As = sup{ , x ∈ IRn , x = 0}
x
donde . es una norma definida en IRn . Usando esta estructura se puede probar
que la serie definida anteriormente converge absolutamente para toda matriz de
Mn (IR). Para ello se usa la desigualdad:
Ak s ≤ Aks
con lo cual:
m
Ak
m
Aks
s ≤
k! k!
k=n k=n
3. Si A, B ∈ Mn (I
C) conmutan entonces:
eA+B = eA eB
La demostración sigue los mismos pasos que en el caso real o complejo.
La propiedad no es cierta cuando las matrices A y B no conmutan.
MAR 57
eA = e−I eN
−a + b = e−1
a = e−1
por tanto, a = e−1 , b = 2e−1 , y se obtiene el resultado anterior al poner:
A = P JP −1
donde:
1 1
P =
0 −3
2 0
J= .
0 −1
La exponencial de J se calcula inmediatamente con lo que la exponencial de A
es: 2
A e (e2 − e−1 )/3
e = .
0 e−1
Supongamos que queremos calcular el polinomio de interpolación de Lagran-
ge–Sylvester de A, p(z). Ahora tenemos dos autovalores con multiplicidad igual
a 1. Por tanto el grado de p(z) es 1 (el grado del polinomio mı́nimo es 2) y las
fórmulas que determinan los coeficientes son:
es decir:
e2 − e−1 e2 + 2e−1
a= , b=
3 3
de esta forma:
eA = p(A) = aA + bI
y se obtiene el resultado anterior.
Ejemplo. Finalmente veamos un caso con matrices 3 × 3.
0 1 0
A = −4 4 0 .
−2 1 2
(λ − 2)3
AP1 = 2P1
AP2 = P1 + 2P2
AP3 = 2P3
(A − 2I)2 P2 = 0
ecuación que permite calcular P2 . En este caso resulta ser trivial, pues el poli-
nomio mı́nimo es (λ − 2)2 y anula a la matriz A. La única restricción es que
P2 no debe ser un autovector, ası́ que elijamos P2 = (1, 0, 0). De esta forma P1
queda fijado por la segunda ecuación:
P1 = (A − 2I)P2
p(2) = e2 , p (2) = e2
eA = p(A) = e2 A − e2 I
Ejemplo:
3 1
A= .
−5 −1
62 EDO. Versión 4. Mayo 1996
es decir:
a(1 + i) + b = e(cos 1 + i sen 1)
a(1 − i) + b = e(cos 1 − i sen 1)
de donde a = e sen 1, b = e(cos 1 − sen 1), y por tanto la exponencial de A es:
Proposición 3.5 Una matriz fundamental del sistema homogéneo con coefi-
cientes constantes:
x = Ax
es Φ(t) = eAt , que además es la única que verifica Φ(0) = I.
x(t) = eA(t−t0 ) x0 .
Como hemos dicho anteriormente, sólo se necesita conocer una matriz fun-
damental para calcular todas las soluciones. Si escribimos A en su forma de
Jordan: A = P JP −1 , y por tanto:
eAt = P eJt P −1
pero como sabemos, dada una matriz fundamental, el producto de dicha matriz
por una matriz de constantes regular (a la derecha) proporciona una nueva
matriz fundamental. Por tanto, para escribir la solución general del problema
homogéneo podemos utilizar:
Ψ(t) = P eJt
Av = −2ω × v
MAR 65
v = Av + g.
lo que proporciona a, b, c:
donde x es ahora una función real de variable real y x(k) son las derivadas de
x respecto a la variable t. En general supondremos que la ecuación está escrita
en forma normal, es decir, que la derivada de mayor orden está despejada:
f : [t0 , t1 ] × D → IRn
dx
v(x) = .
dt
No queda más que calcular cuanto valen las derivadas de x respecto a t en
función de las derivadas de v respecto a x:
2
dv dv d2 v
x = v, x = v , x =v + v2 ,...
dx dx dx2
donde los coeficientes ai (t), b(t) son funciones continuas definidas en un intervalo
de la recta real [t0 , t1 ] con valores en IR. Es inmediato probar que una condición
suficiente para la existencia y unicidad de soluciones de esta ecuación es que los
coeficientes sean continuos en el intervalo considerado. La ecuación se puede
escribir como un sistema, de acuerdo con lo dicho anteriormente y se tiene:
x1 0 1 ··· 0 x1 0
x2 0 0 ··· 0 x2 0
.. .. .. .. .. ..
. = . . . + .
. .
xn−1 0 0 ··· 1 xn−1 0
xn −a0 (t) −a1 (t) · · · −an−1 (t) xn b(t)
Ası́, si el conjunto de funciones {x1 (t), . . . , xn (t)} es una base, la solución general
de la ecuación homogénea es:
W = −an−1 (t)W
Si imponemos la condición:
n
ci (t)xi (t) = 0
i=1
Al sustituir en la ecuación aparece una relación entre las ci (t) y las derivadas
de orden n igualada a la función b(t) más una relación entre ci (t) y las derivadas
de las funciones xi (t), que no es más que la ecuación homogénea aplicada a cada
una de estas últimas funciones. Como son soluciones de la ecuación homogénea,
se concluye que:
n
ci (t)xi
(n−1)
(t) = b(t).
i=1
Esta ecuación, junto con las anteriores forma un sistema de ecuaciones alge-
braicas lineales que permite calcular las funciones ci (t). La matriz de coeficientes
es justamente el wronskiano de la base de soluciones con las que se está tra-
bajando, lo que asegura la existencia de solución. Una vez halladas ci (t) se
integran y multiplican por xi (t) para obtener la solución particular buscada.
Veamos en el caso n = 2 como es esta solución.
Sea la ecuación x +a1 (t)x +a0 (t)x = b(t), x1 (t), x2 (t) una base de soluciones
de la ecuación homogénea. La solución particular buscada por el método de
variación de constantes es:
x(t) = c1 (t)x1 (t) + c2 (t)x2 (t)
y las ecuaciones que satisfacen las funciones c1 (t), c2 (t) son:
c1 (t)x1 (t) + c2 (t)x2 (t) = 0
c1 (t)x1 (t) + c2 (t)x2 (t) = b(t)
que se pueden resolver por Cramer, obteniéndose:
x2 (t)b(t) x1 (t)b(t)
c1 (t) = − , c2 (t) =
W (t) W (t)
donde W (t) es el wronskiano de las soluciones x1 (t), x2 (t):
x1 (t) x2 (t)
W (t) ≡ W [x1 , x2 ; t] = det .
x1 (t) x2 (t)
MAR 71
es decir:
1
xp (t) = t sen 2t
2
La solución general es suma de la solución general de la homogénea, generada
por la base x1 (t), x2 (t), con esta solución particular. No es fácil calcular una
base de soluciones para una ecuación lineal de orden n. Sin embargo es posible
demostrar que si se conoce una solución, el orden de la ecuación se puede rebajar
en una unidad. Consideremos el caso de segundo orden pues en general el
argumento sigue las mismas lı́neas:
sea y(t) una solución de esta ecuación. Definiendo una nueva variable v(t) por
la relacion:
x(t) = y(t) v
como y(t) es solución de la ecuación de partida, se tiene para v(t) una ecuación
lineal de primer orden:
Su solución es:
C a1 (t)
v(t) = e .
y 2 (t)
Una vez calculada v(t) se sustituye en la expresión que proporciona x(t),
con lo que obtenemos otra solución de la ecuación, linealmente independiente
con y(t). En efecto, el wronskiano de las soluciones y(t), x(t) es (si u(t) es la
integral de v(t)):
y(t) y(t)u(t)
W (t) = det = y 2 (t)v(t) = e a1 (t)
y (t) y (t)u(t) + y(t)v(t)
es justamente p(λ) (salvo un signo global), es decir, las raı́ces del polinomio car-
acterı́stico de la ecuación son los autovalores de la matriz del sistema asociado.
La siguiente proposición usa ese resultado, aunque la demostraremos desde el
punto de vista de ecuaciones.
Proposición 3.7 Sea λ raı́z del polinomio caraterı́stico de una ecuación dife-
rencial de orden n con coeficientes constantes. Entonces, la función:
x(t) = eλt
p(D)eλt = p(λ)eλt
{eλt , eλt }
se puede sustituir por:
{eµt cos νt, eµt sen νt}
donde λ = µ + iν, que son combinaciones lineales de las anteriores y son reales.
En el caso de raı́ces complejas, la solución general, cuando todas las raı́ces son
distintas es:
r
s
x(t) = ci eλi t + eµj t (bj cos νj t + dj sen νj t)
i=1 j=1
L = q(D)(D − λ0 )r
por tanto basta probar que (D − λ0 )r anula a las funciones dadas. Apliquemos
una vez este operador:
(D − λ0 )r tk eλ0 t = 0, k = 0, 1, . . . , r − 1
ahora bien, si λ0 es una raı́z con multiplicidad mayor que 1, p(λ0 ) = 0 y p (λ0 ) =
0, por lo que teλ0 t es solución de L. En el caso general la situación es la misma:
y por tanto:
···
eλk t λk t
, te , . . . , trk −1 eλk t
eµ1 t cos ν1 t, eµ1 t sen ν1 t, . . . , ts1 −1 eµ1 t cos ν1 t, ts1 −1 eµ1 t sen ν1 t
···
sm −1 µm t
eµm t
cos νm t, eµm t
sen νm t, . . . , t e cos νm t, tsm −1 eµm t sen νm t
Lx = b
L Lx = L b = 0
desarrollo no aportan nada nuevo ya que son anuladas por L. De esta forma
solo necesitamos utilizar las soluciones de L Lx = 0 que no son soluciones de
Lx = 0. Por supuesto el operador L no es único ası́ que habrá que buscarlo lo
más sencillo posible. En el caso en que L y L no tengan raı́ces comunes (sus
polinomios caracterı́sticos respectivos) la situación es sencilla, ya que se busca
entre las soluciones de L exclusivamente. En el caso en que haya raı́ces comunes
habrá que tener en cuenta la multiplicidad mayor que uno que se produce al
multiplicar L y L . De acuerdo con todo lo expuesto se pueden dar los siguientes
criterios para la búsqueda de soluciones particulares en este caso:
x(t) = tr Q(t)eλt
b) Si b(t) = q(t)eµt cos t, o b(t) = q(t)eµt sen t se puede reducir al caso anterior
como ahora veremos. Pero se puede ver fácilmente que ambos tipos cor-
responden a raı́ces complejas µ ± iν y por lo tanto la función que hay que
probar es:
x(t) = tr eµt (Q1 (t) cos νt + Q2 (t) sen νt)
donde Q1 (t), Q2 (t) son polinomios de grado menor o igual que el grado
de q(t) y r es la multiplicidad de µ + iν como raı́z de L.
m
m
m
L( xk (t)) = L(xk (t)) = bk (t) = b(t)
k=1 k=1 k=1
t
x(t) = sen 2t
4
como ya sabı́amos. Cuando los coeficientes no son constantes, las dificultades
para encontrar una base del espacio de soluciones suelen ser muy grandes. Como
veremos, los métodos de desarrollos en serie proporcionan resultados útiles en
muchos de los casos, pero aún ası́, hay algunas situaciones especiales donde se
puede encontrar una base de soluciones fácilmente. Este es el caso de las ecua-
ciones de Euler, que son convertidas en ecuaciones con coeficientes constantes
mediante un cambio de variable.
t = es
d2 x dx
+ (a1 − 1) + a0 x = 0
ds2 ds
con polinomio caracterı́stico:
r2 + (a1 − 1)r + a0 .
MAR 79
si son iguales. En el caso en que sean complejas se puede elegir una base real:
r = µ + iν,
|t|µ cos(ν log |t|), |t|µ sen(ν log |t|).
Para n arbitrario la situacion es similar.
Ejemplo: t2 x − 3tx + 13x = 0. El polinomio indicial es r(r − 1) − 3r + 13,
que tiene por raı́ces 2 ± 3i. Por tanto una base de soluciones es (en t > 0):
x = A(t)x
tiene coeficientes periódicos, es decir existe T tal que A(t + T ) = A(t), para
todo t ∈ IR. Nótese que para demostrar que una solución es periódica basta
imponer x(0) = x(T ), pues de aquı́ se deduce por la unicidad de soluciones que
x(t) = x(t+T ) para todo t. En efecto, dada la periodicidad de los coeficientes de
A(t), si x(t) es solución, x(t+T ) tambien lo es, y la condición inicial que verifica
es x(0+T ) = x(T ) = x(0), luego coincide con x(t). Usaremos una generalización
80 EDO. Versión 4. Mayo 1996
Φ (t) = A(t)Φ(t)
en cualquier punto t (supongamos que A(t) es continua para todo t). Si consid-
eramos esta matriz en t + T
es decir, Φ(t + T ) es también una matriz fundamental del sistema. Por lo tanto
es igual a Φ(t) por una matriz constante regular:
Φ(t + T ) = Φ(t)C
C = Φ(t)−1 Φ(t + T ).
y por lo tanto:
T
det C = det(Φ(t)−1 ) det(Φ(t + T )) = exp( tr A(s)ds).
0
eT B = C
MAR 81
es decir B = (1/T ) log(C). Por las propiedades de las funciones de matrices, los
autovalores de B y C están relaciónados por:
1
λ= log(µ)
T
donde λ es un autovalor de B y µ de C. Consideremos ahora una matriz
X(t) = eBt Φ(t)−1 , que es claramente regular y periódica del mismo periodo que
A:
X(t + T ) = e(t+T )B Φ(t + T )−1 = etB eT B C −1 Φ(t)−1 = etB Φ(t)−1 = X(t).
Pero etB es una matriz fundamental de un sistema lineal de coeficientes
constantes, con matriz B. Por lo tanto, Y (t) = X(t)Φ(t) verifica:
Y = BY.
Este es el sistema de coeficientes constantes que buscábamos. La matriz L(t)
que efectúa la transformación es:
y(t) = L(t)x(t)
B = L(t)A(t)L(t)−1 + L (t)L(t)
y = By
donde la transformación de Lyapunov es L(t) = X(t). Por tanto las soluciones
y(t) son polinomios en t por exponenciales de los autovalores de B por t:
yi (t) = qi (t)eλt
analicemos cómo existe una transformación lineal que la convierte en una ecua-
ción de coeficientes constantes.
Sea x(t) una solución no trivial. De acuerdo con lo anterior x(t + T ) es
también solución, por lo que x(t + T ) = x(t)c, con c = 0. En este caso c es
el exponente caracterı́stico del sistema, una constante que depende sólo de la
ecuación. Concretamente aquı́, dada la sencillez del problema, no resulta difı́cil
comprobar que:
T
c = exp(− a(s)ds)
0
de acuerdo con lo expuesto en la teorı́a de Floquet. Por tanto, calculando
el logaritmo de c, bT , se obtiene justamente el exponente anterior, que es un
número real. Las soluciones de la ecuación de coeficientes constantes que se
obtiene es:
1 T
y = (− a(s)ds)y = by
T 0
t
L(t) = exp(bt + a(s)ds).
0
Esta ecuación solo tiene soluciones periódicas cuando b es cero (solo en ese
caso c tiene módulo 1, de hecho es igual a 1). Es decir, para que existan
soluciones periódicas de la ecuación lineal homogénea con coeficientes periódicos,
es necesario y suficiente que la integral de a(t) sobre un periodo sea cero. Por
supuesto, la solución trivial x(t) = 0 es periódica siempre.
Está claro que para este caso tan sencillo la teorı́a anterior resulta de una
complejidad desmesurada. De hecho, para el análisis de la ecuación no ho-
mogénea no merece la pena aplicar este material.
Si la ecuación es no homogénea, sea f (t) función periódica de periodo T :
x + a(t)x = f (t).
x(0) = x(T )
t t t
x(t) = K exp(− a(s)ds) + f (s) exp(− a(s)ds) = x(t + T )
0 0 0
MAR 83
T
relación que permite obtener un único valor de K si 0 a(s)ds = 0.
Ejemplo. x + x sen t = sen ωt. Consideremos en primer lugar la ecuación
homogénea. Su solución general es:
x(t) = kecos t
x(t) = kecos t + 1
T
c2 = −c1 sen ωT + c2 cos ωT + f (s) cos ω(T − s)ds.
0
T
c2 = c2 + f (s) cos ω(T − s)ds
0
es decir las condiciones necesarias (que son tambien suficientes) para la existen-
cia de soluciones periódicas son:
T
f (s) sen ωsds = 0
0
T
f (s) cos ωsds = 0.
0
y las dos exponenciales negativas hacen que las condiciones iniciales no influyan
en los valores de la solución para t grande.
En el caso de ecuaciones diferenciales lineales de orden n con coeficientes
constantes, la situación es la misma:
tenga todas sus raı́ces en el semiplano izquierdo (parte real negativa) es que los
90 EDO. Versión 4. Mayo 1996
b d c
p(λ) = λ3 + λ2 + λ +
a a a
LL0 ≥ M 2
MA L0 (LL0 − M )R0
db − ac = ( + RR0 + )(R0 L + RL0 ) − .
C C C
Como se puede ver fácilmente, esta condición se satisface siempre cuando el
coeficiente M es positivo (se supone A positivo). Sin embargo, si M < 0 existe
un valor crı́tico de la ganancia por encima del cual el sistema es inestable:
−iabω 3 − b2 ω 2 + iacω + cb = 0
creciente (cuando las condiciones iniciales hacen que estas soluciones aparezcan).
Esta última afirmación requiere una comprobación más cuidadosa, pues podrı́an
presentarse otros casos de inestabilidad sin oscilación.
Ejemplo. Sea la ecuación diferencial lineal de coeficientes constantes cuyo
polinomio caracterı́stico es:
p(λ) = λ2 + 2λ + 5
y sus raı́ces son −1 ± 2i, ası́ que el sistema es asintóticamente estable, como
por otra parte podrı́a haberse deducido del criterio de Routh-Hurwitz, pues
2 > 0 y 5 > 0. Una solución particular de la ecuación completa es, como puede
comprobarse fácilmente: √
5 cos(t + φ)
con tan φ = −1/2. Por tanto la solución general de la ecuación completa es:
√
I(t) = e−t (a1 cos t + a2 sen t) + 5 cos(t + φ)
3.14 Ejercicios
1. Hallar las soluciones de los problemas de valores iniciales siguientes y
determinar si son o no estables:
a) x + 2x + 2x = te−t b) x + 2x + 5x = 5t
x(0) = x (0) = 0 x(0) = x (0) = 0, x (0) = 1/5
c) x − 2x + 10x = 0 d) t2 x − 2tx + 2x = log t
x(0) = (0), x (0) = 1, x = −8 x(1) = x (1) = 1
e) t3 x + t2 x − 2tx + 2x = 2t4 f ) tx − (t + 1)x + x = t2 et
x(1) = x (1) = x (1) = 0 x(1) = x (1) = 0
6. Responder a las cuestiones i), ii), v) y vi) del problema 4 para las ecua-
ciones:
a) y + y = u πc (t) − u 2π
c
(t) + u 3π
c
(t) − . . .
b) y + y = δ(t − 2π
c ) + δ(t − 4π
c ) + ...
siendo ua (t) la función paso en a.
7. Encontrar una fórmula para la solución general de y + y = f (t). Hallar
dicha solución general si (a) f (t) = 1, (b) f (t) = cos 2t. Estudiar en
cada caso el número de soluciones 2π-periódicas existentes. En general,
para cualquier f (t), 2π-periódicas, dar criterios para determinar el número
de soluciones 2π-periódicas.
8. Hallar la solución general de:
a) x1 = x1 b) x1 = x2 + x3 c) x1 = x1 + x2 + x3
x2 = x1 + 2x2 x2 = x1 + x3 x2 = 2x1 + x2 − x3
x3 = x1 − x3 x3 = x1 + x2 x3 = −x2 + x3
10. Consideremos
et t2
x1 (t) = y x2 (t) =
et 2t
sea solución de x = Ax
12. Sea T : IRn → IRn operador lineal invertible y c ∈ IRn . Probar que
existe un cambio de coordenadas de la forma x = P y + b, x, y, b ∈
IRn , P ∈ mn (IR) tal que la ecuación x = T x + c se transforma en
y = Sy. Encontrar P , b y S. Resolver
x1 = x2
x2 = 2 − x1
directamente y usando el cambio anterior.
MAR 95
Aplicar lo anterior a:
La transformada de Laplace
97
98 EDO. Versión 4. Mayo 1996
4.2 Propiedades
El cálculo de transformadas de Laplace puede ser complicado para funciones ge-
nerales. Sin embargo, existen propiedades que facilitan ese cálculo y la consulta
de las tablas donde se encuentran las tranformadas de Laplace de las funciones
más usuales.
e−bs
L(ub (t)) = L(u0 (t − b)) = e−bs L(u0 (t)) = .
s
La propiedad que relaciona la transformada inversa con la de su trasla-
dada, permite hallar la transformada de Laplace de la exponencial (caso tambien
fácilmente resoluble directamente):
e−dt f (t)
transf.inversa
F (s + d) −→
i i 1 1 a
L(sen(at)) = − L(eiat ) − L(e−iat ) = − [ − ]= 2 .
2 2 s − ia s + ia s + a2
tomando a = 0 se tiene:
1
L(t) =
s2
donde, como anteriormente, se entiende la transformada de tu0 (t). El inter-
cambio de la transformada con la derivación parcial respecto al parámetro a, es
correcto en este caso.
1
L(g) = L(f )
s
para s = x0 y por tanto, para (s) > x0 .
En efecto:
∞ ∞ t
−st
L(g)(s) = g(t)e dt = ( f (τ )dτ )e−st dt
0 0 0
t ∞
1 ∞ 1
= e−st f (τ )dτ + f (t)e−st dt = L(f ).
0 0 s 0 s
102 EDO. Versión 4. Mayo 1996
4.3 Convolución
Dadas dos funciones f1 (t) y f2 (t) satisfaciendo determinadas condiciones, es
posible construir una tercera función, conocida como la convolución de las dos
primeras, definida de la siguiente manera:
t
f1 I f2 (t) = f1 (τ )f2 (t − τ )dτ.
0
Definición 4.3 Sea T una distribución con soporte en IR+ ∪ {0}, tal que existe
una función continua h(t), con h(t) = 0 para t < 0, que verifica:
dk h
T =
dtk
para algún k. Las derivadas se entienden en sentido de distribuciones. Se define
la transformada de Laplace de la distribución T como:
L(T ) = sk L(h).
L(Dn T ) = sn L(T )
que es la misma expresión dada para funciones. En efecto, sea f (t) una función
que vale cero para t < 0. Entonces f (t) = u0 (t)g(t), donde g(t) es una función
derivable n veces en sentido clásico. La primera derivada de f en sentido de
distribuciones es:
Df = u0 (t)g (t) + δ0 g(0).
De forma similar se calcula la segunda derivada:
L(u0 g (n) ) = sn L(f ) − g (n−1) (0) − sg (n−2) (0) − · · · − sn−2 g (0) − sn−1 g(0)
que nos da la salida, X(s), como una función de la señal de entrada F (s).
La solución de este problema es muy sencilla de obtener, pues basta aplicar
las propiedades de la convolución que ya estudiamos:
e−t sen 2t
Fig.1 Fig.2
10 10 10(s + 12 ) 5
2
= − 1 2 3 − 1 3
s(s + s + 1) s (s + 2 ) + 4 (s + 2 )2 + 4
4.7 Ejercicios
1. Resolver:
t+1 0≤t≤1
y +y =
3−t 1≤t
con y(0) = −1, y (0) = 0.
Fig.3
Fig.4
Fig.5
10. Resolver:
x = −y + f (t) x(0) = −e 0 si 0 ≤ t < 1
con f (t) =
y = x − 2y y(0) = 0 t si t ≥ 1
Tema 5
5.1 Introducción
Supongamos que queremos calcular las soluciones de x + x = 0 en un entorno
del origen. Si éstas admiten un desarrollo en serie de Taylor que converge en
un entorno de t = 0, podemos pensar en calcular dicho desarrollo sustituyendo
una serie de potencias en la ecuación y hallando los coeficientes de esta serie.
Tomemos entonces:
∞
x(t) = an tn
n=0
y por tanto:
∞
[(n + 2)(n + 1)an+2 + an ]tn = 0.
n=0
Los coeficientes de esta serie, puesto que se suponen válidas todas las opera-
ciones debido a la analiticidad de las series, deben ser cero:
(n + 2)(n + 1)an+2 + an = 0, n ≥ 0.
115
116 EDO. Versión 4. Mayo 1996
Esta ecuación (en diferencias finitas) se llama relación de recurrencia entre los
coeficientes de la serie que representa la solución. En este caso se puede resolver.
Despejando:
1
an+2 = − an , n ≥ 0
(n + 2)(n + 1)
cuya solución se calcula fácilmente:
(−1)n (−1)n
a2n = a0 , a2n+1 = a1 , n ≥ 0
(2n)! (2n + 1)!
donde a0 y a1 son arbitrarios, por lo que obtenemos dos soluciones independien-
tes:
∞ ∞
(−1)n 2n (−1)n 2n+1
x1 (t) = t , x2 (t) = t
n=0
(2n)! n=0
(2n + 1)!
la primera verificando x1 (0) = 1, x1 (0) = 0, y la segunda x2 (0) = 0, x2 (0) = 1.
El radio de convergencia de estas series es infinito como se puede comprobar
utilizando el criterio del cociente:
a2n t2n (2n + 2)! −2
=− t = −(2n + 2)(2n + 1)t−2
a2n+2 t2n+2 (2n)!
que tiende a ∞ cuando n tiende a ∞ para cualquier t fijado (para la otra serie
se obtiene lo mismo). Está claro en este caso que estas dos series representan
el coseno y el seno de t respectivamente, soluciones de la ecuación como ya
sabı́amos. La sencillez del cálculo expuesto no debe engañar sobre la situación
general. No es obvio que siempre existan soluciones desarrollables en forma de
serie en el entorno de cualquier punto. Tampoco es obvio que las relaciones
de recurrencia lleven a soluciones para los coeficientes de forma sencilla. Final-
mente, este caso, en el que la serie converge en toda la recta, no es general. En lo
que sigue trataremos de dar criterios para saber cuando existen estos desarrollos
en serie y como se pueden calcular.
sustituyendo en la ecuación:
∞
∞
∞
n(n − 1)an tn−2 − 2t nan tn−1 + λ an tn = 0
n=0 n=0 n=0
H0 (t) = 1
H1 (t) = 2t
H2 (t) = 4t2 − 2
H3 (t) = 8t3 − 12t
...
2 dn −t2
Hn (t) = (−1)n et e , n = 0, 1, 2, . . .
dtn
o bien:
[n/2]
(−1)k n!
Hn (t) = (2t)n−2k .
k!(n − 2k)!
k=0
∞
2 Hn (t) n
w(t, z) = e2tz−z = z .
n=0
n!
w(t, z) = et e−(t−z)
2 2
y usar:
∂ −(t−z)2 ∂
= − e−(t−z) .
2
e
∂z ∂t
Entre los polinomios de Hermite existen una serie de relaciones de recurrencia
que relacionan unos polinomios con otros y con sus derivadas:
De estas expresiones se deduce sin dificultad que los polinomios ası́ definidos
verifican la ecuación de Hermite para λ = 2n. Es decir, uno puede partir de la
definición dada más arriba de Hn (t) y demostrar que verifican la ecuación de
Hermite.
Los polinomios de Hermite son una familia ortogonal con peso exp(−t2 ) en
toda la recta, es decir:
∞
Hn (t)Hm (t)e−t dt = cn δnm
2
−∞
−∞ −∞
−∞
en la ecuación, obteniendo:
∞
∞
∞
(1 − t2 ) n(n − 1)an tn−2 − 2t nan tn−1 + α(α + 1) an tn = 0
n=0 n=0 n=0
es decir:
n(n + 1) − α(α + 1)
an+2 = an , n ≥ 0
(n + 2)(n + 1)
por tanto, la solución general del problema se puede representar en un entorno
de t = 0 por las series siguientes:
a0 [1 +
∞
α(α − 2) . . . (α − 2n + 2)(α + 1)(α + 3) . . . (α + 2n − 1)
(−1)n
n=1
(2n)!
t2n ] +
a1 [t +
∞
(α − 1)(α − 3) . . . (α − 2n + 1)(α + 2)(α + 4) . . . (α + 2n)
(−1)n
n=1
(2n + 1)!
t2n+1 ].
Puesto que las funciones p(t) = −2t/(1 − t2 ) y q(t) = α(α + 1)/(1 − t2 ) son
analı́ticas en un entorno de t = 0 y las series que las representan tienen radio
de convergencia 1, las soluciones tienen por lo menos radio de convergencia
igual a 1. Ası́ es en este caso. El radio de convergencia de las series es 1 y
las dos divergen bien en 1 o en −1. En realidad no siempre ocurre esto. En
efecto, si α es un número entero positivo, una de las dos series se corta y se
obtiene un polinomio: son los polinomios de Legendre. Si α = 2n, es la primera
serie, obteniéndose un polinomio par (la segunda serie diverge en −1 o 1). Si
α = 2n + 1, es la segunda serie la que da el polinomio, de grado impar. Los
primeros polinomios son:
P0 (t) = 1
P1 (t) = t
1 2
P2 (t) = (3t − 1)
2
1 3
P3 (t) = (5t − 3t)
2
...
1 dn 2
Pn (t) = (t − 1)n , n = 0, 1, 2, . . .
2n n! dtn
y una función generatriz:
∞
2 −1/2
w(t, z) = (1 − 2tz + z ) = Pn (t)z n
n=0
MAR 123
∞ ∞
(−1)n 1
Γ(z) = + e−t tz−1 dt, z = 0, −1, −2, . . .
n=0
n! z + n 1
Γ(z + 1) = zΓ(z)
3−2/3 3−4/3
Ai(0) = 2 , Ai(0) =
Γ( 3 ) Γ( 43 )
3−1/6 3−5/6
Bi(0) = , Bi(0) = .
Γ( 23 ) Γ( 43 )
MAR 125
∞ ∞
√ 1 3k
1
Bi(t) = 3[ 2k+2/3 k!Γ(k + 2 )
t + 2k+4/3 k!]Γ(k + 4 )
t3k+1 ].
k=0
3 3 k=0
3 3
x(t) = w(t)φ(t)
(t − t0 )p(t), (t − t0 )2 q(t)
2. Raı́ces iguales:
x(t) = c1 |t|r1 + c2 |t|r1 log |t|
con r = α + iβ.
Ejemplo: El punto t = 0 es singular regular para la siguiente ecuación:
1
t2 (t + 1)x − t2 x + (3t + 1)x = 0.
4
Una base de soluciones es:
Las funciones:
1
x1 (t) = 1 + , x2 (t) = e1/t
t
MAR 127
son una base del espacio de soluciones de esta ecuación. Ninguna de ellas es
analı́tica en t = 0. La primera tiene un polo y la segunda una singularidad
esencial.
En los puntos singulares regulares puede ocurrir que las soluciones sean
analı́ticas. Sin embargo en los singulares irregulares siempre hay alguna solución
que presenta una singularidad esencial. Cuando el orden de la ecuación es mayor
que 2, se pueden dar criterios similares para distinguir los puntos singulares reg-
ulares de los irregulares. El siguiente teorema proporciona la forma de las solu-
ciones en un entorno de un punto singular regular (para facilitar la comprensión
se toma t0 = 0; para cualquier t0 las conclusiones del teorema son fácilmente
trasladables a ese punto):
Teorema 5.2 (Frobenius) : Sea t0 = 0 punto singular regular para la ecua-
ción:
x + p(t)x + q(t)x = 0
es decir tp(t) y t2 q(t) son analı́ticas en t = 0:
∞
∞
tp(t) = pn tn , t2 q(t) = q n tn
n=0 n=0
Aunque no vamos a demostrar este teorema, sı́ daremos una serie de indica-
ciones sobre sus resultados. Supongamos que t = 0 es un punto singular regular,
por tanto p(t) o q(t) no son analı́ticas. Sustituyamos en la ecuación una solución
de la forma:
∞
x(t) = tr an tn
n=0
∞
t 2
(n + r)(n + r − 1)an tn+r−2 +
n=0
∞
∞
∞
∞
t p n tn (m + r)am tm+r−1 + q n tn am tm+r = 0
n=0 m=0 n=0 m=0
de donde se deduce:
r(r − 1) + rp0 + q0 = 0
que es el polinomio indicial. Obviamente a0 no puede ser cero, pues el compor-
tamiento de la solución cerca de t = 0 no serı́a la potencia r de t sino r + 1 u
otra superior. Por eso se toma a0 = 1 en el enunciado del teorema.
puesto que r1 es la mayor de las raı́ces (si son complejas, este coeficiente tampoco
es cero). Aún en el caso en que las raı́ces sean iguales, ese coeficiente es positivo.
Luego a1 se puede calcular siempre en términos de a0 . Consideremos ahora el
término siguiente:
que también es distinto de cero por las mismas razones anteriores. Veamos cual
es en general el coeficiente de an en estas relaciones. El coeficiente de la potencia
n + r de t contiene a0 , a1 , . . . , an . El coeficiente de an es:
t2 x → (r + n)(r + n − 1)
tp(t)x→ p0 (r + n)
t q(t)x → q0
2
y si se pone r = r1 :
f (n, r1 ) = n(n + r1 − r2 )
que es positivo para todo n. Por lo tanto, podemos ir calculando los coeficientes
de la serie de una forma recursiva. Calculados a0 , a1 , . . . , an , se puede hallar
an+1 . Si la segunda raı́z es distinta de la primera y no difiere de ella en un
entero positivo, el coeficiente básico es ahora:
f (n, r2 ) = n(n + r2 − r1 )
que tampoco es cero. Luego existe una solución que tiene la forma indicada en
el teorema. Es obvio que cuando r1 = r2 sólo hay una solución de ese tipo. Pero
el caso más curioso aparece cuando las dos raı́ces difieren en un entero positivo:
r1 − r2 = N . Ahora, el coeficiente básico es:
f (n, r2 ) = n(n − N )
130 EDO. Versión 4. Mayo 1996
donde φ(t) es una función analı́tica en un entorno de cero, con φ(0) distinto de
cero, y r1 es la raı́z mayor del polinomio indicial en el caso en que sean reales (o
una cualquiera de las complejas en el caso que lo sean). La otra solución puede
tener el mismo aspecto o presentar un logaritmo. Veamos que podemos decir
de ella. Como sabemos una solución, podemos reducir el orden de la ecuación:
r1
x(t) = t φ(t) v
φ
tv + (tp(t) + 2t + 2r1 )v = 0.
φ
Esta ecuación tiene un punto singular regular en t = 0 (es inmediato trasla-
dar la definición de puntos singulares regulares a ecuaciones de primer orden)
pues el coeficiente de v(t) es analı́tico. El polinomio indicial serı́a:
r + ψ(0) = 0
r = −1 − r1 + r2
donde c0 , c1 , . . . son los coeficientes del desarrollo en serie de g(t). Está claro que,
dependiendo de los exponentes r1 , r2 , puede aparecer un logaritmo. Si r1 = r2 ,
se obtiene un logaritmo. Si la diferencia r1 − r2 entre los exponentes es un
entero positivo, puede aparecer un logaritmo, si el correspondiente coeficiente
del desarrollo de g(t) es distinto de cero. En la expresion anterior aparece
condensado (y demostrado en buena parte) el teorema de Frobenius.
Ejemplo. La ecuación de Bessel de orden ν.
y el polinomio indicial:
r(r − 1) + r − ν 2
que tiene por raı́ces:
r1 = ν, r2 = −ν.
Para cualquier valor de ν, existe una solución del tipo:
∞
x(t) = tν an tn .
n=0
Sustituyendo en la ecuación:
∞
∞
(ν + n)(ν + n − 1)an tn+ν + (ν + n)an tn+ν +
n=0 n=0
∞
∞
an tn+ν+2 − ν 2 an tn+ν = 0
n=0 n=0
simplificando:
∞
∞
n(n + 2ν)an tn+ν + an−2 tn+ν = 0
n=0 n=2
a1 = 0
n(n + 2ν)an + an−2 = 0, n ≥ 2
de donde resulta evidente que los cálculos son los mismos que antes, cambiando
ν por −ν, ası́ que se define la función:
−ν ∞ 2n
t (−1)n t
J−ν (t) =
2 n=0
n!Γ(n − ν + 1) 2
Pero la función Γ tiene polos en los enteros negativos ası́ que la serie realmente
comienza en n = p:
−p ∞ 2n
t (−1)n t
J−p (t) =
2 n=p
n!(n − p + 1)! 2
−p ∞ 2(n+p)
t (−1)n+p t
=
2 n=0
(n + p)!n! 2
MAR 133
∞ 2n−1 ∞
(−1)n t
2
2n + b 1 + 4b 2 t + [(n + 1)2 bn+1 + bn−1 ]tn = 0.
n=0
(n!) 2 n=2
Conviene separar la segunda serie en términos pares e impares:
∞ 2n−1
(−1)n t
2
2n + b1 + 4b2 t +
n=0
(n!) 2
∞
∞
[(2n + 1)2 b2n+1 + b2n−1 ]t2n + [(2n)2 b2n + b2n−2 ]t2n−1 = 0
n=1 n=2
La ecuación que liga los términos de ı́ndice par también puede ser resuelta. Para
escribirla de una forma compacta, pongamos:
n
1
Hn =
k
k=1
que es la función de Neumann de orden cero. Esta función tiene una singularidad
de tipo logarı́tmico en t = 0. De acuerdo con la notación dada antes:
2 2
N0 (t) = x2 (t) + (γ − log 2)J0 (t)
π π
donde γ es la constante de Euler, definida por:
γ = lim (Hn − log n) = 0.57721 . . .
n→∞
1 (ν + 12 )2
y + y + (1 − )y = 0
t t2
y por tanto una base del espacio de soluciones de la ecuación de Bessel esférica
es:
π
jν (t) = J 1 (t)
2t ν+ 2
π
nν (t) = N 1 (t).
2t ν+ 2
x − 2tx + λx = 0.
x = tx.
pero, como hemos dicho antes, la función (1/s)p(1/s) es analı́tica, por tanto la
serie que aparece a la derecha tiene que tener todos los coeficientes cero a partir
de a2 (inclusive). Por tanto:
a0 + a1 t A B
p(t) = = +
t(t − 1) t t−1
luego, p(t) queda fijado salvo dos constantes. El mismo procedimiento se aplica
a q(t). Las funciones t2 q(t), (t − 1)2 q(t) son analı́ticas en t = 0, por tanto,
(t(t − 1))2 q(t) es analı́tica en toda la recta al no tener otros puntos singulares a
distancia finita:
∞
t2 (t − 1)2 q(t) = bn tn
n=0
r(r − 1) + Ar + C
α1 + α2 = 1−A
α1 α2 = C
r(r − 1) + Br + D
β1 + β2 = 1−B
β1 β2 = D
r(r − 1) + (2 − A − B)r + (C + D + E)
γ1 + γ2 = A+B−1
γ1 γ2 = C +D+E
A = 1 − α1 − α2
B = 1 − β1 − β2
C = α1 α2
D = β1 β2
E = −α1 α2 − β1 β2 + γ1 γ2
y aún queda otra relación, que liga los exponentes. Es decir, en este tipo de
ecuaciones, los exponentes de los puntos singulares no son independientes:
α1 + α2 + β1 + β2 + γ1 + γ2 = 1
Hemos visto que las funciones p(t) y q(t) quedan completamente fijadas, y
que los exponentes en los puntos singulares no son independientes. Se pueden
obtener estos mismos resultados cuando los puntos singulares son distintos de
0, 1, ∞, basta hacer una transformación que los lleve a éstos.
Supongamos que uno de los exponentes en t = 0, sea α1 , y otro en t = 1,
β1 , se toman iguales a 0. Esto impone una restricción sobre los demás:
α2 + β2 + γ1 + γ2 = 1
MAR 141
t=0 0 1−γ
t=1 0 γ−α−β
t=∞ α β
Sustituyendo en la ecuación:
∞
∞
∞
t(1 − t) n(n − 1)an t n−2
+ (γ − (α + β + 1)t) nan t n−1
− αβ an tn = 0
n=0 n=0 n=0
142 EDO. Versión 4. Mayo 1996
es decir:
∞
((n + 1)(γ + n)an+1 − (α + n)(β + n)an )tn = 0
n=0
∞
(α)n (β)n n
w01 (t) = F (α, β, γ; t) = t .
n=0
n!(γ)n
y = t−(1−γ) x
y(t) = F (α − γ + 1, β − γ + 1, 2 − γ; t)
MAR 143
otra vez la ecuación hipergeométrica con otros parámetros. Por tanto las solu-
ciones correspondientes son:
tx + (γ − t)x − αx = 0
es decir:
∞
(α)n n
1 F1 (α, γ; t) = t
n=0
n!(γ)n
que se llama función hipergeométrica confluente. Esta función está definida para
todo t, cuando γ no es cero ni entero negativo. Es más, la función F es analı́tica
en todo el plano complejo, considerando a t como una variable compleja. Es
posible encontrar una segunda solución para esta ecuación, linealmente indepen-
diente de la primera, la llamada función hipergeométrica confluente de segunda
MAR 145
se obtiene:
ρvl + (2(l + 1) − ρ)vl − (l + 1 − λ)vl = 0
que es una ecuación hipergeométrica confluente de parámetros:
α = l + 1 − λ, γ = 2(l + 1).
l + 1 − λ = −nr
es decir:
∞
∞
[(n + r)(n + r + 2) + 1]an tn+r − (n + r)an tn+r−1 = 0
n=0 n=0
y por tanto:
∞
[((n + r)(n + r + 2) + 1)an − (n + r + 1)an+1 ]tn+r − ra0 tr−1 = 0
n=0
r = 0
((n + r)(n + r + 2) + 1)an − (n + r + 1)an+1 = 0, n ≥ 0
148 EDO. Versión 4. Mayo 1996
Sustituyendo el valor de r
(n + 1)an − an+1 = 0, n ≥ 0
pero que sin embargo, no define ninguna función, ya que esta serie sólo converge
en t = 0. A pesar de estos inconvenientes, la serie es una serie asintótica, y
puede ser utilizada para calcular los valores de la solución. Por métodos en los
que no podemos entrar ahora, se puede llegar a demostrar que:
e−1/t
x1 (t) =
t
es una solución de la ecuación (lo que es fácil de comprobar sin más que susti-
tuir). Como se ve, tiene una singularidad esencial en t = 0. Una segunda
solución linealmente independiente con ésta, se calcula reduciendo el orden:
x(t) = x1 (t) v
t2 v + (1 + t)v = 0
fácilmente resoluble:
e1/t
v(t) =
t
y por tanto, para x(t):
0
e1/s
x2 (t) = x1 (t) ds
t s
bien definida, al menos cuando t < 0. Hagamos una integración por partes:
0 1/s 0 0
e
ds = −se1/s + e1/s ds =
t s t t
0 0
te1/t + −s2 e1/s + 2 se1/s ds =
t t
0 0
(t + t2 )e1/t + 2 −s3 e1/s +6 s2 e1/s ds =
t t
0
(t + t + 2t + · · · + n!t
2 3 n+1
) + (n + 1)! sn e1/s ds
t
MAR 149
N 0
(N + 1)! −1/t
x2 (t) = k
k!t + e sN e1/s ds, N ≥ 0.
t t
k=0
y por tanto:
|x2 (t) − SN (t)| ≤ (N + 1)!|t|N +1
Es decir, el error cometido al tomar una suma parcial está acotado por
el primer término de la serie que no se considera. Por supuesto, la serie es
divergente, ası́ que no cabe esperar que el error tienda a cero tomando un número
suficiente de términos. Sin embargo, si t está suficientemente próximo a cero, el
error puede ser pequeño, con tal de no tomar demasiados términos en la serie
(el factor (N + 1)!). El número de términos necesarios para tener la mejor
aproximación depende de t. La serie obtenida es asintótica, en un sentido que
se puede hacer completamente preciso, a la solución x2 (t).
150 EDO Versión 3. Octubre 1995
5.10 Ejercicios
1. Decir si las siguientes ecuaciones tienen puntos singulares o no y clasifi-
carlos:
x2 y − 2y = 0 x2 y − 2xy + 2y = 0
xy + e y + (3 cos x)y = 0 (sen x)y + xy + 4y = 0
x
(x sen x)y + 3y + xy = 0 xy + 2y + 4y = 0
x2 y + 2y + 4y = 0
y + x2 y = 0 2x2 y − xy + (x − 5)y = 0
xy + (1 − x)y + py = 0
(1 − x2 )y − xy + p2 y = 0 (Tchebycheff)
5. Dada la ecuación
(2x − x2 )y + (1 − 3x)y − y = 0
6. Sea la ecuación
1
x2 y + 2x2 y + (x2 + )y = 0.
4
a) Clasificar el punto x = 0 y encontrar una solución en forma de serie
de potencias en torno a ese punto. Sumar la serie.
b) Calcular una segunda solución linealmente independiente de la primera
usando a). A la vista de estas soluciones, ¿existe alguna relación entre
esta ecuación y alguna ecuación de Euler?
MAR 151
7. Sean:
∞
8. Se considera la ecuación y = xy. ¿Existen soluciones como n=0 an xn ?
En caso afirmativo hallarlasy determinar su dominio de definición. ¿Exis-
∞
ten soluciones de la forma n=0 an (x − 1)n ? Calcularlas si las hay. ¿Qué
se puede conjeturar acerca del comportamiento de y(x) para |x| 0?
9. Resolver por medio de series las ecuaciones del problema 1 de los ejercicios
del capı́tulo 3 (suponer que durante todo el proceso de solución no se
conoce ningún desarrollo de Taylor, comprobar sólo al final que la serie
solución obtenida coincide con la calculada por métodos elementales).
(F ) (1 − t2 )ÿ − 2tẏ + 2y = 0
Sistemas autónomos. 1
6.1 Introducción
En esta sección emprenderemos el estudio elemental de los sistemas autónomos,
es decir, sistemas de ecuaciones diferenciales en las que no aparece de forma
explı́cita la variable independiente que llamaremos siempre t, tiempo. Cuando
t aparece en el sistema, siempre se puede escribir un sistema autónomo, con-
siderando a t como función de un cierto parámetro t = s que ya no está en las
ecuaciones; el sistema tiene una ecuación y una incógnita más. La mayor parte
de los resultados que estableceremos se referirán al caso de sistemas autónomos
en el plano, donde la teorı́a es muy completa, pero lo que nos impedirá aden-
trarnos en el estudio de problemas más complejos, como caos, que aparecen en
más dimensiones (nótese que esto excluye la posibilidad de estudiar sistemas en
el plano que dependan de t, ya que el procedimiento indicado anteriormente nos
llevarı́a a un espacio de tres dimensiones). La representación gráfica jugará un
papel esencial en lo que sigue, pues, salvo en el caso de los sistemas lineales, no
es fácil obtener soluciones analı́ticas de estos sistemas; a cambio, se pueden dar
descripciones cualitativas muy sugerentes del comportamiento de las soluciones.
x = f (x)
donde x(t) es una función vectorial (con valores en IRn ) de variable real, y f (x)
una función definida en un cierto dominio (abierto conexo, por ejemplo) de IRn ,
suficientemente regular (continua y lipschitziana, analı́tica las más de las veces)
de forma que las cuestiones de existencia y unicidad serán automáticamente
satisfechas. Una solución de esta ecuación es una función de un intervalo de la
recta real [t0 , t1 ] en IRn , es decir, (t, x(t)), la gráfica de la solución, que se suele
153
154 EDO. Versión 4. Mayo 1996
x(0) = x(τ )
para algún τ > 0. Entonces, x(t) = x(t + τ ) para todo t, de acuerdo con el
teorema de existencia y unicidad, ası́ que la solución x(t) es periódica, y la
órbita correspondiente es una curva de Jordan.
Se llama a IRn el espacio de fases del sistema. Dado un punto de este
espacio (supongamos que D = IRn ), existe una única órbita que pasa por él.
Los puntos de la órbita se obtienen a partir de x0 :
x(t) = g t x0
g t g s = g t+s , ∀t, s ∈ IR
g 0 = identidad en M
φ : IR −→ M
g : IR × M → M, g(t, x) = g t x
gt : M → M
Definición 6.8 Un punto crı́tico del campo de vectores, es aquél donde la ve-
locidad se hace cero: x0 es un punto crı́tico si v(x0 ) = 0.
Resulta entonces que los puntos de equilibrio del flujo son puntos crı́ticos del
campo de velocidades. Y viceversa.
Dado un grupo uniparamétrico de transformaciones, hemos visto como calcu-
lar el campo de velocidades asociado a él. En general el problema es el contrario,
dado un campo de vectores, calcular un grupo uniparamétrico de transforma-
ciones que tenga como campo de velocidades el campo de vectores dado. Es
decir, resolver el sistema de ecuaciones diferenciales de primer orden:
x = v(x)
Ax = 0
x + γx + kx = 0
y y
x x
Fig.1 Fig.2
Nótese que todas tienden al origen cuando t tiende a infinito, lo que viene
representado por la flecha dibujada sobre cada una de ellas. Además, todas
ellas son tangentes al eje horizontal (asociado al autovalor λ1 ) cuando t tiende
a infinito. El campo de vectores entra en cualquier circunferencia que se trace
de centro el origen. Este punto crı́tico es un atractor (sumidero), es decir, la
solución correspondiente es asintóticamente estable, como ya sabı́amos.
La ecuación de las órbitas en implı́citas, se obtiene fácilmente eliminando el
tiempo:
|w|λ1 = k|y|λ2
MAR 159
que representa todas las órbitas, con tal que se tome también k = ∞. Estas
curvas son curvas integrales de la ecuación diferencial:
dw λ2 w
=
dy λ1 y
que tiene un punto singular en el origen, por el que pasan infinitas soluciones.
Los puntos del eje y = 0 son también singulares, pero por ellos no pasa ninguna
solución, con lo que al escribir la ecuación asociada, cambiando los papeles de
y y w, se obtiene una solución única.
En resumen, las curvas integrales de esta ecuación contienen las órbitas del
sistema. Téngase en cuenta que una curva integral puede contener más de una
órbita. Por ejemplo, w = 0 es una curva integral de esta ecuación que contiene
tres órbitas del sistema.
Veamos ahora como las órbitas del sistema entran tangentes al eje horizon-
tal. De la ecuación asociada no se puede deducir, sin más, que la pendiente
de todas las curvas integrales, excepto el eje vertical, se hace cero en el origen.
Usando la expresion paramétrica de las soluciones se tiene:
dw w (t)
= = be(λ2 −λ1 )t
dy y (t)
expresión que tiende a cero cuando t tiende a infinito, ya que λ1 > λ2 . Solo
cuando b = ∞, es decir, cuando estudiamos las órbitas contenidas en el eje
vertical, y = 0, la pendiente no se hace cero al tender t a infinito.
Si ahora volvemos al sistema original, es decir, en la base canónica, la matriz
del cambio de base es:
1 1
P =
λ1 λ2
y x b
t
x a
Fig.3 Fig.4
El movimiento en el espacio de configuración, que es una recta, se puede
deducir de la evolución del estado en el espacio de fases. Por ejemplo, supong-
amos que en t = 0 el estado del sistema es (x0 , v0 ) (punto a en la figura 3).
La velocidad es positiva, y la elongación negativa. Por tanto el punto material
con el que trabajamos, se dirige hacia el origen (el origen del espacio real) con
velocidad decreciente, que tiende a cero. Cuando t tiende a ∞ tanto la posición
como la velocidad se anulan, pero el punto no atraviesa el origen. Si ahora con-
sideramos el punto b como estado inicial (ver figura 3) la velocidad es positiva
y la elongación es negativa, como antes. Sin embargo, en este caso la relación
entre posición y velocidad es tal que el punto llega al origen con velocidad no
nula en un tiempo finito (insistimos en que se trata del origen en el espacio
real, es decir el punto x = 0). En la órbita atravesamos el eje de velocidades.
Debido a la velocidad no nula, el móvil atraviesa el origen y se desplaza hacia
posiciones con x positiva, alejándose del origen hasta que su velocidad se anula
(en la órbita hemos atravesado el eje de posiciones). A partir de este instante
su velocidad es negativa y su posición es positiva. El móvil cae hacia el origen
al que llega en un tiempo infinito. Nótese que desde el punto de vista de la
ecuación de segundo orden de la que hemos partido, las soluciones tienen su
gráfica en diagramas (t, x), como se ve en la figura 4.
Los dibujos en el mapa de fases se pueden interpretar, desprovistos de
cualquier comentario referente a las flechas que allı́ aparecen, como el dibujo
de las curvas integrales de la ecuación de primer orden asociada, que se llama,
por tanto, ecuación de las órbitas (basta recordar el método de isoclinas estu-
diado para las ecuaciones de primer orden para relacionar de forma clara estas
dos formas de ver el problema). La relación entre un sistema de segundo or-
den y la ecuación de las órbitas asociada no es única (sea el sistema lineal o
no, incluso sea de segundo orden o no). Dado un sistema, la ecuación de las
órbitas es única, pero una ecuación de primer orden está asociada a una familia
infinita de sistemas, con mapas de fases ciertamente relacionados, pero distintos
en general. Si la ecuación es:
dy f (x, y)
y = =
dx g(x, y)
podemos escribir los sistemas:
x = k(x, y)g(x, y)
y = k(x, y)f (x, y)
MAR 161
Fig.5a Fig.5b
En el caso de los sistemas lineales, sabemos que si la parte real de todos los
autovalores es negativa, el sistema es asintóticamente estable.
La estabilidad de los puntos crı́ticos es fundamental en el estudio de los sis-
tema dinámicos, pero tambien es necesario a veces, saber que tipo de estabilidad
presentan las trayectorias y las órbitas.
Definición 6.11 (Estabilidad de trayectorias) Sea C una clase de trayec-
torias del sistema autónomo x = f (x), y Γ0 una de ellas correspondiente a la
solución que verifica x(0) = x0 . Se dice que Γ0 es estable si:
para todo 2 > 0, existe δ(2) > 0 tal que, si Γ1 es otra trayectoria en la clase C,
correspondiente a la solución con x̃(0) = x1 y x0 − x1 < δ, entonces, para
todo t ≥ 0, x(t) − x̃(t) < 2. Si además, x̃(t) tiende a x(t) cuando t tiende a
infinito, se dice que la estabilidad es asintótica (en C).
162 EDO. Versión 4. Mayo 1996
Ocurre muchas veces que la velocidad con la que se recorren las órbitas
varı́a de unas a otras, de forma que, aunque los puntos representativos del
estado del sistema sobre distintas órbitas estén muy lejanos, las órbitas como
lugares geométricos son próximas entre sı́ . Por ello se introduce el concepto de
estabilidad orbital.
Es decir, todo flujo lineal puede ser aproximado arbitrariamente por un flujo
hiperbólico. Los flujos lineales con autovalores de parte real cero son pues escasos
(en el sentido anterior). Todo flujo lineal hiperbólico puede descomponerse en
una parte correspondiente a un sumidero y otra correspondiente a una fuente.
El siguiente teorema, de carácter puramente algebraico, lo afirma asi:
Teorema 6.1 Sea etA un flujo lineal hiperbólico, A ∈ L(IRn ). Entonces, IRn
admite una descomposición en suma directa:
IRn = E s ⊕ E u
invariante bajo A, y de forma que el flujo etA sea una contracción cuando se
restringe A al espacio E s , y una expansión cuando se hace a E u
Esto no quiere decir, que todas las trayectorias tiendan al origen cuando t tiende
a ∞ (espacio E s ) o a −∞ (espacio E u ). Habrá otras que no tengan ninguno de
estos dos comportamientos.
Definición 6.14 Dos sistema autónomos lineales Nx = ANx, Ny = BNy (A, B son
dos matrices n × n) son linealmente equivalentes si existe una matriz n × n, P ,
regular, tal que:
B = P AP −1
(las coordenadas se transforman como Ny = P Nx).
Está claro ahora que lo único que interesa a la hora de establecer la equiv-
alencia lineal son los autovalores y sus multiplicidades aritmética y geométrica.
Teniendo en cuenta que se trata de un sistema de orden dos, las posibilidades
que se presentan son las siguientes (det A = 0).
Las órbitas aparecen dibujadas en las figuras 6a y 6b, donde las órbitas
rectas son las direcciones de los autovectores. Nótese como en ambos casos
todas las órbitas entran (nodo estable) o salen (nodo inestable) del origen
tangentes a la recta de autovalor mayor (estable) o menor (inestable). Con
más precisión, cuando t tiende a +∞, las órbitas se aproximan al origen
en el caso estable, mientras que en el caso inestable lo hacen cuando t
tiende a −∞. La demostración es inmediata y sigue las lı́neas de lo hecho
en el caso del oscilador amortiguado (mutatis mutandis).
y y 1
2
1 2
x x
Fig.6a Fig.6b
• (tr A)2 = 4 det A. Es decir, raı́ces reales iguales. En este caso la matriz
A es diagonal (recuérdese que es 2 × 2) o bien no es diagonalizable. En
cualquier caso se sigue hablando de nodos.
A diagonal. La razón entre x(t) e y(t) es constante, por lo que las órbitas
son rectas que tienden al origen o se alejan de él, según que el au-
tovalor sea negativo o positivo. Como antes, estamos en un flujo
MAR 165
y y
x x
Fig.7a Fig.7b
y
y
x x
Fig.8a Fig.8b
En resumen, los nodos aparecen ligados a flujos hiperbólicos que son una
contracción o una expansión. Todas las órbitas acaban en el origen, bien
cuando t → +∞, o cuando t → −∞.
Fig.9
166 EDO. Versión 4. Mayo 1996
y y
x x
Fig.10a Fig.10b
MAR 167
Fig.11
z = ρeiθ
de donde:
ρ = αρ
θ = β
ρ(t) = Ceαt
θ(t) = βt + b
y su determinante es:
det P = −bβ
como β > 0, si b es negativo, el sentido de giro de las órbitas es positivo, y si b
es positivo el sentido de giro es negativo. La constante b (el elemento 12 en la
matriz A) no puede ser cero si hay autovalores complejos.
Supongamos que tenemos un centro. Los autovalores son λ = ±iβ, por lo
que la traza de A es cero y el determinante es β 2 > 0. Sea A:
a b
A=
c d
dy cx − ay
=
dx ax + by
que es una ecuación homogénea (como siempre cuando el sistema es lineal), por
lo que un cambio apropiado serı́a v(x) = y/x. Sin embargo, cuando la traza de
la matriz A es cero, es decir cuando se trata de un centro y en algunos tipos
de puntos silla, la ecuación anterior no solo es homogénea sino tambien exacta.
Esto hace las cosas mucho más fáciles:
ser cero), y además, −bc−a2 es positivo (el caso b < 0 es totalmente equivalente).
Ası́ pues las curvas:
by 2 − cx2 + 2axy = k 2
son elipses de centro el origen. En cuanto al cálculo de sus ejes, comunes para
toda la familia, se puede hacer de las múltiples formas en las que uno calcula
los ejes de una cónica. Por ejemplo, en coordenadas polares:
x = ρ cos θ
y = ρ sen θ
k2
= b sen2 θ − c cos2 θ + a sen 2θ
ρ2
Los ejes unen el centro con los puntos más alejados (eje mayor) o menos (eje
menor). Basta pues hallar los máximos y mı́nimos de la función:
h(θ) = b sen2 θ − c cos2 θ + a sen 2θ
Derivando:
h (θ) = (b + c) sen 2θ + 2a cos 2θ
de donde igualando a cero:
2a
tan 2θ = −
b+c
y de aquı́ podemos obtener la posición de los ejes.
Resumamos los resultados obtenidos:
Autovalores reales
Autovalores complejos
Con parte real distinta de cero: FOCO λ = α ± iβ, β>0
Positiva α > 0: Inestable
Negativa α < 0: Estable
Con parte real igual a cero: CENTRO (β > 0)
En la figura 12, donde se han representado en el eje de abcisas el determi-
nante de la matriz A y en el de ordenadas la traza, se hace un esquema de esta
clasificación.
170 EDO. Versión 4. Mayo 1996
NODO
TrA INESTABLE
FOCO INESTABLE
PUNTO CENTRO
SILLA detA
FOCO ESTABLE
NODO
ESTABLE
Fig.12
λ1 → (−1, 2)
λ2 → (2, 1)
y y
x x
Fig.13 Fig.14
Ejemplo 2.
x = −5x + 4y
y = −3x + 2y
MAR 171
En este caso los autovalores son λ1 = −2, λ2 = −1, siendo el origen un nodo
estable. Los autovectores correspondientes son:
λ1 → (4, 3)
λ2 → (1, 1)
Todas las órbitas tienden al origen cuando t tiende a infinito, y todas entran
tangentes a las órbitas correspondientes al autovalor −1, el mayor de los dos,
salvo las correspondientes al autovalor −2, que lo hacen cada una desde un lado
de la recta del autovalor −1. El dibujo del campo de vectores en algunos puntos
puede ayudar a obtener el mapa de fases (Fig.14).
Ejemplo 3.
x = −6x + 4y
y = −4x + 2y
Hay un autovalor doble λ = −2. Se trata de un nodo estable de una tangente,
que es el único autovector que hay: (1, 1). Todas las órbitas entran en el origen
cuando t tiende a infinito, tangentes a la diagonal del primer cuadrante. Si
dibujamos el campo de vectores del sistema en algunos puntos se puede obtener
el mapa de fases dibujado en la figura 15.
y y
x x
Fig.15 Fig.16
Ejemplo 4.
x = 3x − y
y = 2x + y
Los autovalores son ahora complejos: λ = 2 ± i. Por lo tanto, el origen es un
foco inestable. Las órbitas giran en torno al origen en sentido positivo, (pues
−1 < 0) alejándose de él cuando t tiende a infinito (Fig.16).
Ejemplo 5.
x = x + 5y
y = −x − y
Los autovalores son λ = ±2i. Se trata de un centro. Las órbitas son elipses
que giran en torno al origen en sentido negativo (5 > 0). La ecuación de las
órbitas es, como hemos visto:
5y 2 + x2 + 2xy = C
172 EDO. Versión 4. Mayo 1996
donde C es una constante positiva. Los ejes de las elipses se pueden obtener de:
2a 1
tan 2θ = − =−
b+c 2
de donde:
θ = −0.23, θ = 1.34
o o
(es decir, aproximadamente, 167 , 77 ). El primero de ellos corresponde a la
localizacion del eje mayor, y el segundo a la del eje menor (Fig.17).
Fig.17
y y
x x
Fig.18 Fig.19
MAR 173
Si los dos autovalores son cero, aparte del caso trivial en el que la matriz A
es cero, la forma canónica es:
0 1
A=
0 0
Todos los puntos situados en el eje x son crı́ticos en este caso (nuevamente
los situados en el núcleo del operador A). Las soluciones explı́citas son:
x(t) = at + b
y(t) = a
por lo que las órbitas son paralelas al eje x y no tienden a ningún punto crı́tico
(Fig.19).
de la curva elegida, con tal que verifique las condiciones anteriores. La derivada
se puede calcular de la siguiente forma:
n
∂F
Lv F (x0 ) = (x0 )v(x0 )
∂xk
k=1
expresión que se obtiene sin más que usar la regla de la cadena y las condiciones
sobre t. Se define la función Lv F (x) como la derivada de F (x) según el campo
de vectores v(x) en cada punto x de D.
El siguiente teorema, el resultado fundamental del método directo o segundo
método de Liapunov, establece una condición suficiente para la estabilidad de
un punto crı́tico de un sistema autónomo.
Teorema 6.2 (Liapunov) Sea x0 punto crı́tico del sistema x = f (x), con
f ∈ C 1 en un abierto que contiene a x0 , D. Supongamos que existe una función
W (x) definida en un entorno U de x0 contenido en D, derivable en U , que
verifica las propiedades siguientes:
a) W (x) es definida positiva en U (mayor que cero para todo punto de U salvo
en x0 donde se hace 0).
b) La derivada con respecto al campo f (x) es negativa o cero en U .
Entonces, x0 es un punto de equilibrio estable. Además, si la derivada es
definida negativa en U , la estabilidad es asintótica.
Las condiciones sobre la derivabilidad pueden no exigirse en x0 .
Definición 6.16 Se dice que W (x), con las propiedades especificadas en el teo-
rema anterior, es una función de Liapunov de este sistema en el punto crı́tico
x0 .
Fig.20
W (x, y, z) = ax2 + by 2 + cz 2
e impongamos que su derivada con repecto al campo definido por los segundos
miembros de las ecuaciones del sistema sea negativa:
Lo mas útil para conseguir que esta función sea negativa es poner b = 2a y
tomar c positivo (por ejemplo c = 1). De esta forma, la función:
W (x, y, z) = a(x2 + 2y 2 ) + z 2
es una función de Liapunov para el sistema con a positivo, pues su derivada es:
Lf W (x, y, z) = −2z 4
Nótese sin embargo que la derivada se hace cero no sólo en el punto crı́tico
(el origen) sino tambien en el plano z = 0. Por tanto, no se puede afirmar a
partir del teorema anterior la estabilidad asintótica del origen, pero al menos sı́
su estabilidad.
En algunos casos, la dificultad del ejemplo anterior, discriminar entre esta-
bilidad y estabilidad asintótica, se puede resolver. Consideremos el siguiente
teorema:
Teorema 6.3 Sea el sistema autónomo x = f (x), f (x) derivable con con-
tinuidad en IRn , y supongamos que el origen es un punto crı́tico. Si existe una
función real W (x) también en C 1 (IRn ), verificando:
2. W (x) → ∞, cuando x → ∞
W (x, y) = x2 + 2y 2
Fig.21a Fig.21b
Además, podemos construir la función energı́a del sistema, que es una can-
tidad conservada:
1
E = x2 + V (x)
2
Los puntos crı́ticos de la ecuación (o del sistema de segundo orden aso-
ciado) son aquellos donde se anula x (la velocidad) y x (la aceleración) si-
multáneamente, es decir:
x = 0
f (x) = 0
Pero f (x) es la derivada (con el signo cambiado) del potencial. Ası́ que lo que
estamos buscando son los extremos de la función potencial V (x). Sea x0 uno
de esos puntos, y consideremos la función W (x, v) dada por:
Lf W (x, v) = vv + V (x)x = 0
que es definida negativa (se hace cero en v = 0). Por lo tanto, es una función
de Liapunov, y el origen es un punto asintóticamente estable. Sin embargo, no
toda solución acaba en el origen. Es decir, la cuenca de atracción no es todo
el espacio de fases. Ni aún considerando que el espacio de fases más apropiado
para este problema no es el plano, sino un cilindro, debido a la periodicidad de
la ecuación en x.
El cálculo de funciones de Liapunov no es tarea sencilla. En general se
debe aprovechar cualquier información sobre el sistema que permita adivinar de
manera razonable una posible función. Como veremos ahora, en el caso lineal
es inmediato escribirlas, pero por lo mismo, no excesivamente interesante, pues
disponemos de numerosos métodos para determinar la estabilidad de un sistema
lineal.
x = Ax
Se tiene por tanto que dicha función W (x) es una función de Liapunov, y de
acuerdo con el teorema anterior, el origen es un punto crı́tico asintóticamente
estable. Sin embargo, esto ya lo sabı́amos. El teorema tiene interés en relación
con el caso no lineal como veremos ahora.
Demostración: Supongamos que x1 (t), x2 (t), . . . , xn (t) es la base canónica
del espacio de soluciones del sistema x = Ax, es decir:
xi (0) = ei , i = 1, 2, . . . , n
n
x(t) = x0i xi (t), x0 = (x01 , x02 , . . . , x0n )
i=1
MAR 181
donde (, ) es el producto escalar usual en IRn . Como los autovalores tienen parte
real negativa, la integral converge:
xi (t ≤ M e−αt
µx2 ≤ W (x) ≤ νx2
x(t, x0 ) ≤ M x0 e−αt
Esta matriz tiene autovalores con parte real negativa, luego el origen es
asintóticamente estable de acuerdo con el teorema anterior. Calculemos una
función de Liapunov para este sistema. La forma cuadrática asociada a la
aproximación lineal es:
∞
W (x0 , y0 ) = (x(s, x0 , y0 ), y(s, x0 , y0 ))2 ds =
0
∞
x2 + 2y02
(x20 e−4s + y02 e−2s )ds = 0
0 4
Esta es una función de Liapunov para la aproximación lineal. Salvo una con-
stante multiplicativa, es la función de Liapunov asociada al sistema no lineal
que usamos en el apartado dedicado al segundo método de Liapunov.
Ejemplo: El regulador centrı́fugo de Watts.
El regulador centrı́fugo es un mecanismo que controla la presión del vapor de
una caldera que supuestamente mueve una máquina. Consta esencialmente de
dos esferas que giran a una velocidad que es proporcional a la velocidad de giro
de la máquina, y que debido a la fuerza centrı́fuga abren o cierran la válvula de
la caldera. En la figura 22 se representa esquemáticamente el regulador.
Fig.22
MAR 183
Tomando la longitud del brazo que sustenta las esferas igual a 1, la fuerza
centrı́fuga que se ejerce sobre ella es mθ2 sen φ, y supondremos que esta fuerza
está equilibrada por el peso de las bolas (de una forma rigurosa, habrı́a que
considerar que este equilibrio es dinámico, pero haremos el cálculo suponiendo
que es estático para simplificar). Se supone que existe una fuerza de rozamiento
proporcional a la velocidad, con lo que la ecuación de movimiento de las esferas
es:
mφ = −bφ + mθ2 sen φ cos φ − mg sen φ
La ecuación de la máquina también se puede determinar:
Jω = P1 − P
No necesitamos calcular los autovalores de esta matriz. Basta con que discu-
tamos si tienen parte real negativa o no. Para ello lo más fácil es usar el criterio
de Routh-Hurwitz. El polinomio caracterı́stico es:
b g sen2 φ0 2Kg sen2 φ0
p(λ) = − λ3 + λ2 + λ+
m cos φ0 Jω0
184 EDO. Versión 4. Mayo 1996
b bJ 2F 2Kg sen2 φ0
> 0, − > 0, >0
m m ω0 Jω0
por lo que la única condición que aparece es:
bJν
>1
m
donde ν = |dω0 /dP | es la llamada no uniformidad de la marcha (la velocidad
depende de la carga P ). Como se ve, (según los trabajos de Vichnegradski) el
aumento de masa de las esferas disminuye la estabilidad, ası́ como la disminución
del rozamiento. La disminución del momento y de la no uniformidad contribuyen
también a que la estabilidad disminuya. Para que exista estabilidad es necesario
que haya rozamiento y que la marcha no sea uniforme.
MAR 185
6.11 Ejercicios
1. Estudiar los mapas de fases de los sistemas lineales autónomos de segundo
orden que tienen algún autovalor cero.
2. (a) Sea el sistema:
x = 1 − x + 3y
y = x + y − 1
i) Dibujar el mapa de fases.
ii) Escribir su solución general.
iii) ¿Es estable la solución que satisface x(0) = 2, y(0) = 1?
(b) Sea la ecuación diferencial:
x+y−1
y =
1 − x + 3y
iv) Estudiar la existencia y unicidad de sus soluciones.
v) Calcular su solución general.
vi) Si ya (x) es la solución que verifica ya (0) = a, estudiar si está definida
para todo x ≥ 0 según los valores de a.
vii) Estudiar si es estable la solución con y(2) = 1.
3. Calcular una función de Liapunov para
x = ax + by
a, b, c, d ∈ IR
y = cx + by
Sistemas autónomos. 2
Sea (x0 , y0 ) un punto crı́tico. Mediante una traslación podemos llevar este
punto al origen. En él podemos hacer un desarrollo de Taylor hasta primer
orden:
∂f ∂f
f (x, y) = f (0, 0) + x+ y + f2 (x, y)
∂x 0 ∂y 0
∂g ∂g
g(x, y) = g(0, 0) + x+ y + g2 (x, y)
∂x 0 ∂y 0
donde las funciones f2 (x, y), g2 (x, y) son de segundo orden en x, y, y la matriz
jacobiana en el origen es:
a b
c d
187
188 EDO. Versión 4. Mayo 1996
x = ax + by + f2 (x, y)
y = cx + dy + g2 (x, y)
Teorema 7.2 (Estructura local de un punto silla no lineal) Sea (0, 0), punto
crı́tico del sistema x = f (x, y), y = g(x, y), un punto silla (es decir, lo es en
la aproximación lineal). Sean P y Q las rectas asociadas a los autovectores de
la matriz de la aproximación lineal, P al autovalor negativo y Q al positivo.
Entonces, existen dos únicas órbitas U1 y U2 que para t → ∞ tienden al ori-
gen. Junto con el punto (0, 0) forman una curva continua, derivable y tangente
en (0, 0) a la recta P. Existen también dos únicas órbitas V1 y V2 que tienden
al origen cuando t → −∞ y que, junto con (0, 0) forman una curva continua,
derivable y tangente en el origen a la recta Q. Las demás órbitas se comportan
en un entorno de (0, 0) como en el caso lineal (fig.1).
MAR 189
P
Q
Q
Fig.1 Fig.2
Teorema 7.3 (Estructura local de un nodo no lineal) Sea (0, 0) un pun-
to crı́tico de un sistema x = f (x, y), y = g(x, y), que es un nodo estable para
la aproximación lineal (el caso de un nodo inestable, u otro tipo de nodo, es
similar). Sean P, Q las rectas asociadas a los autovectores de la matriz A de
la aproximación lineal, P con autovalor λ1 , y Q ,λ2 con λ1 < λ2 < 0. Todas
las órbitas que pasan suficientemente próximas al origen tienden a él cuando
t tiende a infinito y tienen una tangente en él. Solo hay dos de ellas que son
tangentes a la recta P y se aproximan al origen desde lados opuestos de la recta
Q. Las demás órbitas son tangentes a Q (Fig.2). Para un nodo inestable el
comportamiento es el mismo cuando t tiende a menos infinito.
Nótese que las rectas P y Q que aparecen en estos teoremas no son en general
órbitas del sistema. Si el sistema lineal asociado presenta un nodo estelar o un
nodo de una tangente, los resultados para el sistema no lineal son similares a los
expuestos en el teorema anterior. Las órbitas pueden entrar (o salir) del origen
con tangente arbitraria o una sola tangente.
Cuando el punto crı́tico del sistema lineal asociado es un centro, en el no
lineal puede aparecer un foco o conservarse el centro, es decir las órbitas pueden
ser abiertas (foco) o cerradas (centro). Para determinarlo hay que emplear
otras técnicas, como el estudio del posible carácter hamiltoniano del sistema
que trataremos más adelante o la existencia de ciertas simetrı́as del campo de
vectores.
El uso de coordenadas polares puede ayudar en ocasiones a resolver este
problema. Supongamos que los autovalores del sistema lineal asociado son λ =
α ± iβ, con β > 0. En una base adecuada la matriz A se escribirá en su forma
canónica:
x = αx − βy + p(x, y)
y = βx + αy + q(x, y)
donde las funciones p(x, y), q(x, y) son de segundo orden en x, y. Esto asegura
que el sistema anterior tiene un centro en el origen en la aproximación lineal.
Este sistema se puede escribir usando notación compleja, z = x + iy como:
z = λz + h(z, z̄)
con h(x, y) = p(x, y) + iq(x, y), o pasando a polares con z = ρeiθ ;
ρ = ρ2 [a1 (θ) + a2 (θ)ρ + · · ·]
θ = 1 + ρ[b1 (θ) + b2 (θ)ρ + · · ·]
190 EDO. Versión 4. Mayo 1996
Las funciones ai (θ), bi (θ) son polinomios en sen θ, cos θ, (o en exp(±iθ)) que se
obtienen del desarrollo en serie de las funciones p(x, y) y q(x, y).
A partir de este sistema podemos construir una ecuación de primer orden
que nos dé ρ(θ):
dρ
= ρ2 (c1 (θ) + c2 (θ)ρ + · · ·)
dθ
donde el segundo miembro se obtiene al dividir los segundos miembros de las
ecuaciones del sistema. La solución de esta ecuación que verifica ρ(0) = ρ0 de-
pende de forma analı́tica del dato inicial ρ0 y puede escribirse como un desarrollo
en serie en potencias de este dato inicial:
ρ(θ, ρ0 ) = r1 (θ)ρ0 + r2 (θ)ρ20 + · · ·
sin término constante, ya que ρ(θ, 0) = 0 (la solución constante correspon-
diente al punto crı́tico). Sustituyendo en la ecuación, se obtiene una familia de
relaciones que permiten determinar los coeficientes ri y por tanto la solución del
problema. Desde un punto de vista práctico, el cálculo de la solución es muy
complicado con este método en general. Sin embargo la utilidad del mismo se
pone de manifiesto al poder determinar si el punto crı́tico es un foco o un centro.
Las ecuaciones que verifican los coeficientes de la serie tienen la forma sigu-
iente:
dri
= wi (r1 , r2 , . . . , ri−1 )
dθ
donde las funciones wi son polinomios en eiθ y e−iθ . Por tanto, los coeficientes
son periódicos si las funciones wi no tienen términos constantes. Si esto es ası́, el
punto crı́tico es un centro. Si hay alguna función wi con un término constante,
ki , se trata de un foco, que es estable si ki < 0 e inestable si ki > 0.
Para analizar como un centro del sistema lineal puede pasar a un foco cuando
perturbamos el sistema conviertiéndolo en uno no lineal, consideremos los sigu-
ientes ejemplos:
Ejemplo. Sea el sistema autónomo no lineal:
x = −y
y = x + h(y)
donde h es una función analı́tica con h(0) = 0 y h (0) = 0. Es decir el sistema
es no lineal y tiene un punto singular en el origen. Calculando la aproximación
lineal, la matriz correspondiente (siempre en el origen) es:
0 −1
1 0
es decir, tenemos un centro en la aproximación lineal.
Como veremos en la próxima sección, si h es una función par el centro se
conserva, pues el segundo miembro de la primera ecuación es impar en x y el
de la segunda ecuación es par en y.
Sin embargo, si la función h(y) es impar, no disponemos de un criterio tan
simple para determinar si el centro se conserva. En los dos ejemplos que siguen,
el centro pasa a ser un foco, estable en el primer caso, inestable en el segundo:
MAR 191
1.
x = −y
y = x − y3
2.
x = −y
y = x + y3
Consideremos los ejemplos anteriores con n arbitrario:
x = −y
y = x + 2y n
donde 2 = ±1. El sistema en polares se escribe como:
ρ = 2ρn senn+1 θ
θ = ρ(1 + 2ρn−1 senn θ cos θ)
y la ecuación de primer orden correspondiente es:
dρ 2ρn senn+1 θ
=
dθ 1 + 2ρn−1 senn θ cos θ
Llamando a(θ) = 2 senn+1 θ y b(θ) = −2 senn θ cos θ, la ecuación se puede
poner como:
dρ
= a(θ)(1 + b(θ)ρn + b2 (θ)ρn+1 + · · ·
dθ
Si, como hemos dicho antes, escribimos la solución como una serie de poten-
cias en el dato inicial ρ0 , se tienen las siguientes ecuaciones para los primeros
coeficientes de esa serie:
c1 = 0
c2 = ac21
c3 = 2ac1 c2 + abc31
c4 = a(c22 + 2c1 c3 ) + 3abc21 c2 + ab2 c41
...
que pueden ser resueltas de forma recursiva, con c1 (0) = 1, cn (0) = 0, n > 1:
c1 (θ) = 1
c2 (θ) = a(θ)
c3 (θ) = 2 (a(θ) a(θ) + a(θ)b(θ))
...
Sustituyendo los valores de a(θ) y b(θ):
θ
c2 (θ) = 2 senn+1 ηdη
0
192 EDO. Versión 4. Mayo 1996
y = g(φ(t))
g∗ (v)(x, y) = (y − x2 , −x − y 2 )
donde ahora significa derivada respecto a −t. Está claro que el mapa de
fases de ambos sistemas es el mismo, pero el sentido en el que se recorren las
órbitas es opuesto. Es decir, si (x(t), y(t)) es una solución del primer sistema,
(x(−t), y(−t)) lo es del segundo. De esta forma, prescindiendo del sentido en el
que se recorren las órbitas, el mapa de fases es simétrico respecto de la bisec-
triz del segundo cuadrante. Desde un punto de vista más formal, se considera
una transformación de la variable independiente t → h(t) y la transformación
inducida en el sistema, ampliando de esta forma la definición de sistema invari-
ante.
Veamos ahora como estos criterios de simetrı́a permiten determinar en al-
gunos casos cuando un centro se conserva. Como ya hemos visto, cuando en
la aproximación lineal de un sistema autónomo en IR2 aparece un centro, en
el problema completo puede aparecer un centro o un foco. Si probamos, por
ejemplo, que las órbitas son simétricas repecto una recta que pasa por el punto
crı́tico, éstas serán necesariamente cerradas (al menos las próximas al punto
crı́tico), que será un centro. Cuando la recta es uno de los ejes, y el punto
crı́tico es el origen, el criterio de simetrı́a se escribe de la siguiente forma:
que no se indica que las órbitas son cerradas simplemente porque el mapa sea
simétrico respecto a un eje. Lo que ocurre es que las órbitas próximas al origen
giran en torno a él, ya que este punto es un centro o un foco; al ser simétricas
son cerradas y el punto crı́tico es centro). Cuando la simetrı́a no es respecto a
un eje las condiciones no son tan sencillas de expresar.
Ejemplo: Sea el sistema:
x = −y
y = x + h(y)
donde h(y) es una función analı́tica, par y con h(0) = h (0) = 0. Como ya
hemos visto, el origen es un punto crı́tico para este sistema y es un centro en la
aproximación lineal. Aplicando la proposición anterior, la función f (x, y) = −y,
es impar en y, la función g(x, y) = x + h(y) es par en y. Por lo tanto se trata
de un centro.
Ejemplo. Sea el sistema:
x = x + y2
y = x2 − y
(puntos donde se anula el gradiente) del potencial V (x, y). Además, la matriz
de la aproximación lineal es el hessiano de la función cambiado de signo. Si, por
ejemplo, estamos en un mı́nimo de la función V (x, y), el hessiano es definido
positivo, ası́ que los autovalores de esa matriz cambiados de signo son nega-
tivos, y por lo tanto el punto crı́tico es asintóticamente estable, concretamente
un foco estable (el hessiano es una matriz simétrica, por lo que sus autovalores
son reales). Estudiemos otra argumentación de este resultado.
Proposición 7.2 Si (x0 , y0 ) es un mı́nimo aislado del potencial V (x, y) en-
tonces es un punto crı́tico asintóticamente estable del sistema gradiente asoci-
ado.
La demostración se basa en la construcción de una función de Liapunov. En
efecto, V (x, y) no es una integral primera del sistema, sin embargo en un entorno
de un mı́nimo se puede utilizar para construir una función de Liapunov que
permite asegurar la estabilidad asintótica. En un entorno de (x0 , y0 ), la función:
y y
x x
Fig.3 Fig.4
Con estos datos y el hecho de que los ejes coordenados y la recta x = 1/2
proporcionan en este caso órbitas del sistema no lineal, se puede dibujar el mapa
de fases que aparece en la figura 4, donde las curvas continuas son las órbitas
del sistema y las de trazo discontinuo, las curvas de nivel de la funcion V (x, y)
calculadas previamente. Nótese que la cuenca de atracción del nodo (0, 0), es
todo el semiplano a la izquierda de la recta x = 1/2, y la del nodo (1, 0) es el
semiplano a la derecha de x = 1/2.
Puesto que el sistema está desacoplado, es posible estudiar las ecuaciones
autónomas de primer orden correspondientes a x(t) e y(t). Para la ecuación que
fija y(t), la solución es trivial:
y(t) = C2 e−2t
Para la ecuación de x(t), la solución es más complicada de obtener, pero
el dibujo de las soluciones es muy sencillo y aparece en la figura 5. Se puede
ver como la solución no está en general definida para todo t. Concretamente,
si x(0) < 0, la solución explota para un cierto t1 < 0, y lo mismo ocurre si
x(t) > 1. Como y(t) no tiene problemas, la órbita correspondiente tiende a
(∞, y(t1 )) cuando t tiende a t1 . Sin embargo, en cualquiera de estos dos casos
las soluciones están definidas para todo t > 0 (y tienden a una de las dos
soluciones constantes x = 0, x = 1). Si 0 < x(0) < 1, las soluciones están
definidas para todo t.
200 EDO. Versión 4. Mayo 1996
1
1/2
Fig.5
Ejemplo:
x = x
y = y
Este sistema no tiene integrales primeras (siempre supondremos no constantes).
En efecto, las órbitas del sistema son las semirrectas que salen del origen. Pero
sobre cada una de ellas, una posible integral primera es constante. Al tender t
MAR 201
siendo v = x la velocidad. Los únicos tipos de puntos crı́ticos para este sistema
son centros y puntos silla (si son elementales). Además, las órbitas están con-
tenidas en las curvas de nivel de la función H(x, v). Como sabemos, un punto
crı́tico corresponde a un mı́nimo del potencial:
dV
=0
dx
y el valor de la derivada segunda en ese punto nos da el tipo de punto crı́tico:
1. Si es positiva, se trata de un mı́nimo, es decir de un centro.
2. Si es negativa, tenemos un máximo, punto silla.
3. Si es cero, nos encontramos con un punto crı́tico no elemental.
clasificación inmediata a partir, por ejemplo, del teorema de Lagrange, o del
estudio de la matriz de la aproximación lineal: Si el sistema es:
x =v
v = f (x)
x = 2C, v=0
d2 V 1
2
(2C) = − 3
dx 8C
MAR 203
H(x, 0) = E
1 √
x=− (1 ± 1 + 4CE)
2E
que tiene dos soluciones reales distintas.
3. E = 0. La ecuación anterior solo tiene una solución x = C. La órbita es
abierta, y la velocidad tiende a cero cuando t → ±∞, pues en este caso,
la posición tiende a infinito.
4. E > 0. Solo hay un punto de retroceso, dado por:
1 √
x=− (1 + 1 + 4CE)
2E
pues√el otro valor de x es negativo. La velocidad, cuando t → ±∞, tiende
a ± 2E.
El sentido en el que se recorren las órbitas viene dado por el sistema y el
mapa de fases completo aparece en la figura 6.
El tiempo empleado en recorrer una órbita cerrada es el periodo de movi-
miento y puede calcularse (al menos dar una expresión compacta). Si en t = t0
la partı́cula sometida a este potencial se encuentra en x = x0 , en el tiempo t se
hallará en x(t) dado por:
x(t)
ds
t − t0 =
x0 2(E − V (s)
donde −1/4C < E < 0, la energı́a de la partı́cula, es constante a lo largo de
la trayectoria. Esta expresión es una consecuencia inmediata de la primera
ecuación del sistema (o de la definición de velocidad). Para una órbita cerrada,
el periodo es:
b
T ds
=
2 a 2(E − V (s)
204 EDO. Versión 4. Mayo 1996
y y
x x
Fig.6 Fig.7
V (x) = 1 − cos x
donde x es una variable que podrı́a tomarse en el intervalo [0, 2π] con lo que el
espacio de fases serı́a un cilindro. Sin embargo, supondremos que x ∈ IR. La
ecuación correspondiente es:
x = − sen x
y el sistema:
x = v
v = − sen x
La energı́a es una integral primera del sistema:
1 2
H(x, v) = v + 1 − cos x
2
y las curvas de nivel, que contienen a las órbitas del sistema son:
1 2
v + 1 − cos x = E
2
Debido a que el coseno es una función acotada, la energı́a es siempre positiva.
MAR 205
v = 0, x = nπ, n∈Z
∂H ∂H
Lv H(x, y) = (a − by)x + (cx − d)y = 0
∂x ∂y
H(x, y) = cx + by − log xd y a
y y
x x
Fig.8 Fig.9
Las órbitas próximas al centro son cerradas. Las correspondientes a los
ejes son obviamente abiertas. Se puede probar que éstas son las únicas órbitas
abiertas. Todas las demás son cerradas (recuérdese que estamos considerando
el primer cuadrante solamente). La demostración puede hacerse probando en
primer lugar que las órbitas giran en torno al centro (salvo separatrices). Este
resultado no se puede deducir directamente del mapa de fases (recuérdese el
caso del problema de Kepler y compárese los campos de vectores en uno y otro
ejemplo). Una vez calculado el giro de las órbitas, se usa de manera adecuada el
hecho de que el centro es un mı́nimo absoluto para la integral primera calculada
antes.
De acuerdo con el mapa de fases que aparece en la figura 9, si en un instante
dado existen las dos especies, esto es cierto en cualquier tiempo. Las poblaciones
son periódicas, y salvo en el caso en el que nos encontremos en el centro, el
número de individuos varı́a con el tiempo. Este tipo de modelos ecológicos
puede mejorarse introduciendo otros factores que afectan a la evolución de las
especies en competición.
x = x3 − x
donde y = x y las órbitas del sistema están contenidas en las curvas de nivel
de H(x, y):
2y 2 + 2x2 − x4 = 4E
El sistema tiene tres puntos crı́ticos correspondientes a los extremos del poten-
cial:
dV
= x(1 − x2 ) = 0
dx
de donde x = −1, 0, 1. Los situados en x = ±1 son máximos, y por tanto puntos
silla, y x = 0 es un mı́nimo, es decir un centro. Como siempre en estos sistemas
que proceden de una ecuación de segundo orden (es decir cuya primera ecuación
es x = y), en los puntos crı́ticos y = 0.
Las órbitas son cerradas en un entorno del centro (correspondientes a en-
ergı́as entre 0 y 1/4). En cada curva de nivel de la función H(x, y) hay tres
órbitas, una cerrada y dos abiertas (ver figura 10). Por encima de 1/4 las
órbitas son abiertas (y hay una única órbita en cada curva de nivel). Cuando
E = 1/4 las órbitas que aparecen son las seis separatrices (los puntos silla tienen
dos separatrices comunes) y los puntos silla mismos. La ecuación de esta curva
de nivel es:
2y 2 + 2x2 − x4 = 1
es decir:
2y 2 = (x2 − 1)2
1
y = ± √ (x2 − 1)
2
∂H
= ax + by
∂y
∂H
− = cx − ay
∂x
210 EDO. Versión 4. Mayo 1996
y y
x x
Fig.10 Fig.11
Se trata de un sistema hamiltoniano (lo que nos permite asegurar sin más que
el centro de la aproximación lineal se conserva). El hamiltoniano no es ahora
tan trivial de escribir como en el caso anterior, pues el sistema no procede
directamente de una ecuación de segundo orden. En cualquier caso, resulta
muy sencillo resolver:
∂H
= x + y2
∂y
∂H
− = x2 − y
∂x
obteniéndose:
1 3
H(x, y) = (y − x3 + 3xy)
3
Como se ve en este caso, la segunda variable y no es la derivada de la
primera x con respecto a t, impidiéndonos una interpretación tan sencilla como
en el primer ejemplo (fig.11).
En general, llamando a las variables q, p el sistema de ecuaciones de Hamilton
se escribe como:
∂H
q =
∂p
∂H
p = −
∂q
L(q, q ) = pq − H(p, q)
se tiene:
∂L
p=
∂q
MAR 211
t
donde g es el flujo asociado al sistema autónomo dado. El conjunto Lα (y) se
define de igual forma cambiando ∞ por −∞
Lω (γ) = ∩M γ̄+ (M )
Lω (γ) = ∩M γ̄− (M )
Se tienen los dos resultados siguientes que pueden aclarar algo el significado
de los conjuntos lı́mite:
• Una órbita que tiene una intersección no vacı́a con su conjunto lı́mite, está
contenida en él.
Los conjuntos lı́mite de una órbita solo pueden ser de los siguientes tipos:
ii) Lω (γ) es una órbita cerrada, que coincide con γ o bien γ tiende en espiral
a ese conjunto cuando t → ∞, por uno de sus lados.
iii) Lω (γ) puede ser una unión de órbitas (separatrices) y puntos crı́ticos que
cierran un abierto homeomorfo al disco unidad. En este caso γ tiende en
espiral hacia Lω (γ), lo mismo que cualquier trayectoria suficientemente
próxima a Lω (γ) (dentro del cerrado cuya frontera es Lω (γ) y que contiene
a γ).
Ejemplos.
1. Como hemos dicho antes, si P es un punto crı́tico del tipo nodo estable, el
conjunto Lω (γ) siendo γ una órbita que tiende a P , es justamente P .
Definición 7.9 Un ciclo lı́mite es una órbita cerrada K tal que está contenida
en el conjunto Lω (P ) o Lα (P ) para algún punto P ∈ K.
Teorema 7.7 Sea γ una órbita cerrada de un sistema autónomo (como siempre
en el plano) correspondiente a un ciclo lı́mite. Toda otra órbita del sistema está
contenida en una de las dos regiones en las que γ divide al plano. Entonces, se
pueden presentar dos casos:
MAR 213
y
y
x x
Fig.12a Fig.12b
Con alguna hipótesis más se puede probar que el ciclo lı́mite es único. Con-
sideremos ahora el caso particular F (x) = x3 − x, g(x) = x con lo que el sistema
es:
x = y − x3 + x
y = −x
Esta es la ecuación de van der Pol que aparece en las oscilaciones man-
tenidas de circuitos electrónicos en los que hay elementos como triodos u otros
osciladores.
Fig.13
Esta ecuación tiene una única solución periódica que es asintóticamente es-
table. Cualquier otra órbita del sistema, salvo el origen, acaba en ella cuando
t → ∞. Estudiemos su mapa de fases. El único punto crı́tico del sistema es el
origen. La aproximación lineal tiene como matriz:
1 1
.
−1 0
1 2 1 2
E= y + x .
2 2
Supongamos el sistema perturbado:
x = y + 2f1 (x, y)
y = −x + 2f2 (x, y)
Para valores pequeños del parámetro las soluciones de este sistema no difieren en
mucho (para tiempo finito) de las soluciones del sistema conservativo inicial. Las
órbitas del sistema perturbado no serán en general cerradas. La energı́a definida
como antes no se conservará, pero en el caso que sean espirales, podemos estudiar
si crece o decrece cuando ha dado una vuelta completa alrededor del origen.
Calculemos para ello la derivada de la función E(x, y) con respecto al campo
de vectores v de la ecuación perturbada:
Lv E = x(y + 2f1 (x, y)) + y(−x + 2f2 (x, y)) = 2(xf1 (x, y) + yf2 (x, y)).
es decir:
∆E = 2F (R) + O(22 ).
donde:
F (R) = (f1 (x, y)dy − f2 (x, y)dx).
216 EDO. Versión 4. Mayo 1996
Si F (R) es positiva, la energı́a crece y las órbitas se alejan en espiral del origen.
Si es negativa la energı́a decrece, y las órbitas se acercan en espiral al origen. Si
F (R) cambia de signo, aparece una órbita cerrada, cuando F (R0 ) = 0 (que no
tiene porqué ser una circunferencia, recuérdese que es un cálculo aproximado).
Veamos que ocurre en la ecuación de van der Pol cuando introducimos un
parámetro pequeño 2:
x = y − 2(x3 − x)
y = −x
En este caso F (R) se puede calcular explı́citamente
2π
F (R) = (x3 − x)dy = R cos t(R2 cos2 t − 1)(−R cos t)dt =
0
3
πR2 (1 − R2 ).
4
√
La gráfica de F (R) frente a R aparece en la figura 14. Para R0 = 2/ 3,
F (R0 ) = 0 y tenemos un ciclo lı́mite que además es estable (pues la función F (R)
pasa de ser positiva a ser negativa y de acuerdo con lo dicho anteriormente, las
órbitas internas se alejan del origen acercándose al ciclo lı́mite, y las externas
tienden también al ciclo lı́mite al decrecer la energı́a en cada giro).
F(R)
R
0
R
Fig.14
asociado a la ecuación x + (x )3 − 2x + x = 0 que tiene un solo punto crı́tico
en el origen. Calculando la matriz de la aproximación lineal:
0 1
.
−1 2
y y
x x
Fig.15a Fig.15b
y y
x x
Fig.15c Fig.15d
más dimensiones en los que pueden aparecer fenómemos más interesantes (como
caos) y por supuesto más complicados de estudiar.
MAR 219
7.10 Ejercicios
1. Dibujar el mapa de fases:
x = y(x + 1) x = y − y 2 x = yex
; ;
y = x(1 + y 3 ) y = x − x2 y = ex − 1
x = 8x − y 2 x = −x + xy
; ; x = (2 − x )x
y = −6y + 6x2 y = xy
1 1
x + 2
− 3 = 0; x + x + sen x = 0
x x
2. Dibujar, tras escribir las ecuaciones en coordenadas polares:
x =y+x x2 + y 2 x = (x − y)(1 − x2 − y 2 )
;
y = −x + y x + y 2 2 y = (x + y)(1 − x2 − y 2 )
x = −y − x(x2 + y 2 − 1)(x2 + y 2 − 4)
y = x − y(x2 + y 2 − 1)(x2 + y 2 − 4)
∂u ∂u ∂ 3 u
= 6u − 3
∂τ ∂ξ ∂ξ
Calcular una solución de (E) cuya trayectoria en el espacio de fases es una
separatriz que rodea un centro (tomar d = 0).
14. Un punto se mueve a lo largo del eje x siguiendo la ecuación x = −1/x2 .
Dibujar el mapa de fases e interpretarlo. Si el punto se encuentra inicial-
mente en reposo a la derecha y a una distancia x0 del origen, calcular el
tiempo que tarda en llegar al origen.
15. Un péndulo se desplaza un ángulo α ∈ (0, π) de su posición de equilibrio
estable y se abandona. Hallar el periodo de la oscilación en función de una
integral. Suponer g/l = 1. Comparar con el periodo de la aproximación
lineal.
16. Sean m, n ∈ IN impares. Probar que todas las soluciones de x = y m , y =
−xn son periódicas.
17. Sea x + xn = 0, n ∈ IN impares. Hallar una fórmula para el periodo
de la solución con x(0) = 0, x (0) = a. ¿Para qué n es este periodo
independiente de a ?
18. Estudiar si es estable la posición de equilibrio de la ecuación:
x + xn = 0, n ∈ IN
a, b ∈ IR, a2 + b2 = 0.
elegir a y b de forma que el sistema tenga un centro en el origen y dibujar
el mapa de fases. Calcular la ecuación de las órbitas. Señalar en el mapa
de fases una órbita correspondiente a una solución del sistema que sea
inestable y otra correspondiente a una solución definida para todo t.
20. Supongamos que el sistema:
x = x(1 − y)
y = y(−1 + x)
222 EDO Versión 3. Octubre 1995
24. Sea
d2 x
= x1/2 .
dt2
Determinar la solución que satisface x(2) = 1/9, ẋ(2) = 2/9. ¿Existe más
de una solución satisfaciendo x(0) = ẋ(0) = 0? Sea x̄(t) la solución que
verifica x̄(0) = 2, x̄˙ (0) = −1 ¿Existe algún T > 0 tal que x̄(T ) = 2?
Dibujar aproximadamente x̄(t).