Está en la página 1de 224

ECUACIONES DIFERENCIALES

ORDINARIAS

Miguel A. Rodrı́guez

April 19, 1999


Tema 1

Introducción. Métodos
elementales de integración

1.1 Introducción
Las Ecuaciones Diferenciales (ED) es uno de los campos de la Matemática donde
se siente con más fuerza la influencia mutua con la Fı́sica. Muchas de las leyes
de la Fı́sica adoptan en su enunciado matemático la forma de una ecuación
diferencial. Los grandes desarrollos en el mundo de las ED son motivados en su
mayor parte por la necesidad de estudiar el significado de esas leyes para poder
predecir comportamientos de los sistemas fı́sicos.
Desde muy pronto en la historia de la matemática moderna, es decir, los
tiempos de Euler, las ecuaciones diferenciales aparecen como una de las ra-
mas con un crecimiento espectacular aunque existan discontinuidades claras.
Desde los objetivos iniciales de Euler y los Bernouilli por resolver de manera
explı́cita el mayor número de euaciones posibles, hasta los supuestamente más
modestos de obtener el mayor número de resultados posibles aún sin saber la
solución, ha pasado un largo periodo en el que el desarrollo de las otra ramas
de la matemática, singularmente el análisis, han permitido conseguir un nivel
de conocimientos realmente impresionante en este tema.

1.2 Primeras definiciones


Sin entrar en mayores precisiones, una ecuación diferencial es una relación entre
las derivadas de una función y sus variables, es decir:

f (x, u, ux , uxx , . . .) = 0

donde tanto x como u pueden ser vectores de espacios de dimensión finita, al


menos en lo que concierne a estas notas.

1
2 EDO. Versión 4. Mayo 1996

En la primera parte desarrollaremos el estudio de las llamadas ecuaciones


diferenciales ordinarias (EDO) en las que x es una variable escalar, aunque u
puede ser un vector. El orden de una ecuación es el de la derivada que lo tiene
máximo. Ası́ por ejemplo, la ecuación:

y = y

es una ecuación de primer orden en la que la función incógnita es y, la variable


independiente es x, que no aparece en la ecuación, y donde:
dy
y =
dx
El teorema fundamental del cálculo permite obtener la solución de ecuaciones
diferenciales que se encuentran reducidas a cuadraturas, es decir aquellas como:

y  = f (x)

en las que todas las soluciones son simplemente:



y(x) = f + C

donde el signo integral se refiere a la integral indefinida de f y C es una constante


arbitraria. Sin embargo, en el ejemplo anterior, y  = y, la solución no es tan
trivial. De hecho, se puede interpretar esa ecuación, junto con una condición
adecuada, como la definición de la función exponencial. En efecto, si se supone
que se busca una solución que verifique y(0) = 1, se encuentra como única
solución:
y(x) = ex .
Todas las soluciones de esta ecuación tienen la forma:

y(x) = Cex (1.1)

donde C es una constante cualquiera (Fig.1). En efecto, sea y(x) una solución
de la ecuación, y multipliquémosla por exp(−x). Derivando respecto a x, es
fácil obtener:
d
(y(x)e−x ) = 0
dx
de donde se deduce la forma dada en (1).
Para finalizar este ejemplo, demostremos como las propiedades de la función
exponencial pueden deducirse del estudio de la ecuacion diferencial de la que es
solución; consideremos por ejemplo:

ea+b = ea eb .

Si y(x) es solución de esta ecuación, es obvio, debido a la independencia en t


que y(x + t) también lo es. Ası́ pues, como todas las soluciones son de la forma
dada en (1), tendremos:
y(x + t) = Cex
MAR 3

Fig.1

donde C es una constante, determinada evidentemente por t. Igualando:

y(x + t) = ex+t = C(t)ex

de donde se obtiene el resultado anunciado anteriormente sin más que tomar


x = 0.
Otra forma de ver las cosas es la siguiente. Supongamos que el objetivo es
determinar todas las funciones que verifican la siguiente propiedad:

f (a + b) = f (a)f (b)

es decir, que representan el grupo aditivo de los reales en el grupo multiplicativo.


Esta idea permite tratar las funciones especiales de la Fı́sica Matemática desde
el punto de vista de la teorı́a de la representación de los grupos. Para calcular
f procedamos de la siguiente forma: supongamos que a = t y derivemos con
respecto a esta variable:
f  (t + b) = f  (t)f (b)
si ahora sustituimos t por 0 y tratamos b como una variable x, tendremos:

f  (x) = f  (0)f (x)

llamando y = f (x): y  = Ky donde K = f  (0). La ecuación obtenida es la


tratada anteriormente salvo una constante K.
Se pueden generar ED de la siguiente forma: sea

f (x, y, c1 , c2 , . . . , cn ) = 0

una ecuación, en la que se supone que las operaciones a realizar son válidas.
Derivemos n veces respecto a la variable x, considerando a y como función
implı́cita de x. Esto permite obtener n + 1 ecuaciones de donde es posible, en
principio, eliminar las constantes ci , obteniéndose una ecuación diferencial de
grado n. El orden de esta ecuación puede ser menor si las constantes satisfacen
algunas relaciones. La solución de esta ED será la ecuación de partida, siempre
que y pueda ser escrita como función de x, y dependerá de n constantes de
integración. Esto es una solución general en el sentido habitual. Sin embargo es
posible que alguna solución pueda no estar representada en ella. Consideremos
4 EDO. Versión 4. Mayo 1996

el siguiente ejemplo para una ecuación con una constante: f (x, y, c) = 0. Si


derivamos con respecto a x obtendremos:

∂f ∂f 
+ y =0
∂x ∂y

donde hemos sustituido c por la expresión obtenida de f (x, y, c) = 0. Si deriva-


mos esta expresión considerando a x, y, c como variables independientes ten-
dremos:
∂f ∂f ∂f
dx + dy + dc = 0
∂x ∂y ∂c
(tambien con c eliminada), y de ambas ecuaciones llegamos a:

∂f
dc = 0
∂c
es decir, o bien dc = 0 con lo cual c es constante y obtenemos la solución general
f (x, y, c) = 0, o bien:
∂f
=0
∂c
que puede en ocasiones ser una solución de la ED y no estar incluı́da en la
solución general. Se trata de una solución singular, y desde un punto de vista
geométrico es la envolvente de la familia de curvas dada por la solución general.
La mayor parte de los resultados sobre ecuaciones diferenciales se refieren a
aquellas que están escritas en la llamada forma normal, es decir aquellas en las
que la derivada de mayor orden está despejada:

y (n) = f (x, y, y  , y  , . . . y (n−1) ).

Si y es una función vectorial se dice que tenemos un sistema de ecuaciones.


Existe una relación entre los sistemas de primer orden y las ecuaciones de orden
n. En efecto, una ecuación diferencial de orden n, dada en forma normal siempre
se puede escribir como un sistema de ecuaciones de primer orden sin más que
definir las derivadas sucesivas de y como nuevas funciones incógnitas: y = y1 ,
y  = y2 (ası́ que y1 = y2 ), etc. con lo que la propia ecuación se transforma en:

yn = f (x, y1 , y2 , ..., yn ).

El proceso inverso, es decir, pasar de un sistema a una ecuación, no siempre


es tan evidente y resulta necesario examinar cuidadosamente el sistema. Por
ejemplo:  
y 1 = y1
y2 = y2
es un sistema de primer orden que no es equivalente a una ecuación de or-
den dos. Incluso aunque se pueda encontrar esa ecuación, cuestiones como la
derivabilidad de las soluciones deben ser tratadas separadamente.
MAR 5

1.3 Problemas a resolver


Los problemas que surgen en el estudio de las ecuaciones diferenciales son muy
variados. Algunos serán tratados en los próximos ejemplos aunque su justifi-
cación y respuesta no serán estudiados hasta más adelante.

1.3.1 Existencia y unicidad


La existencia y unicidad de soluciones de una ecuación serán las primeras difi-
cultades a tratar. Como ya hemos visto, una ED tiene en general un número
infinito de soluciones. Sin embargo si sometemos dichas soluciones a alguna
condición de tipo a especificar, podemos elegir entre ellas una sola. Las restric-
ciones que aparecen sobre la ecuación y la condición para que esto sea cierto
se estudiarán en otro lugar. Los ejemplos que siguen muestran varias ED con
diferentes comportamientos:
a) y  = y, y(0) = 1 tiene una única solución, como ya hemos visto, y(x) = ex
b) y  = 3y 2/3 tiene más de una solución cuando y(0) = 0. Por ejemplo:
y(x) = 0, y(x) = x3 verifican tanto la ecuación como la condición establecida.
La solución general de esta ecuación es:

y(x) = (x + c)3

aunque y(x) = 0 no aparece en ella. De hecho, esta solución es la envolvente de


la familia de curvas dada en la solución general (Fig.2).

y y

x x

Fig.2 Fig.3

c) y  = −x/y, y(0) = 0 es un problema que no tiene solución. La solución


general viene dada por:
x2 + y 2 = c

donde c es una constante positiva. Ninguna solución pasa por (0, 0). Nótese
que esta expresión no es una solución en sentido estricto pues y no es función
de x en todos los puntos. Sin embargo contiene a las soluciones de la ecuación.
Con más propiedad la podemos llamar una integral de la ED (Fig.3).
6 EDO. Versión 4. Mayo 1996

1.3.2 Dependencia continua


Puesto que muchos fenómenos fı́sicos pueden representarse por modelos que
encuentran su formulación matemática en una ED, resulta de suma importan-
cia saber como dependen sus soluciones de los parámetros y de los datos. En
general éstos no se conocerán con precisión absoluta y pequeñas variaciones
podrı́an provocar grandes cambios en las soluciones. La dependencia respecto
a parámetros y datos, y la estabilidad de las soluciones serán temas a tratar
detenidamente. Los siguientes ejemplos muestran como ecuaciones sencillas
presentan distintos comportamientos en estos temas.
a) y  = ay donde a es una constante real. Las soluciones de esta ecuación
dependen continuamente de los datos, para toda constante a. Es decir cuando
se consideran soluciones con dato inicial y(x0 ) = y0 y se varı́a y0 la solución
depende de y0 de forma continua en un intervalo [x0 , x1 ] con x1 finito. La
demostración es muy sencilla.
b) En la misma ecuación del ejemplo anterior uno puede estudiar como
las soluciones dependen continuamente respecto al parámetro a. El compor-
tamiento cualitativo de las soluciones es muy similar segun varı́a a. Se puede
considerar el punto a = 0 como un punto de bifurcación. Para a > 0 todas
las soluciones tienden a ∞ cuando x → ∞. Sin embargo cuando a < 0 todas
tienden a 0 cuando x → a. Cuando a = 0 las soluciones son rectas paralelas al
eje x.
c) Siguiendo con el ejemplo anterior la solucion y(x) = 0 es una solución
estable asintóticamente cuando x → ∞, si a < 0. Si a = 0 esta solución
sigue siendo estable pero no asintóticamente. Pero cuando a > 0 la solución es
inestable. Aún sin entrar en mayores precisiones sobre estos conceptos, resulta
claro del dibujo de las soluciones el significado de estas palabras (Fig.4).

y y

1 x

Fig.4 Fig.5

1.3.3 Prolongación
Al ser una solución una función y = y(x), puede ocurrir que no esté bien definida
para cualquier valor de x. En general uno considera soluciones definidas en el
mayor intervalo posible. Se llaman soluciones maximales en el sentido que el
intervalo no se puede ampliar más. Este intervalo puede ser, por supuesto, no
acotado por la derecha, izquierda o por ambas simultáneamente. Los siguientes
MAR 7

ejemplos muestran soluciones que no se pueden prolongar hasta infinito, es decir,


el intervalo máximo de definición no llega hasta ∞.
a) y  = −x/y. Como hemos visto antes, las soluciones de esta ecuación están
contenidas en las curvas de nivel de la funcion:

x2 + y 2 = c.

Por tanto, una solución será:



y(x) = c − x2 .

Está claro que esta solución no se puede prolongar hacia la derecha (x crecientes)
más allá de c1/2 . Un razonamiento similar muestra que no se puede prolongar
hacia la izquierda más allá de −c1/2 . Por tanto esta solución está definida en
el intervalo (−c1/2 , c1/2 ) y es no prolongable en el sentido dicho anteriormente
(Fig.3).
b) y  = y 2 tiene como solución general y(x) = 1/(c − x). Para cualquier c la
solución no se puede prolongar más allá de c.
Por ejemplo, para fijar ideas, consideremos una solución particular que ver-
ifica y(0) = 1, es decir, y(x) = 1/(1 − x). Está claro que esta solución no puede
prolongarse más allá de x = 1, donde tiene una ası́ntota vertical. Por la izquierda
no presenta ninguna dificultad ası́ que el intervalo máximo de definición es
(−∞, 1) (Fig.5). Se dice muchas veces que la solución no es prolongable ha-
cia la derecha y sı́ lo es hacia la izquierda, para indicar que la solución maximal
tiene como intervalo de definición el anteriormente citado. Esta misma ecuación
tiene soluciones con intervalo de definición del tipo (c, ∞), e incluso una solución
definida en toda la recta, y(x) = 0. Las dificultades de extensión del intervalo,
son distintas en los dos ejemplos expuestos. En el primero de ellos la derivada se
hace infinito en un punto mientras que en el segundo existe una ası́ntota vertical
pero la derivada no se hace infinito en ningún punto en el que la función esté
definida.

1.3.4 Solución general


Se ha hablado de soluciones generales como aquellas que contienen todas las solu-
ciones de la ecuacion, que se obtienen al dar valores a una constante que aparece
en ellas. Sin embargo es posible que alguna solución escape de la solución ge-
neral y no se obtenga para ningún valor real de la constante (o constantes en
otros casos). Por ejemplo, en el caso anterior, y(x) = 0 no aparece en la solución
general para ningún valor de la constante c.

1.3.5 Ecuaciones en forma implı́cita


Finalmente, existe un tipo de ecuaciones diferenciales no resueltas en la derivada
de orden superior. En general equivalen a una ecuación cuando se puede despejar
esa derivada, por ejemplo cuando se puede aplicar el teorema de la función
8 EDO. Versión 4. Mayo 1996

implı́cita: (y  )2 = 4y es un ejemplo sencillo de este tipo de ecuaciones que


equivale a dos:
y  = 2y 1/2 ; y  = −2y 1/2 .
Las soluciones de ambas ecuaciones son el haz de parábolas y = (x + c)2 . La
solución y(x) = 0 es la envolvente del haz y las otras soluciones presentan un
comportamiento peculiar en el eje x, donde no existe solución única (Fig.6).

Fig.6

1.4 Interpretación geométrica de las ED de pri-


mer orden. Isoclinas
En esta sección consideraremos tan solo ecuaciones de primer orden resueltas
en la derivada. Aunque similares afirmaciones podrı́an hacerse para sistemas de
ecuaciones de primer orden, solo para las ecuaciones pueden hacerse representa-
ciones gráficas sencillas. Ası́, sea y  = f (x, y) una ED de primer orden. A cada
punto del plano x, y podemos asociarle un segmento de pendiente f (x, y). De
esta manera obtendremos un campo de direcciones en la región en la cuál esté
definida f . Se denominan isoclinas a las curvas que unen los puntos en los que la
pendiente es constante. De acuerdo con la ED y  = f (x, y), una solución de esta
ecuación es tangente en cada punto al campo de direcciones. Es posible obtener
de esta forma una gráfica aproximada de las soluciones, mediante el dibujo de
las isoclinas de la ecuación, curvas de nivel de la función f . Es posible que en
algun punto la función f tenga un valor infinito. En este caso no puede hablarse
con propiedad de solución. Sin embargo, con respecto al dibujo aproximado de
las curvas integrales, este hecho puede obviarse mediante la consideración de la
ecuación asociada x = 1/f (x, y), donde x = dx/dy, es decir considerando a
x como función de y. De esta forma, cuando aparezca un punto de pendiente
infinita para la ecuación inicial, se puede considerar esta otra ecuación y tratar
a la curva integral como una solución suya. No siempre es sencillo dibujar las
isoclinas y por tanto las soluciones.
Los siguientes ejemplos muestran cuales son los pasos más adecuados para
llevarlo a cabo, aunque cada situación puede necesitar un estudio particular.
a) y  = y − x es una ecuación lineal. Las isoclinas son muy sencillas en
este caso: y − x = m son rectas de pendiente 1 y ordenada en el origen m, es
MAR 9

decir la pendiente de las soluciones que pasan por ellas. El dibujo de isoclinas
y soluciones es el que aparece en la figura 7.
b) xy  +(1−x)y = 0. Las isoclinas son ahora (x−1)y/x = m, o si despejamos
y:
mx
y=
x−1
curvas que pasan por (0, 0) y tienen una ası́ntota vertical en el punto x = 1.
La pendiente en el origen no está definida. De la expresión obtenida en primer
lugar, uno puede deducir que la recta x = 1 es una isoclina de pendiente = 0.
Asimismo x = 0 es una isoclina de la ecuación asociada (dx/dy) con pendiente
igual a 0 (o si se quiere de la ecuación inicial con pendiente ∞). El dibujo de
las isoclinas y soluciones puede verse en la figura 8.

y y

x x

Fig.7 Fig.8

Otras caracterı́sticas de las soluciones pueden obtenerse de la propia ecua-


ción. Por ejemplo, el conjunto de puntos de inflexión está contenido en el con-
junto de puntos que anulan a la segunda derivada y puede obtenerse de la
ecuación sin más que derivar (suponiendo que se pueda):

∂f ∂f
y  = + f (x, y) = 0.
∂x ∂y

c) y  = y 2 − x. Las isoclinas de esta ecuación son las curvas y 2 − x = m, es


decir parábolas con eje horizontal. La derivada segunda de una solución es:

y  = 2y  y − 1 = 2y(y 2 − x) − 1

y por tanto, la ecuación de los posibles puntos de inflexión es la expresión


anterior igualada a cero es decir:
1
x = y2 − .
2y
En la figura 9 pueden verse las isoclinas, curva de puntos de inflexión y solu-
ciones.
Con esto terminamos esta introducción al estudio de las ecuaciones diferen-
ciales. En la siguiente sección estudiaremos diversos métodos de resolución de
ED de primer orden para plantear un aspecto más teórico en el capı́tulo 2.
10 EDO. Versión 4. Mayo 1996

Fig.9

1.5 Métodos elementales de integración


Aún cuando no cabe esperar resolver todas las ED de forma completa es posible
en ciertos casos obtener la solución general de una forma explı́cita. A contin-
uación estudiaremos algunos casos de ecuaciones diferenciales de primer orden
para los que se puede encontrar la solución general.

1.5.1 Ecuaciones exactas


Consideremos una ED escrita en la forma siguiente:

P (x, y)dx + Q(x, y)dy = 0. (1.2)

Desde el punto de vista de la teorı́a de formas diferenciales, si ω es una


1-forma en IR2 (o en un abierto de IR2 ), su expresión en coordenadas es:

ω = P (x, y)dx + Q(x, y)dy

por lo tanto la ecuación (1.2) es ω = 0. Cuando ω sea una 1-forma exacta,


existirá una función f (x, y) tal que

ω = df

y por lo tanto, al ser ω = 0, f (x, y) = c es la solución general de la ecuación.


Una condición necesaria para que ω sea exacta es que sea cerrada, es decir:
dω = 0. En coordenadas, esta restricción se traduce en:
∂P ∂Q
− =0 (1.3)
∂y ∂x
suponiendo que las funciones P (x, y), Q(x, y) son diferenciables. Esta condición
es también suficiente en el caso en que el abierto de IR2 en el que trabajamos
sea, por ejemplo, simplemente conexo, o haciendo consideraciones de tipo local,
como haremos de hecho.
De acuerdo con esta interpretación, llamaremos ecuación diferencial exacta a
aquella que escrita en la forma (1.2) verifique la condicion (1.3). Las ecuaciones
exactas son inmediatamente resolubles, pues basta encontrar una función f (x, y)
MAR 11

cuyas derivadas con respecto a x e y coincidan respectivamente con P (x, y) y


Q(x, y). Veamos como se puede encontrar f (x, y).
De la primera condición:
∂f
= P (x, y)
∂x
 x
f (x, y) = P (s, y)ds + h(y)
x0

si ahora derivamos con respecto a y:


 x
∂f ∂P
= (s, y)ds + h (y) = Q(x, y) − Q(x0 , y) + h (y) = Q(x, y)
∂y x0 ∂y

de donde:
h (y) = Q(x0 , y)
ecuación que se integra facilmente dando:
 x  y
f (x, y) = P (s, y)ds − Q(x0 , s)ds.
x0 y0

Con la elección de extremos de la integral que se ha hecho, f (x, y) = 0 es


la solución que pasa por (x0 , y0 ). En la práctica se consideran las integrales
indefinidas y la solución general viene dada por f (x, y) = c en la cuál solo
aparece una constante como era de esperar.
Ejemplo.
y − x3 + (x + y 3 )y  = 0.
La ecuación es exacta como se comprueba fácilmente:

P (x, y) = y − x3

Q(x, y) = x + y 3
luego:
∂P ∂Q
= = 1.
∂y ∂x
Sea f (x, y) la función cuyas curvas de nivel contienen a las soluciones de la
ecuación:
∂f
= P (x, y)
∂x
1
f (x, y) = yx − x4 + h(y)
4
∂f
= x + h (y) = x + y 3
∂y
por tanto:
y4 x4 − y 4
h(y) = , f (x, y) = yx −
4 4
12 EDO. Versión 4. Mayo 1996

y las curvas integrales son f (x, y) = c. Nótese que Q(x, y) = 0 cuando x+y 3 = 0
por lo que en estos puntos no es obvio que y pueda definirse como función de x
(al menos no se verifican las hipótesis del teorema de la función implı́cita). En
los demás puntos esa ecuación define a y como función de x, y es una solución
de la ecuación.

1.5.2 Factores integrantes


No toda ecuación es exacta, pero podrı́a pensarse que la multiplicación por un
factor global µ(x, y) harı́a que la nueva ecuación, equivalente a la anterior al
menos si existe el inverso de µ, lo fuera. Es decir aunque ω no sea exacta,
una elección adecuada de µ hace que µω lo sea. Para ello deberı́a verificarse la
condición de exactitud dada anteriormente:
∂ ∂
µP = µQ
∂x ∂y
lo que equivale a una ecuación en derivadas parciales de primer orden para la
funcion µ. La obtención de la solución de esta ecuación diferencial es equiva-
lente en dificultad a la resolución de la ecuación de partida (el uso del método
de caracterı́sticas lleva a la ecuación original) pero no es necesario conocerla.
Basta hallar una función que verifique esa ecuación, es decir, basta una solución
particular. Se dice que µ(x, y) es un factor integrante para esa ecuación.
Ejemplo. y  = (y − 2x)/(2y + x). Escribiendo esta ecuación como hemos
hecho antes:
(2x − y)dx + (2y + x)dy = 0
que no es una ecuación exacta. Tratemos de buscar un factor integrante para
ella. La ecuación que debe verificar µ(x, y) es:

(2y + x)µx − (2x − y)µy = −2µ.

Esta ecuación en derivadas parciales de primer orden lleva a la ecuación de


partida. Sin embargo, puede probarse fácilmente que la función:
1
µ(x, y) =
x2 + y 2
es una solución particular. Aunque el método aquı́ descrito no sea muy general,
no deja de tener interés. Hagamos el siguiente cambio de variables:

x = ρ cos θ

y = ρ sen θ
la nueva ecuación es:
ρµρ + 2µθ = −2µ
y suponiendo que µ no depende de θ, ρµρ = −2µ, ecuación de la que se obtiene
como solución particular µ(ρ) = 1/ρ2 , es decir el factor integrante antes dado.
MAR 13

Si se supone que µ solo depende de θ, se obtiene la ecuación: µθ = µ, con


solución:
µ = e−θ
es decir: µ = e− arctg(y/x) que es otro factor integrante para esta ecuación.
Escojamos el primer factor integrante. La ecuación es ahora:
2x − y 2y + x
2 2
dx + 2 dy = 0
x +y x + y2
que es exacta y tiene como solución general:
x
log(x2 + y 2 ) − arctg( ) = C.
y
Esta función no define en todos los puntos a y como función de x. De acuerdo
con el teorema de la función implı́cita (que da condiciones suficientes) cuando
2y + x = 0, no se puede asegurar que exista esa función implı́cita. En esos
puntos es donde f (x, y) = (y − 2x)/(2y + x) es discontinua.
En el ejemplo siguiente veremos como una hipótesis adicional sobre µ, a
saber, que dependa tan solo de la variable x, permite obtener fácilmente una
ecuación exacta.
Ejemplo: (x2 + y 2 + 2x + 1)dx + y(x + 1)dy = 0
Esta ecuación no es exacta, P (x, y) = x2 + y 2 + 2x + 1, Q(x, y) = y(x + 1)
ası́ que:
∂P ∂Q
= 2y; = y.
∂y ∂x
Si suponemos que existe un factor integrante que solo es función de x, µ(x):

(x + 1)µ = µ

ecuación que tiene por solución µ(x) = x + 1. De esta forma uno obtiene
fácilmente la solución general

(x + 1)2 (2y 2 + (x + 1)2 ) = C.

El uso de factores integrantes no es, aunque pueda parecerlo de los ejemplos


precedentes, un método muy efectivo. De hecho, toda ecuación que tiene una
única solución admite una familia infinita de factores integrantes. Es obvio que
no sabemos calcular la solución de todas las ED.

1.5.3 Ecuaciones de variables separadas


Se dice que una ecuación diferencial es de variables separadas si se puede escribir
en la forma:
f (x)
y = .
g(y)
Se trata de una ecuación exacta, escribiéndola en la forma (1.2):

f (x)dx − g(y)dy = 0
14 EDO. Versión 4. Mayo 1996

y por tanto se pueden usar los métodos expuestos anteriormente. Sin embargo,
en la práctica resulta más directo prescindir de estos planteamientos y escribir:
 

g(y)y (x)dx = f (x)dx + C

y cambiando la variable de integración en la primera integral:


 
g(y)dy = f (x)dx + C

relación que una vez integrada, permitirá encontrar la solución.


Ejemplo: y  = −(1 + y 2 )/(1 + x2 ) es una ecuación de variables separadas,
con f (x) = −1/(1 + x2 ), g(y) = 1/(1 + y 2 ), por lo que su solución se encuentra
inmediatamente como:  
dx dy
− 2
=
1+x 1 + y2
es decir: − arctg(x) = arctg(y) + C, ecuación de la que se puede despejar y(x)
obteniéndose la solución general:

k−x
y(x) = .
1 + kx

Además, y(x) = 1/x también es solución, aunque no se obtenga para ningún


valor de k ∈ IR. (k = ∞ permite obtener esa solución).

1.5.4 Cambios de variable


Uno de los métodos más interesantes para la resolución de ED es el de cambios
de variable, tanto independiente como dependiente. Sin embargo, no siempre
es sencillo adivinar cual es el mejor cambio que simplifica la ecuación y la hace
resoluble por algun método elemental. Veremos a continuación algunos tipos de
ecuaciones y los cambios de variable que ayudan a su solución.
i) Ecuaciones homogéneas. Supongamos que la función f (x, y) es homogénea
de grado 0, es decir:
f (tx, ty) = f (x, y).
En este caso, si se escribe y = zx, donde z es la nueva incógnita, la nueva
ecuación es:
z  x + z = f (x, zx) = f (1, z)
que es una ecuación de variables separadas:

f (1, z) − z
z =
x
y que puede resolverse con el método dado anteriormente.
Ejemplo: y − 2x − (2y + x)y  = 0.
MAR 15

Esta ecuación fue resuelta antes buscando un factor integrante que la hiciera
exacta. Sin embargo es más sencillo calcular su solución considerándola como
una ecuación homogénea. Si y = zx:

z2 + 1
xz  = −2
2z + 1
que es una ecuación de variables separadas:
 
2z + 1 dx
2
dz = −2
z +1 x
y por tanto:
y
log(x2 + y 2 ) + arctg( ) = C
x
que es la misma solución anterior (aunque el significado de la constante C sea
distinto).
ii) Ecuación de Bernouilli. El siguiente tipo de ecuaciones se puede resolver
mediante un cambio en la variable dependiente:

y  = f (x)y + g(x)y r

donde r es un numero real. Si se pone z = y 1−r , la nueva ecuación es:

z  = (1 − r)(f (x)z + g(x))

que es una ecuación lineal de primer orden sobre la que hablaremos a contin-
uación.
Ejemplo: y  = y −4y 2 cos2 (x/2). Poniendo z = 1/y, obtenemos una ecuación
lineal de primer orden:
x
z  = −z + 4 cos2 ( )
2
que será resuelta en la próxima sección.
iii) La ecuación de Riccati. Se trata de una ecuación con términos no lineales
cuadráticos:
y  = a(x) + b(x)y + c(x)y 2 .
En general no se puede reducir a cuadraturas, y solo cuando uno conoce
una solución particular puede convertirla mediante un cambio de variable en
una ecuación de Bernouilli para desde allı́ pasar a una ecuación lineal de primer
orden. La ecuación de Riccati es un caso interesantı́simo que puede ser estudiado
desde numerosos puntos de vista. Veamos primero como el conocimiento de una
solución particular simplifica la ecuación. Sea y1 (x) esa solución y llamemos:

u(x) = y(x) − y1 (x).

Sustituyendo en la ecuación hacemos desparecer el término no homogéneo:

u = (b(x) + 2y1 (x)c(x))u + c(x)u2


16 EDO. Versión 4. Mayo 1996

que es una ecuación de Bernouilli, convirtiéndose en una ecuación lineal con el


cambio u = 1/z.
La ecuación de Riccati aparece relacionada con una ecuación lineal de orden
2; un cambio de variable linealiza a la ecuación, aunque no es una linealización
estricta ya que el orden de la ecuación aumenta. Para conseguir esto se pone:
v = yc(x) con lo que se obtiene:

c (x)
v  = c(x)a(x) + (b(x) + v) + v 2
c(x)

ecuación que se transforma en la deseada por el cambio v = z  /z

z  + (b + c /c)z  + acz = 0.

La solución general de esta ecuación se puede poner como una combinación


lineal de dos soluciones linealmente independientes:

z(x) = k1 z1 (x) + k2 z2 (x)

con lo que la solución de la ecuación de Riccati es:

z
y(x) = −
cz
es decir:
k1 z1 (x) + k2 z2 (x)
y(x) = −
c(x)(k1 z1 (x) + k2 z2 (x))
que no depende de dos constantes, sino solo de una, por ejemplo del cociente
k1 /k2 = k. En cualquier caso, el cálculo de las soluciones de esta ecuación lineal
no es más sencillo que el problema inicial.
Una propiedad de la ecuación de Riccati es que la solución general se puede
expresar en función de tres soluciones particulares distintas y de una constante,
o lo que es lo mismo, la siguiente expresión es constante:

y(x) − y1 (x) y3 (x) − y2 (x)


=C
y(x) − y2 (x) y3 (x) − y1 (x)

de donde uno puede despejar y(x) suponiendo que conoce las otras tres solu-
ciones. Esta propiedad es debida a la relación que existe entre la ecuación de
Riccati y el grupo de matrices 2 × 2 con coeficientes reales y determinante igual
a uno, hecho tambien relacionado con la ecuación lineal de segundo orden que
antes hemos estudiado. No podemos seguir aquı́ esta lı́nea de razonamiento pues
necesitarı́amos un aparato matemático del que carecemos.
Ejemplo: y  = y 2 − 2/x2 .
Es fácil comprobar que y(x) = 1/x es una solución particular de esta ecua-
ción. Más difı́cil es establecer esa conjetura, aunque en este caso se puede
pensar que una función del tipo k/x podrı́a ser solución. Introduciéndola en
la ecuación se obtienen dos valores diferentes de k para los que esta función
MAR 17

es solución, k = 1 y k = 2. En cualquier caso, puesto que la ecuación es de


Riccati, una vez conocida una solución, las demás se pueden obtener fácilmente
desarrollando las ideas del apartado anterior.
1
u(x) = y(x) −
x
la nueva ecuación es:
2u
u = u 2 +
x
ecuación de Bernouilli, que se resuelve poniendo z = 1/u:
2z
z  = −1 −
x
una ecuación lineal no homogénea, resuelta en el próximo apartado.

1.5.5 La ecuación lineal de primer orden


La forma más general de una ecuación lineal de primer orden es:

y  = a(x)y + b(x) (1.4)

donde a(x) y b(x) son funciones exclusivamente de x. Esta ecuación no es


exacta, aunque un factor integrante que solo dependa de x se puede encontrar
fácilmente. Sin embargo, procederemos de otra forma para calcular su solución.
En primer lugar consideremos la llamada ecuación homogénea:

y  = a(x)y

que es una ecuación de variables separadas y por lo tanto integrable por cua-
draturas:  
dy
= a(x)dx
y
es decir: 
log |y| = a(x)dx + C

o despejando y(x): 
a(x)dx
y(x) = Ke
donde K es una constante real (lo que nos permite eliminar el valor absoluto que
aparecı́a en el logaritmo neperiano). Esta es la solución general de la ecuación
homogénea. Como se ve, todas las soluciones de esta ecuación son propor-
cionales, o dicho de otra manera, forman un espacio vectorial real de dimensión
igual a 1. El cálculo de la solución general de la ecuación completa puede hac-
erse utilizando el llamado método de variación de constantes, que consiste en
probar soluciones de la forma:

y(x) = K(x)e a(x)dx (1.5)
18 EDO. Versión 4. Mayo 1996

sustituyendo en la ecuación (1.4), tenemos:



K  (x) = b(x)e− a(x)dx

e integrando, se llega a una solución particular de la ecuación completa que se


puede poner como:
   
yp (x) = b(t) exp − a(s)ds dt.

La solución general de la ecuación completa (1.4), es la suma de la solución


general de la ecuación homogénea más una solución particular de la completa,
es decir: 
y(x) = Ke a(x)dx + yp (x). (1.6)
Este resultado se puede demostrar fácilmente. Dada una solución de (1.4),
y1 (x), es claro que y1 (x) − yp (x) es una solución de la ecuación homogénea. Por
tanto es de la forma dada en (1.5) para algún valor de K. Es evidente también
que la función dada en (1.6) es solución de (1.4) sin más que revisar su cálculo.
Ejemplo: z  = −z + 4 cos2 (x/2).
Esta ecuación se obtuvo a partir de una ecuación de Bernouilli. La solución
general de la ecuación homogénea es:

z  = −z, z(x) = Ke−x

y una particular de la completa, obtenida por el método de variación de cons-


tantes:
x
K  = 4ex cos2 ( ), K(x) = ex (2 + sen x + cos x)
2
por lo que la solución general es:

z(x) = Ke−x + 2 + sen x + cos x.

Ejemplo: z  = −1 − 2z/x
Esta es la ecuación que obtuvimos al tratar de calcular las soluciones de una
ecuación de Riccati. La ecuación homogénea correspondiente es:
2z
z = −
x
y su solución se obtiene de:

K
z(x) = Ke−2 dx/x
= .
x2
En este caso, una solución particular de la homogénea se puede obtener por
el método de variación de constantes (o directamente):
x
zp (x) = − .
3
MAR 19

La solución general es:


x K
z(x) = − + .
3 x2
La solución general de la ecuación de Bernouilli de donde proviene nuestro
ejemplo será:
3x2
u(x) =
C − x3
y la de la ecuación de Ricatti donde comenzamos:

3x2 1
y(x) = + .
C − x3 x

Las ecuaciones lineales de primer orden son siempre resolubles por cuadra-
turas cuando las funciones a(x) y b(x) que aparecen en ellas son integrables,
en particular cuando son continuas. Como veremos más adelante cuando la
ecuación es de orden superior a uno, sólo si los coeficientes son constantes o en
otros casos muy especı́ficos, es posible encontrar la solución general en forma
compacta.
Nótese que para la ecuación lineal homogénea, si se conoce una solución que
no sea la trivial (y(x) = 0), las demás se obtienen de manera algebraica, es
decir:
y(x)
= C.
y1 (x)
Para la ecuación no homogénea necesitamos dos soluciones distintas, y1 (x),
y2 (x), de forma que y(x) − y1 (x), y(x) − y2 (x) son soluciones de la ecuación
homogénea, con lo que:
y(x) − y1 (x)
=C
y(x) − y2 (x)
a comparar con la ecuación de Riccati donde son necesarias tres soluciones. De
esta forma, las ecuaciones lineales, homogéneas o no, se pueden considerar como
casos particulares de la ecuación de Riccati.

1.6 Métodos aproximados en ecuaciones de pri-


mer orden
Dado que no podemos conocer la solución de una ED arbitraria, resulta de suma
importancia disponer de algún método que nos permita saber, al menos con
cierto grado de aproximación, esa solución. Los métodos aproximados son muy
variados y no podemos entrar aquı́ en una discusión profunda. Nos limitaremos
a esbozar dos de ellos. El primero por su sencillez y el segundo porque abre
la puerta a métodos más completos y que permiten un mayor control sobre
los resultados y los errores que de forma indefectible van unidos a este tipo de
métodos.
20 EDO. Versión 4. Mayo 1996

1.6.1 Poligonal de Euler


Supongamos que queremos calcular la solución de la ecuación diferencial de
primer orden y  = f (x, y), que verifica la condición inicial y(a) = y0 . Admitamos
de momento que sabemos que dicha solución existe y puede definirse en un
cierto intervalo que es donde la queremos encontrar. Puesto que y  nos da la
derivada de la solución construiremos una poligonal a base de segmentos que
tengan como pendiente el valor dado por la función f en ciertos puntos, que
se determinan de acuerdo con una discretización apropiada del intervalo donde
estamos trabajando. Para fijar ideas, supongamos que lo que queremos saber
es el valor de la solución en el punto x = b > a. Dividamos el intervalo (a, b) en
n partes iguales, de paso h = (b − a)/n. El valor de n influye en la exactitud
del resultado, pues cuanto menor sea el paso, menores serán los errores en el
valor obtenido de la solución. Sin embargo otro tipo de errores, debidos a los
cálculos que hay que efectuar, influyen también sobre este valor por lo que n no
puede aumentarse indefinidamente. Una vez fijado n, construimos un segmento
que partiendo de (a = x0 , y0 ) tenga como pendiente f (x0 , y0 ), es decir el valor
de la derivada de la solución en ese punto. Calculamos sobre este segmento el
valor de y para x1 = x0 + h. Tenemos ası́ un segundo punto de la poligonal
(x1 , y1 = y0 + hf (x0 , y0 )). En este punto construı́mos otro segmento como el
anterior pero ahora de pendiente f (x1 , y1 ) y calculamos el valor de y en el punto
x2 = x1 + h. De esta manera obtenemos una poligonal que se asemeja a la curva
solución y que en el punto x = b nos dará un valor aproximado. Es decir:

y1 = y0 + hf (x0 , y0 )

y2 = y1 + hf (x1 , y1 )
...
yn = yn−1 + hf (xn−1 , yn−1 ).
Ejemplo: Consideremos la ecuación de Riccati cuya solución encontramos
anteriormente: y  = y 2 − 2/x2 , y apliquemos el método de Euler al cálculo del
valor en b = 2.1 de la solución que pasa por (2, 0.5). En las tablas siguientes se
dan los valores que proporciona el método con diferentes pasos:

n = 1, a = x0 = 2, y0 = 0.5

b = x1 = 2.1, y1 = 0.475, yexacto = 0.476190, error = 0.001


n = 10, a = x0 = 2, y0 = 0.5
x1 = 2.01, y1 = 0.497500
x2 = 2.02, y2 = 0.495025
x3 = 2.03, y3 = 0.492574
x4 = 2.04, y4 = 0.490147
x5 = 2.05, y5 = 0.487743
MAR 21

x6 = 2.06, y6 = 0.487356
x7 = 2.07, y7 = 0.483006
x8 = 2.08, y8 = 0.480671
x9 = 2.09, y9 = 0.478359
x10 = 2.1, y10 = 0.476069, error = 0.0001
n = 100 x0 = 2, y0 = 0.5
x100 = 2.1, y100 = 0.476178, error = 0.00001.
Como otro ejemplo que usaremos más tarde, el valor en x = 3 de esta
solución, con n = 10, es 0.322438, frente al valor exacto de 0.333333.

1.6.2 Método de Runge-Kutta


El método de Euler equivale en cierto sentido a un desarrollo de Taylor de
primer orden. Desarrollos hasta órdenes superiores proporcionan una mejor
aproximación. Sin embargo, éstos implican el cálculo de derivadas más compli-
cadas lo que conlleva dificultades en el cálculo y sucesivos errores de redondeo
que se van acumulando. El método de Runge-Kutta expuesto aquı́, equivale a
un desarrollo de Taylor hasta el cuarto orden pero sustituye las derivadas de
estos órdenes por una media ponderada:
h
yi+1 = yi + (ki1 + 2ki2 + 2ki3 + ki4 )
6
donde los coeficientes k vienen dados por:

ki1 = f (xi , yi )

ki2 = f (xi + h/2, yi + hki1 /2)


ki3 = f (xi + h/2, yi + hki2 /2)
ki4 = f (xi + h, yi + hki3 ).
Es decir, los coeficientes kij sustituyen en el punto xi a las derivadas de la
solución de orden menor o igual que 4.
Se puede probar que el error local es proporcional a h5 , mientras que el error
acumulado lo es a h. Existen métodos de Runge-Kutta a órdenes mayores, y
métodos con fundamentos distintos que mejoran el cálculo y disminuyen los
errores (métodos corrector-predictor, Adams-Moulton, etc).
Ejemplo. El caso anterior se puede tratar por el método de Runge-Kutta.
Para n = 10, el valor obtenido para x = 2.1 es 0.476190 y el error cometido es
menor que 10−11 . La mejor aproximación que proporciona este método permite
obtener, por ejemplo, el valor de esta solución en x = 8, n = 60, con un error
menor que 10−5 , y60 = 0.124997 frente al valor exacto 0.125.
Sin embargo, antes de aplicar un método numérico es necesario saber algo
de la solución y de sus posibles singularidades. El siguiente ejemplo muestra lo
22 EDO. Versión 4. Mayo 1996

errado de la utilización del cálculo numérico sin antes saber si la solución existe
para los valores que se está intentando calcular.
Consideremos nuevamente la ecuación de Riccati: y  = y 2 − 2/x2 , pero
intentemos calcular ahora la solución con valor inicial: y(2) = 1. Usando el
método de Euler con n = 10 podemos calcular el valor en x = 3, que resulta
ser 3.248222 frente a 5.733333 que es el valor exacto. El error cometido es
mucho mayor que antes, para la solución con dato inicial y(2) = 0.5. Si usamos
el método de Runge-Kutta, también con n = 10, obtendremos 5.726704 que
es un valor mucho más aproximado. Sin embargo, supongamos que queremos
calcular el valor de esta solución en x = 3.2. El método de Euler con n = 10
nos da 6.093062, mientras que el Runge-Kutta con el mismo número de pasos
da: 447.0796. En realidad, ninguno de los dos resultados es correcto. En este
caso disponemos de la solución exacta por lo que podemos averiguar que es lo
que ocurre. La solución es:

1 3x2
y(x) = +
x 32 − x3
que tiene una singularidad en x = 3.1748, por lo que no tiene sentido preguntarse
cuál es su valor en x = 3.2, donde no está definida.
Nótese también, que los errores cometidos en este caso son mayores que en
el anterior, debido a la variación tan fuerte de la solución.
MAR 23

1.7 Ejercicios
1. Resolver las siguientes ecuaciones diferenciales:

a) y  = (tg x)y + 1 b) y  = y/(x + y)


c) (1 + xy + x )y + (1 + xy + y ) = 0 d) y  = x/(x2 y 2 + y 5 )
2  2

e) y  = y 2 − xy + 1

Calcular en cada caso la solución particular que verifica y(0) = 1.

2. Algunas enfermedades se difunden por medio de portadores, individuos


que transmiten la enfermedad pero no la padecen. Sean x e y las densi-
dades de portadores y de personas sanas en el instante t. Se supone que los
portadores se retiran de la población de acuerdo con la siguiente ecuación:
dx/dt = −βx y que la enfermedad se difunde con velocidad proporcional
al producto xy: dy/dt = −αxy
a) Determinar x para todo tiempo si x(0) = x0
b) Usar (a) para calcular y(t), con y(0) = y0
c) Encontrar la proporción de población que no enferma, es decir,

lim y(t).
t→∞

Determinar como varı́a esta cantidad según los valores de α y β.

3. Calcular la ecuación de las curvas que verifican la siguiente propiedad:


para cada tangente a la curva en el punto, el segmento comprendido entre
ese punto y el eje y, tiene su punto medio en el eje x.

4. Calcular las trayectorias ortogonales a las familias de curvas y 2 + 2cx =


c2 ; r = c(1 + cos θ) (en coordenadas polares). Dibujarlas y discutir el
resultado.
24 EDO. Versión 4. Mayo 1996
Tema 2

Existencia y unicidad,
dependencia continua,
prolongabilidad y
estabilidad

2.1 Existencia y unicidad


Puesto que en muchas ocasiones no dispondremos de la solución explı́cita de una
ecuación diferencial, resulta muy interesante el estudio de las propiedades de esas
posibles soluciones ası́ como de su existencia y unicidad. En general se entiende
que un problema está bien planteado cuando tiene solución única y ésta depende
en forma continua tanto de los parámetros de la ecuación como de los datos
iniciales. En este capı́tulo estudiaremos algunos teoremas que permiten asegurar
existencia y unicidad de soluciones, ası́ como resultados sobre la prolongabilidad
de esas soluciones, dependencia continua y estabilidad.
Daremos dos teoremas de existencia y unicidad. El primero es el clásico
teorema de Cauchy, primeramente demostrado por Liouville (1838) y posteri-
ormente por Peano y Picard que le dio la forma que estudiaremos. El segundo
responde más a la concepción actual del problema y usa en su demostración
la teorı́a de aplicaciones contractivas. Como veremos, se trata de teoremas de
suficiencia y daremos ejemplos de existencia aún cuando alguna de las hipótesis
no se cumplan y de como la unicidad puede perderse si se levanta alguna de ellas
sin sustituirla por algo similar. Necesitamos antes de enunciar estos teoremas,
el concepto de función lipschitziana.
Definición 2.1 Sea f : I → IR una función definida en algún intervalo de la
recta. Se dice que f verifica la condición de Lipschitz si:

|f (x) − f (y)| ≤ L|x − y|, ∀x, y ∈ I

25
26 EDO. Versión 4. Mayo 1996

donde L es la constante de Lipschitz de la función f .


Por ejemplo, la función f (x) = x2 es lipschitziana en cualquier intervalo aco-
tado de la recta (aunque no en toda la recta, pues la constante depende del
intervalo). Veamos ahora como toda función derivable con derivada continua es
lipschitziana localmente.
Lema 2.1 Sea f : I → IR una función derivable y con derivada acotada en I.
Entonces f(x) es lipschitziana y una constante de Lipschitz es el máximo de la
derivada en I.
Demostración: Por el teorema del valor medio dados x, y ∈ I, existe c ∈ I tal
que x < c < y, verificándose:

|f (x) − f (y)| ≤ |f  (c)||x − y|.

Pero f  está acotada en I, luego se verifica el lema.


Hay funciones que no son derivables y sin embargo son lipschitzianas. Por
ejemplo el valor absoluto en el origen. Veamos un ejemplo de una función que√no
es lipschitziana (y por lo tanto no es derivable, aunque sı́ continua): f (x) = x
es continua en x = 0 aunque no derivable ni lipschitziana. En efecto, aplicando
la definición:
√ √ x−y
f (x) − f (y) = x − y = √ √
x+ y
que no se puede acotar en un entorno de 0. En lo que sigue, consideraremos
funciones de varias variables y exigiremos que sean lipschitzianas en una o varias
de ellas. Los comentarios y propiedades anteriormente expuestos son válidos sin
más que considerar, por ejemplo, derivadas parciales en vez de totales. Ası́, para
una función real de dos variables, se dice que es lipschitziana en un conjunto de
IR2 en la segunda variable, si:

|f (t, x1 ) − f (t, x2 )| ≤ L|x1 − x2 |

para (t, x1 ), (t, x2 ) en el dominio considerado. Nótese que la constante L no


puede depender de t. En general si f : I × D → IRn con D ⊂ IRn , se dice que
es lipschitziana en x ∈ D si:

f (t, x1 ) − f (t, x2 ) ≤ L x1 − x2

donde . es la norma en IRn y t ∈ I, que es un intervalo de IR. Entonces, la


existencia y acotación de las derivadas parciales de f con respecto a xi implica
la lipschitzianidad en esas variables.
Teorema 2.1 (Existencia y unicidad) . Sea la ecuación diferencial de pri-
mer orden: x = f (t, x) donde f es una función continua en:

D = {(t, x) : |t − t0 | ≤ a, |x − x0 | ≤ b}

y lipschitziana en la segunda variable en el mismo conjunto D (la condición de


lipschitzianidad no necesita establecerse en todo D, pero no entraremos en estos
MAR 27

detalles). Entonces existe una solución única x(t) que verifica x(t0 ) = x0 y que
está definida en un entorno de t0 , |t − t0 | ≤ T , donde T = min{a, b/K} siendo
K = sup{f (t, x) : (t, x) ∈ D}.
Demostración: Transformamos la ecuación diferencial en una integral:
 t
x(t) = x0 + f (s, x(s))ds
t0

y cuando t verifica |t − t0 | ≤ T , construimos una sucesión de funciones de la


siguiente forma:  t
x1 (t) = x0 + f (s, x0 )ds
t0

donde hemos sustituido la función x(s) en la integral por su valor en t0 . La


segunda aproximación se construye a partir de la primera por el mismo proced-
imiento:  t
x2 (t) = x0 + f (s, x1 (s))ds
t0

y así sucesivamente, de forma que la aproximación de orden n es:


 t
xn (t) = x0 + f (s, xn−1 (s))ds
t0

de esta forma tenemos una sucesión de funciones xn (t) definidas en el conjunto


D. Veamos ahora como la sucesión xn (t) converge uniformemente en el intervalo
|t − t0 | ≤ T . En primer lugar, comprobemos que xn (t) no se sale de D:
|xn (t) − x0 | ≤ b
Esto es cierto para n = 1:
 t   t
 

|x1 (t) − x0 | =  f (s, x0 )ds ≤ |f (s, x0 )|ds ≤ K(t − t0 )
t0 t0

y por inducción se demuestra para cualquier n. Supongamos que es cierto para


n:  t 
 
|xn+1 (t) − x0 | =  f (s, xn (s))ds ≤ K(t − t0 ) ≤ b
t0

pues xn (s) está en D para todo s en el intervalo [t0 − T, t0 + T ]. Usando el


mismo procedimiento de inducción, podemos probar la siguiente desigualdad:
KLn
|xn+1 (t) − xn (t)| ≤ (t − t0 )n+1
(n + 1)!
que se verifica para n = 1, pues es la misma desigualdad anterior. Supuesto
cierto para n,
 t 
 
|xn+1 (t) − xn (t)| =  [f (s, xn (s)) − f (s, xn−1 (s))]ds
t0
28 EDO. Versión 4. Mayo 1996

y usando la condición de Lipschitz:


 t  t
KLn−1 KLn
≤L |xn (s) − xn−1 (s)|ds ≤ L (s − t0 )n ds = (t − t0 )n+1
t0 t0 n! (n + 1)!

esta desigualdad se verifica para todo t ∈ [t0 − T, t0 + T ]. De esta forma con-


struimos una serie de funciones cuyos términos están mayorados por una serie
numérica convergente y que por lo tanto converge uniformemente en el intervalo
considerado:

x0 + (xn (t) − xn−1 (t))
n=1

Las sumas parciales de esta serie son iguales a xn (t), luego, la sucesión xn (t)
converge uniformemente a una función continua x(t). Probaremos ahora que
esa función verifica la ecuación diferencial y la condición inicial:
 t  t
x(t) = lim xn (t) = x0 + lim f (s, xn (s))ds = x0 + f (s, x(s))ds
n→∞ n→∞ t0 t0

donde se han usado las propiedades de f adecuadamente, es decir, se ha in-


tercambiado la integral por el lı́mite debido a la lipschitzianidad de f y se ha
tomado el valor de la función en el lı́mite debido a la continuidad de f . Al ser
f continua, x(t) es diferenciable y por lo tanto verifica la ecuación diferencial.
Es inmediato comprobar que también cumple la condición inicial.
Demostramos ahora la unicidad de la solución: sea x̃(t) otra solución distinta
de x(t) definida en [t0 − T  , t0 + T  ] con T  ≤ T que verifica la ecuación y la
condición inicial y además:

|x̃(t) − x0 | ≤ b, t ∈ [t0 − T  , t0 + T  ]

Entonces:
 t  t
|x̃(t) − xn (t)| ≤ |f (s, x̃(s)) − f (s, xn−1 (s))|ds ≤ L |x̃(s) − xn−1 (s)|ds
t0 t0

ahora bien, de nuevo por inducción, se puede probar que:


Ln b
|x̃(t) − xn (t)| ≤ (t − t0 )n
n!
por lo que xn (t) tiende a x̃(t) cuando n tiende a infinito, lo que prueba la
igualdad de x(t) y x̃(t) en el intervalo común de definición de ambas funciones.
Comentarios. Aún cuando f (t, x) no sea continua, es posible que la solu-
ción sea única.
Ejemplo: x = −2x/t + 4t. La función f no es continua en t = 0. Sin
embargo es posible calcular la solución que verifica x(0) = 0, a saber x(t) = t2 ,
que existe, es única y además continua y diferenciable en t = 0. Sin embargo,
cualquier otra solución, que viene dada por x(t) = t2 + K/t2 , es singular en
t = 0. Compárese este ejemplo con x = x/t. La singularidad de la función f es
MAR 29

igual que en el caso anterior, sin embargo las soluciones son x(t) = Kt, ası́ que
por el origen pasan infinitas soluciones. En estos dos ejemplos la función f (t, x)
no está definida en t = 0. Veamos ahora un caso donde la discontinuidad de f
es de salto y existe una única solución al problema.
Ejemplo: 
 x(1 − 2t) t > 0
x =
x(2t − 1) t < 0
la función f es discontinua en t = 0 (x = 0). Calculemos la solución que verifica
x(1) = 1. En el intervalo t > 0, la solución es: x(t) = Ket(1−t) , y aplicando
la condición inicial, obtenemos K = 1. En el intervalo t < 0, la solución es:
x(t) = K  e−t(1−t) . Podemos empalmar estas dos funciones de forma continua
en t = 0 calculando ası́ el valor de K  = 1. La solución completa es
 t(1−t)
e t>0
x(t) =
e−t(1−t) t < 0

que es continua en t = 0, aunque obviamente no derivable. Su derivada tiene


un salto en t = 0, justamente el mismo que tenı́a la función f . Esta es la única
solución de la ecuación que verifica x(1) = 1.
Si f es continua es posible probar que siempre existe solución. Sin embargo,
si f no es lipschitziana
 la solución puede no ser única. Por ejemplo consideremos
la función f (x) = |x| que como vimos antes era continua pero no lipschitziana.
La ecuación diferencial x = f (x) con la condición inicial x(0) = 0, no tiene
solución única: tanto x(t) = 0 como: x(t) = t2 /4, x ≥ 0, x(t) = −t2 /4, x ≤ 0,
son soluciones de esa ecuación.
Pasemos ahora al segundo teorema de existencia y unicidad. Introducimos
antes el concepto de aplicación contractiva y un teorema de punto fijo. Desar-
rollaremos todo este apartado en un espacio de dimensión n para poder hablar
de sistemas de ecuaciones diferenciales de primer orden, x = f (t, x), donde x
es un vector de n componentes y f una función de n + 1 variables con valores
en IRn .

Definición 2.2 Sea (E, d) un espacio métrico y T una aplicación de E en E.


Se dice que T es contractiva si ∃a, 0 < a < 1, tal que

d(T (x), T (y)) ≤ a d(x, y), ∀x, y ∈ E.

El resultado que nos interesa relativo a las aplicaciones contractivas es el


siguiente teorema de punto fijo (existen teoremas de punto fijo más generales,
como los de Brouwer, Schauder–Tychonoff,. . . que aparecen usados en teoremas
de existencia para diversos tipos de ecuaciones diferenciales ordinarias y en
derivadas parciales).

Teorema 2.2 Sea (E, d) un espacio métrico completo y T : E → E una apli-


cación contractiva de constante a. Entonces, existe un único punto fijo de la
aplicación T , es decir ∃x ∈ E tal que T (x) = x.
30 EDO. Versión 4. Mayo 1996

Demostración: El método empleado es constructivo, permitiendo el cálculo del


punto fijo. Sea x0 ∈ E, y formemos la sucesión de puntos de E:

x1 = T (x0 ), x2 = T (x1 ) = T 2 (x0 ), ..., xn = T (xn−1 ) = T n (x0 ), . . .

Esta sucesión es de Cauchy en (E, d):

d(xn , xn+1 ) = d(T (xn−1 ), T (xn )) ≤ a d(xn−1 , xn )

y repitiendo el proceso:

d(xn , xn+1 ) ≤ an d(x0 , x1 )

ası́ que para m, n arbitrarios, se tiene:

d(xn , xn+m ) ≤ d(xn , xn+1 ) + d(xn+1 , xn+2 ) + · · · + d(xn+m−1 , xn+m )


≤ (an + an+1 + · · · + an+m−1 )d(x0 , x1 )
an
≤ 1−a d(x0 , x1 )

luego la sucesión es de Cauchy (a < 1).


Como el espacio E es completo, esta sucesión tiene un lı́mite, que es el punto
fijo de T :
T (x) = T ( lim xn ) = lim T (xn ) = lim xn+1 = x
n→∞ n→∞ n→∞

puesto que T es continua al ser contractiva. Además es el único punto fijo de T .


Sea y otro punto fijo. Entonces, d(T (x), T (y)) ≤ a d(x, y), por ser T contractiva,
y por ser x, y puntos fijos: d(x, y) ≤ a d(x, y). Pero a < 1 luego d(x, y) = 0 y
por tanto x = y.
El teorema de existencia y unicidad que hemos enunciado anteriormente
podrı́a haberse demostrado utilizando este resultado. Daremos ahora otra forma
del teorema que proporciona resultados de existencia globales, y su demostración
a partir del teorema del punto fijo.

Teorema 2.3 (Picard-Lindelof ) Consideremos la siguiente ecuación diferen-


cial (o sistema de ecuaciones de primer orden):
 
x (t) = f (t, x) t ∈ [t0 , t1 ]
x(t0 ) = x0

donde: f : [t0 , t1 ] × IRn → IRn es una función continua y lipschitziana en


la segunda variable (vectorial en general) en todo su dominio de definición:
f (t, x1 ) − f (t, x2 ) ≤ L x1 − x2 para todo t ∈ [t0 , t1 ], x1 , x2 ∈ IRn , L > 0.
( . es la norma usual en IRn ). Entonces, existe una única solución x(t) que
verifica la condición inicial y está definida en [t0 , t1 ].

Demostración. La idea básica es construir una aplicación contractiva de la


que la solución sea su único punto fijo. Para ello fijamos un espacio vectorial
y una norma en él, de manera que sea un Banach. Como espacio tomamos:
MAR 31

E = C([t0 , t1 ], IRn ), es decir las funciones continuas del intervalo [t0 , t1 ] en IRn ,
y como norma en este espacio:
x e = sup{e−K(t−t0 ) x(t) : t ∈ [t0 , t1 ]}
donde K es una constante estrictamente mayor que L. El espacio (E, . e ) es de
Banach, como se puede probar facilmente. Construiremos ahora una aplicación
contractiva en este espacio:
T :E→E
 t
x → (T x)(t) = x0 + f (s, x(s))ds.
t0
Dadas las propiedades de f , T está bien definida. Probemos que es contractiva
en la métrica que proviene de la norma . e .
T x1 − T x2 e = sup{e−K(t−t0 ) T x1 (t) − T x2 (t) : t ∈ [t0 , t1 ]}
ahora bien:
e−K(t−t0 ) T x1 (t) − T2 x(t)
 t
= e−K(t−t0 ) [f (s, x1 (s)) − f (s, x2 (s))]ds
t0
 t
−K(t−t0 )
≤ Le x1 (s) − x2 (s) ds
t0
 t
≤ Le−K(t−t0 ) x1 − x2 e e−K(s−t0 ) ds
t0
L L
= x1 − x2 e [1 − e−K(t−t0 ) ] ≤ x1 − x2 e
K K
de donde tenemos la siguiente acotación:
L L
T x1 − T x2 e ≤ x1 − x2 e , <1
K K
es decir T es una aplicacion contractiva y E es un espacio de Banach, por lo que
T tiene un único punto fijo que es la única solución de la ecuación diferencial
que verifica la condición inicial. Nótese que en contraposición con el teorema
anterior, la solución está definida en todo el intervalo [t0 , t1 ], es decir, se trata
de un resultado global. No es que el teorema sea más eficaz que el anterior, sino
que aquı́ se exige a la función f ser lipschitziana en la segunda variable (que
ya se ha dicho que puede ser vectorial) en todo el espacio IRn . Veamos en un
ejemplo que significa ésto.
Ejemplo: x = x2 , x(0) = 1. La función f (t, x) = x2 es continua en todo
IR × IR. Sin embargo no es lipschitziana en la segunda variable en todo IR. Se
puede probar que f es localmente lipschitziana, pues su derivada con respecto a
x, 2x, está acotada en compactos de IR, aunque no en IR. Que no es lipschitziana
globalmente puede demostrarse por el siguiente razonamiento:
|f (x1 ) − f (x2 )| = |x21 − x22 | ≤ |x1 + x2 |.|x1 − x2 |
32 EDO. Versión 4. Mayo 1996

y |x1 + x2 | no se puede acotar más que en conjuntos acotados de IR. Por tanto
el teorema anterior no puede aplicarse sin más. Veamos como el resultado no es
correcto en nuestro ejemplo. Para ello tomemos t0 = 0 y t1 = 2. La solución es
x(t) = 1/(1−t) que no está definida en t = 2. Concretamente tiene una ası́ntota
vertical en t = 1, y por lo tanto su intervalo máximo de definición (hacia la
derecha) es (0, 1). Sin embargo el primer teorema se aplica sin dificultad. En
este caso uno puede tomar como intervalo de valores de t, [0, 2], y de x, [0, 2].
Una constante de Lipschitz en este conjunto puede ser L = 4, y una cota para f
en el conjunto [0, 2] × [0, 2] es también 4. De acuerdo con el teorema, la solución
está definida (hacia la derecha) en el intervalo [0, T ] donde T es el mı́nimo de 2
y 1/4, es decir T = 0.25. De hecho la solución se puede extender como hemos
visto hasta cualquier T < 1.
El método empleado en la demostración de estos teoremas puede aplicarse
en casos concretos. Las aproximaciones sucesivas se llaman de Picard y pueden
en ocasiones servir para representar la solución. Por ejemplo, consideremos un
caso simple, x = x, x(0) = 1. Como sabemos la solución de este problema es
x(t) = exp(t). Veamos como las aproximaciones de Picard proporcionan en este
caso la serie de Taylor de la exponencial (no es cierto que se obtenga la serie de
Taylor en general).
 t
T (x)(t) = 1 + x(s)ds
0
2
t t2 tn
x0 = 1, x1 = 1 + t, x2 = 1 + t + ,..., xn = 1 + t + + ··· + ,...
2 2 n!
que tiende a et .
Existen numerosos resultados sobre existencia y unicidad que difieren en las
hipótesis y restricciones que se hacen a la función f . Nos limitaremos a utilizar
estos dos, que si bien no son los más potentes, sı́ son suficientemente sencillos
como para poderlos aplicar en numerosas circunstancias sin un esfuerzo exce-
sivo. Ambos se pueden expresar para un sistema de ecuaciones de primer orden
escrito en forma normal es decir, con la derivada despejada. A continuación
trataremos de obtener resultados sobre la solución una vez que ya sabemos en
que circunstancias ésta existe y es única. Ası́, estudiaremos la prolongabilidad,
dependencia continua de datos y parámetros y la estabilidad.

2.2 Prolongabilidad de soluciones


Como hemos visto en el apartado anterior, los teoremas de existencia y unicidad
tienen un carácter local en general. Interesa saber si las soluciones de una
ecuación diferencial se pueden prolongar indefinidamente y en caso contrario
hasta donde es posible llegar. El teorema siguiente asegura que una solución de
una ecuación diferencial con ciertas condiciones de continuidad sobre la función
f llega hasta la frontera del conjunto donde esas condiciones se verifican. Pero
antes de enunciar ese resultado de forma más precisa, veremos en primer lugar
unas definiciones.
MAR 33

Se considera la ecuación diferencial x = f (x, t) con condición inicial x(t0 ) =


x0 , donde f es una función continua en el conjunto [t0 , t0 +a]×B(x0 , r), es decir
un intervalo cerrado a la derecha del punto de partida t0 por una bola cerrada
de centro el dato inicial. Hablaremos de soluciones a la derecha de t0 , aunque
similares consideraciones podrı́an hacerse a la izquierda. Supongamos que x(t)
es una solución del problema en un intervalo I = [t0 , t0 + T ], con T < a.

Definición 2.3 Se dice que la solución x̃(t) definida en el intervalo I  = [t0 , t0 +


T  ], T  < a, es prolongación de x(t) si I ⊂ I  y x̃(t) = x(t) cuando t ∈ I, es
decir, si coinciden en el intervalo común de definición.

Se puede probar que existe una solución maximal, es decir que no puede
prolongarse a la derecha. El siguiente teorema nos dice que una solución llega
siempre a la frontera del dominio bajo ciertas restricciones sobre la función f .

Teorema 2.4 Supongamos una ecuación diferencial x = f (t, x), donde f está
definida y es continua en un compacto K ⊂ IR × IRn . Sea x(t) una solución
maximal con x(t0 ) = x0 , y sea I su intervalo de definición. Entonces, I =
[t0 , t1 ], t1 < ∞ y el extremo de la gráfica de esta solución, es decir, el punto
(t1 , x(t1 )), pertenece a la frontera del compacto K.
Supongamos ahora que f está definida y es continua en un abierto A ⊂
IR × IRn . Sea, como antes, x(t) una solución maximal, con x(t0 ) = x0 , definida
en un intervalo I. En este caso, I = [t0 , t1 ) con t1 ≤ ∞, la gráfica de x(t)
está contenida en A, y su extremo (que en este caso puede no alcanzarse para t
finito), (t1 , limt→t1 x(t)) pertenece a la frontera de A. Si A no esta acotado, se
supone que ∞ está en la frontera de A.

No demostraremos estos dos resultados, limitándonos a comentarlos sobre unos


ejemplos. Nótese que en el primer enunciado, la gráfica de la solución alcanza el
borde del compacto K para un t finito. En el otro, pueden ocurrir dos casos: si
t1 < ∞, se dice que la solución no es prolongable, en el sentido que su intervalo
de definición no llega a ∞. Si t1 = ∞, se dice que la solución es prolongable
(aún cuando el lı́mite de x(t) cuando t tiende a ∞ también pueda ser infinito).
Ejemplo. x = x2 . En este caso la función f es continua en todo IR × IR,
que es un abierto no acotado. De acuerdo con el teorema anterior, si x(t) es
una solución de la ecuación con x(t0 ) = x0 , su intervalo de definición es [t0 , t1 ).
En este caso, puesto que conocemos la solución explı́cita, sabemos que hay dos
situaciones distintas: o bien x0 > 0, y entonces t1 < ∞, o bien x0 < 0 y ahora
t1 = ∞. En ambos casos el lı́mite de la solución cuando t → t1 es ∞, es decir
la gráfica tiende a la frontera de A.
Supongamos ahora que se considera a f (x) = x2 definida en un compacto de
IR × IR, [t0 , T ] × [−a, a], con −a < x0 < a. En este caso, la gráfica de la solución
alcanza el borde del compacto para un cierto t1 . Dos casos aparecen: o bien
t1 = T o t1 < T . Si t1 = T , entonces la solución puede prolongarse a la derecha
de T , pues K no es el mayor compacto donde f es continua. Sin embargo, si
t1 < T la solución alcanza la frontera del compacto en algún punto del borde
[t0 , T ] × {a}, o bien en [t0 , T ] × {−a}. En cualquiera de estos dos casos no está
34 EDO. Versión 4. Mayo 1996

claro que aumentando el compacto podamos extender la solución más allá de


T.
Ejemplo. Sea ahora la ecuación diferencial x = −t/x. El dominio de
definición de f (t, x) = −t/x es IR2 excepto los puntos x = 0. Consideremos
una solución con condición inicial x(t0 ) = x0 , con t0 , x0 > 0, y el abierto A
igual al semiplano superior. En este caso, la solución no se puede extender
hasta infinito, el intervalo máximo de definición es [t0 , t1 ) y t1 < ∞. Sin em-
bargo, cuando t → t1 la solución no tiende a ∞ sino a 0, que es un punto situado
en la frontera de A. Puesto que A no se puede hacer mayor (se supone que A
debe ser conexo al menos, para no perder la solución) la solución no se puede
prolongar hasta infinito. Ahora, la gráfica de la solución alcanza la frontera del
conjunto A en un tiempo finito.
En un caso general, cuando no se conoce la forma explı́cita de la solución,
no resulta fácil determinar si las soluciones son prolongables hasta infinito o
no. El siguiente teorema que permite comparar las soluciones de dos ecuaciones
diferenciales de primer orden (no sistemas) puede ayudar en algunas situaciones.

Teorema 2.5 Sean f1 (t, x), f2 (t, x) funciones continuas y con derivada parcial
con respecto a x continua en un abierto de IR2 . Supongamos que: f1 (t, x) <
f2 (t, x) en ese abierto. Si x1 (t) y x2 (t) son soluciones de las ecuaciones dife-
renciales x = f1 (t, x), x = f2 (t, x) respectivamente, con la misma condición
inicial x1 (t0 ) = x2 (t0 ) = x0 , entonces:

x1 (t) ≤ x2 (t)

para todo t ≥ t0 en el intervalo común de definición. Un resultado similar se


puede probar hacia la izquierda:

x1 (t) ≥ x2 (t)

para todo t ≤ t0 en el intervalo común de definición.

Demostración. Sea T = sup{τ ∈ IR : x1 (t) ≤ x2 (t), t0 ≤ t ≤ τ } y (a, b) el


intervalo común de definición de las soluciones. Entonces, si T < b, x1 (T ) =
x2 (T ). Pero por hipótesis, x1 (T ) < x2 (T ) luego x1 (t) ≤ x2 (t) con t suficiente-
mente próximo a T pero mayor que él. Luego T no es el supremo.
Usando este teorema podemos determinar la prolongabilidad o no de solu-
ciones de una ecuación diferencial a partir de soluciones conocidas de otra. Por
ejemplo, sabemos que las soluciones de x = x2 en el semiplano superior no
pueden prolongarse a la derecha indefinidamente. Si tenemos una ecuación di-
ferencial x = f (t, x), tal que f (t, x) > x2 , una solución que tenga como punto
inicial (t0 , x0 ), x0 > 0, no podrá prolongarse hasta infinito, pues debe manten-
erse por encima de las soluciones de x = x2 que no están definidas para todo
t.
En algunos casos, es posible establecer la prolongabilidad de las soluciones
de una ecuación diferencial. Supongamos un sistema conservativo con un grado
de libertad, es decir una ecuación de Newton en una dimensión con una fuerza
MAR 35

que solo depende de la posición: x = F (x), F una función diferenciable en un


intervalo I ⊂ IR. Sea U (x) la energı́a potencial del sistema:
 x
U (x) = − F (s)ds
x0

Teorema 2.6 Si la energı́a potencial es positiva (esencialmente que esté mino-


rada por una constante), toda solución de la ecuación
dU
x = −
dx
se puede prolongar indefinidamente.
Demostración: Consideremos el sistema de primer orden asociado:
 
x =v
v  = F (x)
Queremos estudiar la prolongabilidad de la solución de este sistema con datos
iniciales x(0) = x0 , v(0) = v0 . Sea E0 la energı́a correspondiente a esa solución.
Sea T > 0. En IR2 consideramos el conjunto:
 
D = {(x, v) : |x − x0 | ≤ 2 2E0 T, |v| ≤ 2 2E0 }

√ = [−T, T ] × D. El punto inicial


y en IR3 , con coordenadas (t, x, v) el conjunto:P
(x0 , v0 ) está en el interior de D pues |v0 | ≤ 2E0 , ya que, al ser el potencial
positivo, y la energı́a una constante, se tiene:
v(t)2
E0 = + U (x(t)
2
donde x(t), v(t) es la solución considerada. Entonces v(t)2 = 2(E0 − U ), y:

|v(t)| ≤ 2E0
en particular para t = 0.
De acuerdo con el teorema de prolongación anteriormente dado, la función
f (t, x, v) = (v, F (x)) es continua en P y por tanto la gráfica de la solución
alcanza el borde de P (que es un compacto). El problema, como hemos visto en
los ejemplos anteriores, es saber por qué borde de P lo hace. Como probaremos
a continuación, la gráfica de la solución llega al borde con t = T , y por lo tanto
T puede hacerse tan grande como se quiera. De esta forma, la solución puede
prolongarse hasta infinito. Para probar esta afirmación, usamos la desigualdad
calculada anteriormente:
 t  t  t 

x(t) − x0 = x (s)ds ⇒ |x(t) − x0 | ≤ |v(s)|ds ≤ 2E0 ds ≤ 2E0 t
0 0 0

para t = T se tiene el resultado que buscábamos.


Ejemplo. x + sen x = 0. El potencial puede elegirse como U (x) = 1 + cos x
que es una función positiva de x. Las soluciones están definidas para todo t, es
más, todas ellas son periódicas, considerando la variable x en el intervalo [0, 2π],
salvo las llamadas separatrices, que estudiaremos en un capı́tulo posterior.
36 EDO. Versión 4. Mayo 1996

2.3 Dependencia de las soluciones respecto da-


tos y parámetros
Como ya dijimos antes, las soluciones de un problema bien planteado dependen
de manera continua de los datos iniciales. Veremos en este apartado, cómo,
bajo ciertas condiciones en la función f , las soluciones tienen esa propiedad
y también cómo existe dependencia continua respecto de los parámetros que
puedan aparecer en la ecuación.

Teorema 2.7 Consideremos la ecuación diferencial x = f (t, x, λ), con la con-


dición inicial x(t0 ) = x0 , donde f es una función continua y con derivadas
parciales con respecto a x ∈ IRn y λ ∈ IR continuas en un abierto de IR ×
IRn × IR. Consideremos la ecuación anterior para un valor de λ particular,
sea λ0 . De acuerdo con el teorema de existencia y unicidad existe una única
solución x(t, λ0 ) que verifica la condición inicial y que está definida en un cierto
intervalo I. Entonces, existe un entorno de λ0 , |λ − λ0 | ≤ δ tal que el problema:
x = f (t, x, λ), x(t0 ) = x0 , tiene solución única en el intervalo I, cuando λ está
en ese entorno. Además, la solución x(t, λ) es diferenciable respecto a λ y su
derivada verifica la ecuación diferencial:
 
y = fx (t, x, λ)y + fλ (t, x, λ)
y(t0 ) = 0

Ejemplo: x + λ/(x + t) = 1, x(1) = 1. Para λ = 0 la ecuación se reduce a



x = 1 y su solución es: x̃(t) = t. La ecuación en variaciones que estudiaremos
con detalle más adelante, es:

λ 1
fx = , fλ = −
(x + t)2 x+t

y sustituyendo la solución para λ = 0:


1
fx = 0, fλ = −
2t
de donde la ecuación en variaciones queda reducida a:
 
y = −1/2t
y(1) = 0

es decir y(t) = −(1/2) log t. Para t pequeños se puede poner:

λ
x(t) = t − log t
2
como solución aproximada.
La dependencia de las condiciones iniciales adopta la misma estructura que
el teorema dado más arriba:
MAR 37

Teorema 2.8 Sea la ecuación diferencial x = f (t, x) con condición inicial


x(τ ) = ξ, donde f es una función continua y con derivadas parciales con respecto
a x continuas en un abierto de IR×IRn . Sea x(t, τ0 , ξ0 ) la solución con condición
inicial x(τ0 ) = ξ0 , definida en un intervalo I, compacto. Entonces, la solución
de este problema con condición inicial x(τ ) = ξ existe si el punto (τ, ξ) está
suficientemente próximo a (τ0 , ξ0 ), está definida en todo I y es diferenciable
respecto a los datos iniciales.

Ejemplo. x = x, x(τ ) = ξ, tiene como solución x(t, τ, ξ) = ξet−τ , que


claramente verifica el teorema.
La demostración de este teorema, que no daremos aquı́, se basa en la de-
sigualdad de Gronwall:

Lema 2.2 Sean f, g, h : [a, b] → IR funciones continuas, con g mayor o igual


que cero. Si se verifica la desigualdad:
 t
h(t) ≤ f (t) + g(s)h(s)ds
a

cuando t ∈ [a, b], entonces la función h está acotada en todo ese intervalo:
 t  t 
h(t) ≤ f (t) + f (s)g(s) exp g(r)dr .
a s

Por ejemplo, si f y g son constantes, se tiene:

h(t) ≤ AeB(t−a) .

La desigualdad de Gronwall aparece con frecuencia en este tipo de resultados.


Daremos ahora una aplicación de la dependencia continua a la obtención de
las llamadas ecuaciones en variaciones.
Consideremos una ecuación que no dependa de t (una ecuación autóno-
ma), x = f (x, 2), donde 2 es un parámetro que se puede considerar pequeño.
Suponemos que f es derivable con respecto a sus variables, con lo que las solu-
ciones para 2 próximo a cero no diferirán mucho de las soluciones cuando 2 = 0.
Desarrollemos f en serie de potencias de 2 hasta primer orden:

f (x, 2) = f (x, 0) + 2f (x, 2) + O(22 )

y llamemos: f0 (x) = f (x, 0), f1 (x) = f (x, 0). La ecuación diferencial será
ahora:
x = f0 (x) + 2f1 (x) + O(22 ).
De acuerdo con el teorema de dependencia de la solución con respecto a
parámetros, podemos desarrollar la solución en serie de potencias de 2:

x(t, 2) = x0 (t) + 2y(t) + O(22 )

donde x0 (t) es la solución de la ecuación con 2 = 0, y(t) la derivada de x(t, 2) con


respecto a 2 cuando 2 = 0. Para sustituir estas aproximaciones en la ecuación
38 EDO. Versión 4. Mayo 1996

diferencial, es necesario desarrollar f0 (x) en potencias de 2 a través de la función


x(t, 2):
f0 (x) = f0 (x0 ) + 2f0x (x0 )y + O(22 ).
Sustituyendo esta expresion en la ecuación desarrollada en potencias de 2, agru-
pando los factores de estas potencias e igualándolos, se tiene:
x0 = f0 (x0 )
que es la ecuación no perturbada (2 = 0) y:
y  = f0x (x0 )y + f1 (x0 ) ⇔ y  = a(t)y + b(t)
que es una ecuación lineal, la ecuación variacional asociada a la original. Para
la ecuación no perturbada el dato inicial es x0 (t0 ) = x(t0 ) y para la ecuación
variacional y(t0 ) = 0. Es posible extender la validez de estas aproximaciones a
un tiempo T arbitrario, pero finito, con tal de tomar valores de 2 suficientemente
pequeños, pero en general no es posible tomar T = ∞. En el razonamiento an-
terior se puede suponer que x es una variable vectorial cambiando las oportunas
notaciones, y que la ecuación depende también de t.

2.4 Estabilidad
Como ya hemos comentado anteriormente, una de las cuestiones más intere-
santes que se pueden plantear en torno a las ecuaciones diferenciales es la de
estabilidad de las soluciones, es decir, si se varı́an los datos iniciales una pequeña
cantidad, qué se puede decir del comportamiento, para todo valor de la variable
independiente, de las soluciones correspondientes. El tema no resulta sencillo y
solo para algunos tipos de ecuaciones se pueden dar respuestas generales. Sin
embargo, como iremos viendo a lo largo de estas notas, existen teorı́as y re-
sultados muy potentes para tratar muchos casos. Definiremos primeramente
que entendemos por estabilidad de una solución, y la aplicaremos a algunos
problemas sencillos.
Definición 2.4 Consideremos el problema:
 
x = f (t, x)
x(t0 ) = x0
que se supone admite una solución única, x(t), definida para todo t ≥ t0 . Se dice
que x(t, x0 ) es una solución estable (a la derecha) si: ∀2 > 0, ∃δ > 0 tal que, si
x̃0 ∈ IRn verifica x̃0 − x0 < δ, entonces ∃x(t, x̃0 ) solución con x(t0 , x̃0 ) = x̃0 ,
definida en [t0 , ∞) y tal que:
x(t, x̃0 ) − x(t, x0 ) < 2, ∀t ≥ t0
es decir, las soluciones que tienen puntos iniciales cerca del punto inicial de la
solución a estudiar, se mantienen cerca de ésta para todo tiempo posterior. Se
puede considerar una clase más particular de estabilidad, la llamada estabilidad
asintótica. Otros tipos serán estudiados más adelante.
MAR 39

Definición 2.5 (Estabilidad asintótica) Se dice que x(t, x0 ) es una solución


asintóticamente estable, si es estable y si existe η > 0 tal que, si x̃0 − x0 < η
entonces,
lim x(t, x̃0 ) − x(t, x0 ) = 0.
t→∞

Nótese que se necesita que la solución sea previamente estable. Es decir, la


condición de tender a la solución en el infinito no es suficiente para asegurar la
estabilidad. Sin embargo, para las ecuaciones de primer orden es una condición
suficiente:
Teorema 2.9 Sea x = f (t, x) una ecuación de primer orden, y x(t, x0 ) una
solución definida para todo t ≥ t0 , que verifica:
lim |x(t, x̃0 ) − x(t, x0 )| = 0
t→∞

para toda solución x(t, x̃0 ) con |x̃0 − x0 | < η y definida ∀t ≤ t0 .


Entonces, x(t, x0 ) es una solución asintóticamente estable.
La demostración usa la acotación que proporciona la dependencia continua de
datos en puntos próximos a t = t0 , junto con la que da el lı́mite para t → ∞.
Veamos ahora como se puede estudiar la estabilidad de ecuaciones linea-
les. Aunque el concepto de estabilidad se refiere a una solución particular de
una ecuación diferencial, no pudiéndose hablar en general de estabilidad de la
ecuación, éste no es el caso de una ecuación lineal. Para este tipo de ecuaciones
se tiene el siguiente resultado:
Proposición 2.1 Dada la ecuación lineal x = a(t)x+b(t), donde a(t), b(t) son
funciones continuas definidas en [t0 , ∞), la ecuación es estable (asintóticamente
estable), es decir, todas las soluciones de la ecuación lo son, si y solo si la
solución trivial, x(t) = 0, de la ecuación homogénea x = a(t)x es estable
(asintóticamente estable).
Demostración: Aunque el resultado es cierto para sistemas de ecuaciones, lo
demostraremos para la ecuación lineal de primer orden (x ∈ IR). Veamos en
primer lugar, que si la solución trivial es estable, entonces todas las soluciones
de la ecuación completa lo son.
Sea x(t, x0 ) una solución de la ecuación completa con x(t, x0 ) = x0 . Como
sabemos, la solución general de la ecuacion completa es x(t) = xh (t) + xp (t),
donde xh (t) es la solución general de la ecuación homogénea, y xp (t) es una
solución particular de la ecuación completa, que elegiremos para mayor sencillez
con la condicion xp (t0 ) = 0. Por tanto:
x(t, x0 ) = xh (t, x0 ) + xp (t)
donde xh (t, x0 ) es la única solución de la ecuación homogénea que verifica
xh (t0 , x0 ) = x0 . Cualquier otra solución de la ecuación completa es x(t, x̃0 ),
con x(t0 , x̃0 ) = x̃0 , por lo que se tiene:
x(t, x̃0 ) − x(t, x0 ) = xh (t, x̃0 ) − xh (t, x0 )
40 EDO. Versión 4. Mayo 1996

de manera que la estabilidad de la ecuación completa se reduce a la de la ecuación


homogénea. Pero la estabilidad de las soluciones de la ecuación homogénea es
la de la solución trivial. Como sabemos, todas las soluciones de la ecuación
homogénea se obtienen multiplicando una constante por un factor exponencial.
Por tanto, la diferencia entre dos soluciones es proporcional a esa exponencial y
es el comportamiento de esta función el que determina si la ecuación es estable
o no. Es decir:  
t
|x(t, x0 )| = |x0 | exp a(s)ds .
t0

Por tanto, si el exponente esta acotado, la solución trivial será estable, y con
ella todas las soluciones de la ecuación homogénea y completa. Si además, el
exponente tiende a −∞ cuando t tiende a ∞, las soluciones (la ecuación) son
asintóticamente estables.
En general, la acotación de una solución de una ecuación no implica su
estabilidad. Sin embargo, para la ecuación lineal homogénea sı́ que ocurre ası́.

Teorema 2.10 La ecuación x = a(t)x es estable si y solo si todas sus solu-


ciones son acotadas, es decir: para toda solución x(t), x(t0 ) = x0 , ∃M > 0 tal
que |x(t)| ≤ M , para todo t ≥ t0 . Para la ecuación completa, la situación es algo
diferente. Si las soluciones son acotadas, entonces la ecuación es estable, pero
la estabilidad no implica la acotación. No obstante, si la ecuación es estable,
basta que una solución esté acotada para que las demás también lo estén.

Demostración. Para la parte correspondiente a la ecuación homogénea, basta


considerar la exponencial anterior, que debe ser acotada para poder asegurar
la estabilidad. En sentido contrario la afirmación del teorema es evidente. En
cuanto se refiere a lo asegurado respecto la ecuación completa, el ejemplo trivial
siguiente muestra que una ecuación puede ser estable sin que sus soluciones
estén acotadas:
Ejemplo: x = 1, con soluciones x(t) = t + C que no están acotadas, aún
cuando la solución es estable. Incluso puede ocurrir que la estabilidad sea
asintótica y las soluciones no estén acotadas:
Ejemplo: x = −x + t + 1, soluciones x(t) = Ce−t + t, la ecuación es
asintóticamente estable, pero ninguna solución es acotada. Sin embargo basta
que una solución sea acotada para que, si la ecuación es estable, todas las
demás lo sean. Esto es evidente de la forma de la solución general. Si existe una
solución acotada, como las de la ecuación homogénea lo son por ser estable, se
concluye que la suma de ambas, que es la solución general, está acotada.
Ejemplo: x = −x + 1. En este caso, la solución trivial de la ecuación
homogénea es estable, ası́ que nuestra ecuación lo es. Además hay una solución
particular que es acotada, x(t) = 1, luego todas las soluciones son acotadas.
Nótese sin embargo, que si la ecuación no es estable, el hecho de que exista una
solución acotada no implica que todas lo sean.
Ejemplo: x = x − 1 tiene una solución acotada, x(t) = 1. Pero el resto de
soluciones, x(t) = Cet + 1 no son acotadas. La ecuación no es estable.
MAR 41

Para las ecuaciones no lineales, la situación es mucho más compleja. Nos


limitaremos a dar un criterio que puede ser útil en algunos casos. Consideremos
una ecuación (se podrı́a trabajar con sistemas también) de primer orden x =
f (t, x) + g(t, x) donde g(t, x) es mucho menor que f (t, x). Podemos considerar
a g como una perturbación de f , y preguntarnos si la estabilidad de la ecuación
con g igual a cero se conserva al añadir esta función. La respuesta es que ésto
no es cierto en general, pero existen algunos casos donde sı́ es posible ofrecer
alguna información, que resumimos en el teorema siguiente.

Teorema 2.11 Sea la ecuación x = a(t)x + q(t, x), que tiene a x(t) = 0 como
solución, es decir q(t, 0) = 0, y donde a(t) y q(t, x) son funciones continuas
en las regiones donde trabajamos. La función a(t) es constante o periódica.
Además supondremos que la función q es lipschitziana y que la constante tiende
a 0 uniformemente en t cuando x tiende a cero, es decir:

q(t, x) = o(|x|), uniformemente en t.

Entonces, si la solución x(t) = 0 es asintóticamente estable para la ecuación


lineal homogénea x = a(t)x, también es asintóticamente estable para la ecuación
completa. Además, si es inestable, para la ecuación homogénea, también es
inestable para la ecuación completa.

Nótese que si la solución trivial es solamente estable para la ecuación ho-


mogénea, nada se asegura de la estabilidad de la solución en la ecuación com-
pleta. El teorema es válido para sistemas de ecuaciones, aunque en este caso la
estabilidad de la solución trivial para la ecuación homogénea sea más complicada
de establecer (especialmente en el caso de coeficientes periódicos).

2.5 Ecuaciones autónomas


Para acabar este primer contacto con la teorı́a de la estabilidad, estudiaremos las
ecuaciones autónomas de primer orden, que permiten un tratamiento sencillo,
y nos abren la puerta de los sistemas autónomos, que aparecerán más adelante.

Definición 2.6 Una ecuación autónoma es: x = f (x), es decir la función f


no depende de t.

Esto hace que la ecuación (que puede ser resuelta por cuadraturas al ser de
variables separadas) presente unas propiedades especiales que hacen su estudio
más sencillo. Veamos en primer lugar unas propiedades elementales.

Proposición 2.2 Sea x = f (x), con f derivable con continuidad en IR.

a) Si x(t) es una solución, x(t + τ ) también es solución, para todo τ ∈ IR.

b) Si a ∈ IR verifica f (a) = 0, entonces x(t) = a es una solución constante de


la ecuación diferencial.
42 EDO. Versión 4. Mayo 1996

c) Toda solución es constante o estrictamente monótona.

Demostración. La parte a) es una consecuencia inmediata del hecho de ser f


función exclusiva de x. La parte b) es igualmente trivial. En cuanto a c), puesto
que por cada punto de IR pasa una solución y solo una, es claro que para que una
solución pasara de ser creciente a decreciente o viceversa, habrı́a de atravesar
un extremo, donde f se hace cero. Pero ese punto es otra solución, constante
por la parte b) de la proposición.
Una propiedad que nos será muy útil para describir las soluciones de una
ecuación autónoma y que es una consecuencia de un resultado elemental de
análisis es la siguiente.

Teorema 2.12 Todas las solucionas acotadas de una ecuación autónoma tien-
den a una solución constante. Aquı́ la acotación debe entenderse en el sentido
que ya le dimos antes: x(t), con x(t0 ) = x0 está acotada a la derecha si ∃M > 0
tal que |x(t)| ≤ M para todo t ≥ t0 .

Demostración. Sea x(t) una solución acotada, no constante. Por ser monótona,
existe el lı́mite de x(t) cuando t tiende a infinito. Sea a ese lı́mite. La función
f es continua, ası́ que también existe el lı́mite de f cuando t tiende a infinito,
es decir el lı́mite cuando x → a, f (a). Entonces:

lim x(t) = a, lim x (t) = f (a).


t→∞ t→∞

Un resultado de análisis elemental demuestra que f (a) = 0 y por tanto que


x(t) = a es una solución constante. En efecto, sea la sucesión:

an = x(n + 1) − x(n).

Puesto que x(t) es continua, su lı́mite cuando n → ∞ es igual a cero. Por el


teorema del valor medio para cada n podemos encontrar ξn ∈ (n, n + 1) tal que:

x(n + 1) − x(n) = x (ξn ).

Además, si n → ∞ entonces ξn → ∞. Por lo tanto:

lim x (t) = lim x (ξn ) = lim (x(n + 1) − x(n)) = 0


t→∞ t→∞ t→∞

con lo que f (a) = 0.


Usando técnicas similares, se puede probar que las soluciones acotadas por la
izquierda tienden a una solución constante cuando t → −∞, y que las soluciones
comprendidas entre dos soluciones constantes están definidas para todo t.
En cuanto se refiere a la estabilidad de las ecuaciones autónomas, es inmedi-
ato a la vista de lo expuesto anteriormente, demostrar el siguiente teorema:
Teorema 2.13 Si x(t) = a es una solución constante de la ecuación autónoma
x = f (x) (es decir, f (a) = 0), entonces:
a) si f  (a) < 0, la solución es estable asintóticamente.
MAR 43

b) si f  (a) > 0, la solución es inestable.

En el caso f  (a) = 0, no se puede asegurar nada con el estudio de la primera


derivada de f .

Demostración. La idea es estudiar los cambios de signo de la función f al


atravesar x un cero de esa función. Si en el sentido de x crecientes, f pasa de
ser negativa a positiva, f  (a) > 0, y la solución x(t) = a es inestable. Si f pasa
de ser positiva a negativa (f  (a) < 0) la solución es asintóticamente estable.
Finalmente, si f  (a) = 0, f tiene un punto crı́tico en ese punto, y hay que
analizar con derivadas superiores si existe cambio de signo o no. En el caso de
que no haya cambio de signo, la solución es inestable. Si lo hay, basta referirse
a la discusión anterior.
Ejemplo. x = x(x − 1). Esta ecuación autónoma tiene dos soluciones
constantes x(t) = 0, x(t) = 1, correspondientes a los dos ceros de la función
f . En x = 0, f  (0) = −1, por lo que se trata de una solución, asintóticamente
estable. En x = 1, f  (1) = 1, ası́ que esta solución es inestable (fig.1). La
solución explı́cita puede calcularse fácilmente:
 
dx
= dt ⇒ log(x − 1) − log x = t + C
x(x − 1)

de donde uno puede despejar x(t):

1
x(t) = .
1 − Ket

x x

t
t

Fig.1 Fig.2

Si estudiamos las soluciones con condición inicial: x(0) = x0 , se tiene:


x0 > 1: la solución no se puede prolongar hasta t = ∞, pues tiene una
ası́ntota vertical en:
x0
0 < t1 = log
x0 − 1
Su lı́mite cuando t tiende −∞ a es 1
x0 < 0: la solución se puede prolongar hasta t = ∞. Hacia la izquierda
presenta una ası́ntota vertical en:
x0
0 > t1 = log
x0 − 1
44 EDO. Versión 4. Mayo 1996

Su lı́mite cuando t tiende a ∞ es 0.


0 < x0 < 1: La solución se puede prolongar indefinidamente a derecha e
izquierda. Su lı́mite cuando t tiende a +∞ es 0 y cuando t tiende a −∞ es 1.
Ejemplo. x = x2 (x − 1). Como antes, hay dos soluciones constantes. La
solución x(t) = 0 es ahora inestable, aunque no se pueda determinar esta car-
acterı́stica de la derivada de f que se hace cero en x = 0. La otra solución
constante, x(t) = 1 sigue siendo inestable (fig.2).
Ejemplo. x = x3 (x − 1). La solución x(t) = 1 es inestable. La solución
x(t) = 0 es estable asintóticamente, aún cuando f  (0) = 0. En el caso anterior,
f  (0) = −2 < 0, mientras que aquı́, f  (0) = 0 y f  (0) = −6 < 0, con lo cuál uno
puede estudiar los cambios de signo de la función f al atravesar x = 0 (fig.3).

x
x

t
t

Fig.3 Fig.4

Para terminar esta sección dedicada a las ecuaciones autónomas, nótese que
podemos proyectar las soluciones sobre el eje x. Debido a las propiedades de
estas ecuaciones, las soluciones que se obtienen unas de otras por traslación, se
proyectan en los mismos puntos aunque para distinto t. Las soluciones constan-
tes se proyectan en un solo punto (puntos crı́ticos). Si se supone que las gráficas
de las soluciones se recorren en el sentido de t creciente, se obtienen las gráficas
que aparecen en la figura 4. Las soluciones que unen dos puntos crı́ticos están
definidas para todo t. Tienden a uno u otro punto crı́tico cuando t tiende a más
o menos infinito. Las otras soluciones pueden no estar definidas para todo t, en
particular las del ejemplo no lo están, llegan a infinito en un tiempo finito, y
tienden a un punto crı́tico, bien cuando t tiende a más infinito o cuando t tiende
a menos infinito. Observando las flechas se advierte con claridad la estabili-
dad o inestabilidad de los puntos crı́ticos. Como hemos dicho antes, todos ellos
son asintóticamente estables (focos estables) o inestables (focos inestables si las
flechas se alejan del punto crı́tico por los dos lados, es decir ninguna solución
tiende a ese punto, o puntos silla, si una de las flechas entra en el punto y la
otra sale, es decir hay soluciones que tienden a ese punto y otras que se alejan).
Todas estas propiedades requieren una cierta regularidad de la función f (x). Es
posible encontrar ejemplos con f no derivable donde dejan de ser ciertos.
MAR 45

2.6 Ejercicios
1. Sea y  = 1 − y −2

a. Estudiar si por cada punto del plano pasa una única curva integral.
Dibujar aproximadamente las curvas integrales.
b. Sea y  la solución que satisface y  (0) = 2. ¿ Para qué valores de la
variable independiente está definida y  .? Calcular aproximadamente
y  (0.2).

2. Dibujar las isoclinas y la forma aproximada de las soluciones de las ecua-


ciones diferenciales siguientes:

a) y  = x/y; b) y  = y 2 /x2 − 2; c) y  = cos(x − y)

Para la ecuación a) hallar su solución general y la particular que satisface


y(1/9) = 2/9. ¿Es estable?
Para la ecuación b) estudiar la existencia, unicidad y prolongabilidad de
soluciones.

3. Dada la ecuación (Eλ ):

λ
y = 1 − , λ ≥ 0,
x+y

se pide:

a) Regiones de existencia y unicidad.


b) Integración explı́cita.
c) Dibujo aproximado de soluciones.
d) Sea yλ (x) la solución de (Eλ ) tal que yλ (0) = 1. Estudiar el compor-
tamiento de yλ (x) cuando λ → 0.
e) Estudiar la prolongabilidad de las soluciones y la estabilidad de la que
verifica y(0) = λ/2.

4. Se considera la ecuación (E):

ẋ = x2 − λx3 , λ > 0.

Se pide:

a) Existencia y unicidad. Dibujo aproximado de soluciones.


b) Integración explı́cita.
c) Prolongabilidad de las soluciones.
d) Comprobar la dependencia continua del parámetro λ cuando éste tien-
de a cero.
46 EDO. Versión 3. Octubre 1995

5. Sea la ecuación
y  = y 2 − (cos t)y

a) Resolverla.
b) Dibujar las zonas del plano (t, y) en que las soluciones son crecientes
o decrecientes.
c) Basándose en a) y b) hacer un esquema de las soluciones de la ecuación
arriba indicada.
d) Dibujar la poligonal de Euler entre 0 y 2 con h = 1 si y(0) = −1.
e) Determinar para qué valores de a la solución con y(0) = a es pro-
longable hasta ∞.
f ) Estudiar la estabilidad de las soluciones con y(0) = 0 e y(0) = −1.

6. Sea la ecuación (E):


1
y =
x2 + y 2
a) Estudiar existencia y unicidad.
b) Dibujo aproximado de soluciones.
c) Demostrar que la solución y(x) de (E) que satisface y(0) = y0 = 0 está
definida en todo IR, cualquiera que sea y0 .
d) Demostrar la existencia de L+ = limx→∞ y(x) y obtener estimaciones
para L+ en función del dato inicial y0 , si y0 > 0.

7. Sea la ecuación (Ea ):


y y3
y = a + 3
t t
a) Estudiar la existencia y unicidad.
b) Resolver por dos métodos diferentes, para todos los posibles valores de
a.
c) Dibujar el campo de direcciones y hacer un dibujo aproximado de solu-
ciones en los casos a = −1, a = 0, a = 1/2, a = 1.
d) Estudiar la estabilidad de todas las rectas solución que tenga (Ea ) en
los cuatro casos de c). Más en general, estudiarla para cualquier valor
de a.
e) Discutir la prolongabilidad de las soluciones verificando y(1) = b para
el caso a = 0.
f ) Calcular el valor aproximado en t = 1.5 para a = 0 de la solución
y(2) = 1:
i/ a partir de la segunda aproximación sucesiva de Picard
ii/ por el método de Euler con pasos h = 0.1 y h = 0.5. Comparar
con el valor exacto.
MAR 47

g) Comprobar que hay dependencia continua en a de la solución que sat-


isface y(1) = 1.

8. Dada la ecuación (E):


t2 − x
x =
t + x2
se pide:

a) Existencia y unicidad
b) Hallar la solución general.
c) Dibujar aproximadamente las curvas integrales.

9. Sea (A):
y − y2
y =
t
i) Utilizar el teorema de existencia y unicidad para estudiar para que
instantes inciales t0 existe solución única local de (A) satisfaciendo
y(t0 ) = 2.
ii) Hallar la solución general de (A).
iii) Estudiar la estabilidad de las soluciones de (A) que satisfacen y(1) = 0
e y(1) = 1.

10. Estudiar existencia y unicidad, hallar el intervalo máximo en el cual están


definidas las soluciones y determinar la estabilidad de la solución y = 0
para las ecuaciones:

a) y  = y 3 /(1 + y 2 )
b) y  = f (y) donde 
−y y > 0
f (y) =
0 y≤0

11. Sea la ecuación y  = (x − 4y)−2

a) Estudiar existencia y unicidad de curvas integrales.


b) Dibujar aproximadamente dichas curvas.
c) Discutir la prolongabilidad de las soluciones.
48 EDO. Versión 4. Mayo 1996
Tema 3

Sistemas y ecuaciones
lineales

3.1 Introducción
Como ya hemos visto en capı́tulos anteriores, toda ecuación diferencial de or-
den n puede ponerse como un sistema de ecuaciones de primer orden. Es obvio
que habrá sistemas que no tengan esa forma tan especial, aunque en muchos
casos sea posible encontrar una ecuación a la que equivalen. De los teoremas ex-
puestos en el capı́tulo anterior conocemos condiciones suficientes bajo las cuales
un sistema de ecuaciones diferenciales admite una única solución, especificadas
las condiciones de Cauchy adecuadas.
Ejemplo:  
x1 = (a − bx2 )x1
x2 = (cx1 − d)x2
es un sistema de ecuaciones de primer orden no lineal. Este sistema describe
un modelo de evolución de poblaciones x1 , x2 en relacion presa-predador, cono-
cido como ecuaciones de Lotka-Volterra. La desaparición de las presas (x1 ) se
debe a sus encuentros con los predadores (x2 ) (término bx2 x1 ) y se supone que
no encuentran otros obstáculos a su desarrollo (término ax1 ). En cuanto a los
predadores su capacidad de supervivencia está relacionada con los encuentros
con las presas (término cx1 x2 ) y se supone que su número excesivo afecta neg-
ativamente a su crecimiento por razones obvias. Aunque el modelo considerado
es muy simple, permite hacer ciertas predicciones sobre la evolución de ambas
especies. Un modelo más general incluirı́a dos funciones M (x1 , x2 ) y N (x1 , x2 )
de manera que las ecuaciones son ahora:
 
x1 = M (x1 , x2 )x1
x2 = N (x1 , x2 )x2
y donde M y N deben cumplir ciertas restricciones para poder obtener resulta-
dos interesantes, como por ejemplo:

49
50 EDO. Versión 4. Mayo 1996

∂M ∂N
1. ∂x2 < 0, ∂x1 <0
2. ∃k > 0 tal que M (x1 , x2 ) ≤ 0, N (x1 , x2 ) ≤ 0 si x1 ≥ k o x2 ≥ k
3. ∃a, b > 0 tales que:
• M (x, 0) > 0 para x < a, M (x, 0) < 0 para x > a
• N (0, y) > 0 para y < b, N (0, y) < 0 para y > b
Ejemplo: 
x = x − sen y
y  = 12x + y
es otro sistema autónomo. Este sistema tiene nueve soluciones constantes, en
los puntos en los que la recta x = −y/12 corta a x = sen y.
Ejemplo:  
x =y
y  = (a + b cos t)x
Se trata de un sistema no autónomo con coeficientes periódicos. Es equivalente
a la llamada ecuación de Mathieu.
Como es de esperar los sistemas no lineales resultan mucho más complicados
que los lineales. Por eso, estudiaremos en este capı́tulo sistemas lineales, sobre
todo de coeficientes constantes y dejaremos para capı́tulos posteriores el estudio
de una clase particular de sistemas no lineales, los sistemas autónomos en el
plano.

3.2 Sistemas lineales


Un sistema de ecuaciones lineales de primer orden tiene la forma:

x = A(t)x + b(t)

donde x(t) y b(t) son funciones vectoriales de variable real y A(t) es una función
de variable real con valores en un espacio de matrices cuadradas. Tanto A(t)
como b(t) se suponen definidas en un intervalo de la recta [t0 , t1 ]. Los val-
ores de A y b podrán ser complejos, aunque en general los consideraremos
reales. Además podrı́a pensarse en sistemas con matrices no cuadradas, es
decir con menos ecuaciones que incógnitas o viceversa, pero nos limitaremos al
caso cuadrado.
Las cuestiones de existencia y unicidad de soluciones para este tipo de pro-
blemas pueden deducirse del caso general directamente.
Teorema 3.1 Sea el problema:

x = A(t)x + b(t)
x(t0 ) = x0
donde:
A : [t0 , t1 ] → Mn (IR)
MAR 51

b : [t0 , t1 ] → IRn
son funciones continuas. Entonces existe una única solución al sistema que
verifica la condición inicial dada.
Demostración: Es una aplicación de los teoremas estudiados. Veamos como la
función f (t, x) = A(t)x + b(t) es continua y lipschitziana. Sobre la continuidad
no hay ningún problema puesto que A(t) y b(t) lo son y x aparece en forma
lineal. En cuanto a la lipschitzianidad, aplicando la definición:
f (t, x) − f (t, y) = A(t)x − A(t)y ≤ A(t) s x − y
donde A(t) s es la norma del supremo en el espacio de matrices Mn (IR):
A(t)x
A(t) s = sup{ , x ∈ IRn , x = 0}
x
por tanto, si A(t) s es una función continua en un intervalo compacto, tiene un
máximo que es una constante de Lipschitz para la función f (t, x). Aplicando el
teorema de Cauchy-Peano, podemos asegurar, al menos localmente, la existencia
y unicidad de la solución.
Si A(t) y b(t) son continuas en toda la recta, la solución se puede extender
a todo IR. En particular, los sistemas lineales con coeficientes constantes tienen
solución definida para todo t.

3.3 El espacio de soluciones de la ecuación lineal


Una vez en condiciones de asegurar la existencia y unicidad de las soluciones,
estudiaremos ahora las propiedades de éstas. Para ello consideraremos en primer
lugar la ecuación homogénea x = A(t)x.
Teorema 3.2 Una solución de un sistema lineal es un vector de n componentes
y el conjunto de soluciones es un espacio vectorial real (como puede probarse
fácilmente por las propiedades del producto de matrices). La dimensión de este
espacio es igual a n.
Para demostrarlo, definiremos antes la noción de matriz de soluciones y estu-
diaremos sus propiedades.
Definición 3.1 Una matriz de soluciones es una matriz cuyos vectores columna
son soluciones del sistema: X(t) = (x1 (t), x2 (t), ..., xn (t)).
Debido a las propiedades del producto de matrices, se tiene:
X  = A(t)X
cuando X(t) es una matriz de soluciones. La siguiente proposición se refiere
al determinante de una matriz de soluciones. Téngase en cuenta que siempre
estamos considerando a A(t) como una función continua en el intervalo I =
[t0 , t1 ] en el que trabajamos.
52 EDO. Versión 4. Mayo 1996

Proposición 3.1 Sean x1 (t), x2 (t), . . . , xn (t), n soluciones de un sistema de


ecuaciones lineal homogéneo y sea X(t) la matriz que las tiene por columnas.
Entonces: o bien det X(t) = 0 para todo t ∈ I, o det X(t) = 0 para todo t ∈ I.
En el primer caso las soluciones son linealmente dependientes. En el segundo
son linealmente independientes. El determinante de la matriz se llama wron-
skiano, y como asegura la proposición es siempre distinto de cero en el caso
que las columnas de la matriz de soluciones sean linealmente independientes.
Nótese que la condición que establece la proposición para asegurar la dependen-
cia o independencia lineal de un conjunto de funciones vectoriales no se aplica
en general, sino sólo a soluciones de un sistema lineal homogéneo.
Demostración: Basta recordar como se deriva un determinante para obtener:
 1   1   1 
x1 .. xn1 x1 .. xn 1 x1 .. xn1
d  ..  = det  .. ..  + · · · + det  .. .. 
det  ... .   . .   . . 
dt
x1n .. xnn x1n .. xnn x1
n .. x n
n

sustituyendo las derivadas por sus expresiones respectivas y desarrollando los


determinantes por la fila en la que esas derivadas aparecen, se llega a:
d
det(X(t)) = tr(A(t)) det(X(t)).
dt
Esta es una ecuación lineal de primer orden que sabemos resolver. Su solución
es la fórmula de Abel-Liouville:

det X(t) = Ce tr A(s)ds
y por lo tanto, el wronskiano no se anula para ningún t en el intervalo conside-
rado, o bien (cuando C = 0) se anula para todo punto. Para ver la relación que
existe entre el wronskiano y la dependencia e independencia lineal de un con-
junto de soluciones, consideremos esta otra forma de demostrar la proposición
anterior. Supongamos que existe τ ∈ I tal que det X(τ ) = 0. En este caso,
existe un conjunto de constantes reales, c1 , c2 , . . . , cn , no todas nulas, tales que:

n
ci xi (τ ) = 0. (3.1)
i=1

Consideremos la función:

n
x(t) = ci xi (t) (3.2)
i=1
que al ser una combinación lineal de soluciones es una solución del sistema
homogéneo. Además verifica una condición inicial (en τ ) dada por (3.1). De
acuerdo con el teorema de existencia y unicidad, la solución dada en (3.2) es la
solución trivial, y por tanto:

n
ci xi (t) = 0, ∀t ∈ I
i=1
MAR 53

es decir las funciones xi (t), i = 1, . . . , n son linealmente dependientes. Obvia-


mente, si son linealmente independientes, el wronskiano no se anula en ningún
punto.
Proposición 3.2 La dimensión del espacio de soluciones de un sistema de n
ecuaciones lineales homogéneas es igual a n.
Demostración. Consideremos las soluciones de los problemas:
 
x = A(t)x
x(t0 ) = ei

donde ei es la base canónica de IRn . Sean xi (t) estas soluciones. Entonces,


el conjunto de soluciones {xi (t), i = 1, . . . , n} es una base del espacio de solu-
ciones, que por tanto tiene dimensión n. En efecto, es inmediato probar que
son linealmente independientes, pues en t = t0 el wronskiano es el determinante
de la matriz identidad, que es distinto de cero. Además son un sistema de
generadores:
Sea x(t) una solución del sistema, con x(t0 ) = x0 . El vector x0 tiene una
cierta expresión en la base canónica:

n
x0 = x0i ei
i=1

Consideremos la solución del sistema construida como una combinación lineal


de las soluciones xi (t) con coeficientes x0i :

n
x0i xi (t).
i=1

Esta solución es justamente x(t), pues ambas verifican la misma condición inicial
en t = t0 .

Definición 3.2 Se llama sistema fundamental de soluciones a una base del


espacio de soluciones. Se llama matriz fundamental a una matriz de soluciones
cuyas columnas forman un sistema fundamental.

De esta manera, la solución general del sistema homogéneo se puede escribir


como:
x(t) = Φ(t)C
donde Φ(t) es una matriz fundamental y C es un vector de constantes de n
componentes. Si la condición inicial es x(t0 ) = x0 , el vector C se calcula como:

C = Φ(t0 )−1 x0

(pues Φ(t) tiene una inversa) y por lo tanto la correspondiente solución es:

x(t) = Φ(t)Φ(t0 )−1 x0


54 EDO. Versión 4. Mayo 1996

La matriz Ψ(t) = Φ(t)Φ(t0 )−1 es una matriz fundamental canónica, ya que


Ψ(t0 ) = In , la matriz identidad:
x(t) = Ψ(t)x0 .
En cuanto al sistema completo (con b(t)) las soluciones forman un espacio
afı́n, es decir:
Proposición 3.3 El conjunto de soluciones del sistema lineal completo x =
A(t)x + b(t), es xp (t) + H, donde H es el espacio de soluciones de la ecuación
homogénea y xp (t) es una solución particular del problema completo.
Demostración: Es claro que xp (t) + xh (t), donde xh (t) es cualquier solución del
sistema homogéneo, es una solución del sistema completo, como se ve sin más
que sustituir en la ecuación. Además, ésta es la solución general. En efecto, sea
y(t) una solución arbitraria del sistema completo. Entonces, y(t) − xp (t) es una
solución del sistema homogéneo:
y  (t) − xp (t) = A(t)(y(t) − xp (t))
de donde se deduce la proposición.
No es fácil calcular las soluciones de un sistema lineal homogéneo o completo.
Sin embargo, una vez conocida una matriz fundamental, lo que proporciona
todas las soluciones del problema homogéneo, se pueden hallar las soluciones del
problema completo aplicando, por ejemplo el método de variación de constantes,
como hicimos con las ecuaciones de primer orden.
Para ello, sea Φ(t) una matriz fundamental del problema homogéneo. La
solución general de este problema es: x(t) = Φ(t)C, donde C es un vector
constante. Supongamos que C depende de t y veamos que condiciones debe
satisfacer para que Φ(t)C(t) sea solución del sistema completo.
Sustituyendo en la ecuacion:
x (t) = Φ(t) C(t) + Φ(t)C  (t) = A(t)Φ(t)C(t) + b(t)
y como Φ (t) = A(t)Φ(t), se tiene:
Φ(t)C  (t) = b(t)
es decir:
C  (t) = Φ(t)−1 b(t)
de donde se puede deducir C(t) por una integración. Si la solución que buscamos
verifica x(t0 ) = x0 , se puede escribir:
 t
x(t) = Φ(t)Φ(t0 )−1 x0 + Φ(t) Φ(s)−1 b(s)ds.
t0

Sin embargo, el cálculo de Φ(t) puede ser muy complicado. Tan solo cuando
los coeficientes de A no dependen de t puede calcularse una matriz fundamental
fácilmente. Si los coeficientes de la matriz A son funciones periódicas de t, la
teorı́a de Floquet porporciona indicaciones sobre la forma de las soluciones y
permite en algunos casos simples calcularlas.
MAR 55

3.4 Sistemas lineales con coeficientes constantes


3.4.1 Definiciones
Sea el sistema lineal homogéneo con matriz A constante (sistema lineal autó-
nomo), x = Ax. De acuerdo con lo expuesto hasta ahora, existe una única
solución, fijada la condición inicial, que además está definida en todo el eje real.
Este tipo de sistemas aparece en muchas situaciones: en problemas de redes
eléctricas o sistemas mecánicos, como aproximación de sistemas no lineales en
el entorno de un punto crı́tico, en grupos de transformaciones uniparamétricos
(transformaciones infinitesimales) etc. Como hemos dicho antes, es posible hal-
lar una matriz fundamental de este sistema y, como vamos a ver ahora, todo se
reduce al cálculo de la exponencial de una matriz.
Recordemos la definición y propiedades elementales de la exponencial de una
matriz. Sea A una matriz real (o compleja) n × n. Se define exp(A):


An A2
eA = =I +A+ + ···
n=0
n! 2

En el espacio de matrices reales n × n, Mn (IR), se puede definir una norma


que lo convierte en un espacio de Banach:

Ax
A s = sup{ , x ∈ IRn , x = 0}
x

donde . es una norma definida en IRn . Usando esta estructura se puede probar
que la serie definida anteriormente converge absolutamente para toda matriz de
Mn (IR). Para ello se usa la desigualdad:

Ak s ≤ A ks

con lo cual:

m
Ak
m
A ks
s ≤
k! k!
k=n k=n

Como la serie exponencial es absolutamente convergente en IR, se tiene lo mismo


para la exponencial de una matriz.
La exponencial de una matriz tiene propiedades similares a la exponencial
de numeros reales o complejos, salvo aquellas en las que interviene la conmuta-
tividad de la multiplicación.
Propiedades. Entre las que nos resultarán más útiles señalemos las sigu-
ientes:

• (eA )−1 = e−A .

• det(eA ) = etr A , y por tanto det(eA ) = 0.


56 EDO. Versión 4. Mayo 1996

Consideremos ahora funciones de un intervalo de la recta real, I, en Mn (IR):


f : I → Mn (IR).
Dado que el espacio Mn (IR) es un espacio de Banach, se pueden estudiar series
de funciones, continuidad, derivabilidad, etc. En lo que se refiere a nuestro
interés, el criterio de convergencia de Weierstrass es válido:

Proposición 3.4 Si la serie de funciones n≥0 fn (t), fn : I → M , donde M
es un espacio de Banach, está mayorada por una serie numérica convergente,
entonces converge absoluta y uniformemente en t.
Además, si la serie es convergente, y sus términos son derivables, la serie de
las derivadas converge a la derivada de la serie, si la primera es uniformemente
convergente.
En nuestro caso se dan esas circunstancias como veremos después.

3.4.2 Cálculo de exponenciales de matrices


De acuerdo con la definición, para calcular la exponencial de una matriz basta
hallar sus potencias sucesivas. Sin embargo, en la práctica no es éste un método
muy eficaz. Como veremos a continuación, debido a las propiedades de las
exponenciales de matrices, basta saber calcular la exponencial de una matriz
nilpotente y de múltiplos de la identidad, casos por otra parte muy sencillos de
tratar.
Propiedades:
1. Si A = P JP −1 , donde A, J, P ∈ Mn (I
C), y P es regular, entonces:
eA = P eJ P −1
como se puede demostrar fácilmente sin más que utilizar la definición y:
(P JP −1 )k = P J k P −1

2. Si J es una matriz diagonal por bloques, la exponencial de J es otra


matriz diagonal por bloques, que son las exponenciales de los bloques de
J. La demostración es también evidente sin más que recordar como se
multiplican matrices por bloques:
   
J1 exp(J1 )
 ..   .. 
exp  . = . 
Jk exp(Jk )

3. Si A, B ∈ Mn (I
C) conmutan entonces:
eA+B = eA eB
La demostración sigue los mismos pasos que en el caso real o complejo.
La propiedad no es cierta cuando las matrices A y B no conmutan.
MAR 57

4. Si N es una matriz nilpotente de grado r, su exponencial es una suma


finita:
N2 N r−1
eN = I + N + + ··· +
2 (r − 1)!
puesto que las potencias de N de exponente superior o igual a r son cero.
Como toda matriz A ∈ Mn (I C) se puede poner en forma de Jordan, que es
una matriz diagonal por bloques, y cada uno de sus bloques es suma de una
matriz múltiplo de la identidad y de una matriz nilpotente (que obviamente
conmutan), aplicando las propiedades anteriores uno puede calcular fácilmente
la exponencial de cualquier matriz. En la práctica sin embargo, existen otros
métodos que permiten obtener este resultado sin pasar por la forma de Jordan
que puede ser complicada de encontrar para matrices de orden elevado, sin
contar con el cálculo de la matriz de cambio de base.
Veamos ahora otra forma de enfocar este cálculo. Sea A ∈ Mn (I C), y σ(A)
su espectro. Dada una función f : C I → C,
I queremos definir f (A). Supongamos
que f es un polinomio p(z) y sea q(z) otro polinomio tal que: p(A) = q(A).
Entonces, d(z) = p(z) − q(z) anula a A, es decir es múltiplo del polinomio
mı́nimo de A, por lo tanto entre sus raı́ces están las de este polinomio mı́nimo,
los autovalores de A, con multiplicidades en general mayores. En cualquier caso
se tiene, para cualquier λ ∈ σ(A):

d(λ) = 0, d (λ) = 0, . . . , d(m−1) (λ) = 0

donde m es la multiplicidad de λ como raı́z del polinomio mı́nimo. Si f es una


función arbitraria, f (λ), f  (λ), . . . , f (n−1) (λ) para todo autovalor λ de A, son
los valores de la función f sobre el espectro de A. En el caso anterior de los
polinomios p y q, ambos toman los mismos valores sobre el espectro de A como
hemos visto. Y viceversa, si dos polinomios p y q toman los mismos valores
sobre el espectro de una matriz A, entonces p(A) = q(A), pues la diferencia de
p y q es un múltiplo del polinomio mı́nimo que anula a la matriz A.
Se postula para una función f suficientemente regular el mismo resultado,
es decir f (A) queda fijada por los valores que toma f sobre el espectro de A (en
el sentido antes dicho). Se puede definir entonces f (A) de la forma siguiente:

Definición 3.3 Sea f una función suficientemente regular, A ∈ Mn (I


C). Se
define f (A) como:
f (A) = p(A)
donde p(z) es un polinomio que toma los mismos valores que f sobre el espectro
de A.

Evidentemente, f (A) no depende del polinomio elegido por lo que hemos


dicho antes, ası́ que se puede tomar el de menor grado, que es menor que n, y
además es único. Nótese que este polinomio de menor grado es un polinomio de
interpolación y se determina por:

p(λ) = f (λ), p (λ) = f  (λ), . . . , p(m−1) (λ) = f (m−1) (λ)


58 EDO. Versión 4. Mayo 1996

para todo elemento del espectro de A, m multiplicidad de λ como raı́z del


polinomio mı́nimo. Estas son pues las ecuaciones que permiten calcular p(z) y
consiguientemente p(A) = f (A). Se llama a p(z) el polinomio de interpolación
de Lagrange-Sylvester. Este método de cálculo está muy ligado al de proyectores
ortogonales.
Ejemplo: Consideremos la matriz:
 
−1 1
A=
0 −1

que está en forma de Jordan. Por tanto su exponencial es:

eA = e−I eN

donde I es la matriz identidad 2 × 2 y N es una matriz nilpotente:


 
0 1
N=
0 0

cuya exponencial es inmediata de calcular:


 
N 1 1
e =
0 1

pues N 2 = 0, y por tanto eN = I + N . Por tanto, la exponencial de A es:


 −1    −1 
A e 0 1 1 e e−1
e = =
0 e−1 0 1 0 e−1

Supongamos que queremos calcular el polinomio interpolador de Lagrange-


Sylvester para esta matriz. Para ello buscamos un polinomio de grado 1 (el
grado del polinomio mı́nimo es 2) que verifique:

p(−1) = e−1 , p (−1) = e−1

ya que la multiplicidad de −1 como raı́z del polinomio mı́nimo es 2. Sea p(z) =


az + b. Las ecuaciones que determinan a, b son:

−a + b = e−1

a = e−1
por tanto, a = e−1 , b = 2e−1 , y se obtiene el resultado anterior al poner:

eA = p(A) = e−1 A + 2e−1 I.

Ejemplo: Sea la matriz:


 
2 1
A=
0 −1
MAR 59

En este caso, la matriz es diagonalizable con autovalores 2 y −1. La matriz de


cambio de base no es dı́ficil de calcular, siendo los autovectores (1, 0) y (1, −3):

A = P JP −1

donde:  
1 1
P =
0 −3
 
2 0
J= .
0 −1
La exponencial de J se calcula inmediatamente con lo que la exponencial de A
es:  2 
A e (e2 − e−1 )/3
e = .
0 e−1
Supongamos que queremos calcular el polinomio de interpolación de Lagran-
ge–Sylvester de A, p(z). Ahora tenemos dos autovalores con multiplicidad igual
a 1. Por tanto el grado de p(z) es 1 (el grado del polinomio mı́nimo es 2) y las
fórmulas que determinan los coeficientes son:

p(z) = az + b, p(2) = e2 , p(−1) = e−1 ⇒ 2a + b = e2 , −a + b = e−1

es decir:
e2 − e−1 e2 + 2e−1
a= , b=
3 3
de esta forma:
eA = p(A) = aA + bI
y se obtiene el resultado anterior.
Ejemplo. Finalmente veamos un caso con matrices 3 × 3.
 
0 1 0
A =  −4 4 0 .
−2 1 2

Esta matriz tiene un solo autovalor, 2, y dos cajas de Jordan de dimensiones 2


y 1. En efecto el polinomio caracterı́stico es:

(λ − 2)3

y el polinomio mı́nimo es (λ − 2)2 , con lo cual tenemos dos autovectores lineal-


mente independientes. La matriz de Jordan es:
 
2 1 0
J = 0 2 0 
0 0 2
60 EDO. Versión 4. Mayo 1996

y la matriz de cambio de base P puede calcularse de la siguiente forma. Como


A = P JP −1 , podemos escribir P = (P1 , P2 , P3 ), como vectores columnas y esa
ecuación es:

AP1 = 2P1
AP2 = P1 + 2P2
AP3 = 2P3

donde se ve que P1 , P3 son los autovectores de la matriz A. Estos autovec-


tores son combinaciones lineales de (0, 0, 1) y (1, 2, 0). Sin embargo resulta más
cómodo calcular en primer lugar el vector P2 . Para ello escribamos las dos
primeras ecuaciones como:
(A − 2I)P1 = 0
(A − 2I)P2 = P1
y multiplicando la segunda ecuación por A − 2I tenemos:

(A − 2I)2 P2 = 0

ecuación que permite calcular P2 . En este caso resulta ser trivial, pues el poli-
nomio mı́nimo es (λ − 2)2 y anula a la matriz A. La única restricción es que
P2 no debe ser un autovector, ası́ que elijamos P2 = (1, 0, 0). De esta forma P1
queda fijado por la segunda ecuación:

P1 = (A − 2I)P2

es decir P1 = (−2, −4, −2). El tercer vector, que tambien es autovector, se


elige linealmente independiente con P1 , por ejemplo, P3 = (0, 0, 1). Por tanto
la matriz P es:  
−2 1 0
P =  −4 0 0  .
−2 0 1
y la exponencial de A:
 
e2I+N 0
A
e =P P −1
0 e2

donde I es la matriz identidad 2 × 2 y N es una matriz nilpotente,


 
0 1
N= .
0 0

Por tanto, la exponencial de la matriz A es:


 
−1 1 0
eA = e2  −4 3 0 .
−2 1 1
MAR 61

un cálculo laborioso. Sin embargo, construyamos el polinomio de Lagrange-


Sylvester de la matriz A. Esta matriz tiene un solo autovalor y el polinomio
caracterı́stico tiene grado 2. Por lo tanto p(z) será un polinomio de grado 1,
p(z) = az + b, y los coeficientes a, b se calculan por:

p(2) = e2 , p (2) = e2

con lo que a = e2 , b = −e2 .


La exponencial de la matriz A es:

eA = p(A) = e2 A − e2 I

que es el resultado obtenido anteriormente.


Cuando los coeficientes son complejos los métodos de cálculo son los mis-
mos. Sin embargo si la matriz es real, aunque los autovalores sean complejos, la
exponencial es una matriz real. En este caso los autovalores complejos aparecen
a pares, y siempre se puede encontrar una base en la cuál la matriz se descom-
ponga en bloques elementales 2 × 2 asociados a cada pareja de estos autovalores
si son simples. Si no lo son, es posible que la matriz no sea diagonalizable por
esos bloques pero en cualquier caso existirá una forma similar a la de Jordan y
a la postre los cálculos de la exponencial se reducirán a los de la exponencial
de los bloques 2 × 2. Consideremos una matriz 2 × 2 con coeficientes reales y
autovalores complejos:  
a b
A=
c d
(tr A)2 < 4 det A
Sean λ = µ + iν, los autovalores de esta matriz, con ν > 0. Se pueden calcular
los autovectores complejos Aw = λw, w = u + iv, donde u, v son vectores reales
linealmente independientes. La matriz A se escribe en la base {v, u} como:
 
µ −ν
ν µ

y la exponencial de esta matriz se calcula fácilmente sabiendo que existe un


isomorfismo entre el cuerpo de los números complejos y el conjunto de matrices
reales con esta forma. La exponencial de λ = µ + iν es:

eµ+iν = eµ (cos ν + i sen ν)

por lo tanto, la exponencial es:


 
cos ν − sen ν
eµ .
sen ν cos ν

Ejemplo:  
3 1
A= .
−5 −1
62 EDO. Versión 4. Mayo 1996

Los autovalores de esta matriz son 1 ± i. Los autovectores complejos son:


(1, −2 ± i), es decir (1, −2) ± i(0, 1). En la base {(0, 1), (1, −2)} la expresión de
A es:  
1 −1
1 1
por lo tanto:
   
0 1 e cos 1 −e sen 1 2 1
eA =
1 −2 e sen 1 e cos 1 1 0
 
e(2 sen 1 + cos 1) e sen 1
= .
−5e sen 1 e(cos 1 − 2 sen 1)

Calculando el polinomio interpolador, la matriz A tiene dos autovalores dis-


tintos y el polinomio mı́nimo tiene grado igual a 2, ası́ que p(z) tiene grado 1,
p(z) = az + b, y los coeficientes se calculan con las ecuaciones:

p(1 + i) = e1+i , p(1 − i) = e1−i

es decir:
a(1 + i) + b = e(cos 1 + i sen 1)
a(1 − i) + b = e(cos 1 − i sen 1)
de donde a = e sen 1, b = e(cos 1 − sen 1), y por tanto la exponencial de A es:

eA = Ae sen 1 + Ie(cos 1 − sen 1).

Como se ha visto en este resumen, el cálculo de exponenciales no encierra


ningún secreto y es simplemente un problema técnico. Además, como veremos
a continuación, uno puede obviar en muchas ocasiones el cálculo completo de la
exponencial y limitarse a calcular autovectores.

3.5 Solución general de un sistema lineal de coe-


ficientes constantes
De acuerdo con lo dicho hasta ahora, la función que asigna a cada t la exponen-
cial de At, donde A ∈ Mn (IR) está bien definida y su derivada se puede calcular
derivando término a término la serie que la define. Por tanto:
∞ ∞ ∞
d At d An n d An n An n−1
e = t = ( t )= nt
dt dt n=0 n! n=0
dt n! n=0
n!

es decir, se tiene la relación:


d At
e = AeAt
dt
que nos permite demostrar lo siguiente:
MAR 63

Proposición 3.5 Una matriz fundamental del sistema homogéneo con coefi-
cientes constantes:
x = Ax
es Φ(t) = eAt , que además es la única que verifica Φ(0) = I.

La demostración es evidente. La solución particular que verifica x(t0 ) = x0 es:

x(t) = eA(t−t0 ) x0 .

Téngase en cuenta además, que eAt es un grupo uniparamétrico con t ∈ IR,


debido a las propiedades de la exponencial ya estudiadas y al hecho de que los
múltiplos de A conmutan entre sı́. En cuanto al sistema completo, una vez
que conocemos una matriz fundamental, es inmediato escribir la solución del
problema:
x = Ax + b(t)
x(t0 ) = x0
como:  t
x(t) = eA(t−t0 ) x0 + eA(t−s) b(s)ds.
t0

Como hemos dicho anteriormente, sólo se necesita conocer una matriz fun-
damental para calcular todas las soluciones. Si escribimos A en su forma de
Jordan: A = P JP −1 , y por tanto:

eAt = P eJt P −1

pero como sabemos, dada una matriz fundamental, el producto de dicha matriz
por una matriz de constantes regular (a la derecha) proporciona una nueva
matriz fundamental. Por tanto, para escribir la solución general del problema
homogéneo podemos utilizar:

Ψ(t) = P eJt

que es también una matriz fundamental, aunque no sea la canónica en t = 0.


Pero es más, como ahora veremos, los autovalores de A proporcionan una base
del espacio de soluciones en el caso que A sea diagonalizable, y en cualquier caso
llevan a soluciones del sistema.
En efecto, si A es diagonalizable, J es una matriz diagonal y P es una matriz
cuyas columnas son los autovectores del sistema:
 λt 
e 1
 ..  λ t λ t
Ψ(t) = (P1 , . . . , Pn )  .  = (P1 e 1 , . . . , Pn e n )
eλn t

y por tanto una base del espacio de soluciones es:

{P1 exp(λ1 t), . . . , Pn exp(λn t)}


64 EDO. Versión 4. Mayo 1996

como por otra parte se puede comprobar directamente. La solución general es


una combinación lineal de estas funciones:

x(t) = c1 P1 eλ1 t + . . . + cn Pn eλn t

aunque el cálculo de las constantes ci implica resolver un sistema de ecuacio-


nes lineales. Este resultado es cierto aún cuando algunos autovalores tengan
multiplicidad mayor que 1. Lo esencial es que la matriz sea diagonalizable.
Cuando la matriz no es diagonalizable la situación no es tan clara. La matriz
J no es diagonal y la matriz P contiene en sus columnas los autovectores de A
y otros vectores necesarios para formar una base. Supongamos que Pλ es un
autovector con autovalor λ. Entonces Pλ eλt es una solución del sistema:

x (t) = λPλ eλt = APλ eλt .

Supongamos ahora que existe una caja de Jordan de dimensión r y que


P1 , . . . , Pr son los vectores de la base correspondientes a esa caja. En esta caso
las soluciones son polinomios por exponenciales:

P1 eλt , (P1 t + P2 )eλt , ((1/2)P1 t2 + P2 t + P3 )eλt , . . . ,


((1/(r − 1)!)P1 tr−1 + . . . + Pr )eλt

como se comprueba fácilmente sin más que calcular la exponencial de la caja de


Jordan:  
λ 1
 λ 1 
 
 .. 
J = . .
 
 λ 1 
λ
Ejemplo. 
x1 = −x1 + x2
x1 = −x2
La matriz es no diagonalizable. Un autovector es (1, 0) y el vector que completa
la base para obtener la forma de Jordan es (0, 1), pues la matriz esta ya escrita
en la forma canónica. Por lo tanto la solución es:
       
x(t) 1 −t 1 0
= c1 e + c2 t+ e−t .
y(t) 0 0 1
Ejemplo. La ecuación que describe el movimiento de caı́da libre de un cuerpo
hacia la tierra es:
dv
= g − 2ω × v
dt
donde v es la velocidad del cuerpo, g la aceleración de la gravedad y ω la
velocidad de rotación de la tierra. Se trata de un sistema de ecuaciones lineales
de primer orden con coeficientes constantes. La matriz del sistema es:

Av = −2ω × v
MAR 65

con lo que el sistema se escribe:

v  = Av + g.

Calculemos la exponencial de la matriz A:


 
0 ω3 −ω2
−2  −ω3 0 ω1 
ω2 −ω1 0

sus autovalores son 0, ±2iΩ, donde Ω es el módulo del vector ω. Calculando


el polinomio de interpolación de la matriz At, que debe ser de grado 2, p(z) =
az 2 + bz + c:

p(0) = 1, p(2iΩt) = e2iΩt , p(−2iΩt) = e−2iΩt

lo que proporciona a, b, c:

1 − cos 2Ωt sen 2Ωt


a= 2 2
, b= , c=1
4Ω t 2Ωt
y por lo tanto la exponencial es:

eAt = I + btA + at2 A2 .

La velocidad de caı́da es:


 t
v(t) = eAt v0 + (eAt e−As )g =
0
1 2 1
v0 + (I + A )gt + A(v0 − Ag)bt + A(g + Av0 )at2
4Ω2 4Ω2
y escribiendo la expresión de los coeficientes y de A:
ω ω ω ω g
v(t) = v0 + t(g + × × g)) + (1 − cos 2Ωt) × ( × v0 − )
Ω Ω Ω Ω 2Ω
ω ω g
−(sen 2Ωt) × ( × + v0 ).
Ω Ω 2Ω
De aquı́ podemos deducir la trayectoria sin más que integrar esta ecuación en t.

3.6 Ecuaciones diferenciales de orden mayor que


1
Una ecuación diferencial ordinaria de orden n es como ya hemos dicho una
relación del tipo:
f (t, x, x , . . . , x(n) ) = 0
66 EDO. Versión 4. Mayo 1996

donde x es ahora una función real de variable real y x(k) son las derivadas de
x respecto a la variable t. En general supondremos que la ecuación está escrita
en forma normal, es decir, que la derivada de mayor orden está despejada:

x(n) = f (t, x, x , . . . , x(n−1) ).

Esta ecuación es equivalente como ya sabemos a un sistema de primer orden


con n ecuaciones. Sin embargo muchas veces no es necesario pasar al sistema
para estudiar las soluciones de la ecuación. En lo que se refiere a los teoremas
de existencia y unicidad, podemos enunciar el siguiente, clara consecuencia del
enunciado para sistemas:
Teorema 3.3 Dada la ecuación x(n) = f (t, x, x , . . . , x(n−1) ) con:

f : [t0 , t1 ] × D → IRn

donde D es un abierto de IRn , continua en ese conjunto y lipschitziana respecto


a las n últimas variables, existe una única solución definida en un intervalo
I ⊂ [t0 , t1 ] que verifica las condiciones iniciales siguientes:

x(t0 ) = x01 , x (t0 ) = x02 , . . . , x(n−1) (t0 ) = x0n

donde (x01 , x02 , . . . , x0n ) es un punto de D.


La demostración es una consecuencia inmediata del mismo resultado para sis-
temas.
En general no resulta fácil encontrar soluciones para una ecuación arbitraria
de orden n. Como veremos, sólo en el caso de ecuaciones lineales con coefi-
cientes constantes y otras relacionadas con ellas, existe una forma sistemática
de calcular las soluciones. Sin embargo, en algunos casos es posible reducir el
orden de la ecuación.

3.7 Casos simples de reducción del orden


a) Supongamos que la función f no depende de las k − 1 primeras derivadas
de x respecto t. Entonces es posible definir una nueva variable, v(t), como la
derivada k de x. Esto convierte a la ecuación en otra de orden n−k. Si podemos
calcular una solución de esta ecuación, v(t), la de la original se puede encontrar
a partir de:
dk x
= v(t).
dtk
Esta es un ecuación diferencial muy simple, que se puede resolver mediante
una integración repetida k veces. Sin embargo, como se comprueba sin más que
derivar, la solución de esta ecuación se puede escribir también como una integral
simple:  t
1
x(t) = (t − s)k−1 v(s)ds + Pk−1 (t)
(k − 1)! t0
MAR 67

donde Pk−1 es un polinomio de grado k−1 en t. La principal complicación reside


en que la solución de la ecuación transformada no siempre se puede escribir como
v = v(t) y aparece con frecuencia en la forma φ(t, v) = 0. En estos casos se
puede recurrir a una parametrización de v y t en función de un parametro s, y
tratar de integrar las ecuaciones resultantes.
Ejemplo. x = g − γ(x )2 . Se trata de un movimiento en caı́da libre con un
rozamiento proporcional al cuadrado de la velocidad. La función x no aparece
con lo que podemos definir v(t) = x , de forma que la ecuación para v es de
primer grado:
v  = g − γv 2
ecuación de variables separadas que se puede integrar fácilmente, obteniéndose:

g 1 + ke−2at
v(t) =
γ 1 − ke−2at

y de aquı́ una nueva integración nos lleva a x(t).


b) Supongamos ahora que en la función f no aparece t, es decir, tenemos
una ecuación autónoma. Este caso resulta de gran importancia en el estudio de
los sistemas autónomos en el plano como veremos más adelante. La estrategia
consiste aquı́ en suponer que x es la variable independiente, y sustituir las
derivadas de x respecto a t por derivadas de la nueva función respecto a x:

dx
v(x) = .
dt
No queda más que calcular cuanto valen las derivadas de x respecto a t en
función de las derivadas de v respecto a x:
 2
dv  dv d2 v
x = v, x = v , x =v + v2 ,...
dx dx dx2

Ejemplo. Consideremos la ecuación que se obtiene en el problema de Kepler


cuando se reduce la ecuación del movimiento:
d2 x C 2
− 3 =0
dt2 x
donde x(t) es la posición y C una constante. La ecuación es autónoma y se puede
hacer el cambio antes indicado, considerando la velocidad como una función de
la posición, obteniendo una ecuación de primer orden en v(x) que se puede
resolver:
dv C2
v − 3 = 0.
dx x
Todos los resultados establecidos para sistemas de ecuaciones se pueden
aplicar a las ecuaciones de orden n por lo que no entraremos aquı́ en más de-
talles. Sin embargo, las ecuaciones lineales de orden n admiten un tratamiento
que hace muy útil su estudio, independientemente del sistema lineal asociado.
68 EDO. Versión 4. Mayo 1996

3.8 Ecuaciones lineales de orden n


Una ecuación lineal de orden n se puede escribir como:

x(n) + an−1 (t)x(n−1) + . . . + a1 (t)x + a0 (t)x = b(t)

donde los coeficientes ai (t), b(t) son funciones continuas definidas en un intervalo
de la recta real [t0 , t1 ] con valores en IR. Es inmediato probar que una condición
suficiente para la existencia y unicidad de soluciones de esta ecuación es que los
coeficientes sean continuos en el intervalo considerado. La ecuación se puede
escribir como un sistema, de acuerdo con lo dicho anteriormente y se tiene:
      
x1 0 1 ··· 0 x1 0
 x2   0 0 ··· 0   x2   0 
      
 ..   .. .. ..   ..   .. 
 . = . . .    +  .
    .   . 
 xn−1   0 0 ··· 1   xn−1   0 

xn −a0 (t) −a1 (t) · · · −an−1 (t) xn b(t)

Como se puede observar, la forma de la matriz de este sistema es muy par-


ticular, y, en general, no es necesario pasar al sistema asociado para resolver
la ecuacion. En cualquier caso, cuando los coeficientes no son constantes no es
sencillo calcular las soluciones de este tipo de ecuaciones. Las propiedades de las
soluciones se pueden deducir de las demostradas para los sistemas de ecuaciones
lineales:

Proposición 3.6 El conjunto de soluciones de una ecuación lineal homogénea


de orden n es un espacio vectorial real de dimension igual a n.

Ası́, si el conjunto de funciones {x1 (t), . . . , xn (t)} es una base, la solución general
de la ecuación homogénea es:

x(t) = c1 x1 (t) + c2 x2 (t) + . . . + cn xn (t)

donde c1 , c2 , . . . , cn son constantes que se fijan de acuerdo con las condiciones


iniciales. Debido a la independencia lineal de las soluciones, el sistema que fija
las constantes ci en función de los datos iniciales tiene solución única. Esto es
consecuencia de las propiedades del wronskiano que pasamos a enunciar.

Definición 3.4 Se llama wronskiano de las funciones f1 (t), . . . , fn (t) definidas


en un intervalo de la recta real y derivables al menos hasta orden n − 1 al
siguiente determinante:
 
f1 (t) · · · fn (t)
 f1 (t) · · · fn (t) 
 
W [f1 , . . . , fn ; t] = det  .. .. .
 . . 
(n−1) (n−1)
f1 · · · fn (t)
MAR 69

Si consideramos n soluciones de la ecuación lineal homogénea, el wronskiano


es el determinante de una matriz de soluciones del sistema lineal asociado. Por
lo tanto verifica la ecuación de Liouville donde ahora, teniendo en cuenta la
forma especial de la matriz A(t), se tiene tr A(t) = −an−1 (t), y:

W  = −an−1 (t)W

ecuación que tiene por solucion:



− an−1 (s)ds
W (t) = Ce .

El wronskiano tiene las mismas propiedades que en el caso de sistemas, es


decir no se anula en ningún punto del intervalo, o es idénticamente cero en todo
el intervalo. En el primer caso las soluciones de la ecuación son linealmente
independientes y en el segundo son linealmente dependientes. Por tanto las
constantes que aparecen en la solución general se fijan unı́vocamente en función
de los datos iniciales.
La solución general de la ecuación completa es suma de la solución gene-
ral de la ecuación homogénea más una solución particular de la completa. El
cálculo de una solución particular se puede hacer usando el método de variación
de constantes que sigue las mismas lı́neas que el expuesto para sistemas linea-
les. Sin embargo, aquı́ sólo hay una ecuación y por tanto es necesario im-
poner condiciones suplementarias. Sea entonces x(t) la siguiente función, donde
{x1 (t), . . . , xn (t)} es una base de soluciones de la ecuación homogénea:

n
x(t) = ci (t)xi (t)
i=1

y calculemos las derivadas sucesivas de esta función:



n
n

x (t) = ci (t)xi (t) + ci (t)xi (t).
i=1 i=1

Si imponemos la condición:

n
ci (t)xi (t) = 0
i=1

la derivada segunda se calcula fácilmente:



n
n
x (t) = ci (t)xi (t) + ci (t)xi (t)
i=1 i=1

y como antes, imponemos otra condición sobre las funciones ci (t):



n
ci (t)xi (t) = 0
i=1
70 EDO. Versión 4. Mayo 1996

De esta forma, la derivada de orden n − 1 será:



n
n
ci (t)xi
(n−2) (n−1)
x(n−1) (t) = (t) + ci (t)xi (t)
i=1 i=1

que nos proporciona una nueva condición para las ci (t):



n
ci (t)xi
(n−2)
(t) = 0
i=1

finalmente, se calcula la derivada de orden n y se sustituye en la ecuación con


lo que se obtienen las n condiciones que fijan las funciones ci (t):

n
n
ci (t)xi
(n−1) (n)
x(n) (t) = (t) + ci (t)xi (t).
i=1 i=1

Al sustituir en la ecuación aparece una relación entre las ci (t) y las derivadas
de orden n igualada a la función b(t) más una relación entre ci (t) y las derivadas
de las funciones xi (t), que no es más que la ecuación homogénea aplicada a cada
una de estas últimas funciones. Como son soluciones de la ecuación homogénea,
se concluye que:
n
ci (t)xi
(n−1)
(t) = b(t).
i=1
Esta ecuación, junto con las anteriores forma un sistema de ecuaciones alge-
braicas lineales que permite calcular las funciones ci (t). La matriz de coeficientes
es justamente el wronskiano de la base de soluciones con las que se está tra-
bajando, lo que asegura la existencia de solución. Una vez halladas ci (t) se
integran y multiplican por xi (t) para obtener la solución particular buscada.
Veamos en el caso n = 2 como es esta solución.
Sea la ecuación x +a1 (t)x +a0 (t)x = b(t), x1 (t), x2 (t) una base de soluciones
de la ecuación homogénea. La solución particular buscada por el método de
variación de constantes es:
x(t) = c1 (t)x1 (t) + c2 (t)x2 (t)
y las ecuaciones que satisfacen las funciones c1 (t), c2 (t) son:
c1 (t)x1 (t) + c2 (t)x2 (t) = 0
c1 (t)x1 (t) + c2 (t)x2 (t) = b(t)
que se pueden resolver por Cramer, obteniéndose:
x2 (t)b(t)  x1 (t)b(t)
c1 (t) = − , c2 (t) =
W (t) W (t)
donde W (t) es el wronskiano de las soluciones x1 (t), x2 (t):
 
x1 (t) x2 (t)
W (t) ≡ W [x1 , x2 ; t] = det .
x1 (t) x2 (t)
MAR 71

De esta forma la solución general del problema completo, suponiendo un punto


de partida en t0 es:
 t  t
x2 (s)b(s) x1 (s)b(s)
x(t) = a1 x1 (t) + a2 x2 (t) − x1 (t) ds + x2 (t) ds.
t0 W (s) t0 W (s)
Si la solución particular buscada verifica x(t0 ) = x01 , x (t0 ) = x02 , se tiene:

x01 = a1 x1 (t0 ) + a2 x2 (t0 )


x02 = a1 x1 (t0 ) + a2 x2 (t0 )
como se puede comprobar fácilmente. De este sistema uno puede obtener las
constantes a1 , a2 , pues la matriz de coeficientes es el wronskiano de x1 (t),
x2 (t) que es distinto de cero en cualquier punto del intervalo donde se trabaja.
Téngase en cuenta que siempre suponemos que los coeficientes de la ecuación
son continuos en un cierto intervalo.
Ejemplo. Supongamos un oscilador armónico sometido a una fuerza perió-
dica:
x + 4x = cos 2t.
Como veremos en el próximo apartado, una base de soluciones del problema
homogéneo está formada por las funciones cos 2t, sen 2t. El wronskiano de estas
funciones es:  
cos 2t sen 2t
W (t) = det =2
−2 sen 2t 2 cos 2t
y por lo tanto la solución particular que necesitamos es:
 t  t
1 1
xp (t) = − cos 2t sen 2s cos 2sds + sen 2t cos2 2sds
2 0 2 0

es decir:
1
xp (t) = t sen 2t
2
La solución general es suma de la solución general de la homogénea, generada
por la base x1 (t), x2 (t), con esta solución particular. No es fácil calcular una
base de soluciones para una ecuación lineal de orden n. Sin embargo es posible
demostrar que si se conoce una solución, el orden de la ecuación se puede rebajar
en una unidad. Consideremos el caso de segundo orden pues en general el
argumento sigue las mismas lı́neas:

x + a1 (t)x + a0 (t)x = 0

sea y(t) una solución de esta ecuación. Definiendo una nueva variable v(t) por
la relacion: 
x(t) = y(t) v

al sustituir en la ecuación se tiene:



[y + a1 (t)y + a0 (t)y] v + y(t)v  + (2y  (t) + a1 (t)y(t))v = 0
 
72 EDO. Versión 4. Mayo 1996

como y(t) es solución de la ecuación de partida, se tiene para v(t) una ecuación
lineal de primer orden:

y(t)v  + (2y  (t) + a1 (t)y(t))v = 0

Su solución es: 
C a1 (t)
v(t) = e .
y 2 (t)
Una vez calculada v(t) se sustituye en la expresión que proporciona x(t),
con lo que obtenemos otra solución de la ecuación, linealmente independiente
con y(t). En efecto, el wronskiano de las soluciones y(t), x(t) es (si u(t) es la
integral de v(t)):
  
y(t) y(t)u(t)
W (t) = det   = y 2 (t)v(t) = e a1 (t)
y (t) y (t)u(t) + y(t)v(t)

(tomando C = 1) que no se anula en ningún punto.


En este caso se ha calculado una base. Para una ecuación de orden n harı́an
falta n − 1 soluciones para reducirla a una de primer orden.

3.9 Ecuaciones diferenciales lineales de orden n


con coeficientes constantes
Como hemos visto en el apartado anterior basta conocer una base de soluciones
para calcular cualquier solución de una ecuación lineal homogénea o no. Sin
embargo el cálculo de la base es en general complicado y salvo métodos como el
de desarrollo de las soluciones en forma de serie, no se puede dar ningún esquema
completo para cualquier ecuación. Existen algunos casos donde el cálculo de
una base se puede hacer de forma sistemática. Concretamente en el caso de
coeficientes constantes, este cálculo es una cuestión puramente algebraica. De
hecho, pasando al sistema lineal asociado obtendrı́amos una matriz de constantes
y por lo tanto sabemos que la solución se calcula hallando la exponencial de esa
matriz. Sin embargo, dado que la matriz de los sistemas asociados a ecuaciones
de orden n tiene una estructura muy peculiar, resulta interesante desarrollar la
teorı́a sin referirse a los sistemas. Consideremos una ecuación lineal de orden n
homogénea de coeficientes constantes:

x(n) + an−1 x(n−1) + . . . + a1 x + a0 x = 0

Definición 3.5 Se llama polinomio caracterı́stico de esta ecuación a:

p(λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 .

Suponemos que los coeficientes de la matriz son reales. El caso complejo


no ofrece ninguna dificultad adicional. Los elementos básicos de esta ecuación
MAR 73

diferencial son las raı́ces del polinomio caracterı́stico. No es difı́cil comprobar


que el polinomio caracterı́stico de la matriz A:
 
0 1 0 ··· 0
 0 0 1 · · · 0 
 
 .. .. .. .. 
 . . . . 
 
 0 0 0 ··· 1 
−a0 −a1 −a2 · · · −an−1

es justamente p(λ) (salvo un signo global), es decir, las raı́ces del polinomio car-
acterı́stico de la ecuación son los autovalores de la matriz del sistema asociado.
La siguiente proposición usa ese resultado, aunque la demostraremos desde el
punto de vista de ecuaciones.

Proposición 3.7 Sea λ raı́z del polinomio caraterı́stico de una ecuación dife-
rencial de orden n con coeficientes constantes. Entonces, la función:

x(t) = eλt

es una solución de la ecuación.

Demostración: Es muy simple pero aprovecharemos para introducir la notación


de operadores que simplificará los resultados. Sea D = d/dt, y L = Dn +
an−1 Dn−1 +· · ·+a1 D+a0 , operador lineal diferencial de orden n con coeficientes
constantes. Entonces, p(D) = L. La acción de D sobre las exponenciales es
simplemente:
D(eλt ) = λeλt
y por lo tanto resulta inmediato comprobar que:

p(D)eλt = p(λ)eλt

de esta forma, si λ es una raı́z del polinomio caracterı́stico, p(λ) = 0 y de acuerdo


con la expresión anterior, L(eλt ) = 0.
La siguiente proposición establece cuándo se puede obtener una base formada
solo por exponenciales:

Proposición 3.8 Si las raı́ces del polinomio caracterı́stico, {λ1 , . . . , λn } son


todas distintas entre sı́, el conjunto de funciones:

eλ1 t , eλ2 t , . . . , eλn t

es una base del espacio de soluciones de la ecuación.

La demostración es también muy sencilla. De acuerdo con la proposición ante-


rior, todas estas funciones son soluciones de la ecuación. Ası́ pues, lo único que
hay que demostrar es que son linealmente independientes, ya que sabemos que la
74 EDO. Versión 4. Mayo 1996

dimensión del espacio de soluciones es n. Para ello construyamos el wronskiano


de estas soluciones:
 
eλ1 t ··· eλn t
 λ1 eλ1 t ··· λn eλn t 
 
W [x1 , x2 , . . . , xn ; t] =  .. .. 
 . . 
λn−1
1 eλ1 t · · · λn−1
n eλn t
calculando W en t = 0, se obtiene un determinante de Vandermonde que es
distinto de cero al ser las raı́ces del polinomio caracterı́stico distintas. Por lo
tanto las soluciones son linealmente independientes y forman una base. Téngase
en cuenta que la proposición equivalente para un sistema era que la matriz A
fuera diagonalizable, es decir, podı́an existir autovalores iguales. Sin embargo,
no es difı́cil probar que la matriz dada anteriormente, es decir la proveniente de
una ecuación de orden n, solo es diagonalizable cuando todos sus autovalores
son distintos. Por tanto, en el caso de raı́ces distintas, la solución general es:

n
x(t) = ci eλi t .
i=1

Como estamos considerando ecuaciones con coeficientes reales, el espacio de


soluciones es un espacio vectorial real de dimensión n. Se puede demostrar que
existe una base de soluciones reales. Si alguna raı́z λ es compleja, aparecerá
también su compleja conjugada λ. La pareja de soluciones:

{eλt , eλt }
se puede sustituir por:
{eµt cos νt, eµt sen νt}
donde λ = µ + iν, que son combinaciones lineales de las anteriores y son reales.
En el caso de raı́ces complejas, la solución general, cuando todas las raı́ces son
distintas es:
r
s
x(t) = ci eλi t + eµj t (bj cos νj t + dj sen νj t)
i=1 j=1

donde r + 2s = n, λi , son las raı́ces reales y µj ± iνj las complejas.


En el caso de raı́ces con multiplicidad mayor que 1 la situación es más com-
plicada. Si las raı́ces distintas son λ1 , λ2 , . . . , λk , con k < n, las funciones:
eλ1 t , eλ2 t , . . . , eλk t
siguen siendo soluciones de la ecuación, pero al ser n mayor que k, no es una
base. Se tiene el siguiente resultado:
Proposición 3.9 Sea λ0 raı́z del polinomio caracterı́stico con multiplicidad r.
En este caso, las funciones:
eλ0 t , teλ0 t , . . . , tr−1 eλ0 t
son soluciones de la ecuación y linealmente independientes.
MAR 75

Para demostrar este resultado, descomponemos el polinomio p(λ) en dos factores


primos entre sı́:
p(λ) = q(λ)(λ − λ0 )r
con q(λ0 ) = 0. El operador L se descompone de la misma forma:

L = q(D)(D − λ0 )r

por tanto basta probar que (D − λ0 )r anula a las funciones dadas. Apliquemos
una vez este operador:

(D − λ0 )tk eλ0 t = ktk−1 eλ0 t + λ0 tk eλ0 t − λ0 tk eλ0 t = ktk−1 eλ0 t .

Es inmediato verificar que al aplicar s veces el operador se obtiene:

(D − λ0 )s tk eλ0 t = k(k − 1) . . . (k − s + 1)tk−s eλ0 t

si s es menor o igual que k. Si s es estrictamente mayor que k, el resultado es


cero. Por tanto:

(D − λ0 )r tk eλ0 t = 0, k = 0, 1, . . . , r − 1

que era lo querı́amos demostrar. Otra forma de alcanzar este resultado es la


siguiente. Considerando exp(λt) como una función de las variables t y λ se
puede escribir:
∂ λt
Dλ (eλt ) = e = teλt
∂λ
consideremos entonces la función teλt y apliquemos el operador L:

L(teλt ) = L(Dλ eλt ) = Dλ (Leλt ) = Dλ (p(λ)eλt ) = p (λ)eλt + tp(λ)eλt

ahora bien, si λ0 es una raı́z con multiplicidad mayor que 1, p(λ0 ) = 0 y p (λ0 ) =
0, por lo que teλ0 t es solución de L. En el caso general la situación es la misma:

Dλk (eλt ) = tk eλt

y por tanto:

L(tk eλt ) = L(Dλk eλt ) = Dλk (Leλt ) = Dλk (p(λ)eλt )

obteniéndose la exponencial por un polinomio en t cuyos coeficientes son las


derivadas de p respecto λ hasta orden k. Si λ0 es una raı́z de multiplicidad r
del polinomio caracterı́stico, se tiene:

p(λ0 ) = 0, p (λ0 ) = 0, . . . , p(r−1) (λ0 ) = 0

por tanto las funciones tk eλt con k = 0, 1, . . . , r − 1 son soluciones de L.


En cuanto a la independencia lineal de este conjunto de funciones, basta
calcular su wronskiano. Poniendo t = 0 se obtiene el determinante de una
matriz triangular, pues los elementos por encima de la diagonal son potencias
76 EDO. Versión 4. Mayo 1996

de t por la exponencial, y en la diagonal aparecen constantes distintas de cero


(factoriales). Por tanto, el wronskiano es no nulo y las soluciones son linealmente
independientes.
Podemos escribir en el caso general una base del espacio de soluciones en la
forma siguiente:

Proposición 3.10 Sean λ1 , . . . , λk las raı́ces reales del polinomio caracterı́sti-


co con multiplicidades r1 , . . . , rk , y µ1 ± iν1 , . . . , µm ± iνm las raı́ces complejas
con multiplicidades s1 , . . . , sm . Se tiene r1 + · · · + rk + 2(s1 + · · · + sm ) = n.
Entonces, una base del espacio de soluciones de la ecuación diferencial lineal
homogénea de orden n con polinomio caracterı́stico p(λ) es:

eλ1 t , teλ1 t , . . . , tr1 −1 eλ1 t

···
eλk t λk t
, te , . . . , trk −1 eλk t
eµ1 t cos ν1 t, eµ1 t sen ν1 t, . . . , ts1 −1 eµ1 t cos ν1 t, ts1 −1 eµ1 t sen ν1 t
···
sm −1 µm t
eµm t
cos νm t, eµm t
sen νm t, . . . , t e cos νm t, tsm −1 eµm t sen νm t

Ejemplo. Sea la ecuación anterior, x + 4x = cos 2t. El polinomio carac-


terı́stico es λ2 + 4 = 0, por lo que tenemos dos raı́ces complejas. Por tanto,
una base real de soluciones de la ecuación homogénea es {cos 2t, sen 2t}, como
habı́amos anticipado.
En algunos casos el cálculo de una solución particular de la ecuación completa
puede simplificarse debido a la forma especial de la parte no homogénea. El
método, llamado de coeficientes indeterminados, puede justificarse como sigue.
Sea b(t) una función que es anulada por un determinado operador diferencial
lineal de orden m con coeficientes constantes L . La ecuación de la que deseamos
conocer una solución particular es:

Lx = b

aplicando L a los dos miembros de esta ecuación, se obtiene:

L Lx = L b = 0

es decir, x(t) es solución de una ecuación diferencial lineal de orden n + m con


coeficientes constantes, homogénea. Toda solución de la ecuación no homogénea
de partida es solución de esta ecuación diferencial, aunque el inverso no es
cierto. De cualquier forma solo necesitamos una solución particular. La idea es
calcular las soluciones de esta segunda ecuación homogénea y sustituir la función
obtenida en la ecuación diferencial inicial, tratando de ajustar los coeficientes
de forma que se obtenga una solución. Entre las soluciones de la ecuación
homogénea L Lx = 0 aparecerán las soluciones de la ecuación Lx = 0, necesarias
para el cálculo de la solución general de Lx = b pero que en esta fase del
MAR 77

desarrollo no aportan nada nuevo ya que son anuladas por L. De esta forma
solo necesitamos utilizar las soluciones de L Lx = 0 que no son soluciones de
Lx = 0. Por supuesto el operador L no es único ası́ que habrá que buscarlo lo
más sencillo posible. En el caso en que L y L no tengan raı́ces comunes (sus
polinomios caracterı́sticos respectivos) la situación es sencilla, ya que se busca
entre las soluciones de L exclusivamente. En el caso en que haya raı́ces comunes
habrá que tener en cuenta la multiplicidad mayor que uno que se produce al
multiplicar L y L . De acuerdo con todo lo expuesto se pueden dar los siguientes
criterios para la búsqueda de soluciones particulares en este caso:

a) Si b(t) = q(t)eλt , la solución particular se busca como:

x(t) = tr Q(t)eλt

donde Q(t) es un polinomio de grado menor o igual que el grado de q(t)


y r es la multiplicidad de λ como raı́z del polinomio caracterı́stico de L
(que puede ser cero). Sustituyendo x(t) en la ecuación Lx = b se calculan
los coeficientes que aparecen en el polinomio Q(t).

b) Si b(t) = q(t)eµt cos t, o b(t) = q(t)eµt sen t se puede reducir al caso anterior
como ahora veremos. Pero se puede ver fácilmente que ambos tipos cor-
responden a raı́ces complejas µ ± iν y por lo tanto la función que hay que
probar es:
x(t) = tr eµt (Q1 (t) cos νt + Q2 (t) sen νt)
donde Q1 (t), Q2 (t) son polinomios de grado menor o igual que el grado
de q(t) y r es la multiplicidad de µ + iν como raı́z de L.

c) La función b(t) más general es suma de funciones de los tipos dados en a) y


b). Sea:

m
b(t) = bk (t).
k=1

Una forma de resolver este problema es descomponerlo en m problemas


no homogéneos, cada uno de ellos con inhomogeneidad igual a bk (t). De
esta forma la solución particular buscada es la suma de las soluciones
particulares halladas en cada uno de los problemas:


m
m
m
L( xk (t)) = L(xk (t)) = bk (t) = b(t)
k=1 k=1 k=1

Ejemplo. Consideremos nuevamente el oscilador armónico forzado:

x + 4x = cos 2t.

El término no homogéneo es solución de una ecuación diferencial lineal de


coeficientes constantes de segundo orden con raı́ces ±2i, que también lo son del
78 EDO. Versión 4. Mayo 1996

polinomio caracterı́stico de la ecuación con multiplicidad igual a 1. Por lo tanto


la solución a probar es:

x(t) = t(a cos 2t + c sen 2t)

donde a, c son dos constantes a determinar. Sustituyendo en la ecuación:

−4a sen 2t + 4c cos 2t = cos 2t

por tanto, a = 0, c = 1/4, de donde la solución particular es:

t
x(t) = sen 2t
4
como ya sabı́amos. Cuando los coeficientes no son constantes, las dificultades
para encontrar una base del espacio de soluciones suelen ser muy grandes. Como
veremos, los métodos de desarrollos en serie proporcionan resultados útiles en
muchos de los casos, pero aún ası́, hay algunas situaciones especiales donde se
puede encontrar una base de soluciones fácilmente. Este es el caso de las ecua-
ciones de Euler, que son convertidas en ecuaciones con coeficientes constantes
mediante un cambio de variable.

3.10 Ecuaciones de Euler


Una ecuación de Euler tiene la forma siguiente:

tn x(n) + an−1 tn−1 x(n−1) + · · · + a1 tx + a0 x = 0

es decir una ecuación homogénea en t (el cambio t → kt no modifica la ecuación).


Es inmediato comprobar que el cambio:

t = es

convierte a esta ecuación en una de coeficientes constantes en la nueva variable


s:  
1 dx  1 d2 x dx
x = , x = 2 − ,...
t ds t ds2 ds
es decir, en cada derivada aparece un factor t elevado a la potencia adecuada
para compensar el que está en la ecuación diferencial. La ecuación resultante es
de coeficientes constantes. Por ejemplo, en el caso n = 2 se obtiene:

d2 x dx
+ (a1 − 1) + a0 x = 0
ds2 ds
con polinomio caracterı́stico:

r2 + (a1 − 1)r + a0 .
MAR 79

Este polinomio se puede escribir directamente de la ecuación de Euler y suele


darse como:
r(r − 1) + a1 r + a0 .
Se llama polinomio indicial y sus raı́ces son los exponentes de t en la solución
del problema:
|t|r1 , |t|r2
si las raı́ces son distintas, y:

|t|r1 , |t|r1 log |t|

si son iguales. En el caso en que sean complejas se puede elegir una base real:
r = µ + iν,
|t|µ cos(ν log |t|), |t|µ sen(ν log |t|).
Para n arbitrario la situacion es similar.
Ejemplo: t2 x − 3tx + 13x = 0. El polinomio indicial es r(r − 1) − 3r + 13,
que tiene por raı́ces 2 ± 3i. Por tanto una base de soluciones es (en t > 0):

t2 cos(3 log(t)), t2 sen(3 log(t))

3.11 Sistemas lineales con coeficientes periódi-


cos: Teorı́a de Floquet
Como ya hemos dicho en muchas ocasiones, cuando los coeficientes de la matriz
A(t) o de la ecuación lineal de orden n no son constantes, no es posible en
general determinar una base del espacio de soluciones. Sin embargo, cuando
los coeficientes son periódicos con el mismo periodo, es posible, si no encontrar
la base de soluciones, al menos predecir una serie de propiedades de éstas, y
sobre todo la existencia de soluciones periódicas, tema fundamental en muchas
aplicaciones. Una función continua de variable real, f (t), es periódica si existe
algun T ∈ IR tal que f (t + T ) = f (t) para todo t ∈ IR. Se dice que T es un
periodo de la función f (t) y evidentemente no es único, pero puede demostrarse
que, o bien todo número real es un periodo, en cuyo caso la función es constante,
o bien existe un numero positivo minimal en el conjunto de todos los periodos.
En este segundo caso, todos los periodos son múltiplos de este periodo minimal.
Supongamos que el sistema:

x = A(t)x

tiene coeficientes periódicos, es decir existe T tal que A(t + T ) = A(t), para
todo t ∈ IR. Nótese que para demostrar que una solución es periódica basta
imponer x(0) = x(T ), pues de aquı́ se deduce por la unicidad de soluciones que
x(t) = x(t+T ) para todo t. En efecto, dada la periodicidad de los coeficientes de
A(t), si x(t) es solución, x(t+T ) tambien lo es, y la condición inicial que verifica
es x(0+T ) = x(T ) = x(0), luego coincide con x(t). Usaremos una generalización
80 EDO. Versión 4. Mayo 1996

de este argumento aplicada a matrices fundamentales para probar los principales


resultados de la teorı́a de Floquet.
Probaremos que existe una transformación lineal del vector x(t), tal que las
nuevas funciones verifican un sistema de coeficientes constantes (transformación
de Lyapunov). Para ello consideremos una matriz fundamental del sistema, Φ(t):

Φ (t) = A(t)Φ(t)

en cualquier punto t (supongamos que A(t) es continua para todo t). Si consid-
eramos esta matriz en t + T

Φ (t + T ) = A(t + T )Φ(t + T ) = A(t)Φ(t + T )

es decir, Φ(t + T ) es también una matriz fundamental del sistema. Por lo tanto
es igual a Φ(t) por una matriz constante regular:

Φ(t + T ) = Φ(t)C

relación de la que podemos despejar C:

C = Φ(t)−1 Φ(t + T ).

El determinante de C, que no puede ser cero, está dado por la ecuación de


Liouville:  t
det(Φ(t)) = k exp tr A(s)ds
t0

y por lo tanto:
 T
det C = det(Φ(t)−1 ) det(Φ(t + T )) = exp( tr A(s)ds).
0

La matriz C depende de la matriz fundamental elegida, Φ(t), pero si se elige otra,


Ψ(t), sabemos que Φ(t) = Ψ(t)P , donde P es una matriz regular constante.
Para la matriz Ψ(t) se tienen las mismas propiedades anteriores con otra matriz
de constantes Z:

Z = Ψ(t)−1 Ψ(t + T ) = P Φ(t)−1 Φ(t + T )P −1 = P CP −1

es decir las matrices C correspondientes a diferentes matrices fundamentales son


semejantes. En este caso, al no ser A constante no se puede hablar de polinomio
caracterı́stico de la matriz A, ni de autovalores. Sin embargo, los autovalores
de C, sus multiplicidades y en general todas las propiedades conservadas por
una semejanza de matrices, son propiedades del sistema. Los autovalores de C,
que son todos no nulos, se llaman exponentes caracterı́sticos del sistema. Al ser
C una matriz regular, podemos calcular su logaritmo (tomando por ejemplo la
determinación principal). Sea B una matriz tal que:

eT B = C
MAR 81

es decir B = (1/T ) log(C). Por las propiedades de las funciones de matrices, los
autovalores de B y C están relaciónados por:
1
λ= log(µ)
T
donde λ es un autovalor de B y µ de C. Consideremos ahora una matriz
X(t) = eBt Φ(t)−1 , que es claramente regular y periódica del mismo periodo que
A:
X(t + T ) = e(t+T )B Φ(t + T )−1 = etB eT B C −1 Φ(t)−1 = etB Φ(t)−1 = X(t).
Pero etB es una matriz fundamental de un sistema lineal de coeficientes
constantes, con matriz B. Por lo tanto, Y (t) = X(t)Φ(t) verifica:
Y  = BY.
Este es el sistema de coeficientes constantes que buscábamos. La matriz L(t)
que efectúa la transformación es:
y(t) = L(t)x(t)
B = L(t)A(t)L(t)−1 + L (t)L(t)
y = By
donde la transformación de Lyapunov es L(t) = X(t). Por tanto las soluciones
y(t) son polinomios en t por exponenciales de los autovalores de B por t:

yi (t) = qi (t)eλt

donde yi (t) es la componente i-ésima del vector y. Entonces Φ(t) = X(t)−1 Y


con X(t) una matriz periódica en t de periodo T . Es decir, las soluciones del
sistema inicial son polinomios en t con coeficientes periódicos de periodo T por
exponenciales. Si los autovalores de C son todos distintos módulo 2π/T , la
matriz B es diagonalizable y por tanto no aparecen polinomios.
La conclusión principal en lo que se refiere a la existencia de soluciones
periódicas, es que si hay s exponentes caracterı́sticos de módulo igual a 1, existe
una familia maximal (de dimensión lineal d) de soluciones periódicas con periodo
T , donde 1 ≤ d ≤ s.
Pero los exponentes caracterı́sticos no son fáciles de calcular, ya que necesita-
mos una base del espacio de soluciones y estudiar esa base cuando t pasa a valer
t + T , lo que implica estudiar la prolongación analı́tica de las funciones de esa
base. Nos limitaremos en lo que sigue a estudiar dos casos simples: ecuaciones
lineales de primer orden y ecuaciones lineales de segundo orden con coeficientes
constantes.

3.11.1 Ecuaciones lineales de primer orden con coeficien-


tes periódicos
Sea la ecuación x +a(t)x = 0, donde a(t) = a(t+T ), continua en IR. Aunque ob-
viamente no es preciso acudir a la teorı́a de Floquet para estudiar esta ecuación,
82 EDO. Versión 4. Mayo 1996

analicemos cómo existe una transformación lineal que la convierte en una ecua-
ción de coeficientes constantes.
Sea x(t) una solución no trivial. De acuerdo con lo anterior x(t + T ) es
también solución, por lo que x(t + T ) = x(t)c, con c = 0. En este caso c es
el exponente caracterı́stico del sistema, una constante que depende sólo de la
ecuación. Concretamente aquı́, dada la sencillez del problema, no resulta difı́cil
comprobar que:
 T
c = exp(− a(s)ds)
0
de acuerdo con lo expuesto en la teorı́a de Floquet. Por tanto, calculando
el logaritmo de c, bT , se obtiene justamente el exponente anterior, que es un
número real. Las soluciones de la ecuación de coeficientes constantes que se
obtiene es: 
1 T
y  = (− a(s)ds)y = by
T 0
 t
L(t) = exp(bt + a(s)ds).
0

Esta ecuación solo tiene soluciones periódicas cuando b es cero (solo en ese
caso c tiene módulo 1, de hecho es igual a 1). Es decir, para que existan
soluciones periódicas de la ecuación lineal homogénea con coeficientes periódicos,
es necesario y suficiente que la integral de a(t) sobre un periodo sea cero. Por
supuesto, la solución trivial x(t) = 0 es periódica siempre.
Está claro que para este caso tan sencillo la teorı́a anterior resulta de una
complejidad desmesurada. De hecho, para el análisis de la ecuación no ho-
mogénea no merece la pena aplicar este material.
Si la ecuación es no homogénea, sea f (t) función periódica de periodo T :

x + a(t)x = f (t).

La ecuación transformada es:


 t
y  − by = f (t) exp(b(t) + a(s)ds).
0

Si b = 0, solo hay soluciones periódicas cuando el miembro de la derecha de la


ecuación tiene integral cero en un periodo (la integral de una función periódica
no es periódica a no ser que el valor de la integral en un periodo sea cero).
Todas las soluciones son obviamente periódicas en este caso. Si b es distinto de
cero, sabemos que la ecuación homogénea no tiene soluciones periódicas (salvo
la trivial), pero la no homogénea tiene entonces una sola solución periódica,
como se puede probar sin más que escribir la solución general e imponer:

x(0) = x(T )
 t  t  t
x(t) = K exp(− a(s)ds) + f (s) exp(− a(s)ds) = x(t + T )
0 0 0
MAR 83

T
relación que permite obtener un único valor de K si 0 a(s)ds = 0.
Ejemplo. x + x sen t = sen ωt. Consideremos en primer lugar la ecuación
homogénea. Su solución general es:

x(t) = kecos t

que es obviamente una solución periódica de periodo 2π. En este caso c = 1


pues:  2π
sen tdt = 0.
0
Veamos ahora la ecuación completa. Su solución general es:
 t
x(t) = e cos t
(k + e− cos τ sen ωτ dτ )
0

que no es fácilmente integrable para cualquier ω. La condición de periodicidad,


habida cuenta que las soluciones de la ecuación homogénea son periódicas, es:
 2π
e− cos τ sen ωτ dτ = 0.
0

Nótese que los coeficientes de la ecuación tienen el mismo periodo, 2π, si


y solo si ω es un número natural arbitrario, n. Sólo en este caso la condición
x(0) = x(T ) implica la periodicidad de x(t). El periodo de la función f es 2π/n.
Aún ası́, sólo cuando n = 1 la integración es elemental:

x(t) = kecos t + 1

que es obviamente periódica para cualquier valor de k (la solución particular


x(t) = 1 puede obtenerse directamente de la ecuación). Para n arbitrario se
puede probar que la integral también es cero. Trasladando la integración al
intervalo [−π, π]:
 2π  π
− cos τ
e sen(nτ )dτ = (−1)n
ecos τ sen(nτ )dτ
0 −π

la segunda integral es cero pues el integrando es impar en un intervalo simétrico


respecto a cero. Por lo tanto, todas las soluciones son periódicas para todo n.

3.11.2 Ecuaciones lineales de segundo orden con coeficien-


tes constantes
En este caso, la existencia de coeficientes periódicos no constantes nos llevarı́a
necesariamente al uso de la teorı́a de Floquet para tratar de calcular al menos
los exponentes caracterı́sticos. Nos limitaremos por tanto a una exposición del
caso más simple, coeficientes constantes.
Sea la ecuación x + a1 x + a0 x = f (t), con f (t) periódica de periodo T .
Igual que en el caso anterior, es posible probar que si la ecuación homogénea
84 EDO. Versión 4. Mayo 1996

tiene una sola solución periódica, la solución trivial, entonces la ecuación no


homogénea tiene una sola solución periódica, correspondiente a ciertos valores
de las constantes, calculados imponiendo que la función y la derivada tomen los
mismos valores en t = 0 y t = T .
La ecuación homogénea tendrá soluciones periódicas cuando la parte real de
alguna de las raı́ces λ del polinomio caracterı́stico sea cero. Si son reales, λ = 0,
y hay una familia uniparamétrica de soluciones periódicas. Si son complejas,
λ = ±i, y todas las soluciones son periódicas. La condición necesaria y suficiente
para la existencia de soluciones periódicas para la ecuación no homogénea, es que
el segundo miembro de la ecuación sea ortogonal en un periodo a las soluciones
periódicas de la ecuación homogénea. Cuando una raı́z es 0, las soluciones
periódicas son constantes, y por tanto la integral de f en un periodo es cero. Hay
una familia infinita de soluciones periódicas, aunque no toda solución lo es. En el
caso en que las raı́ces sean imaginarias puras, la integral de f (t) por sen t y cos t
debe ser cero, y en este caso todas las soluciones de la ecuación no homogénea son
periódicas. Veamos como todas estas afirmaciones son consecuencia inmediata
de la estructura de la solución.
Supongamos que una de las raı́ces del polinomio caracterı́stico sea cero.
Una base del espacio de soluciones es {1, exp(λt)}. El wronskiano de estas dos
soluciones es W (t) = λ exp(λt), y por tanto la solución es:

1 t
x(t) = c1 + c2 eλt + f (s)(eλ(t−s) − 1)ds.
λ 0
Si queremos que esta solución sea periódica, x(0) = x(T ), x (0) = x (T ):

1 T
λT
c1 + c2 = c1 + c2 e + f (s)(eλ(T −s) − 1)ds
λ 0
 T
c2 λ = λc2 eλT + f (s)eλ(T −s) ds
0
de donde se deduce la condición necesaria:
 T
f (s)ds = 0
0

que es tambien suficiente, pues, si λ = 0, la segunda ecuación determina c2 ,


mientras que c1 es arbitrario (obviamente). Nótese que en la demostración usada
es fundamental que los coeficientes de la ecuación sean periódicos de periodo
T , pues si no es ası́, las condiciones x(0) = x(T ), x (0) = x (T ) no aseguran la
periodicidad de la solución. (Si λ = 0 la base del espacio de soluciones es {1, t}
y la discusión es similar a la dada).
Supongamos ahora que las raı́ces de la ecuación son ±iω, y que la función
f (t) es periódica de periodo T . La solución general es en este caso, puesto que
una base de la ecuación homogénea es cos ωt, sen ωt, con wronskiano igual a 1:
 t
x(t) = c1 cos ωt + c2 sen ωt + f (s) sen ω(t − s)ds.
0
MAR 85

Apliquemos ahora las condiciones x(0) = x(T ), x (0) = x (T ):


 T
c1 = c1 cos ωT + c2 sen ωT + f (s) sen ω(T − s)ds
0

 T
c2 = −c1 sen ωT + c2 cos ωT + f (s) cos ω(T − s)ds.
0

Ahora bien, si las soluciones de la ecuación homogénea son periódicas de


periodo T , eso quiere decir que ω = 2πn/T , para algún número natural n. Por
tanto las ecuaciones son:
 T
c1 = c1 + f (s) sen ω(T − s)ds
0

 T
c2 = c2 + f (s) cos ω(T − s)ds
0

es decir las condiciones necesarias (que son tambien suficientes) para la existen-
cia de soluciones periódicas son:
 T
f (s) sen ωsds = 0
0

 T
f (s) cos ωsds = 0.
0

En el caso ω = 2πn/T para todo n, las soluciones de la ecuación homogénea


no son periódicas de periodo T . En este caso existe una solución periódica de
periodo T para la ecuación completa. El determinante de la matriz del sistema
que determina c1 y c2 es 4 sen2 (ωT /2), distinto de cero, con lo que el sistema
tiene una sola solución.
En general, si el problema homogéneo no tiene soluciones periódicas, existirá
una unica solución periódica para el problema no homogéneo, calculable como
se ha hecho anteriormente.
Ejemplo. x + 2γx + 4x = sen µt, γ, µ > 0 Las raı́ces del polinomio carac-
terı́stico son 
λ = −γ ± γ 2 − 4 = −γ ± iω.
Si el coeficiente γ es cero se tienen soluciones periódicas para la ecuación ho-
mogénea, de periodo π. En cualquier otro caso, la ecuación homogénea sólo tiene
la solución periódica trivial x(t) = 0. Si γ < 2, el movimiento, siempre para la
ecuación homogénea, es oscilatorio amortiguado. Si γ ≥ 2, no hay oscilaciones
(sobreamortiguamiento).
Consideremos el caso γ = 0. La solución general del problema completo es:
 t
x(t) = c1 cos 2t + c2 sen 2t + sen µs sen 2(t − s)ds
0
86 EDO. Versión 4. Mayo 1996

Si µ = 1, la fuerza externa tiene periodo 2π, que también es periodo de las


soluciones de la ecuación homogénea. En este caso, las condiciones para que
existan soluciones periódicas:
 2π
sen(s) sen(2s)ds = 0
0
 2π
sen(s) cos(2s)ds = 0
0
son evidentemente ciertas. Pero supongamos µ = 2. En este caso, las integrales
anteriores no dan cero ambas:
 2π
sen2 (2s)ds = π
0
 2π
sen(2s) cos(2s)ds = 0
0
por tanto no hay ninguna solución periódica. En efecto, en este caso la frecuencia
de la fuerza externa coincide con la frecuencia natural del oscilador, y se produce
un fenómeno de resonancia (la condición fundamental es que la integral anterior
no sea cero, no que las frecuencias coincidan).
Las integrales anteriores son cero siempre excepto para µ = 2, por lo que
las soluciones son siempre periódicas cuando µ = n, entero. Si no es entero,
la ecuación homogénea no tiene soluciones periódicas de periodo T = 2πm/ω,
para algún m, por lo que la ecuación no homogénea tiene una sola solución
periódica, correspondiente a la fuerza externa. Nótese que en cualquier caso,
los coeficientes de la ecuación homogénea, al ser constantes son periódicos con
cualquier periodo. Cuando γ = 0 las soluciones de la ecuación homogénea no
son periódicas. En este caso, la ecuación no homogénea tiene una sola solución
periódica, a la cual tienden el resto de las soluciones (en el caso anterior cuando
solo habı́a una solución periódica, las demas soluciones no tendı́an a ella. La
ecuación era estable pero no asintóticamente estable).
En general la situación es similar. Supuestas las soluciones de la homogénea
periódicas, las de la no homogénea son periódicas si y solo si la integral de
estas soluciones por la función no homogénea es cero. Cuando en la ecuación
homogénea hay algunas periódicas y otras no, varios casos pueden presentarse
según esas integrales sean cero o no. No entraremos en más detalles aquı́.

3.12 Estabilidad de ecuaciones lineales


Ya hemos estudiado previamente el problema de la estabilidad en las ecuaciones
de primer orden. Para sistemas de ecuaciones y ecuaciones de orden n los
conceptos son los mismos, aunque evidentemente las dificultades para saber si
una solución es estable o no, son mayores. Aunque es en las ecuaciones no
lineales donde aparecen los casos más interesantes desde el punto de vista de
MAR 87

aplicaciones, el caso lineal es una aproximación que en muchos casos ofrece


información sobre el no lineal. Por eso, en esta sección estudiaremos el caso
lineal, sobre todo el más sencillo, cuando los coeficientes son constantes.
Consideremos entonces un sistema lineal x = A(t)x + b(t), donde se supone
que A(t) y b(t) son funciones continuas a partir de un cierto t0 , con lo que las
soluciones que parten de ese punto se pueden prolongar indefinidamente hacia
la derecha. La primera observación es la misma que vimos en la ecuación lineal:
Proposición 3.11 Las soluciones de un sistema de ecuaciones diferenciales de
primer orden lineal son estables (asintóticamente estables) si y solo si lo es la
solución trivial del sistema homogéneo.
La demostración sigue los mismos pasos que allı́ vimos.
También se tiene la misma relación entre acotación y estabilidad:
Proposición 3.12 Las soluciones de un sistema lineal homogéneo son estables
si y solo si son acotadas.
Demostración. Aunque es totalmente similar a la que hicimos para las ecuacio-
nes de primer orden repitámosla para el caso de sistemas. Supongamos que la
ecuación es estable. Entonces la solución trivial es estable, por tanto para todo
2 > 0 ∃δ tal que, si x0 < δ, entonces x(t) < 2 para todo t ≥ t0 , donde
x(t) es la solución del sistema con x(t0 ) = x0 . Esto quiere decir que las solu-
ciones cuyo dato inicial está en un entorno de 0 están acotadas (recuérdese que
el concepto de acotación utlizado aquı́ se refiere a puntos situados a la derecha
del punto inicial). Pero si y(t) es una solución cualquiera con y(t0 ) = y0 , se
puede hacer una homotecia que lleve el dato inicial a ese entorno del origen, y
considerar la solución con dato inicial z(t0 ) = y0 /c, donde y0 /c < δ, eligiendo
adecuadamente la constante c. Como el sistema es lineal, la solución con este
dato inicial es z(t) = y(t)/c y por lo tanto de z(t0 ) < δ se deduce z(t) < 2,
es decir, y(t) ≤ c2 para todo t ≥ t0 , luego toda solución está acotada.
Supongamos ahora que las soluciones de la ecuación están acotadas. Esto
quiere decir que podemos construir una matriz fundamental Φ(t), acotada, de
forma que dada una solución x(t) = Φ(t)Φ(t0 )−1 x0 se tiene:
x(t) = Φ(t)Φ(t0 )−1 x0 ≤ Φ(t)Φ(t0 )−1 s x0 ≤ µ x0
para todo t ≥ t0 , pues la matriz Φ(t) está acotada por µ que en principio puede
depender de t0 (si no es ası́, se habla de estabilidad uniforme) pero que no
depende de x0 . Usando la desigualdad anterior se ve que basta escoger δ = 2/µ
en la definición de estabilidad para asegurar que la solución trivial es estable
y por ende el sistema. Nótese que es necesario que todas las soluciones estén
acotadas, concretamente que una base de soluciones esté acotada. En el caso de
la ecuación lineal de primer orden bastaba que una solución no trivial estuviera
acotada. Obviamente, pues la base allı́ tiene un solo elemento.
En el caso de coeficientes no constantes la situación puede complicarse pues
no sabremos en general la forma explı́cita de las soluciones. En el caso de
coeficientes constantes veremos como se pueden dar criterios muy sencillos para
estudiar la estabilidad del sistema.
88 EDO. Versión 4. Mayo 1996

Proposición 3.13 Sea el sistema de ecuaciones diferenciales lineal homogéneo


de coeficientes constantes: x = Ax. Entonces:
a) Si la parte real de los autovalores de A es negativa, el sistema es asintóti-
camente estable.
b) Si la parte real de los autovalores es negativa, excepto la de algunos que
es cero, y estos últimos tienen cajas de Jordan asociadas de dimensión 1,
entonces el sistema es estable.
c) Si algún autovalor tiene parte real positiva o algún autovalor con parte real
igual a cero tiene una caja de Jordan con dimensión mayor que 1, el
sistema es inestable.

La demostración es trivial, basándose en la estructura de las soluciones. Recor-


demos que éstas son exponenciales por polinomios, ası́ que el comportamiento
cuando t → ∞ viene dado por la parte real de los exponentes, que son los au-
tovalores. Si la parte real es negativa, las soluciones están acotadas y tienden a
cero cuando t tiende a infinito, luego el sistema es asintóticamente estable. Si la
parte real es cero, habrá que fijarse si existe o no un polinomio (de grado mayor
que 0) que multiplique a la exponencial. Si la multiplicidad geométrica del auto-
valor es igual a su multiplicidad aritmética (es decir, si las cajas correpondientes
a ese autovalor son de dimensión 1 en la forma de Jordan correspondiente) no
existe tal polinomio, y el sistema será estable. Si la caja no es diagonal, el
sistema es inestable debido al polinomio. Finalmente si algún autovalor tiene
parte real positiva la solución correspondiente no estará acotada y por tanto el
sistema es inestable.
Ejemplo:  
x = −5x + 4y
y  = −3x + 2y
Los autovalores de la matriz A son −1, −2, por lo tanto el sistema es
asintóticamente estable. Las soluciones tienden a cero cuando t tiende a in-
finito. Nótese que tr A = −3 y det A = 2, lo que permite asegurar sin necesidad
de efectuar los cálculos explı́citos, que las dos raı́ces son negativas. Si consider-
amos un sistema no homogéneo, por ejemplo:
 
x = −5x + 4y + t
y  = −3x + 2y + t

las soluciones de este sistema tienden a:


 
1
(t − 1)
1

que no está acotada (recuérdese que es un sistema no homogéneo). En efecto,


la solución general del sistema es:
       
x(t) 4 1 1
= e−2t + e−t + (t − 1)
y(t) 3 1 1
MAR 89

y las dos exponenciales negativas hacen que las condiciones iniciales no influyan
en los valores de la solución para t grande.
En el caso de ecuaciones diferenciales lineales de orden n con coeficientes
constantes, la situación es la misma:

x(n) + an−1 x(n−1) + · · · + a1 x + a0 x = b(t)

se construye el polinomio caracterı́stico p(λ) y se analizan sus raı́ces. Si todas


ellas tienen la parte real negativa, la ecuación es asintóticamente estable. Si
alguna tiene la parte real igual a cero y es simple, pero todas las demás tienen
parte real negativa, el sistema es estable. Si por fin, hay raı́ces con parte real
positiva o con parte real cero pero no simples, entonces el sistema es inestable.
De aquı́ resulta fundamental la localización de las raı́ces en el plano complejo.
Existen muchas técnicas para determinar la situación de las raı́ces. Nos
limitaremos a dar uno de los criterios más sencillos, el de Routh-Hurwitz que
establece condiciones necesarias y suficientes para que todas las raı́ces de un
polinomio con los coeficientes reales estén en el semiplano izquierdo. Sin em-
bargo, no proporciona ninguna indicación sobre la clase de inestabilidad, por
lo que para obtener mayor información es necesario acudir a otro tipo de crite-
rios como el de Nyquist, que no trataremos aquı́. Todos ellos hacen uso de las
técnicas de variable compleja en el estudio de los ceros de un polinomio.

3.13 El criterio de Routh-Hurwitz


Supongamos que la carga, q, de un condensador situado en un circuito eléctrico
verifica la siguiente ecuación:

(LL0 − M )q  + (R0 L + RL0 )q  + (M A/C + RR0 + L0 /C)q  + (R0 /C)q = 0

donde las constantes L, L0 , R, R0 , C y M son caracterı́sticas de los elementos del


circuito y A es la ganancia de un cierto amplificador diferencial que se encuentra
también en ese circuito. La constante M es la inductancia mutua entre las
bobinas L y L0 . Las propiedades de estabilidad de este circuito dependen de las
constantes anteriormente citadas. Resulta interesante saber para qué valores de
estas constantes el circuito es estable, y si no lo es, qué tipo de inestabilidad
tiene. No es trivial aplicar directamente el teorema anterior pues nos verı́amos
obligados a calcular las raı́ces de un polinomio de tercer grado en función de una
serie de constantes que no aparecen en forma sencilla en la ecuación. Veremos
como el criterio de Routh-Hurwitz permite al menos resolver la primera cuestión.

Proposición 3.14 (Criterio de Routh-Hurwitz) La condición necesaria y


suficiente para que un polinomio de coeficientes reales:

p(λ) = λn + an−1 λn−1 + · · · + a1 λ + a0

tenga todas sus raı́ces en el semiplano izquierdo (parte real negativa) es que los
90 EDO. Versión 4. Mayo 1996

menores principales de la siguiente matriz sean todos positivos:


 
an−1 1 0 0 0 ··· 0 0
 an−3 an−2 an−1 1 0 ··· 0 0 
 
 .. .. .. .. .. .. .. 
 . . . . . . . 
 
 0 0 0 0 0 · · · a1 a2 
0 0 0 0 0 · · · 0 a0

Obsérvese como en la construcción de esta matriz se han colocado los coeficien-


tes del polinomio sobre la diagonal principal (salvo el 1 de λn ) y a derecha e
izquierda a partir de la diagonal el resto de esos coeficientes en orden creciente.
Del criterio de Routh-Hurwitz se deduce que una condición necesaria para
que todas las raı́ces tengan parte real negativa es que todos los coeficientes
del polinomio sean positivos. Sin embargo esta condición no es suficiente. La
demostración del criterio de Routh-Hurwitz se basa en el concepto de ı́ndice de
Cauchy pero no entraremos en ella aquı́. Veamos algunos casos particulares.
Ejemplo. n = 2, p(λ) = λ2 + a1 λ + a0 . La matriz a considerar es:
 
a1 1
0 a0

por tanto las condiciones son a0 > 0, a1 > 0.


Ejemplo. n = 4, p(λ) = λ4 + a3 λ3 + a2 λ2 + a1 λ + a0 . La matriz es:
 
a3 1 0 0
 a1 a2 a3 1 
 
 0 a0 a1 a2 
0 0 0 a0

y los menores que deben ser positivos son:

a3 > 0, a2 a3 − a1 > 0, a1 (a2 a3 − a1 ) − a0 a23 > 0, a0 > 0

de donde se deduce inmediatamente que todos los coeficientes son positivos


además de satisfacer otras restricciones.
Veamos ahora el circuito que se expuso al principio de este apartado. Es una
ecuación de tercer orden, y el polinomio caracterı́stico es:

b d c
p(λ) = λ3 + λ2 + λ +
a a a

donde a = LL0 − M 2 , b = R0 L + RL0 , c = R0 /C, d = M A/C + RR0 + L0 /C.


Por tanto la matriz a estudiar es:
 
b/a 1 0
 c/a d/a b/a  .
0 0 c/a
MAR 91

Los menores a estudiar son:


b db − ac c
, , .
a a a
Pero b = R0 L + RL0 es positivo, ası́ que a debe ser también positivo:

LL0 ≥ M 2

que se verifica de manera automática, pues M es el coeficiente de inductancia


mutua entra las bobinas de autoinducciones L y L0 . El coeficiente c también es
positivo, c = R0 /C. De esta forma, solo nos queda una condición a satisfacer
para que el circuito sea estable asintóticamente:

MA L0 (LL0 − M )R0
db − ac = ( + RR0 + )(R0 L + RL0 ) − .
C C C
Como se puede ver fácilmente, esta condición se satisface siempre cuando el
coeficiente M es positivo (se supone A positivo). Sin embargo, si M < 0 existe
un valor crı́tico de la ganancia por encima del cual el sistema es inestable:

RR0 C + L0 − (LL0 − M )R0 /(R0 L + RL0 )


Ac =
|M |

El criterio de Routh-Hurwitz no permite saber que clase de inestabilidad se


produce para A > Ac . Para ver que se trata de un foco inestable, es decir, de
una situación oscilante con amplitud creciente, es necesario recurrir a métodos
como el criterio de Nyquist, que estudian el movimiento de las raı́ces en el plano
complejo según los valores de A. Nótese que cuando A alcanza el valor crı́tico,
la ecuación es:
q  + (b/a)q  + (c/b)q  + (c/a)q = 0
y el menor (db − ac)/a del criterio de Routh-Hurwitz es cero. Sin embargo los
coeficientes del polinomio siguen siendo positivos. Puesto que las raı́ces varı́an
continuamente con A, se puede pensar que en A = Ac , alguna de las raı́ces
tiene su parte real igual a cero (pues para A > Ac tiene su parte real positiva).
Pero no puede ser cero pues el producto de las tres raı́ces es distinto de cero (y
negativo). Por lo tanto en A = Ac aparecen dos raı́ces imaginarias puras, que
se pueden calcular. Supongamos que son ±iω. Sustituyendo en el polinomio
caracterı́stico, se tiene:

−iabω 3 − b2 ω 2 + iacω + cb = 0

e igualando a cero la parte real y la imaginaria (o sustituyendo tambien −iω):


c R0
ω2 = = .
b (R0 L + RL0 )C

La tercera raı́z es real negativa: −b/a. Cuando A > Ac , aparecen dos


raı́ces complejas con parte real positiva y se producen oscilaciones de amplitud
92 EDO. Versión 4. Mayo 1996

creciente (cuando las condiciones iniciales hacen que estas soluciones aparezcan).
Esta última afirmación requiere una comprobación más cuidadosa, pues podrı́an
presentarse otros casos de inestabilidad sin oscilación.
Ejemplo. Sea la ecuación diferencial lineal de coeficientes constantes cuyo
polinomio caracterı́stico es:

p(λ) = λ3 + 5kλ2 + (2k + 3)λ + 10.

Usando el criterio de Routh-Hurwitz se deduce que para k > 1/2 el sistema es


asintóticamente estable. Un análisis más detallado de las raı́ces, muestra que
para k menor que −0.90037 hay tres raı́ces reales, una de ellas negativa y dos
positivas. Para k = −0.90037, las dos raı́ces positivas se convierten en complejas
conjugadas con parte real positiva hasta que k vale 1/2, donde la parte real se
hace cero. A partir de ese momento, la parte real es siempre negativa. Sin
embargo las raı́ces vuelven a ser reales (negativas) cuando k = 46.907. La
tercera raı́z es siempre negativa.
Ejemplo: Consideremos un circuito eléctrico en el que la intensidad verifica
la siguiente ecuación:
I  + 2I  + 5I = 10 cos t.
El polinomio caracterı́stico de la ecuación homogénea es:

p(λ) = λ2 + 2λ + 5

y sus raı́ces son −1 ± 2i, ası́ que el sistema es asintóticamente estable, como
por otra parte podrı́a haberse deducido del criterio de Routh-Hurwitz, pues
2 > 0 y 5 > 0. Una solución particular de la ecuación completa es, como puede
comprobarse fácilmente: √
5 cos(t + φ)
con tan φ = −1/2. Por tanto la solución general de la ecuación completa es:

I(t) = e−t (a1 cos t + a2 sen t) + 5 cos(t + φ)

en donde se observa la suma de dos términos: el régimen transitorio que depende


de las condiciones iniciales y que tiende a cero cuando t tiende a infinito (en este
término aparecen las frecuencias naturales
√ del sistema), y el regimen estacionario
que es una oscilación de amplitud 5 y fase φ, dado por la excitación a la que
se somete el circuito.
No entraremos en más detalles sobre la estabilidad de sistemas lineales.
Cuando estudiemos los sistemas autónomos tendremos ocasión de volver sobre
ellos.
MAR 93

3.14 Ejercicios
1. Hallar las soluciones de los problemas de valores iniciales siguientes y
determinar si son o no estables:
a) x + 2x + 2x = te−t b) x + 2x + 5x = 5t
x(0) = x (0) = 0 x(0) = x (0) = 0, x (0) = 1/5
c) x − 2x + 10x = 0 d) t2 x − 2tx + 2x = log t
x(0) = (0), x (0) = 1, x = −8 x(1) = x (1) = 1
e) t3 x + t2 x − 2tx + 2x = 2t4 f ) tx − (t + 1)x + x = t2 et
x(1) = x (1) = x (1) = 0 x(1) = x (1) = 0

2. Hallar la solución de:


a) x = x − 2y − t b) x = 2x + y c) x = −x − y
 
y = 2x − 3y − t y = 3x + 4te 3t
y  = 2x − y
x(0) = 1, y(0) = 1 x(0) = 1, y(0) = 1 x(0) = 1, y(0) = 2

3. a) Sea A ∈ m2 (IR) y supongamos que x = Ax tiene una solución periódi-


ca no constante. Probar que toda solución es periódica con el mismo
periodo.
b) Sea A ∈ m4 (IR) y supongamos que A es diagonalizable como matriz de
C). Sean ±ia, ±ib los autovalores de A, a > 0, b > 0. Demostrar:
m4 (I
I toda solución de x = Ax es periódica.
i) si ab ∈ Q,
ii) si ab ∈ Q,
I existe una solución no periódica, x(t) tal que M <
x(t) < N , para ciertas constantes M, N > 0.
4. Sea
y  + y = sen ct, c>0
i) Hallar la solución general para todo valor de c.
ii) Estudiar la existencia de soluciones 2π-periódicas para c = 1 y c = 2.
iii) Calcular ȳ(t, c), solución con y(0) = y  (0) = 0 a partir de i).
iv) Comprobar que ȳ(t, c) depende continuamente del parámetro c.
v) Dibujar ȳ(t, 1) e ȳ(t, 2) comparándolas con f (t, 1) y f (t, 2), siendo
f (t, c) = sen ct.
vi) Interpretar fı́sicamente los resultados anteriores.
5. Sea
1
y  + y  + y = sen ct, c > 0.
4
Responder para esta ecuación a las cuestiones i) e ii) del problema anterior.
Determinar la solución periódica y  (t, c) a la que tienen que acercarse
todas las soluciones y escribirla para cada valor de c en la forma y  =
A sen(ct + φ). Estudiar como varı́a A en función de c. ¿Para qué valor de
c se obtiene la amplitud máxima? Interpretarlo fı́sicamente.
94 EDO. Versión 3. Octubre 1995

6. Responder a las cuestiones i), ii), v) y vi) del problema 4 para las ecua-
ciones:
a) y  + y = u πc (t) − u 2π
c
(t) + u 3π
c
(t) − . . .
b) y  + y = δ(t − 2π
c ) + δ(t − 4π
c ) + ...
siendo ua (t) la función paso en a.
7. Encontrar una fórmula para la solución general de y  + y  = f (t). Hallar
dicha solución general si (a) f (t) = 1, (b) f (t) = cos 2t. Estudiar en
cada caso el número de soluciones 2π-periódicas existentes. En general,
para cualquier f (t), 2π-periódicas, dar criterios para determinar el número
de soluciones 2π-periódicas.
8. Hallar la solución general de:
a) x1 = x1 b) x1 = x2 + x3 c) x1 = x1 + x2 + x3
x2 = x1 + 2x2 x2 = x1 + x3 x2 = 2x1 + x2 − x3
x3 = x1 − x3 x3 = x1 + x2 x3 = −x2 + x3

9. Calcular la matriz fundamental canónica (es decir, φ(0) = I) del sistema


asociado a cada una de las siguientes ecuaciones:
a) y  + 2y  + y = 0 b) y  + y  + y  + y = 0
2  
c) 2(t + 1) y + 3(t + 1)y − y = 0

10. Consideremos
   
et t2
x1 (t) = y x2 (t) =
et 2t

Calcular su wronskiano. ¿Pueden ser x1 y x2 soluciones de un sistema


homogéneo de ecuaciones diferenciales lineales? ¿Qué se podrı́a afirmar
sobre los coeficientes de tal sistema? Encontrarlo explı́citamente.
11. Encontrar una matriz 2 × 2, A, tal que
 2t 
e − e−t
x(t) =
e2t + 2e−t

sea solución de x = Ax
12. Sea T : IRn → IRn operador lineal invertible y c ∈ IRn . Probar que
existe un cambio de coordenadas de la forma x = P y + b, x, y, b ∈
IRn , P ∈ mn (IR) tal que la ecuación x = T x + c se transforma en
y  = Sy. Encontrar P , b y S. Resolver

x1 = x2
x2 = 2 − x1
directamente y usando el cambio anterior.
MAR 95

13. Estudiar existencia y unicidad, hallar la solución particular que se pide


y estudiar su estabilidad, comprobar la dependencia continua de valores
iniciales de las ecuaciones:
a) (1 + x2 )y  + 2xy  − 2/x3 = 0 b) 2xy  y  = (y  )2 − 1
y(1) = 1, y  (1) = −1 y(1) = y  (1) = 1

14. Supongamos que y1 es una solución de y  + a(t)y  + b(t)y = 0 con y1 (t) =


0, ∀t. Encontrar y2 , solución linealmente independiente de y1 , usando la
fórmula de Abel-Liouville y la relación:
 
y2 W (y1 , y2 )
= .
y1 y12

Aplicar lo anterior a:

t2 y  − t(t + 2)y  + (t + 2)y = 0

sabiendo que y = t es una solución.


15. Resolver x2 (x + 3)y  − 3x(x + 2)y  + 6(1 + x)y  − 6y = 0 sabiendo que
y1 (x) = x2 es solución de la ecuación.
16. Resolver los sistemas del problema 2, convirtiéndolos cada uno en una
ecuación de orden 2, tras eliminar alguna de las dos variables entre las dos
ecuaciones.
17. Si una solución y(x) de una ecuación lineal de orden 2, homogénea en un
intervalo [a, b] es tangente al eje x en cualquier punto de ese intervalo,
entonces deberá ser idénticamente 0. ¿Por qué? Si y1 (x) e y2 (x) son dos
soluciones en [a, b] y tienen un cero común en ese intervalo, demostrar que
una es múltiplo constante de la otra.
18. Se considera la ecuación: ty  + ay  = 1, a ∈ IR.
a) Calcular la solución particular ya (t) que verifica ya (1) = 0, ya (1) = 0
para todo valor de a. ¿Es ya (t) función continua de a?
b) Discutir la estabilidad de la función ya (t).
19. El estudio del movimiento de dos osciladores acoplados conduce a un sis-
tema de la forma:
x + cx + a2 x + y = 0
y  + cy  + a2 y + x = 0
a) Determinar qué condiciones deben verificar las coeficientes a y c para
que el sistema sea asintóticamente estable.
b) Calcular para a = 1 y c = 0 la solución del sistema que satisface
x(0) = 1, x (0) = 0, y(0) = 1, y  (0) = 0. ¿Es estable esta solución?
96 EDO. Versión 4. Mayo 1996
Tema 4

La transformada de Laplace

4.1 Introducción y definiciones


La transformación de Laplace es una transformación integral que permite re-
solver ecuaciones (y sistemas) diferenciales lineales con coeficientes constantes,
convirtiendo la ecuación diferencial en una algebraica. Su aplicación es funda-
mental en el estudio de circuitos eléctricos y dispositivos de control, pues permite
analizar con facilidad la respuesta del sistema a diferentes impulsos ası́ como
su estabilidad. Incorpora las condiciones iniciales directamente en la solución y
puede usarse cuando algunas de las funciones que aparecen en la ecuación son
no continuas o distribuciones.
Definición 4.1 Sea f (t) una función de variable real, definida en el semieje
positivo t ≥ 0, integrable Lebesgue en cualquier intervalo finito. Se define la
transformada de Laplace de f (t), F (s) = L(f )(s), por:
 ∞
F (s) = f (t)e−st dt
0
donde s ∈ C.I La integral se supone definida como una integral impropia en el
lı́mite superior.
Veamos ahora donde converge la integral. Se tienen las siguientes proposi-
ciones:
1. Si la función F (s) converge absolutamente para algún s0 ∈ C,I entonces
converge absolutamente para todo s ∈ C I tal que (s) ≥ (s0 ). Nótese que
basta que converja absolutamente en s0 para que lo haga en toda la recta
vertical que pasa por ese punto. Si solo converge simplemente, puede que
no en toda esa recta se dé la convergencia, como se verá en el teorema
fundamental que sigue.
2. El dominio de convergencia absoluta de F (s) es un semiplano derecho,
cerrado o abierto: (s) ≥ α o (s) > α (donde α puede ser ±∞). En el
segundo caso, la integral no converge en ningún punto con (s) = α.

97
98 EDO. Versión 4. Mayo 1996

Ambos casos pueden presentarse. Por ejemplo, para f (t) = 1, el semiplano


de convergencia es (s) > 0, la integral diverge para todo s con (s) = 0. Para
f (t) = 1/(1 + t), el semiplano de convergencia es (s) ≥ 0.
El siguiente teorema establece la convergencia de la integral de Laplace en
un semiplano derecho:

Teorema 4.1 (Teorema fundamental) Si la integral de Laplace converge en


s0 , entonces lo hace en todo s con (s) > (s0 ). En el borde del semiplano la
convergencia no está asegurada.

Es decir, el dominio de convergencia simple de la integral de Laplace es un


semiplano derecho. Tenemos pues una clase de funciones para las cuales existe
la transformada de Laplace en alguna zona del plano complejo s. Aún sin entrar
en la demostración de estos resultados, dada la estructura de la transformada, si
la convergencia se asegura para s0 , el término exponencial domina en el infinito
a la función f (t) a partir de ese s0 hacia la derecha (en la parte real de s0 ). En
efecto, es posible encontrar una clase de funciones, de orden exponencial, para
las que se tiene el siguiente resultado:

Definición 4.2 Se dice que f (t), definida en [0, ∞) es de orden exponencial, si


existen constantes reales a > 0, y b, tales que:

|f (t)| ≤ aebt , ∀t > 0.

Teorema 4.2 Si f (t) definida en [0, ∞) es de orden exponencial, existe un


único s0 ∈ C,
I tal que la transformada de Laplace converge para (s) > (s0 ) y
diverge para (s) < (s0 ).

El problema inverso es más delicado, pues no toda función es la transformada


de Laplace de otra función. Por ejemplo, una transformada de Laplace no puede
ser periódica. Sin embargo, si existe la transformada inversa, entonces ésta es
única. Con más precisión se tiene el siguiente resultado:

Teorema 4.3 Dos funciones cuyas imágenes por la transformada de Laplace


son iguales en un semiplano derecho, difieren en una función nula casi doquiera,
es decir, son iguales en sentido Lebesgue.

En cuanto a la manera de encontrar la transformada inversa, enunciaremos


a continuación el teorema de inversión que permite este cálculo bajo ciertas
condiciones, aunque su aplicación es en general complicada.

Teorema 4.4 (Teorema de inversión) Supongamos que la transformada de


Laplace de una función f (t) es F (s), que converge absolutamente en un semi-
plano derecho (s) ≥ x0 . Entonces, la fórmula de inversión que sigue, se verifica
en todos los puntos t > 0 en los que f (t) es de variación acotada en un entorno
de t. En ella, V.P. representa el valor principal de Cauchy:
 x+iω
1 1
[f (t+ ) + f (t− )] = V.P. est F (s)ds, cuando x ≥ x0
2 2πi x−iω
MAR 99

En el punto t = 0+ , si f (t) es de variación acotada en un entorno a la derecha


de 0 se tiene:
 x+iω
1 1
f (0+ ) = V.P. F (s)ds, cuando x ≥ x0
2 2πi x−iω

Finalmente, cuando t < 0, se tiene:


 x+iω
1
V.P. est F (s)ds = 0, cuando x ≥ x0
2πi x−iω

Nótese que las fórmulas anteriores no dependen de x mientras satisfaga las


restricciones que se indican.
La transformada de Laplace es una función muy regular en su variable s.
Concretamente se tiene el siguiente resultado:

Teorema 4.5 Una transformada de Laplace es una función analı́tica en el


semiplano de convergencia. Las derivadas se obtienen derivando bajo el signo
integral:
 ∞
dn dn
L(f )(s) ≡ n F (s) = (−1)n
e−st tn f (t)dt = (−1)n L(tn f (t))(s)
dsn ds 0

El semiplano de convergencia de la integral de Laplace, (s) > α, no es


necesariamente el mayor dominio donde la transformada de Laplace es analı́tica.
En general se tiene que L(f )(s) es analı́tica en (s) > β, donde β ≤ α.
Ejemplo. Consideremos la función paso en t = 0, u0 (t), definida como:

1 t≥0
u0 (t) =
0 t<0

Su transformada de Laplace es inmediata de calcular:


 ∞  ∞
−st 1 −st 1
L(u0 ) = u0 (t)e dt = − e =
0 s 0 s

4.2 Propiedades
El cálculo de transformadas de Laplace puede ser complicado para funciones ge-
nerales. Sin embargo, existen propiedades que facilitan ese cálculo y la consulta
de las tablas donde se encuentran las tranformadas de Laplace de las funciones
más usuales.

4.2.1 Homotecias y traslaciones


Supondremos que todas las funciones que aparecen admiten transformada de
Laplace en alguna región del plano complejo.
100 EDO. Versión 4. Mayo 1996

Sea a > 0, y f (t) una función definida en t ≥ 0. Entonces:


1 s
L(f (at))(s) = L(f (t))( ).
a a
Sea b > 0 y f (t) definida para todo t ≥ 0. Consideremos la función g(t)
trasladada de la función f (t): g(t) = f (t − b) para todo t ≥ b, o si se quiere,
g(t) = f (t − b)u(t − b), donde u(t − b) = ub (t) es la función paso con salto en b,
es decir, la función que vale cero para t < b y 1 para t ≥ b. Entonces:

L(f (t − b)u(t − b)) = L(g) = e−bs L(f ).

Para una traslación y homotecia simultáneas, se tiene la igualdad:


b 1 s
L(f (at − b)u(t − ))(s) = e−(b/a)s L(f (t))( ).
a a a
Si la homotecia y traslación se hacen en la función transformada, se tiene:
trans.inversa 1 −(d/c)t t
F (cs + d) −→ e f( )
c c
donde c > 0, d ∈ C,
I y f (t) es la transformada inversa de F (s). La demostración
de estas propiedades es muy sencilla pues basta aplicar la definición. Por ejem-
plo:  ∞
b b
L(f (at − b)u(t − ))(s) = u(t − )f (at − b)e−st dt
a 0 a
 ∞ s
1 1
= f (τ )e−s(τ +b)/a dτ = e−bs/a L(f (t))
a 0 a a
pues a, b > 0 y se supone que f (t) es cero para t < 0.
Ejemplo. La anterior propiedad permite calcular muchas transformadas de
Laplace. Por ejemplo:

e−bs
L(ub (t)) = L(u0 (t − b)) = e−bs L(u0 (t)) = .
s
La propiedad que relaciona la transformada inversa con la de su trasla-
dada, permite hallar la transformada de Laplace de la exponencial (caso tambien
fácilmente resoluble directamente):

e−dt f (t)
transf.inversa
F (s + d) −→

tomando f (t) = u0 (t), se tiene:


1
e−dt u0 (t)
transf.inversa
−→
s+d
es decir, la transformada de eat , considerando que la función vale cero para t < 0
es:
1
L(eat ) =
s−a
MAR 101

Téngase en cuenta que la transformada ası́ definida no converge en todo el


plano complejo. En concreto, la transformada tiene un polo en s = a, pero
en el semiplano (s) > a no presenta ninguna dificultad. Véase la definición
de funciones de orden exponencial y el teorema sobre la convergencia de las
transformadas de Laplace para esta clase de funciones.
Ampliando las definiciones a funciones que toman valores complejos (lo que
no representa ninguna dificultad adicional) podemos hallar la transformada de
Laplace del seno:

i  i 1 1 a
L(sen(at)) = − L(eiat ) − L(e−iat ) = − [ − ]= 2 .
2 2 s − ia s + ia s + a2

El siguiente ejemplo muestra una aplicación de la derivación con respecto


a un parámetro (aunque obviamente, el método directo usando la definición es
igual de sencillo). Veamos como se puede calcular la transformada de Laplace
de f (t) = t:
   
∂ at ∂ 1 1
L(te ) = L
at
e = =
∂a ∂a s − a (s − a)2

tomando a = 0 se tiene:
1
L(t) =
s2
donde, como anteriormente, se entiende la transformada de tu0 (t). El inter-
cambio de la transformada con la derivación parcial respecto al parámetro a, es
correcto en este caso.

4.2.2 Derivadas e integrales


La integración y derivación de funciones tambien se puede estudiar en relación
con la transformada de Laplace, concretamente, el estudio de la transformada
de Laplace de la derivada de una función es fundamental en la aplicación a
ecuaciones diferenciales:
t
Sea g(t) = 0 f (τ )dτ . Si L(f ) converge para s = x0 real positivo, entonces
L(g) converge para s = x0 y se tiene:

1
L(g) = L(f )
s
para s = x0 y por tanto, para (s) > x0 .
En efecto:
 ∞  ∞  t
−st
L(g)(s) = g(t)e dt = ( f (τ )dτ )e−st dt
0 0 0

  t ∞ 
1 ∞ 1
= e−st f (τ )dτ + f (t)e−st dt = L(f ).
0 0 s 0 s
102 EDO. Versión 4. Mayo 1996

Ejemplo: Esta propiedad puede utilizarse para calcular la transformada de


t2 (o cualquier potencia de t). La integral de t es t2 /2, por tanto:
 2
t 1 1
L = L(t) = 3
2 s s
es decir:
2
L(t2 ) =
.
s3
Se puede demostrar siguiendo este razonamiento (o las derivaciones paramé-
tricas anteriores, o simplemente haciendo la integral de la definición) que:
n!
L(tn ) = .
sn+1
En cuanto a la derivación el resultado es el siguiente. Téngase en cuenta
que la derivada no necesita existir para t = 0. Necesitamos que exista el lı́mite
de f (t) cuando t tiende a cero por la derecha, pero éso es una consecuencia de
las hipótesis que se establecen. Entonces, si f (t) es diferenciable para t > 0 y
L(f  ) converge para algun real x0 > 0, el lı́mite f (0+ ) existe y L(f ) converge
para s = x0 . En cuanto a la transformada de Laplace de la derivada se tiene:

L(f  ) = sL(f ) − f (0+ ), para s = x0 y por tanto (s) > x0 .

La transformada L(f ) es absolutamente convergente para (s) > x0 .


En general se tiene:
Si f es n veces derivable para t > 0 y L(f (n) ) converge para algun real
x0 > 0, entonces existen f (0+ ), f  (0+ ), . . . , f (n−1) (0+ ), y L(f ) converge para
s = x0 . Además:

L(f (n) ) = sn L(f ) − f (0+ )sn−1 − f  (0+ )sn−2 − · · · − f (n−1) (0+ )

y las transformadas L(f ), L(f  ), . . . , L(f (n−1) ) son absolutamente convergentes


para (s) > x0 .
La demostración es inmediata y basada en una integración por partes. Con-
sideremos el caso n = 1:
 ∞
L(f  ) = f  (t)e−st dt
0
 ∞
 ∞
= f (t)e−st 0 + s f (t)e−st dt = sL(f ) − f (0+ ).
0

Aunque la derivada de f no exista, si podemos encontrar una función f (1)


que verifique:  t
f (t) = f (0+ ) + f (1) (τ )dτ
0

la relación entre las transformadas de Laplace de f y f (1) es la misma que entre


las de una función y su derivada.
MAR 103

En cuanto a la derivada de una transformada se tiene:


transf.inversa
F (n) (s) −→ (−t)n f (t).
Ejemplo: Calculemos la transformada del coseno, usando la del seno hallada
antes:
1 d 1 s
L(cos at) = L( sen at) = (sL(sen at)) = 2
a dt a s + a2
pues el seno de cero es cero.

4.3 Convolución
Dadas dos funciones f1 (t) y f2 (t) satisfaciendo determinadas condiciones, es
posible construir una tercera función, conocida como la convolución de las dos
primeras, definida de la siguiente manera:
 t
f1 I f2 (t) = f1 (τ )f2 (t − τ )dτ.
0

Consideremos la clase de funciones K0 , funciones definidas en [0, ∞), absolu-


tamente integrables, acotadas en todo intervalo finito que no incluya al origen.
Entonces, si f1 , f2 pertenecen a K0 , el producto de convolución de f1 y f2
está definido. La importancia de esta operación en la transformada de Laplace
aparece en el siguiente teorema:
Teorema 4.6 Si f1 y f2 pertenecen a la clase K0 y L(f1 ), L(f2 ) convergen
absolutamente para s = s0 , entonces la transformada de Laplace del producto de
convolución, L(f1 I f2 ), también converge absolutamente para s = s0 y es igual
al producto de transformadas de f1 y f2 :
L(f1 I f2 ) = L(f1 )L(f2 ) para (s) ≥ (s0 ).
Como veremos mas adelante, en el cálculo de transformadas inversas juega
un papel fundamental la descomposición en fracciones simples de una función
racional. Veamos como se puede encontrar la transformada inversa de uno de los
posibles sumandos de esta descomposición en fracciones simples, sin necesidad
de usar las raı́ces complejas, a través del producto de convolución:
1 1 1
L−1 ( ) = L−1 ( 2 )
(s2 + 1)2 s + 1 s2 + 1
1 1
= L−1 ( 2 ) I L−1 ( 2 ) = (sen t) I (sen t)
s +1 s +1
ahora bien, la convolución del seno consigo mismo es:
 t 
1 t 1 1
sen τ sen(t − τ )dτ = [cos(t − 2τ ) − cos τ ]dτ = sen t − t cos t.
0 2 0 2 2
Veremos otras aplicaciones del producto de convolución cuando estudiemos
la transformada de Laplace en las ecuaciones diferenciales.
104 EDO. Versión 4. Mayo 1996

4.4 Transformada de Laplace de distribuciones


Una de las ventajas que presenta el uso de transformadas de Laplace es la posibil-
idad de aplicarla a ecuaciones diferenciales en las que aparezcan distribuciones.
Por ejemplo, si la excitación de un circuito es una señal de poca duración es
posible en ocasiones asimilarla a una delta de Dirac (al igual que la función paso
de Heaviside lo hace con una señal de tipo escalón). Nos limitaremos a definirla
para distribuciones con soporte en la semirrecta real positiva (incluido el cero)
y que sean una derivada de orden n de una función continua. Esto permite una
definición sencilla que no presenta dificultades conceptuales.

Definición 4.3 Sea T una distribución con soporte en IR+ ∪ {0}, tal que existe
una función continua h(t), con h(t) = 0 para t < 0, que verifica:

dk h
T =
dtk
para algún k. Las derivadas se entienden en sentido de distribuciones. Se define
la transformada de Laplace de la distribución T como:

L(T ) = sk L(h).

Si T es una función, la definición coincide con la dada anteriormente, pues


h y sus derivadas hasta orden k − 1 deben anularse en t = 0 para poder derivar
en el sentido usual. Las transformadas de distribuciones se comportan frente a
las derivaciones de la forma siguiente, si D es el operador de derivación:

L(Dn T ) = sn L(T )

que es la misma expresión dada para funciones. En efecto, sea f (t) una función
que vale cero para t < 0. Entonces f (t) = u0 (t)g(t), donde g(t) es una función
derivable n veces en sentido clásico. La primera derivada de f en sentido de
distribuciones es:
Df = u0 (t)g  (t) + δ0 g(0).
De forma similar se calcula la segunda derivada:

D2 f = u0 (t)g  (t) + δ0 g  (0) + δ0 g(0)

hasta llegar a la derivada de orden n:

Dn f = u0 (t)g (n) (t) + δ0 g (n−1) (0) + δ0 g (n−2) (0) + · · · + δ0


(n−1)
g(0).

Como las transformadas de la distribución δ y de sus derivadas son iguales a


1, s, s2 , . . . se tiene:

L(u0 g (n) ) = sn L(f ) − g (n−1) (0) − sg (n−2) (0) − · · · − sn−2 g  (0) − sn−1 g(0)

que es la relación que obtuvimos anteriormente.


MAR 105

4.5 Aplicación de la transformada de Laplace a


las ecuaciones diferenciales lineales de coe-
ficientes constantes
Supongamos una ecuación diferencial:
Lx = f (t)
con datos iniciales x(0) = x0 , . . .. Las condiciones iniciales en estos problemas
se entienden en el sentido de lı́mites por la derecha, es decir, una solución las
satisface cuando:
lim x(t) = x(0+ ) = x0
t→0+

y de forma similar para las derivadas. El operador L es lineal de coeficientes


constantes. Para poder aplicar la técnica de la transformada de Laplace es
necesario exigir a la función f (t) algunas propiedades de regularidad. En el
sentido de distribuciones se puede también aplicar dicha transformación (en las
condiciones que antes establecimos en la definición de transformada de Laplace
de una distribución).
Supondremos que la función f (t) es continua en t > 0 salvo posiblemente
en puntos aislados donde tiene una discontinuidad de salto (continua a trozos).
Además para poder aplicar la convolución, pediremos que esté en la clase de
funciones K0 . La técnica consiste simplemente en suponer que la solución y sus
derivadas admiten transformadas de Laplace, calcular a partir de la ecuación
la transformada de Laplace de la solución y hallar su transformada inversa. Es
decir, la ecuación diferencial se reduce a una ecuación algebraica, de solución
inmediata. En el caso de sistemas, se tiene un sistema de ecuaciones algebraicas
lineales. Si p(λ) es el polinomio caracterı́stico de la ecuación, es inmediato
comprobar que:
L(Lx) = p(s)L(x) − q(s)
donde q(s) es un polinomio de grado n − 1 (si n es el orden de L), cuyos
coeficientes son función de los valores iniciales de la solución buscada:
q(s) = cn−1 sn−1 + cn−2 sn−2 + · · · + c1 s + c0
consecuencia inmediata de como se transforman las derivadas. Si llamamos
X(s) a la transformada de Laplace de x(t), y F (s) a la de f (t), se tiene:
p(s)X(s) = F (s) + q(s)
llamando G(s) = 1/p(s), función de transferencia del sistema:
X(s) = G(s)F (s) + G(s)q(s)
y si consideramos las condiciones iniciales nulas, para estudiar la respuesta del
sistema a la excitación f (t), se tiene:
X(s) = G(s)F (s)
106 EDO. Versión 4. Mayo 1996

que nos da la salida, X(s), como una función de la señal de entrada F (s).
La solución de este problema es muy sencilla de obtener, pues basta aplicar
las propiedades de la convolución que ya estudiamos:

x(t) = g(t) I f (t)

donde g(t), la función de Green causal del sistema, es la transformada inversa


de G(s). No siempre la convolución es lo más sencillo. A veces es mejor hacer
el producto de G(s) por F (s) y despues calcular la transformada inversa.
En este tipo de productos suelen aparecer cocientes de polinomios en s.
Para calcular la transformada inversa es aconsejable descomponerlo en frac-
ciones simples y luego calcular la inversa de cada fracción. Los coeficientes de
esas fracciones son:
1. si m(s)/p(s) es un cociente de polinomios con grado(m) < grado(p) y
m(s), p(s) no tienen ceros comunes, si α es un cero simple de p(s), el
coeficiente aα de la fracción cuyo denominador es (s−α), se puede calcular
por:
m(α)
aα = 
p (α)
2. si α es un cero múltiple, con multiplicidad r, los coeficientes ak de las
fracciones de denominadores (s − α)k , k = 1, 2, . . . , r son:
 r−k 
1 d r−k m(s)
ak = (s − α) .
(r − k)! dsr−k p(s) s=α

4.6 Respuesta de una sistema a distintas excita-


ciones externas
Consideremos un sistema cuya función de transferencia es G(s), y al que se
aplica una señal de tipo escalón. Supuestas las condiciones iniciales nulas, la
respuesta del sistema es:
 t  t
x(t) = u(t − τ )g(τ )dτ = g(τ )dτ
0 0

Cuando la señal aplicada es sinusoidal, representándola por una exponencial


compleja:
A
f (t) = Aeiωt → F (s) =
s − iω
la salida es:
A
X(s) =
(s − iω)p(s)
o aplicando la convolución:
 t
x(t) = A eiωt g(t − τ )dτ
0
MAR 107

dependiendo del polinomio p(s) la respuesta puede ser sinusoidal o el sistema


puede entrar en resonancia, si alguna de sus frecuencias naturales coincide con
ω.
En el caso en que la señal de entrada sea una δ de Dirac, la salida es justa-
mente la función de Green (o la función de transferencia en el dominio temporal)
pues L(δ) = 1.
Ejemplo. Sea la ecuación diferencial x + 2x + 5x = f (t), donde f (t) es la
función: 
t/c 0 ≤ t ≤ c
f (t) =
1 c≤t
Aplicando transformadas de Laplace, la ecuación se convierte en:

(s2 + 2s + 5)X(s) = F (s) + [x(0+ )s + x (0+ ) + 2x(0+ )]

siendo x(0+ ) = a, x (0+ ) = b las condiciones iniciales. Despejando X(s):

X(s) = G(s)F (s) + G(s)[a(s + 2) + b]

donde G(s) es la función de transferencia. La parte correspondiente a la ecuación


homogenea, donde aparecen las condiciones iniciales es:
a(s + 2) + b a(s + 1) a+b
2
= +
s + 2s + 5 (s + 1) + 4 (s + 1)2 + 4
2

y por lo tanto su transformada inversa es:


1
ae−t cos 2t + (a + b)e−t sen 2t
2
En cuanto a la parte no homogénea, la solución puede encontrarse con el pro-
ducto de convolución. La transformada inversa de G(s) es:

e−t sen 2t

y por tanto la solución es:


 t
f (τ )e−(t−τ ) sen 2(t − τ )dτ =
0
 t
1
[tu0 (t) − (t − c)uc (t)]e−(t−τ ) sen 2(t − τ )dτ
c 0

Pero también podemos calcular la transformada de la función f (t), hacer el


producto con G(s) y hallar la transformada inversa:
1 1
f (t) = [tuo (t) − (t − c)uc (t)] → 2 (1 − e−cs )
c cs
por tanto:
 
1 − e−cs 1 − e−cs 5 2 2s − 1
G(s)F (s) = 2 2
= − +
cs (s + 2s + 5) 25c s2 s (s + 1)2 + 4
108 EDO. Versión 4. Mayo 1996

y la transformada inversa es:


1 3
[u0 (t)(5t − 2 + e−t (2 cos 2t − sen 2t))
25c 2
3
−uc (t)(5(t − c) − 2 + e−(t−c) (2 cos 2(t − c) − sen 2(t − c)))]
2
es decir:
1 3
(5t − 2 + e−t (2 cos 2t − sen 2t)) 0 ≤ t ≤ c
25c 2
1 3
[5c + e−t (2 cos 2t − sen 2t)
25c 2
3
−e−(t−c) (2 cos 2(t − c) − sen 2(t − c))] c≤t
2
además de la parte que incluye las condiciones iniciales.
Si c tiende a cero, la solución es la respuesta del sistema a una función escalón
en el origen:
1 1
x(t) = [e−t (a cos 2t + (a + b) sen 2t) + ]u0 (t)
2 5
Ejemplo. Consideremos un circuito eléctrico en el que aparecen elementos
pasivos como resistencias, condensadores e inductancias, y fuentes de tensión.
Analicemos como se calculan las transformadas de Laplace correspondientes a
estos elementos.
Dada una resistencia R, la caı́da de tensión, en términos de transformadas
de Laplace es RI(s) donde I(s) es la transformada de la intensidad que recorre
la resistencia.
Cuando se tiene una inductancia L, la caı́da de tensión es:
di
L → sLI(s) − Li(0− )
dt
es decir aparece un término sLI(s), más otro correspondiente a la intensidad
que en el instante inicial recorrı́a la bobina y que se puede interpretar como una
fuente de tensión de magnitud Li(0− ) y con el signo + en el borne opuesto a
aquel por el que entra la corriente i(0− ).
En el caso de un condensador, C, la caı́da de tensión en el borde viene dada
por: 
dv i(t) 1 t
= ⇒ v(t) − vc (0− ) = i(τ )dτ
dt C C 0
y por lo tanto al hacer una transformada de Laplace, se obtiene:
1 1
I(s) + vc (0− )
sC s
es decir, tenemos un término debido a la caı́da de tensión en el condensador más
otro término debido al potencial inicial entre las placas del condensador. El signo
+ se coloca en esta fuente en el mismo lugar que estaba en el condensador.
MAR 109

En cuanto a los signos, se supone que la caı́da de tensión es negativa cuando


la corriente en la malla correspondiente entra en la fuente de tensión por el
borne contrario al marcado con el signo +. No siempre son las intensidades
las variables más adecuadas. Muchas veces es preferible tomar la caı́da de
tensión entre las placas de los condensadores y las intensidades que atraviesan
las bobinas como variables. Si el circuito tiene otros elementos distintos de
estos, las ecuaciones que rigen las caracterı́sticas de la corriente pueden ser más
complicadas (no lineales etc. . . ). Veamos en un ejemplo como aplicar estos
resultados.

Fig.1 Fig.2

Consideremos el circuito de la figura 1, en el que los datos iniciales son:


intensidad en la bobina: iL (0− ) = a
potencial en el condensador: vC (0− ) = b.
El circuito transformado aparece en la figura 2. En la primera malla la
ecuación es:
1 b
−V (s) + sLI1 (s) − aL + (I1 (s) − I2 (s)) + = 0
sC s
en la segunda malla se tiene:
1 b
RI2 (s) + (I2 (s) − I1 (s)) − = 0
sC s
donde I1 (s), I2 (s) son las intensidades que recorren ambas mallas en el sentido
especificado en la figura. V (s) es la tensión del generador. El sistema se puede
escribir como:
1 1 b
(sL + )I1 − I2 = V (s) + aL −
sC sC s
1 1 b
− I1 + (R + )I2 =
sC sC s
El determinante de la matriz de coeficientes es:
 
2 s 1
RLsp(s) = RLs s + + .
RC LC
Si se considera a V (s) como la señal de entrada al circuito, se puede pensar
en la caı́da de tensión en la resistencia R como la salida:

W (s) = RI2 (s)


110 EDO. Versión 4. Mayo 1996

pero I2 (s) puede calcularse rápidamente del sistema:


(1/RCL)
I2 (s) = (V (s) + bLCs + aL)
s2 + (1/RC)s + (1/LC)
Consideremos que las condiciones iniciales a, b, son nulas. Usando la defini-
ción de p(s) dada anteriormente y poniendo G(s) = p(s)−1 :
1
I2 (s) = G(s)V (s)
RCL
es decir:
1
W (s) =
G(s)V (s)
LC
Los polos de G(s) tienen la parte real negativa (como se puede ver aplicando
Routh-Hurwitz al polinomio p(s)). Por tanto la parte de la solución corre-
spondiente a las condiciones iniciales tiende a cero cuando t tiende a infinito.
Supongamos ahora que la entrada es una función escalón:
v(t) = Au0 (t)
donde A es una constante. Esto introduce un polo en s = 0 en la transformada
de la función de salida. Al separar en fracciones simples, la única parte que
queda cuando t tiende a infinito es la correspondiente a este polo, es decir la
salida es igual a la entrada cuando t se hace infinito. Lo cual es obvio observando
el circuito.
Supongamos que en ciertas unidades R, L y C son iguales a 1, y que la
entrada es 10u0 (t). Las raı́ces del polinomio p(s) son:

1 i 3
p(s) = s + s + 1, − ±
2
2 2
por tanto, W (s) viene dado por:

10 10 10(s + 12 ) 5
2
= − 1 2 3 − 1 3
s(s + s + 1) s (s + 2 ) + 4 (s + 2 )2 + 4

y la transformada inversa es:


20
w(t) = 10 − √ e−t/2 sen(ωt + φ), ∀t ≥ 0
3

donde la frecuencia es ω = 3/2 y la fase es φ = π/3. La intensidad que recorre
la segunda malla es w(t)/R. La intensidad en la primera es:
(RCs + 1)/RCL [(RCs + 1)aL − bRC]/RCL
I1 (s) = V (s) +
s2 + (s/RC) + (1/LC) s2 + (s/RC) + (1/LC)
Con los datos anteriores:
10(s + 1) 10 10s
I1 (s) = = −
2
s(s + s + 1) s (s + 12 )2 + 3
4
MAR 111

y la transformada inversa es:


20
i1 (t) = 10 + √ e−t/2 sen(ωt − φ), ∀t ≥ 0
3
Nótese que tanto i1 como i2 tienden a 10 cuando t tiende a infinito.
112 EDO Versión 3. Octubre 1995

4.7 Ejercicios
1. Resolver: 
  t+1 0≤t≤1
y +y =
3−t 1≤t
con y(0) = −1, y  (0) = 0.

2. Resolver: y  +2cy  +y = δ(t−1), c ≥ 0 cte. y(0) = y  (0) = 0 distinguiendo


los casos c < 1, c = 1, y c > 1.
Escribir el resultado para c = 0, prescindiendo de funciones paso, dibujar
la solución y comentarla fı́sicamente.

3. Resolver por transformadas de Laplace, los problemas 1 (los de coeficientes


constantes) , 2 y la parte a) del 7 de los ejercicios del capı́tulo 3.

4. Considerar el circuito siguiente:

Fig.3

en el que en t = 0 hay una carga en el condensador Q0 = 10−6 cul. En


t = 0 se cierra el interruptor. Calcular la variación de la intensidad con el
tiempo, con R = 3 × 10−2 Ω, L = 0.2h., C = 10−5 f.

5. Se tiene el circuito indicado en la figura:

Fig.4

donde U (t) es una fuente de tensión.

a) Escribir el sistema de ecuaciones diferenciales que verifican las inten-


sidades y tensiones en el circuito.
b) Escribir la ecuación diferencial que relaciona la caı́da de tensión en la
resistencia R con la tensión de la fuente U (t).
c) Estudiar la estabilidad del circuito.
MAR 113

d) Supongamos que la tensión de entrada es U (t) = Aeiωt , con A=cons-


tante. Demostrar que el circuito es un filtro paso baja, que no altera
apreciablemente las frecuencias (ω) bajas y atenúa considerablemente
las altas.
e) Construir un circuito más sencillo que el dado pero con sus mismas
caracterı́sticas: estabilidad y atenuación de frecuencias altas.
f ) Construir un circuito que atenúa las frecuencias bajas.
g) Calcular
√ en los caso e) y f) la frecuencia a la cual la amplitud de salida
es 1/ 2 la de entrada.

6. a) Resolver y  + 2y  + 2y = δ(t − π) mediante transformadas de Laplace.


b) Probar, sin utilizar transformada de Laplace, que la solución de y  +
2y  + 2y = f (t), y(0) = y  (0) = 0 es
 t
y(t) = e−(t−s) f (s) sen(t − s)ds
0

y comprobar, haciendo f (t) = δ(t − π), que se obtiene la solución


calculada en a) para y(0) = y  (0) = 0.

7. a) Consideremos la ecuación integral de Volterra


 t
y(t) + k(t − s)y(s)ds = f (t)
0

donde f y k son conocidas y hay que determinar y. Tomando trans-


formadas de Laplace de la ecuación obtener una expresión para L(y)
en términos de L(f ) y L(k). La transformada inversa de L(y) es la
solución de la ecuación integral original.
b) Consideremos
 t
y(t) + (t − s)y(s)ds = sen 2t
0

i) Resolverla utilizando transformadas de Laplace.


ii) Comprobar que es equivalente al problema:

y  + y = −4 sen 2t; y(0) = 0; y  (0) = 2.

Resolver este problema y verificar que la solución es la misma


que la obtenida en i).

8. En el circuito de la figura se cambia el interruptor de la posición 1 a la


2 en t = 0− . En t = 0 las condiciones iniciales eran: iL (0− ) = 2 Amp.,
vC (0− ) = 2 volt. Hallar i(t) para t > 0 usando transformadas de Laplace.
v1 (t) = 5 volt. R = 3Ω. L = 1h. C = 1/2f .
114 EDO Versión 3. Octubre 1995

Fig.5

9. Hallar la solución de y  − y  = fn (t), y(0) = y  (0) = 0 con:



0 si 0 ≤ t < 1
fn (t) =
nen−nt si t ≥ 1

Estudiar lo que sucede cuando n → ∞.

10. Resolver:
 
x = −y + f (t) x(0) = −e 0 si 0 ≤ t < 1
con f (t) =
y  = x − 2y y(0) = 0 t si t ≥ 1
Tema 5

Soluciones en forma de serie

5.1 Introducción
Supongamos que queremos calcular las soluciones de x + x = 0 en un entorno
del origen. Si éstas admiten un desarrollo en serie de Taylor que converge en
un entorno de t = 0, podemos pensar en calcular dicho desarrollo sustituyendo
una serie de potencias en la ecuación y hallando los coeficientes de esta serie.
Tomemos entonces:

x(t) = an tn
n=0

e introduzcamos la serie en la ecuación. Para ello necesitamos que la serie se


pueda derivar término a término. Si la solución es analı́tica en un entorno de
cero, esto se puede hacer sin problemas tantas veces como queramos. Supong-
amos por ahora que es posible. De esta forma:



n(n − 1)an tn−2 + an tn = 0.
n=0 n=0

Podemos cambiar el ı́ndice de la primera suma, para colocar ambos términos


bajo el mismo sı́mbolo de suma:



n
(n + 2)(n + 1)an+2 t + an tn = 0
n=0 n=0

y por tanto:


[(n + 2)(n + 1)an+2 + an ]tn = 0.
n=0

Los coeficientes de esta serie, puesto que se suponen válidas todas las opera-
ciones debido a la analiticidad de las series, deben ser cero:

(n + 2)(n + 1)an+2 + an = 0, n ≥ 0.

115
116 EDO. Versión 4. Mayo 1996

Esta ecuación (en diferencias finitas) se llama relación de recurrencia entre los
coeficientes de la serie que representa la solución. En este caso se puede resolver.
Despejando:
1
an+2 = − an , n ≥ 0
(n + 2)(n + 1)
cuya solución se calcula fácilmente:
(−1)n (−1)n
a2n = a0 , a2n+1 = a1 , n ≥ 0
(2n)! (2n + 1)!
donde a0 y a1 son arbitrarios, por lo que obtenemos dos soluciones independien-
tes:
∞ ∞
(−1)n 2n (−1)n 2n+1
x1 (t) = t , x2 (t) = t
n=0
(2n)! n=0
(2n + 1)!
la primera verificando x1 (0) = 1, x1 (0) = 0, y la segunda x2 (0) = 0, x2 (0) = 1.
El radio de convergencia de estas series es infinito como se puede comprobar
utilizando el criterio del cociente:
a2n t2n (2n + 2)! −2
=− t = −(2n + 2)(2n + 1)t−2
a2n+2 t2n+2 (2n)!
que tiende a ∞ cuando n tiende a ∞ para cualquier t fijado (para la otra serie
se obtiene lo mismo). Está claro en este caso que estas dos series representan
el coseno y el seno de t respectivamente, soluciones de la ecuación como ya
sabı́amos. La sencillez del cálculo expuesto no debe engañar sobre la situación
general. No es obvio que siempre existan soluciones desarrollables en forma de
serie en el entorno de cualquier punto. Tampoco es obvio que las relaciones
de recurrencia lleven a soluciones para los coeficientes de forma sencilla. Final-
mente, este caso, en el que la serie converge en toda la recta, no es general. En lo
que sigue trataremos de dar criterios para saber cuando existen estos desarrollos
en serie y como se pueden calcular.

5.2 Ecuaciones diferenciales lineales de segundo


orden
Aunque muchas de las ideas que se desarrollarán son válidas para ecuaciones
de orden arbitrario, nos limitaremos al caso de orden 2. Desde el punto de
vista de aplicaciones, éste es uno de los casos más interesantes y que se presenta
con mayor frecuencia. Las ecuaciones no lineales no son tratables en general
por estos métodos, debido a que las relaciones de recurrencia, en el caso de
que existan, son demasiado complicadas. Consideremos por tanto la siguiente
ecuación:
R(t)x + P (t)x + Q(t)x = 0
donde R(t), P (t) y Q(t) son funciones de t a las que se someterá a diversas
restricciones. Queremos calcular las soluciones de esta ecuación mediante de-
sarrollos en serie válidos en un entorno de un punto t0 . De acuerdo con los
MAR 117

teoremas de existencia y unicidad estudiados, si R(t), P (t) y Q(t) son contin-


uas en un entorno de t0 y R(t) no se anula en t0 , existirá una única solución
satisfaciendo unas determinadas condiciones iniciales. Si dividimos por R(t) la
ecuación es ahora:
x + p(t)x + q(t)x = 0.
Puesta de esta forma, la condición suficiente para la existencia y unicidad de
la solución es la continuidad de p(t) y q(t). Sin embargo, para poder hacer
desarrollos en serie, exigiremos más propiedades a estas funciones. De acuerdo
con ellas, los puntos se clasifican de la siguiente forma:

Definición 5.1 Se dice que t0 es un punto ordinario para la ecuación:

x + p(t)x + q(t)x = 0

si p(t) y q(t) son analı́ticas en un entorno de t0 . En caso contrario, se dice que


t0 es un punto singular.

Ejemplo: Está claro que en la ecuación anterior t0 = 0 es un punto ordinario.


Ejemplo: El punto t0 = 0 es un punto ordinario para la ecuación:

(1 − t2 )x − 2tx + α(α + 1)x = 0

En cambio, los puntos t0 = 1 y t0 = −1 son singulares.


Ejemplo: En la ecuación t2 x − 2tx + 2x = 0, t0 = 0 es un punto singular.
Los coeficientes p(t) = −2/t y q(t) = 2/t2 no son analı́ticos en 0. Aun ası́, todas
las soluciones de esta ecuación son analı́ticas en t0 = 0, e incluso en toda la
recta: son combinaciones lineales de x1 (t) = t y x2 (t) = t2 . Pero las soluciones
de 4t2 x + 4tx − x = 0 no son analı́ticas en t0 = 0: son combinaciones lineales
de t1/2 y t−1/2 . Las ecuaciones de Euler (como estas dos) son prototipos de los
casos que se presentan en general para una cierta clase de puntos singulares.
Para los puntos ordinarios se tiene el siguiente resultado:

Teorema 5.1 Sea t0 un punto ordinario para la ecuación:

x + p(t)x + q(t)x = 0

es decir, p(t), q(t) son funciones analı́ticas en un cierto entorno de t0 . Entonces,


la solución general de esta ecuación es:


x(t) = an (t − t0 )n = a0 x1 (t) + a1 x2 (t)
n=0

con x1 (t) y x2 (t) soluciones linealmente independientes, analı́ticas en t0 con ra-


dio de convergencia mayor o igual que el menor de los radios de convergencia de
las series que representan a p(t) y q(t), y que verifican las condiciones iniciales:

x1 (t0 ) = 1, x1 (t0 ) = 0, x2 (t0 ) = 0, x2 (t0 ) = 1

Los coeficientes an se fijan introduciendo la serie en la ecuación.


118 EDO. Versión 4. Mayo 1996

Es decir, en los puntos ordinarios la situación es muy similar a la estudiada


en el ejemplo de la ecuación del oscilador armónico tratada anteriormente.
Los coeficientes de la serie dependen de las funciones p(t) y q(t). Los primeros
términos del desarrollo son:
1 1
x1 (t) = 1 − q(0)t2 + [p(0)q(0) − q  (0)]t3 + . . .
2 6
1 1
x2 (t) = t − p(0)t2 + [p(0)2 − p (0) − q(0)]t3 + . . .
2 6
Ejemplo. En el estudio del oscilador armónico en mecánica cuántica se llega
a la siguiente ecuación:
−ψ  + t2 ψ = 2Eψ.
Si hacemos el cambio:
ψ(t) = x(t)e− 2 t
1 2

la ecuación que verifica x(t) es:


x − 2tx + λx = 0
con λ = 2E−1, que es la llamada ecuación de Hermite. No es sencillo calcular las
soluciones de esta ecuación. Pero el método de series permite obtener desarrollos
que convergen en toda la recta (pues los coeficientes de la ecuación lo hacen).
En efecto, t0 = 0 es un punto ordinario, ası́ que probemos la serie:


x(t) = an tn
n=0

sustituyendo en la ecuación:




n(n − 1)an tn−2 − 2t nan tn−1 + λ an tn = 0
n=0 n=0 n=0

y desplazando los ı́ndices adecuadamente:




[(n + 2)(n + 1)an+2 − (2n − λ)]tn = 0
n=0

de donde se obtiene la relación de recurrencia:


(n + 2)(n + 1)an+2 − (2n − λ)an = 0
es decir:
2n − λ
an+2 = an , n ≥ 0
(n + 2)(n + 1)
y la solución general de la ecuación es:
λ 2 (4 − λ)λ 4 (8 − λ)(4 − λ)λ 6
x(t) = a0 (1 −
t − t − t + · · ·) +
2! 4! 6!
2 − λ 3 (6 − λ)(2 − λ) 5 (10 − λ)(6 − λ)(2 − λ) 7
a1 (t + t + t + t + · · ·)
3! 5! 7!
MAR 119

Utilizando el criterio del cociente se comprueba como estas series convergen


absolutamente para todo t. Es más, se puede ver como crecen en general más
deprisa que exp(t2 /2), con lo que las soluciones de la ecuación inicial (la del
oscilador armónico cuántico) no son de cuadrado integrable (concretamente, en
lo que a nosotros nos interesa, no tienden a cero en ±∞). Sin embargo, cuando λ
toma ciertos valores, una de las dos series se corta y la solución es un polinomio.
Según sea λ/2 entero impar o par, es la primera solución o la segunda la que se
hace un polinomio. Son los polinomios de Hermite:

H0 (t) = 1
H1 (t) = 2t
H2 (t) = 4t2 − 2
H3 (t) = 8t3 − 12t
...

Obsérvese que si λ = 2n, la energı́a es E = n + 12 , los niveles del oscilador


armónico.
La siguiente expresión genera los polinomios de Hermite:

2 dn −t2
Hn (t) = (−1)n et e , n = 0, 1, 2, . . .
dtn
o bien:

[n/2]
(−1)k n!
Hn (t) = (2t)n−2k .
k!(n − 2k)!
k=0

Además, la función generatriz es:


2 Hn (t) n
w(t, z) = e2tz−z = z .
n=0
n!

Es decir, las derivadas sucesivas de w(t, z) con respecto a z calculadas en t = 0


son los polinomios de Hermite. Para demostrarlo, se puede escribir w(t, z) como:

w(t, z) = et e−(t−z)
2 2

y usar:
∂ −(t−z)2 ∂
= − e−(t−z) .
2
e
∂z ∂t
Entre los polinomios de Hermite existen una serie de relaciones de recurrencia
que relacionan unos polinomios con otros y con sus derivadas:

Hn+1 (t) − 2tHn (t) + 2nHn−1 (t) = 0, n = 1, 2, . . .

Hn (t) = 2nHn−1 (t), n = 1, 2, . . .


120 EDO. Versión 4. Mayo 1996

Su demostración es muy sencilla a partir de la función generatriz:


∂w
= 2(t − z)w
∂z
y por lo tanto, usando el desarrollo de w(t, z):
∞ ∞ ∞
1 2t 2n
Hn+1 (t)z n = Hn (t)z n − Hn−1 (t)z n
n=0
n! n=0
n! n=0
n!

de donde se obtiene inmediatamente la primera relación. La segunda es aún


más sencilla:
∂w
= 2zw
∂t
e igual que antes:
∞ ∞
1  2n
Hn (t)z n = Hn−1 (t)z n .
n=0
n! n=0
n!

De estas expresiones se deduce sin dificultad que los polinomios ası́ definidos
verifican la ecuación de Hermite para λ = 2n. Es decir, uno puede partir de la
definición dada más arriba de Hn (t) y demostrar que verifican la ecuación de
Hermite.
Los polinomios de Hermite son una familia ortogonal con peso exp(−t2 ) en
toda la recta, es decir:
 ∞
Hn (t)Hm (t)e−t dt = cn δnm
2

−∞

expresión que se demuestra de la siguiente forma. Consideremos la ecuación


inicial del oscilador armónico cuántico para dos valores λ = 2n, 2m

ψn + (2n − 1 − t2 )ψn = 0



ψm + (2m − 1 − t2 )ψm = 0
y multipliquemos la primera por ψm y la segunda por ψn restando ambas ex-
presiones:
d
(ψm ψn − ψn ψm

) + 2(n − m)ψn ψm = 0
dt
integrando desde −∞ a +∞ se obtiene el resultado pedido, pues ψ y sus
derivadas tienden a cero en esos puntos, recuérdese que son polinomios de Her-
mite por exp(−t2 /2). Cuando n = m se obtiene la norma de estas funciones.
Toda esta teorı́a se puede estudiar desde el punto de vista de los problemas
de contorno, ecuaciones autoadjuntas en un cierto espacio de Hilbert con un
producto escalar. No podemos entrar en ese tipo de detalles aquı́ que serán es-
tudiados más adelante. Calculemos sin embargo la norma. Para ello usaremos
las relaciones de recurrencia dadas anteriormente:

Hn+1 (t) − 2tHn (t) + 2nHn−1 (t) = 0


MAR 121

Hn (t) − 2tHn−1 (t) + 2(n − 1)Hn−2 (t) = 0


multiplicando la primera por Hn−1 (t) y la segunda por Hn (t):

Hn−1 Hn+1 − 2tHn−1 Hn + 2nHn−1


2
=0

Hn2 − 2tHn Hn−1 + 2(n − 1)Hn Hn−2 = 0


restando ambas expresiones, multiplicando por exp(−t2 ) e integrando, se obtiene
después de usar las propiedades de ortogonalidad:
 ∞  ∞
−t2 2
e−t Hn−1
2
2
e Hn (t)dt = 2n (t)dt.
−∞ −∞

Repitiendo este proceso, se llega a:


 ∞  ∞
e−t Hn2 (t)dt = 2n−1 n! e−t H12 (t)dt
2 2

−∞ −∞

y usando la expresion de H1 (t) e integrando:


 ∞

e−t Hn2 (t)dt = 2n n! π.
2

−∞

Otras muchas representaciones pueden darse de los polinomios de Hermite,


por ejemplo como ciertas integrales de una función (relacionada con la función
generatriz). Asimismo, una clase muy amplia de funciones puede ser desar-
rollada en serie de polinomios de Hermite. Muchas de estas propiedades son
compartidas por otras familias de polinomios ortogonales, soluciones también
de ecuaciones diferenciales lineales de segundo orden: ecuaciones de Legendre,
Laguerre, Tchebychev,. . .
Ejemplo: Ecuación de Legendre.
Como hemos dicho antes, el punto t0 es un punto ordinario para la ecuación:

(1 − t2 )x − 2tx + α(α + 1)x = 0

Por tanto podemos sustituir la serie:




x(t) = an tn
n=0

en la ecuación, obteniendo:




(1 − t2 ) n(n − 1)an tn−2 − 2t nan tn−1 + α(α + 1) an tn = 0
n=0 n=0 n=0

de donde se saca la relación de recurrencia:

(n + 2)(n + 1)an+2 − [n(n + 1) − α(α + 1)]an = 0, n ≥ 0


122 EDO. Versión 4. Mayo 1996

es decir:
n(n + 1) − α(α + 1)
an+2 = an , n ≥ 0
(n + 2)(n + 1)
por tanto, la solución general del problema se puede representar en un entorno
de t = 0 por las series siguientes:

a0 [1 +

α(α − 2) . . . (α − 2n + 2)(α + 1)(α + 3) . . . (α + 2n − 1)
(−1)n
n=1
(2n)!
t2n ] +
a1 [t +

(α − 1)(α − 3) . . . (α − 2n + 1)(α + 2)(α + 4) . . . (α + 2n)
(−1)n
n=1
(2n + 1)!
t2n+1 ].

Puesto que las funciones p(t) = −2t/(1 − t2 ) y q(t) = α(α + 1)/(1 − t2 ) son
analı́ticas en un entorno de t = 0 y las series que las representan tienen radio
de convergencia 1, las soluciones tienen por lo menos radio de convergencia
igual a 1. Ası́ es en este caso. El radio de convergencia de las series es 1 y
las dos divergen bien en 1 o en −1. En realidad no siempre ocurre esto. En
efecto, si α es un número entero positivo, una de las dos series se corta y se
obtiene un polinomio: son los polinomios de Legendre. Si α = 2n, es la primera
serie, obteniéndose un polinomio par (la segunda serie diverge en −1 o 1). Si
α = 2n + 1, es la segunda serie la que da el polinomio, de grado impar. Los
primeros polinomios son:

P0 (t) = 1
P1 (t) = t
1 2
P2 (t) = (3t − 1)
2
1 3
P3 (t) = (5t − 3t)
2
...

Como en los polinomios de Hermite, también podemos encontrar una fórmula


que dé la expresión general (fórmula de Rodrigues):

1 dn 2
Pn (t) = (t − 1)n , n = 0, 1, 2, . . .
2n n! dtn
y una función generatriz:


2 −1/2
w(t, z) = (1 − 2tz + z ) = Pn (t)z n
n=0
MAR 123

válida para t suficientemente pequeño. Los polinomios de Legendre son ortog-


onales en el intervalo [−1, 1]:
 1
2
Pn (t)Pm (t)dt = δnm
−1 2n +1
y verifican una serie de relaciones de recurrencia:
(n + 1)Pn+1 (t) − (2n + 1)tPn (t) + nPn−1 (t) = 0, n = 1, 2, . . .
 
Pn+1 (t) − Pn−1 (t) = (2n + 1)Pn (t), n = 1, 2, . . .
(1 − t2 )Pn (t) = nPn−1 (t) − ntPn (t), n = 1, 2, . . .
La demostración de estas propiedades sigue las lineas de la hecha para los poli-
nomios de Hermite.
Uno podrı́a pensar a la vista de estos ejemplos, que la relación de recurrencia
siempre es de dos términos con ı́ndices que difieren en dos unidades. El que esto
es una falsa impresión, se puede ver en el siguiente caso.
Ejemplo: Ecuación de Airy: x = tx. El punto t = 0 vuelve a ser ordinario,
y por lo tanto, de acuerdo con el teorema anterior, podemos sustituir la misma
serie:
∞ ∞
n(n − 1)an tn−2 = t an tn
n=0 n=0
de donde se obtiene la relación de recurrencia:
2a2 = 0
(n + 3)(n + 2)an+3 − an = 0, n ≥ 0.
Como vemos la relación de recurrencia incluye aún dos términos, pero la
diferencia entre ı́ndices es 3. La solución de esta ecuación es:
1
an+3 = an , n ≥ 0
(n + 3)(n + 2)
de donde:
1
a3k = a0 , k = 1, 2, . . .
3k(3k − 1)(3k − 3)(3k − 4) . . . 6.5.3.2
1
a3k+1 = a1 , k = 1, 2, . . .
(3k + 1)(3k)(3k − 2)(3k − 3) . . . 7.6.4.3
a3k+2 = 0, k = 0, 1, 2, . . .
que se pueden escribir usando la función gamma:
 ∞
Γ(z) = e−t tz−1 dt, (z) > 0.
0

Esta función juega un papel fundamental en muchas de las ecuaciones que


veremos a continuación, por lo que resumimos aquı́ sus propiedades más impor-
tantes:
124 EDO. Versión 4. Mayo 1996

1. La función anterior se puede extender por prolongación analı́tica a todo el


plano complejo, proporcionando una función meromorfa con polos simples
en 0, −1, −2, . . .:

∞  ∞
(−1)n 1
Γ(z) = + e−t tz−1 dt, z = 0, −1, −2, . . .
n=0
n! z + n 1

2. La función gamma generaliza el factorial en el siguiente sentido:

Γ(z + 1) = zΓ(z)

3. Otras propiedades que nos seran útiles son:


π
Γ(z)Γ(1 − z) =
sen πz
1 1
22z−1 Γ(z)Γ(z + ) = π 2 Γ(2z)
2
Todas ellas se demuestran fácilmente a partir de la definición.
Aplicando ésto al cálculo anterior:

3k(3k − 1)(3k − 3)(3k − 4) . . . 6.5.3.2


1 4 52
= 3 [k(k − 1) . . . 2.1][(k − )(k − ) . . .
2k
]
3 3 33
Γ(k + 23 )
= 32k k!
Γ( 23 )
(3k + 1)(3k)(3k − 2)(3k − 3) . . . 7.6.4.3
1 2 74
= 32k [k(k − 1) . . . 2.1][(k + )(k − ) . . . ]
3 3 33
4
Γ(k + 3 )
= 32k k! .
Γ( 43 )

La solución general es:




Γ( 23 ) 3k Γ( 43 )
x(t) = a0 2k k!Γ(k + 2 )
t + a1 2k k!Γ(k + 4 )
t3k+1 .
k=0
3 3 k=0
3 3

Se definen las funciones de Airy como dos soluciones linealmente indepen-


dientes de esta ecuación con las condiciones iniciales siguientes:

3−2/3 3−4/3
Ai(0) = 2 , Ai(0) =
Γ( 3 ) Γ( 43 )

3−1/6 3−5/6
Bi(0) = , Bi(0) = .
Γ( 23 ) Γ( 43 )
MAR 125

Concretamente, Ai(t) es la unica solución (salvo constante multiplicativa)


de la ecuación de Airy que tiende a cero cuando t tiende a +∞. Entonces:


1 1
Ai(t) = 2k+2/3 k!Γ(k + 2 )
t 3k
− 2k+4/3 k!Γ(k + 4 )
t3k+1
k=0
3 3 k=0
3 3

∞ ∞
√ 1 3k
1
Bi(t) = 3[ 2k+2/3 k!Γ(k + 2 )
t + 2k+4/3 k!]Γ(k + 4 )
t3k+1 ].
k=0
3 3 k=0
3 3

Aunque no sea fácil de demostrar, la función Ai(t) es siempre mayor que


cero. Cuando t es mayor que cero es decreciente y tiende a cero cuando t tiende
a +∞. Cuando t es menor que cero es oscilante. La función Bi(t) es también
positiva. Cuando t es mayor que cero es creciente y tiende a infinito cuando t
tiende a +∞. Cuando t es menor que cero es también oscilante. Se puede probar
que el wronskiano de estas dos soluciones (que no depende de t como prueba
la fórmula de Abel-Liouville) es igual a 1/π. Volveremos a estas funciones más
adelante.

5.3 Puntos singulares


Cuando t0 no es un punto ordinario de la ecuacion, no siempre existen soluciones
analı́ticas en un entorno de t0 . Es más, éste es un comportamiento excepcional.
En general aparecen polos, puntos de ramificación o singularidades esenciales.
Solo en algunos casos se puede dar una teorı́a general que permite calcular la
solución. Son los llamados puntos singulares regulares. En estos puntos las
soluciones pueden tener singularidades que son polos o puntos de ramificación,
pero no singularidades esenciales. La forma de estas soluciones es:

x(t) = w(t)φ(t)

donde φ(t) es una función analı́tica en un entorno de t0 y w(t) (que en ocasiones


es simplemente 1) tiene un polo o un punto de ramificación en t0 . Si alguna
solución presenta una singularidad esencial, el punto se llama singular irregular
y el estudio de las soluciones es más complicado. Tomaremos el siguiente criterio
como la definición de punto singular regular:

Definición 5.2 Sea la ecuación lineal de segundo orden:

R(t)x + P (t)x + Q(t)x = 0

y sean p(t) = P (t)/R(t), q(t) = Q(t)/R(t). Si en t0 las funciones p(t) y q(t) no


son analı́ticas, pero sı́ lo son:

(t − t0 )p(t), (t − t0 )2 q(t)

entonces se dice que t0 es un punto singular regular.


126 EDO. Versión 4. Mayo 1996

Ejemplo. El origen es un punto singular regular para toda ecuación de Euler.


Las soluciones como hemos visto antes, pueden ser analı́ticas en t = 0, pero en
cualquier caso las únicas singularidades que presentan son polos o puntos de
ramificación:
t2 x + atx + bx = 0
polinomio indicial: r(r − 1) + ar + b = 0.
Como veremos, la idea de polinomio indicial se generaliza a cualquier ecua-
ción con puntos singulares regulares. Las raı́ces son r1 , r2 . Se pueden presentar
los siguientes casos:
1. Raı́ces distintas:
x(t) = c1 |t|r1 + c2 |t|r2

2. Raı́ces iguales:
x(t) = c1 |t|r1 + c2 |t|r1 log |t|

En el primer caso, si las raı́ces son complejas se puede escribir:

x(t) = c1 |t|α cos(β log |t|) + c2 |t|α sen(β log |t|)

con r = α + iβ.
Ejemplo: El punto t = 0 es singular regular para la siguiente ecuación:
1
t2 (t + 1)x − t2 x + (3t + 1)x = 0.
4
Una base de soluciones es:

x1 (t) = t1/2 , x2 (t) = t1/2 log(t) + t3/2

que tienen un punto de ramificación en el origen.


Ejemplo: Aunque el punto t = 0 es también singular regular para la siguiente
ecuación, existen soluciones que son analı́ticas en 0:
2
x + x + x = 0
t
Una base de soluciones es:
sen t cos t
x1 (t) = , x2 (t) = .
t t
La primera de estas funciones es analı́tica en t = 0. La segunda tiene un polo
de primer orden.
Ejemplo: El punto t = 0 es singular irregular para la ecuación:

t3 x + t(1 + 3t)x + x = 0.

Las funciones:
1
x1 (t) = 1 + , x2 (t) = e1/t
t
MAR 127

son una base del espacio de soluciones de esta ecuación. Ninguna de ellas es
analı́tica en t = 0. La primera tiene un polo y la segunda una singularidad
esencial.
En los puntos singulares regulares puede ocurrir que las soluciones sean
analı́ticas. Sin embargo en los singulares irregulares siempre hay alguna solución
que presenta una singularidad esencial. Cuando el orden de la ecuación es mayor
que 2, se pueden dar criterios similares para distinguir los puntos singulares reg-
ulares de los irregulares. El siguiente teorema proporciona la forma de las solu-
ciones en un entorno de un punto singular regular (para facilitar la comprensión
se toma t0 = 0; para cualquier t0 las conclusiones del teorema son fácilmente
trasladables a ese punto):
Teorema 5.2 (Frobenius) : Sea t0 = 0 punto singular regular para la ecua-
ción:
x + p(t)x + q(t)x = 0
es decir tp(t) y t2 q(t) son analı́ticas en t = 0:



tp(t) = pn tn , t2 q(t) = q n tn
n=0 n=0

donde p0 , q0 o q1 son distintos de cero. Sea ρ el menor de los radios de con-


vergencia de estas dos series. Se define el polinomio indicial de la ecuación
como:
r(r − 1) + p0 r + q0
donde
p0 = lim tp(t), q0 = lim t2 q(t)
t→0 t→0

y sus raı́ces son r1 y r2 (en el caso de raı́ces reales r1 ≥ r2 ).


Entonces, en cada uno de los intervalos (−ρ, 0) y (0, ρ), la ecuación tiene
dos soluciones linealmente independientes dadas por:
1. Si r1 − r2 no es un entero positivo o cero,


x1 (t) = |t|r1 an (r1 )tn
n=0

x2 (t) = |t|r2 an (r2 )tn
n=0

donde a0 (r1 ) = a0 (r2 ) = 1.


2. Si r1 = r2 ,


x1 (t) = |t|r1 an (r1 )tn
n=0


x2 (t) = x1 (t) log |t| + |t| r1
bn (r1 )tn
n=1
128 EDO. Versión 4. Mayo 1996

donde a(r0 ) = 1. Nótese que la segunda serie empieza en t, para evitar


repetir la primera solución.
3. Si r1 − r2 = N , entero positivo,


x1 (t) = |t|r1 an (r1 )tn
n=0


x2 (t) = ax1 (t) log |t| + |t| r2
cn (r2 )tn
n=0

donde a0 (r1 ) = c0 (r2 ) = 1 y la constante a puede ser cero. Los coeficien-


tes de las series, ası́ como la constante a, se calculan introduciendo las series
en la ecuación diferencial. Las series son convergentes al menos en (−ρ, ρ),
definiendo funciones analı́ticas en t = 0. Es decir, todas las singularidades
están en tr y en log t, y son por tanto, como ya habı́amos anunciado, polos y
puntos de ramificación.

Aunque no vamos a demostrar este teorema, sı́ daremos una serie de indica-
ciones sobre sus resultados. Supongamos que t = 0 es un punto singular regular,
por tanto p(t) o q(t) no son analı́ticas. Sustituyamos en la ecuación una solución
de la forma:

x(t) = tr an tn
n=0



t 2
(n + r)(n + r − 1)an tn+r−2 +
n=0





t p n tn (m + r)am tm+r−1 + q n tn am tm+r = 0
n=0 m=0 n=0 m=0

Los primeros términos del desarrollo son:

(r(r − 1) + rp0 + q0 )a0 tr +


((rp1 + q1 )a0 + ((r + 1)r + (r + 1)p0 + q0 )a1 )tr+1 +
((rp2 + q2 )a0 + ((r + 1)p1 + q1 )a1 +
((r + 2)(r + 1) + (r + 2)p0 + q0 )a2 )tr+2 + · · · = 0

de donde se deduce:
r(r − 1) + rp0 + q0 = 0
que es el polinomio indicial. Obviamente a0 no puede ser cero, pues el compor-
tamiento de la solución cerca de t = 0 no serı́a la potencia r de t sino r + 1 u
otra superior. Por eso se toma a0 = 1 en el enunciado del teorema.

(rp1 + q1 )a0 + ((r + 1)r + (r + 1)p0 + q0 )a1 = 0


MAR 129

De esta segunda ecuación tenemos que calcular a1 . Ası́ que el coeficiente de a1


no deberı́a ser cero. Sea r1 la mayor de las dos raı́ces del polinomio indicial,
en el caso en que sean reales (si son complejas no hay problemas). Entonces, el
coeficiente de a1 no es cero:

(r1 + 1)(p0 + r) + q0 = p0 + 2r1 = 1 + r1 − r2 > 0

puesto que r1 es la mayor de las raı́ces (si son complejas, este coeficiente tampoco
es cero). Aún en el caso en que las raı́ces sean iguales, ese coeficiente es positivo.
Luego a1 se puede calcular siempre en términos de a0 . Consideremos ahora el
término siguiente:

(rp2 + q2 )a0 + ((r + 1)p1 + q1 )a1 + ((r + 2)(r + p0 + 1) + q0 )a2 = 0

Si el coeficiente de a2 es distinto de cero, se podrá calcular a2 en función de a0


y a1 . Tomando r = r1 :

(r1 + 2)(r1 + p0 + 1) + q0 = 2(r1 − r2 ) + 4

que también es distinto de cero por las mismas razones anteriores. Veamos cual
es en general el coeficiente de an en estas relaciones. El coeficiente de la potencia
n + r de t contiene a0 , a1 , . . . , an . El coeficiente de an es:

t2 x → (r + n)(r + n − 1)
tp(t)x→ p0 (r + n)
t q(t)x → q0
2

por tanto, el coeficiente buscado es:

f (n, r) = (r + n)(r + n − 1) + (r + n)p0 + q0 = n(n + 2r + p0 − 1)

y si se pone r = r1 :
f (n, r1 ) = n(n + r1 − r2 )
que es positivo para todo n. Por lo tanto, podemos ir calculando los coeficientes
de la serie de una forma recursiva. Calculados a0 , a1 , . . . , an , se puede hallar
an+1 . Si la segunda raı́z es distinta de la primera y no difiere de ella en un
entero positivo, el coeficiente básico es ahora:

f (n, r2 ) = n(n + r2 − r1 )

que tampoco es cero. Luego existe una solución que tiene la forma indicada en
el teorema. Es obvio que cuando r1 = r2 sólo hay una solución de ese tipo. Pero
el caso más curioso aparece cuando las dos raı́ces difieren en un entero positivo:
r1 − r2 = N . Ahora, el coeficiente básico es:

f (n, r2 ) = n(n − N )
130 EDO. Versión 4. Mayo 1996

que se anula para n = N , es decir, el coeficiente aN no se puede calcular en


general a partir de los anteriores, y la segunda solución tiene la forma indi-
cada en el teorema. Puede ocurrir sin embargo, que el coeficiente de tN +r sea
idénticamente nulo, en cuyo caso la segunda solución tiene a = 0.
Como hemos visto, siempre hay una solución de la forma:

x(t) = tr1 φ(t)

donde φ(t) es una función analı́tica en un entorno de cero, con φ(0) distinto de
cero, y r1 es la raı́z mayor del polinomio indicial en el caso en que sean reales (o
una cualquiera de las complejas en el caso que lo sean). La otra solución puede
tener el mismo aspecto o presentar un logaritmo. Veamos que podemos decir
de ella. Como sabemos una solución, podemos reducir el orden de la ecuación:

r1
x(t) = t φ(t) v

φ
tv  + (tp(t) + 2t + 2r1 )v = 0.
φ
Esta ecuación tiene un punto singular regular en t = 0 (es inmediato trasla-
dar la definición de puntos singulares regulares a ecuaciones de primer orden)
pues el coeficiente de v(t) es analı́tico. El polinomio indicial serı́a:

r + ψ(0) = 0

donde ψ(t) es el coeficiente de v(t) en la ecuación diferencial. Calculando se


obtiene (como era de esperar):

r = −1 − r1 + r2

por lo que la solución es:


v(t) = tr2 −r1 −1 g(t)
donde g(t) es analı́tica, con g(0) distinto de cero. Sustituyendo para encontrar
x(t):
 
x(t) = tr1 φ(t) tr2 −r1 −1 g(t)dt = tr1 φ(t) [c0 tr2 −r1 −1 + c1 tr2 −r1 + · · ·]

donde c0 , c1 , . . . son los coeficientes del desarrollo en serie de g(t). Está claro que,
dependiendo de los exponentes r1 , r2 , puede aparecer un logaritmo. Si r1 = r2 ,
se obtiene un logaritmo. Si la diferencia r1 − r2 entre los exponentes es un
entero positivo, puede aparecer un logaritmo, si el correspondiente coeficiente
del desarrollo de g(t) es distinto de cero. En la expresion anterior aparece
condensado (y demostrado en buena parte) el teorema de Frobenius.
Ejemplo. La ecuación de Bessel de orden ν.

t2 x + tx + (t2 − ν 2 )x = 0, ν ≥ 0


MAR 131

Supongamos que queremos calcular las soluciones de esta ecuación en un entorno


de t = 0, con t > 0 (la ecuación de Bessel aparece asociada a la separación de
variables en coordenadas cilı́ndricas, y allı́ t es el radio que es positivo). En
cualquier caso, se podrı́a considerar una variable t compleja e incluso ν compleja
con ν ≥ 0. Está claro que t = 0 es un punto singular regular. Los coeficientes
p(t) y q(t) son:
1 t2 − ν 2
p(t) = , q(t) =
t t2
por tanto:
p0 = lim tp(t) = 1, q0 = lim t2 q(t) = −ν 2
t→0 t→0

y el polinomio indicial:
r(r − 1) + r − ν 2
que tiene por raı́ces:
r1 = ν, r2 = −ν.
Para cualquier valor de ν, existe una solución del tipo:


x(t) = tν an tn .
n=0

Sustituyendo en la ecuación:



(ν + n)(ν + n − 1)an tn+ν + (ν + n)an tn+ν +
n=0 n=0



an tn+ν+2 − ν 2 an tn+ν = 0
n=0 n=0

simplificando:



n(n + 2ν)an tn+ν + an−2 tn+ν = 0
n=0 n=2

que lleva a las ecuaciones (recuerdese que ν ≥ 0):

a1 = 0
n(n + 2ν)an + an−2 = 0, n ≥ 2

Puesto que la diferencia entre los ı́ndices de la relación de recurrencia es 2 y


a1 es igual a cero, está claro que esta solución es una función par, todos los
coeficientes impares son cero. En cuanto a los ı́ndices pares:
a2n−2
a2n = − , n≥1
2n(2n + 2ν)
ecuación que puede ser fácilmente resuelta:
(−1)n
a2n = a0 , n ≥ 1
22n n!(ν + n)(ν + n − 1) . . . (ν + 1)
132 EDO. Versión 4. Mayo 1996

utilizando la función gamma, podemos escribir:


(−1)n Γ(ν + 1)
a2n = a0 , n ≥ 1.
22n n!Γ(ν+ n + 1)
Para cualquier a0 se obtiene una solución de la ecuación de Bessel. Se define
la función de Bessel de primera especie de orden ν, Jν (t), con el siguiente valor
de a0 :
1
a0 = ν
2 Γ(ν + 1)
que nos da la solución:
 ν ∞  2n
t (−1)n t
Jν (t) = .
2 n=0
n!Γ(n + ν + 1) 2

Esta función, cuyo comportamiento en el origen es tν , es siempre una solución


de la ecuación de Bessel, para cualquier ν. Calculemos ahora una segunda
solución linealmente independiente de la primera. Ahora necesitamos distinguir
varios casos, de acuerdo con el teorema. Si la diferencia entre las raı́ces del
polinomio indicial, 2ν, no es un entero positivo o cero, la segunda solución es:


x2 (t) = t−ν b n tn
n=0

de donde resulta evidente que los cálculos son los mismos que antes, cambiando
ν por −ν, ası́ que se define la función:
 −ν ∞  2n
t (−1)n t
J−ν (t) =
2 n=0
n!Γ(n − ν + 1) 2

que es linealmente independiente de la primera si 2ν no es entero positivo. Si


2ν es entero positivo, esta solución podrı́a ser aún linealmente independiente de
la primera, pues la solución presentada en el teorema contiene una constante,
a, en el término logarı́tmico que puede ser cero. Sin embargo, veamos como en
el caso ν = p entero positivo, las funciones Jp (t) y J−p (t) son proporcionales:
 −p ∞  2n
t (−1)n t
J−p (t) = .
2 n=0
n!Γ(n − p + 1) 2

Pero la función Γ tiene polos en los enteros negativos ası́ que la serie realmente
comienza en n = p:
 −p ∞  2n
t (−1)n t
J−p (t) =
2 n=p
n!(n − p + 1)! 2
 −p ∞  2(n+p)
t (−1)n+p t
=
2 n=0
(n + p)!n! 2
MAR 133

de donde se obtiene inmediatamente el resultado buscado:


J−p (t) = (−1)p Jp (t), p entero positivo.
El caso en que ν no es entero pero 2ν sı́ lo es, no introduce logaritmos en las
soluciones, es decir Jν (t) y J−ν (t) son linealmente independientes, aunque haya
que demostrarlo. Pero si es entero positivo o cero (en este último caso no hay
discusión, las dos raı́ces son iguales y por tanto una de las dos soluciones de
las que habla el teorema lleva necesariamente un logaritmo) como acabamos de
ver, la segunda solución lleva un logaritmo. Calculémosla en el caso ν = 0:


x2 (t) = J0 (t) log t + b n tn
n=1

sustituyéndola en la ecuación, tx + x + tx = 0:




(tJ0 + J0 + tJ0 ) log t + 2J0 + b1 + b2 t + [(n + 1)2 bn+1 + bn−1 ]tn = 0
n=2

El paréntesis que multiplica a log t es cero, pues J0 (t) es solución de la ecuación.


Esto ocurre siempre, el logaritmo no aparece a la hora de resolver la ecuación.
Sustituyendo la expresión de J0 (t):
∞  2n
(−1)n t
J0 (t) =
n=0
(n!)2 2

∞  2n−1 ∞
(−1)n t
2
2n + b 1 + 4b 2 t + [(n + 1)2 bn+1 + bn−1 ]tn = 0.
n=0
(n!) 2 n=2
Conviene separar la segunda serie en términos pares e impares:
∞  2n−1
(−1)n t
2
2n + b1 + 4b2 t +
n=0
(n!) 2



[(2n + 1)2 b2n+1 + b2n−1 ]t2n + [(2n)2 b2n + b2n−2 ]t2n−1 = 0
n=1 n=2

de donde se obtienen las siguientes relaciones de recurrencia:


b1 = 0
−1 + 4b2 = 0
(2n + 1)2 b2n+1 + b2n−1 = 0, n ≥ 1
(−1)n 4n
+ (2n)2 b2n + b2n−2 = 0, n ≥ 2
(n!)2 22n
La solución de este conjunto de ecuaciones fijará los coeficientes bn . La relación
entre los coeficientes de ı́ndice impar y la primera ecuación b1 = 0 implica:
b2n+1 = 0, n ≥ 0.
134 EDO. Versión 4. Mayo 1996

La ecuación que liga los términos de ı́ndice par también puede ser resuelta. Para
escribirla de una forma compacta, pongamos:

n
1
Hn =
k
k=1

con lo que la solución es:


(−1)n+1
b2n = Hn , n ≥ 1
22n (n!)2
Una vez conocidos los coeficientes bn , resulta inmediato escribir la segunda
solución:

(−1)n+1 Hn 2n
x2 (t) = J0 (t) log t + t .
n=1
22n (n!)2
Las soluciones J0 (t) y x2 (t) son linealmente independientes, según asegura
el teorema. Sin embargo, es usual utilizar en lugar de esta base otra formada
por J0 (t) y una combinación lineal de J0 (t) y x2 (t):

2 t (−1)n+1 Hn 2n
N0 (t) = [(γ + log )J0 (t) + t ]
π 2 n=1
22n (n!)2

que es la función de Neumann de orden cero. Esta función tiene una singularidad
de tipo logarı́tmico en t = 0. De acuerdo con la notación dada antes:
2 2
N0 (t) = x2 (t) + (γ − log 2)J0 (t)
π π
donde γ es la constante de Euler, definida por:
γ = lim (Hn − log n) = 0.57721 . . .
n→∞

El cálculo anterior puede hacerse para ν = p entero arbitrario siguiendo los


mismos razonamientos, pero resulta muy complicado. Definamos en su lugar las
siguientes funciones:
cos νπJν (t) − J−ν (t)
Nν (t) =
sen νπ
directamente cuando ν no es un entero, y a través de un lı́mite cuando ν es
entero. En particular:
N0 (t) = lim Nν (t).
ν→0
Cuando ν = p, entero, se puede demostrar que:
 −p
p−1  2n
2 t 1 t (p − n − 1)! t
Np (t) = (γ + log )Jp (t) − [ +
π 2 π 2 n=0
n! 2
 p  p ∞  2n
Hp t t (−1)n (Hn + Hn+p ) t
+ ].
p! 2 2 n=1 n!(n + p)! 2
MAR 135

Todas ellas tienen una singularidad logarı́tmica (cuando ν no es entero, no


existe ese tipo de singularidad, aunque en cualquier caso no son analı́ticas en
cero).
Las funciones de Neumann ası́ definidas, son soluciones de la ecuación de
Bessel para cada ν, y son linealmente independientes con Jν (t). No entraremos
en detalles sobre estas afirmaciones. Baste recordar aquı́ que, para ν dado, las
funciones:
Jν (t), Nν (t)
son una base del espacio de soluciones de la ecuación de Bessel de orden ν. Si
ν no es entero, las funciones:
Jν (t), J−ν (t)
son también una base de soluciones.
No hemos establecido que ocurre cuando 2ν es entero, pero ν no lo es. Según
lo anterior, Jν (t) y J−ν (t) son una base, y no aparece ninguna singularidad
logarı́tmica, luego la constante a del teorema debe ser cero y Jν (t) y Nν (t) son
también una base. Calculemos Jν y Nν cuando ν = 1/2:
N 12 (t) = J− 12 (t)
  12 ∞  2n
t (−1)n t
J 12 (t) = 3
2 n=0
n!Γ(n + 2 ) 2
usando las propiedades de la función Γ se obtiene:
 2n+1
3 1 √
n!Γ(n + ) = (2n + 1)! π
2 2
y sustituyendo en la expresión de J 12 :

2
J 12 (t) = sen t.
πt
El mismo tipo de razonamiento permite calcular J− 12 :

2
J− 12 (t) = cos t
πt
que forman una base del espacio de soluciones de la ecuación de Bessel de orden
1/2.
Las funciones de Bessel verifican una serie de relaciones de recurrencia tales
como:
d ν
[t Jν (t)] = tν Jν−1 (t)
dt
d −ν
[t Jν (t)] = −t−ν Jν+1 (t)
dt
Jν−1 (t) − Jν+1 (t) = 2Jν (t)

Jν−1 (t) + Jν+1 (t) = Jν (t)
t
136 EDO. Versión 4. Mayo 1996

que se demuestran fácilmente usando la ecuación y la definición de Jν (t).


Por ejemplo, la primera de ellas:
d ν
[t Jν (t)] =
  ∞ dt
2ν  2n 
d t (−1)n 2ν t
=
dt 2 n=0
n!Γ(n + ν + 1) 2
∞  2(n+ν)−1
(−1)n 2ν(n + ν) t
n=0
n!Γ(n + ν + 1) 2

como Γ(n + ν + 1) = (n + ν)Γ(n + ν):


∞  2(n+ν)−1
(−1)n 2ν t
= =
n=0
n!Γ(n + ν) 2
∞  2(n+ν)−1
(−1)n t
tν = tν Jν−1 (t)
n=0
n!Γ(n + ν) 2

La segunda se demuestra exactamente igual. La tercera se prueba a partir de las


dos primeras. Multiplicando la primera por t−ν , la segunda por tν y sumando:
d ν d
Jν−1 (t) − Jν+1 (t) = t−ν [t Jν (t)] + tν [t−ν Jν (t)] = 2Jν (t)
dt dt
Y la cuarta, restando:
d ν d
Jν−1 (t) + Jν+1 (t) = t−ν [t Jν (t)] − tν [t−ν Jν (t)] = 2νt−1 Jν (t)
dt dt
No podemos entrar aquı́ en una discusión del comportamiento de estas fun-
ciones cuando t tiende ∞. Pero el resultado es particularmente simple (y nada
sorprendente en el caso de orden 1/2):

2 π
Jν (t) = cos(t − (2ν + 1) ) + o(t−3/2 )
πt 4

2 π
Nν (t) = sen(t − (2ν + 1) ) + o(t−3/2 )
πt 4
es decir, tanto Jν (t) como Nν (t) oscilan indefinidamente, mientras la amplitud
tiende a cero cuando t tiende a ∞.
Para terminar este estudio elemental de la ecuación de Bessel, mencionemos
aquı́ la relación entre esta ecuación y la de Bessel esférica de orden ν:
2 ν(ν + 1)
x + x + (1 − )x = 0.
t t2
Un cambio de variable lleva esta ecuación a la de Bessel de orden ν + 12 :
y
x= √
t
MAR 137

1 (ν + 12 )2
y  + y  + (1 − )y = 0
t t2
y por tanto una base del espacio de soluciones de la ecuación de Bessel esférica
es: 
π
jν (t) = J 1 (t)
2t ν+ 2

π
nν (t) = N 1 (t).
2t ν+ 2

5.4 Singularidades en el infinito


Como hemos visto, el tratamiento de los puntos ordinarios o singulares regu-
lares no presenta ninguna dificultad. Sin embargo, en orden al estudio de los
comportamientos de las soluciones de una ecuación diferencial cuando t tiende
a ∞, resulta necesario introducir una serie de métodos que permitan aplicar la
teorı́a estudiada previamente a esta situación. La manera más usual de hacerlo
es cambiar la variable, pasando de t a su inversa, con lo cual el punto del infinito
pasa a ser el origen. Consideremos la ecuación:

R(t)x + P (t)x + Q(t)x = 0

hagamos el cambio de variable t = 1/s. La nueva ecuación es:


dx 1 dx
=− 2
dt t ds
d2 x 1 d2 x 2 dx
2
= 4 2
+ 2
dt t ds t ds
  2       
1 d x 1 1 dx 1
s4 R 2
+ 2s3
R − s2
P + Q = 0.
s ds s s ds s
Por lo tanto, el punto t = ∞ (es decir s = 0) es un punto ordinario de la
ecuación inicial si las funciones:
      
1 2 1 1 1 1 1
1 R − 2P , 4 1Q
R s s s s s s R s s

son analı́ticas en un entorno de s = 0.


De forma similar, t = ∞ es un punto singular regular para la ecuación de
partida si alguna (o las dos) de las funciones anteriores no es analı́tica en s = 0,
pero sı́ son analı́ticas las funciones:
      
1 1 1 1 1 1
 1  2R − P , 2 1Q .
R s s s s s R s s

Ejemplo: La ecuación de Legendre.

(1 − t2 )x − 2tx + α(α + 1)x = 0.


138 EDO. Versión 4. Mayo 1996

Las funciones a estudiar son:


2s α(α + 1)
, .
s2 − 1 s2 (s2 − 1)

La segunda no es analı́tica, pero al multiplicarla por s2 se obtienen dos funciones


analı́ticas en s = 0. Por lo tanto el punto t = ∞ es un punto singular regular
para esta ecuación. Eso hace que se pueda aplicar el teorema de Frobenius a la
ecuación transformada lo que da para la ecuación original una serie de potencias
en t−1 , multiplicada por alguna potencia de t o un logaritmo.
Ejemplo: Ecuación de Hermite.

x − 2tx + λx = 0.

Haciendo el cambio, se obtienen:


 
2 1 λ
1+ ,
s s2 s4

que tienen en s = 0 singularidades más fuertes de las que permite la definición


de punto singular regular. Por tanto t = ∞ es un punto singular irregular.
Ejemplo: Ecuacion de Airy.

x = tx.

En este caso las funciones a estudiar son:


2 1
, − 5
s s
ası́ que t = ∞ es un punto singular irregular para esta ecuación. Lo mismo
ocurre con la ecuación de Bessel.
El conocimiento de las singularidades de una ecuación diferencial lineal pro-
porciona algunas veces los coeficientes de dicha ecuación y en general da ideas
sobre su comportamiento en un entorno de esos puntos. Veamos como en el
caso particular de la ecuación lineal de segundo orden, solo hay esencialmente
una ecuación que tenga tres puntos singulares regulares con exponentes (raı́ces
de la ecuación indicial) dados.

5.5 La ecuación de Riemann


Consideremos la ecuación diferencial lineal de segundo orden:

x + p(t)x + q(t)x = 0

y supongamos que 0, 1, ∞ son puntos singulares de esta ecuación, con raı́ces


del polinomio indicial en cada uno de estos puntos (α1 , α2 ), (β1 , β2 ), (γ1 , γ2 )
respectivamente. Veamos como podemos calcular p(t) y q(t):
MAR 139

1. En t = 0, tp(t) y t2 q(t) son analı́ticas.


2. En t = 1, (t − 1)p(t) y (t − 1)2 q(t) son analı́ticas.
   
3. En s = 0, 2 − 1s p 1s , s12 q 1s son analı́ticas.
Consideremos primeramente la función p(t). Al ser tp(t) analı́tica en un
entorno de 0 y (t − 1)p(t) analı́tica en un entorno de 1, y no haber más puntos
singulares a distancia finita, se concluye que t(t − 1)p(t) es analı́tica en toda la
recta. Por lo tanto existe una serie de potencias de t que representa a la función
con radio de convergencia infinito:


t(t − 1)p(t) = an tn
n=0

si cambiamos t por 1/s:


    ∞   ∞
1 1 1 an 1 1 −1 an
−1 p = , p =
s s s n=0
sn s s s − 1 n=0 sn−1

pero, como hemos dicho antes, la función (1/s)p(1/s) es analı́tica, por tanto la
serie que aparece a la derecha tiene que tener todos los coeficientes cero a partir
de a2 (inclusive). Por tanto:
a0 + a1 t A B
p(t) = = +
t(t − 1) t t−1
luego, p(t) queda fijado salvo dos constantes. El mismo procedimiento se aplica
a q(t). Las funciones t2 q(t), (t − 1)2 q(t) son analı́ticas en t = 0, por tanto,
(t(t − 1))2 q(t) es analı́tica en toda la recta al no tener otros puntos singulares a
distancia finita:


t2 (t − 1)2 q(t) = bn tn
n=0

cambiando t por 1/s:


 2   ∞   ∞
1 1 1 bn 1 1 1 bn
− 1 q = , q =
s2 s s n=0
sn s2 s (s − 1)2
n=0
sn−2

como (1/s2 )q(1/s) es una función analı́tica en s = 0, los coeficientes de la serie


anterior deben ser cero para todo n a partir de n = 3, por lo que:
b 0 + b 1 t + b 2 t2 C D E
q(t) = = 2+ +
t (t − 1)
2 2 t (t − 1)2 t(t − 1)
como uno puede demostrar fácilmente (no hay cuatro constantes independientes,
sólo tres, b0 , b1 , b2 ).
Las cinco constantes que aparecen en p(t) y q(t) se calculan a partir de los
exponentes:
140 EDO. Versión 4. Mayo 1996

en t = 0 el polinomio indicial es:

r(r − 1) + Ar + C

por lo que la suma y el producto de las raı́ces son:

α1 + α2 = 1−A
α1 α2 = C

en t = 1 el polinomio indicial es:

r(r − 1) + Br + D

y la suma y el producto de raı́ces:

β1 + β2 = 1−B
β1 β2 = D

en t = ∞ el polinomio indicial es:

r(r − 1) + (2 − A − B)r + (C + D + E)

la suma y el producto de raı́ces:

γ1 + γ2 = A+B−1
γ1 γ2 = C +D+E

Las expresiones de las constantes A, B, C, D, E en función de los exponentes


son:

A = 1 − α1 − α2
B = 1 − β1 − β2
C = α1 α2
D = β1 β2
E = −α1 α2 − β1 β2 + γ1 γ2

y aún queda otra relación, que liga los exponentes. Es decir, en este tipo de
ecuaciones, los exponentes de los puntos singulares no son independientes:

α1 + α2 + β1 + β2 + γ1 + γ2 = 1

Hemos visto que las funciones p(t) y q(t) quedan completamente fijadas, y
que los exponentes en los puntos singulares no son independientes. Se pueden
obtener estos mismos resultados cuando los puntos singulares son distintos de
0, 1, ∞, basta hacer una transformación que los lleve a éstos.
Supongamos que uno de los exponentes en t = 0, sea α1 , y otro en t = 1,
β1 , se toman iguales a 0. Esto impone una restricción sobre los demás:

α2 + β2 + γ1 + γ2 = 1
MAR 141

llamemos α = γ1 , β = γ2 , γ = 1 − α2 (por cuestiones de notación clásica). La


ecuación de Riemann es:

t(1 − t)x + (1 − α2 − (2 − β2 − α2 )t)x − γ1 γ2 x = 0

es decir, con las notaciones anteriores y usando β2 = γ − α − β:

t(1 − t)x + (γ − (1 + α + β)t)x − αβx = 0

ecuación que tiene tres puntos singulares, en 0, 1, ∞ y cuyos exponentes son:

t=0 0 1−γ
t=1 0 γ−α−β
t=∞ α β

Esta es la ecuación hipergeométrica de Gauss, ecuación frecuente en la Fı́sica


Matemática, en esta forma o con algún cambio de variable como veremos. A
ella dedicaremos el próximo apartado.

5.6 La ecuación hipergeométrica de Gauss


Como hemos dicho la ecuación:

t(1 − t)x + (γ − (1 + α + β)t)x − αβx = 0

tiene puntos singulares regulares en 0, 1, ∞. Esto hace que podamos calcular


sus soluciones como series de potencias en torno a cualquiera de estos tres pun-
tos. Los radios de convergencia de estas series no son en general infinitos, ası́
que será necesario considerarlas en distintas situaciones según las necesidades
de cada caso. Además, según los valores de las constantes, pueden aparecer log-
aritmos o no. Dado que no intentamos hacer una teorı́a completa de la ecuación
hipergeométrica, nos limitaremos a los casos más sencillos.
Consideremos en primer lugar los desarrollos en serie en torno al punto t = 0.
Según hemos dicho antes, los exponentes para este punto son 0 y 1 − γ. Siempre
existirá una solución del tipo una potencia de t por una función analı́tica. El
exponente será 0 o 1 − γ, según cuál de los dos sea mayor. Si la diferencia entre
ambos no es un entero, el teorema de Frobenius permite asegurar la existencia
de dos soluciones linealmente independientes de la forma dicha anteriormente.
Supongamos entonces que γ no es un entero negativo o cero, con lo cual existe
una solución de la forma siguiente:


x(t) = an tn
n=0

Sustituyendo en la ecuación:




t(1 − t) n(n − 1)an t n−2
+ (γ − (α + β + 1)t) nan t n−1
− αβ an tn = 0
n=0 n=0 n=0
142 EDO. Versión 4. Mayo 1996

multiplicando y simplificando se obtiene:





(n(n − 1) + γn)an tn−1 − (n(n − 1) + n(α + β + 1) + αβ)an tn = 0
n=1 n=0

es decir:


((n + 1)(γ + n)an+1 − (α + n)(β + n)an )tn = 0
n=0

lo que nos permite obtener la siguiente relación de recurrencia:


(α + n)(β + n)
an+1 = an , n ≥ 0
(n + 1)(γ + n)
Si se define el sı́mbolo:

(α)n = α(α + 1)(α + 2) . . . (α + n − 1)

se encuentra como solución, tomando a0 = 1:


(α)n (β)n
an = , n≥1
n!(γ)n
La serie correspondiente se llama serie hipergeométrica, y converge, con las
restricciones anteriormente dichas sobre γ, en el intervalo (−1, 1):


(α)n (β)n n
w01 (t) = F (α, β, γ; t) = t .
n=0
n!(γ)n

La segunda solución, asociada al segundo exponente es:




x2 (t) = t1−γ b n tn
n=0

y los coeficientes se podrı́an calcular de la manera usual. Sin embargo, una de


las propiedades más interesantes de la ecuación hipergeométrica es su compor-
tamiento frente a transformaciones de la variable dependiente e independiente.
Sin entrar en una discusión detallada, para este caso tenemos lo siguiente. Si:

y = t−(1−γ) x

la nueva ecuación es:

t(1 − t)y  + ((2 − γ) − (α + β − 2γ + 3)t)y  − (α − γ + 1)(β − γ + 1)y = 0

que es una ecuación hipergeométrica de parámetros, α − γ + 1, β − γ + 1, 2 − γ.


En t = 0, los exponentes son 0, γ − 1, por lo que la solución asociada a 0 es:

y(t) = F (α − γ + 1, β − γ + 1, 2 − γ; t)
MAR 143

de donde la segunda solución es:

w02 (t) = t1−γ F (α − γ + 1, β − γ + 1, 2 − γ; t).

Desde un punto de vista más general, se puede considerar a F como depen-


diente de una variable compleja z. De acuerdo con lo dicho de F , ésta está
definida en el interior del cı́rculo unidad (como siempre, γ no puede tomar val-
ores que sean 0 o un entero negativo). Es posible demostrar que F se puede
extender a una función analı́tica en todo el plano complejo salvo en un corte
[1, ∞). Esta función se puede representar por una integral, pero no iremos más
lejos en esta lı́nea.
Si queremos calcular el desarrollo en serie en el punto t = 1, podemos actuar
como antes con series en t − 1. Sin embargo es más cómodo hacer un cambio
de variable que nos lleve el punto 1 al 0. Sea entonces s = 1 − t. La ecuación
transformada es:

s(1 − s)x + ((α + β − γ + 1) − (α + β + 1)s)x − αβx = 0

otra vez la ecuación hipergeométrica con otros parámetros. Por tanto las solu-
ciones correspondientes son:

w11 (t) = F (α, β, α + β − γ + 1; 1 − t)


w12 (t) = (1 − t)γ−α−β F (γ − β, γ − α, 1 + γ − α − β; 1 − t)

Finalmente, si queremos calcular el desarrollo en t = ∞, hagamos el cambio


t = 1/s. Si simultáneamente cambiamos la variable dependiente, y = s−α x, se
obtiene:

s(1 − s)y  + (1 + α − β − (2 + 2α − γ)s)y  − α(α − γ + 1)y = 0

ecuación hipergeométrica con parámetros α, α − γ + 1, 1 + α − β, por lo tanto:

w∞1 (t) = t−α F (α, α − γ + 1, 1 + α − β; t−1 )


w∞2 (t) = t−β F (β, β − γ + 1, 1 − α + β; t−1 )

Las seis soluciones w(t) obtenidas convergen en los dominios adecuados,


que se solapan en algunos casos. Es evidente que en esas zonas solo hay dos
soluciones linealmente independientes, ası́ que existen ciertas relaciones entre
ellas. También es posible demostrar como aparecen relaciones de recurrencia
entre las funciones hipergeométricas con distintos parámetros.
Eligiendo adecuadamente los parámetros, se obtienen otras ecuaciones ya
tratadas individualmente. Por ejemplo: α = −n, β = n + 1, γ = 1, s = 1 − 2t
nos lleva a la ecuación de Legendre:

(1 − s2 )x − 2sx + n(n + 1)x = 0

por lo tanto, los polinomios de Legendre son:


1
Pn (t) = F (−n, n + 1, 1; (1 − t)).
2
144 EDO. Versión 4. Mayo 1996

Como última aplicación de la ecuación hipergeométrica, estudiaremos cómo


se puede obtener a partir de ella la ecuación de Kummer, y la aplicaremos a la
ecuación radial que aparece al separar variables en la ecuación de Schrödinger
con un potencial culombiano.

5.7 La ecuación hipergeométrica confluente


Consideremos la ecuación hipergeométrica:

t(1 − t)x + ((γ − (α + β + 1)t)x − αβx = 0

y hagamos un cambio de variable t por t/β (seguiremos llamando a la nueva


variable t). La nueva ecuación es:

t(β − t)x + (γβ − (α + β + 1)t)x − αβx = 0

que tiene puntos singulares en 0, β, ∞. Por supuesto, la función:


t
F (α, β, γ; )
β
es solución de esta ecuacion. Dividamos por β la ecuación:
t  α+1
t(1 − )x + (γ − (1 + )t)x − αx = 0
β β
y tomemos el lı́mite cuando β → ∞:

tx + (γ − t)x − αx = 0

Esta ecuación (llamada por razones obvias, ecuación hipergeométrica con-


fluente) tiene dos puntos singulares, en 0, regular, y en ∞ irregular, debido a
la confluencia de las dos singularidades regulares que tenı́a la ecuación inicial.
Las soluciones se pueden calcular como lı́mite de las soluciones de la ecuación
con β finito:
∞  n
t (α)n (β)n t
1 F1 (α, γ; t) = lim F (α, β, γ; ) = lim
β→∞ β β→∞
n=0
n!(γ)n β

es decir:

(α)n n
1 F1 (α, γ; t) = t
n=0
n!(γ)n
que se llama función hipergeométrica confluente. Esta función está definida para
todo t, cuando γ no es cero ni entero negativo. Es más, la función F es analı́tica
en todo el plano complejo, considerando a t como una variable compleja. Es
posible encontrar una segunda solución para esta ecuación, linealmente indepen-
diente de la primera, la llamada función hipergeométrica confluente de segunda
MAR 145

clase. Ciertas ecuaciones de la Fı́sica Matemática se pueden relacionar con la


ecuación hipergeométrica confluente. Por ejemplo las ecuaciones de Hermite,
Laguerre y Bessel:
Si α = n, γ = 12 , y hacemos el cambio t = s2 , la nueva ecuación es:
x − 2sx + 4nx = 0
que es la ecuación de Hermite, una de cuyas soluciones es el polinomio de Her-
mite de ı́ndice par, 2n:
(2n)! 1 2
H2n (t) = (−1)n 1 F1 (−n, ; t )
n! 2
si se elige γ = 3/2, se obtienen los de ı́ndice impar.
Si ahora elegimos α = −n, γ = σ − 1, σ > −1, la ecuación es:
tx + (σ + 1 − t)x + nx = 0
que es la ecuación de Laguerre. Esta ecuación tiene a los polinomios de Laguerre
como soluciones:
t−σ dn n+σ −t
Lσn t) = et (t e ), n = 0, 1, 2, . . .
n! dtn
Los primeros de la serie son:
Lσ0 (t) = 1
Lσ1 (t) = 1+σ−t
1
Lσ2 (t) = ((1 + σ)(2 + σ) − 2(2 + σ)t + t2 )
2
...
Estos polinomios están relacionados con los de Hermite a través de las sigu-
ientes ecuaciones:
(−1)n √
L−1/2
n (t) = 2n
H2n ( t)
2 n!
1/2 (−1)n −1/2 √
Ln (t) = 2n+1
t H2n+1 ( t)
2 n!
La demostración de este resultado se puede hacer usando una representación
integral de los polinomios de Laguerre, que escribimos seguidamente para mos-
trar las relaciones que existen entre las funciones especiales, y que han llevado
a muchos tratamientos unificadores (como por ejemplo los que usan la teorı́a de
los grupos de Lie):
 ∞ √
1
Lσn (t) = t−σ/2 et sn+σ/2 e−s Jσ (2 st)ds, σ > 1, n = 0, 1, 2, . . .
n! 0

donde Jσ es la función de Bessel de orden σ. Nada de extraño tiene que la


ecuación de Bessel esté también relacionada con la ecuación hipergeométrica
confluente.
146 EDO. Versión 4. Mayo 1996

La notación 1 F1 se refiere a las llamadas series hipergeométricas generaliza-


das:
∞ p
(αr )n tn
F
p q (α ,
r sγ ; t) = r=1
q
n=0 s=1 (γs )n n!

por lo que las series hipergeométricas que introdujimos al principio son 2 F1 ,


y las confluentes 1 F1 . Estas series convergen en (−1, 1) (en el disco unidad,
aunque pueden extenderse por prolongación analı́tica fuera de ese disco).

5.8 El átomo de hidrógeno


Cuando se considera la ecuación de Schrödinger con un potencial central, el
problema es separable en coordenadas esféricas. La ecuación radial cuando el
potencial es culombiano, resulta ser:
 
d2 ul 2µ 2µZe2 l(l + 1)
(r) + E + − ul (r) = 0
dr2 h̄2 h̄2 r r2

con el significado usual de las constantes. Si simplificamos la ecuación cam-


biando adecuadamente las variables y constantes:

ul (r)= ρl+1 e−ρ/2 vl (ρ)


 r
ρ = 8µ|E|


µ Ze2
λ =
2|E| h̄

se obtiene:
ρvl + (2(l + 1) − ρ)vl − (l + 1 − λ)vl = 0
que es una ecuación hipergeométrica confluente de parámetros:

α = l + 1 − λ, γ = 2(l + 1).

Su solución es una función hipergeométrica confluente (por las condiciones de


contorno que se especifican en la interpretación fı́sica del problema la solución no
debe ser singular en el origen, y la función hipergeométrica confluente de segunda
clase lo es). Pero, para que la función de ondas sea de cuadrado integrable, es
necesario que la serie se corte, lo que implica que α es un entero negativo:

l + 1 − λ = −nr

Esta relación permite cuantificar λ, es decir la energı́a. La ecuación que se


obtiene es, como hemos visto antes, la ecuación de Laguerre, y por lo tanto, las
soluciones de la ecuación radial del átomo de hidrógeno son potencias del radio
por una exponencial decreciente y por polinomios de Laguerre dependientes del
nivel considerado.
MAR 147

5.9 Puntos singulares irregulares


No existe una teorı́a que permita estudiar de manera sistemática los puntos
singulares irregulares. Eso hace el trabajo duro y muy interesante. En general
no es posible encontrar series que converjan en un entorno de esos puntos, ni
siquiera cuando se multiplican por una función que lleve la singularidad (como
en el caso de la teorı́a de Frobenius). Sin embargo es posible encontrar series que
representan la solución con gran aproximación, y que en general no convergen.
Son las series asintóticas, y su estudio, aunque complicado, es una de las ramas
más interesantes del análisis. Desgraciadamente no podemos aquı́ intentar un
desarrollo, ni siquiera elemental, de este tema, por lo que nos limitaremos a un
ejemplo.
Ejemplo: Sea la ecuación:

t2 x + (3t − 1)x + x = 0.

El punto t = 0 es un punto singular irregular pues la función tp(t) = 3 − 1/t


no es analı́tica en él. Por lo tanto no podemos aplicar el teorema de Frobenius
para calcular las soluciones. Sin embargo, intentemos calcular una solución de
la forma dada en ese teorema:


x(t) = tr an tn .
n=0

Sustituyendo en la ecuación (suponemos a0 distinto de cero):





(n + r)(n + r − 1)an tn+r + 3(n + r)an tn+r −
n=0 n=0



(n + r)an tn+r−1 + an tn = 0
n=0 n=0

es decir:



[(n + r)(n + r + 2) + 1]an tn+r − (n + r)an tn+r−1 = 0
n=0 n=0

y por tanto:


[((n + r)(n + r + 2) + 1)an − (n + r + 1)an+1 ]tn+r − ra0 tr−1 = 0
n=0

De esta igualdad se obtiene el valor de r y la relación de recurrencia que


deben satisfacer los coeficientes de la serie:

r = 0
((n + r)(n + r + 2) + 1)an − (n + r + 1)an+1 = 0, n ≥ 0
148 EDO. Versión 4. Mayo 1996

Sustituyendo el valor de r

(n + 1)an − an+1 = 0, n ≥ 0

que tiene por solución:


an = n!a0 , n ≥ 0
Hemos obtenido asi una serie que, al menos formalmente, verifica la ecuación
diferencial:

x(t) = n!tn
n=0

pero que sin embargo, no define ninguna función, ya que esta serie sólo converge
en t = 0. A pesar de estos inconvenientes, la serie es una serie asintótica, y
puede ser utilizada para calcular los valores de la solución. Por métodos en los
que no podemos entrar ahora, se puede llegar a demostrar que:

e−1/t
x1 (t) =
t
es una solución de la ecuación (lo que es fácil de comprobar sin más que susti-
tuir). Como se ve, tiene una singularidad esencial en t = 0. Una segunda
solución linealmente independiente con ésta, se calcula reduciendo el orden:

x(t) = x1 (t) v

de donde se obtiene al sustituir, la ecuación para v(t):

t2 v  + (1 + t)v = 0

fácilmente resoluble:
e1/t
v(t) =
t
y por tanto, para x(t):
 0
e1/s
x2 (t) = x1 (t) ds
t s
bien definida, al menos cuando t < 0. Hagamos una integración por partes:
 0 1/s  0  0
e
ds = −se1/s + e1/s ds =
t s t t
 0  0
te1/t + −s2 e1/s + 2 se1/s ds =
t t
 0  0
(t + t2 )e1/t + 2 −s3 e1/s +6 s2 e1/s ds =
t t
 0
(t + t + 2t + · · · + n!t
2 3 n+1
) + (n + 1)! sn e1/s ds
t
MAR 149

lo que nos permite expresar x2 (t) de la forma siguiente:


N  0
(N + 1)! −1/t
x2 (t) = k
k!t + e sN e1/s ds, N ≥ 0.
t t
k=0

Es decir, la serie hallada anteriormente está relacionada con la solución que


acabamos de estudiar. Es más, la diferencia entre la solución y una suma parcial
es: 
(N + 1)! −1/t 0 N 1/s
x2 (t) − SN (t) = e s e ds, N ≥ 0.
t t
La integral se puede acotar:
 0  0
| s e ds| ≤
N 1/s
|s|N e1/s ds ≤ |t|N +2 e1/t
t t

y por tanto:
|x2 (t) − SN (t)| ≤ (N + 1)!|t|N +1
Es decir, el error cometido al tomar una suma parcial está acotado por
el primer término de la serie que no se considera. Por supuesto, la serie es
divergente, ası́ que no cabe esperar que el error tienda a cero tomando un número
suficiente de términos. Sin embargo, si t está suficientemente próximo a cero, el
error puede ser pequeño, con tal de no tomar demasiados términos en la serie
(el factor (N + 1)!). El número de términos necesarios para tener la mejor
aproximación depende de t. La serie obtenida es asintótica, en un sentido que
se puede hacer completamente preciso, a la solución x2 (t).
150 EDO Versión 3. Octubre 1995

5.10 Ejercicios
1. Decir si las siguientes ecuaciones tienen puntos singulares o no y clasifi-
carlos:

x2 y  − 2y = 0 x2 y  − 2xy  + 2y = 0
xy + e y + (3 cos x)y = 0 (sen x)y  + xy  + 4y = 0
 x 

(x sen x)y  + 3y  + xy = 0 xy  + 2y  + 4y = 0
x2 y  + 2y  + 4y = 0

2. Resolver por medio de series en torno a x = 0 :

y  + xy  + y = 0 x2 y  − 5xy  + 3(x + 3)y = 0


(x − 1)y + 3xy + xy = 0 x2 y  − xy  − (x2 + 5/4)y = 0
2  

y  + x2 y = 0 2x2 y  − xy  + (x − 5)y = 0

3. Estudiar las soluciones en el punto x = 0 de las ecuaciones:

xy  + (1 − x)y  + py = 0
(1 − x2 )y  − xy  + p2 y = 0 (Tchebycheff)

y calcular para qué valores de p las soluciones son polinomios.

4. Demostrar que (log x)y  + y  /2 + y = 0 tiene un punto singular regular


en x = 1. Calcular los tres primeros términos del desarrollo en serie
correspondiente a la raı́z mayor del polinomio indicial. Indicar donde
converge la serie obtenida.

5. Dada la ecuación

(2x − x2 )y  + (1 − 3x)y  − y = 0

calcular sus puntos singulares y estudiar en ellos el comportamiento de


las soluciones. ¿Existe solución analı́tica en algún entorno de x = 1/2 ?
En caso afirmativo obtener los cuatro primeros términos del desarrollo y
especificar la región de convergencia.

6. Sea la ecuación
1
x2 y  + 2x2 y  + (x2 + )y = 0.
4
a) Clasificar el punto x = 0 y encontrar una solución en forma de serie
de potencias en torno a ese punto. Sumar la serie.
b) Calcular una segunda solución linealmente independiente de la primera
usando a). A la vista de estas soluciones, ¿existe alguna relación entre
esta ecuación y alguna ecuación de Euler?
MAR 151

7. Sean:

(A) t2 y  − t(t + 2)y  + (t + 2)y = 0


(B) t2 y” − 2ty  + (2 − t2 )y = 2t3 ch t.

Hallar la solución general de la homogénea por medio de series en torno a


t = 0.
Hallar la solución general en términos de funciones elementales y la solu-
ción particular que satisface:

y(1) = e, y  (1) = 2e para (A)


y(1) = 0, y  (1) = sh 1 para (B)

∞
8. Se considera la ecuación y  = xy. ¿Existen soluciones como n=0 an xn ?
En caso afirmativo hallarlasy determinar su dominio de definición. ¿Exis-

ten soluciones de la forma n=0 an (x − 1)n ? Calcularlas si las hay. ¿Qué
se puede conjeturar acerca del comportamiento de y(x) para |x|  0?

9. Resolver por medio de series las ecuaciones del problema 1 de los ejercicios
del capı́tulo 3 (suponer que durante todo el proceso de solución no se
conoce ningún desarrollo de Taylor, comprobar sólo al final que la serie
solución obtenida coincide con la calculada por métodos elementales).

10. Demostrar que:


−p
d p
dx [x Jp (x)] = xp Jp−1 (x); d
dx [x Jp (x)] = −x−p Jp+1 (x)
d
dx [Jp (x)] = Jp−1 (x) − xp Jp (x); d
dx [Jp (x)] = −Jp+1 (x) + xp Jp (x)
d
dx [Jp (x)] = 12 [Jp−1 (x) − Jp+1 (x)]

11. Obtener la función de Bessel J0 (x) siguiendo los pasos indicados:

a) Convertir la ecuación de Bessel de orden 0 mediante transformadas de


Laplace en una ecuación diferencial de primer orden para Y (s).
b) Resolver la ecuación en Y (s) y desarrollar el resultado en serie de
potencias de s.
c) Calcular, término a término, la transformada inversa de Y (s) (supo-
niendo que se puede).

12. Demostrar la fórmula de Rodrigues para los polinomios de Legendre y


usarla para probar:

a) nPn (t) = tPn (t) − Pn−1



(t)
b) (n + 1)Pn+1 (t) − (2n + 1)tPn (t) + nPn−1 (t) = 0
152 EDO Versión 3. Octubre 1995

13. Demostrar que:  x


es
y0 (x) = e−x ds
−∞ s
existe para x < 0. Probar que es solución de la ecuación diferencial:
1
y + y = .
x
Demostrar que la serie de término general
n!
an = , n = 0, 1, 2, . . . ,
xn+1
diverge ∀x = 0, pero que formalmente
N verifica la misma ecuación que
y0 . En cierto sentido la función n=0 an aproxima a y0 (x). Precisar esta
aproximación ası́ como el error cometido.
14. En el estudio de las vibraciones de una molécula diatómica se llega a una
ecuación del tipo:
2u
u + + (2e−x − e−2x − 1)u = 0
x
a) Calcular hasta x4 el desarrollo en serie de una de sus soluciones.
b) ¿Están todas las soluciones de la ecuación acotadas en el origen?
15. Sea (E): t(t − 1)y  + y  − λy = 0 λ ∈ IR
a) Calcular una solución en serie de potencias de t. Determinar para qué
valores de λ se obtiene un polinomio. Probar que todas las soluciones
de (E) están acotadas en t = 0.
b) Probar que para λ = 2 existen soluciones de (E) que tienden a 0 cuando
t tiende a ∞.
16. La ecuación:
(E) x2 (x2 − 1)y  + 2x3 y + 2y = 0
aparece al hacer el cambio t = 1/x en la ecuación:

(F ) (1 − t2 )ÿ − 2tẏ + 2y = 0

Calcular una solución no trivial de (E) acotada en x = 0. Si en el desarrollo


en serie de esta solución deshacemos el cambio x = 1/t, ¿dónde converge
la nueva serie? (y  = dy/dx, ẏ = dy/dt)
17. Hallar la solución general de las ecuaciones:
a) x2 y  + 5xy  + 4y = x−2
b) xy  − (3x + 1)y  + 9y = 0
Tema 6

Sistemas autónomos. 1

6.1 Introducción
En esta sección emprenderemos el estudio elemental de los sistemas autónomos,
es decir, sistemas de ecuaciones diferenciales en las que no aparece de forma
explı́cita la variable independiente que llamaremos siempre t, tiempo. Cuando
t aparece en el sistema, siempre se puede escribir un sistema autónomo, con-
siderando a t como función de un cierto parámetro t = s que ya no está en las
ecuaciones; el sistema tiene una ecuación y una incógnita más. La mayor parte
de los resultados que estableceremos se referirán al caso de sistemas autónomos
en el plano, donde la teorı́a es muy completa, pero lo que nos impedirá aden-
trarnos en el estudio de problemas más complejos, como caos, que aparecen en
más dimensiones (nótese que esto excluye la posibilidad de estudiar sistemas en
el plano que dependan de t, ya que el procedimiento indicado anteriormente nos
llevarı́a a un espacio de tres dimensiones). La representación gráfica jugará un
papel esencial en lo que sigue, pues, salvo en el caso de los sistemas lineales, no
es fácil obtener soluciones analı́ticas de estos sistemas; a cambio, se pueden dar
descripciones cualitativas muy sugerentes del comportamiento de las soluciones.

6.2 Definiciones y resultados elementales


Hasta que nos limitemos al caso n = 2, lo que sigue se aplica a cualquier número
de dimensiones. Sea pues el sistema autónomo:

x = f (x)

donde x(t) es una función vectorial (con valores en IRn ) de variable real, y f (x)
una función definida en un cierto dominio (abierto conexo, por ejemplo) de IRn ,
suficientemente regular (continua y lipschitziana, analı́tica las más de las veces)
de forma que las cuestiones de existencia y unicidad serán automáticamente
satisfechas. Una solución de esta ecuación es una función de un intervalo de la
recta real [t0 , t1 ] en IRn , es decir, (t, x(t)), la gráfica de la solución, que se suele

153
154 EDO. Versión 4. Mayo 1996

llamar trayectoria, es una curva en IR × IRn . Tan importante como ella, es la


proyección en el espacio IRn , pues, de la independencia de f respecto a t, se
deduce que estas proyecciones, que llamaremos órbitas, no se cortan en IRn (en
IR × IRn las trayectorias no lo hacen debido a que se satisfacen las exigencias de
los teoremas de existencia y unicidad, pero no es trivial que las proyecciones no
se corten).
Definición 6.1 Se dice que x0 ∈ IRn es un punto crı́tico para la ecuación
x = f (x) si f (x0 ) = 0. Entonces, x(t) = x0 es una solución constante del
sistema.
Ya hemos visto este tipo de situaciones para las ecuaciones autónomas (n = 1).
Como consecuencia del carácter autónomo del sistema, si x(t) es una solu-
ción, x(t − τ ), donde τ es una constante real, es otra solución, evidentemente
distinta si no es constante o periódica. Estas dos soluciones tienen la misma
proyección sobre el espacio IRn . Sean Γ y Γτ las trayectorias asociadas a las
soluciones x(t), x(t − τ ), es decir:
Γ = {(t, x(t))}, Γτ = {(t, x(t − τ ))}
donde t varı́a en un cierto intervalo; son curvas diferentes, en general, en IR×IRn .
Sean γ, γτ las proyecciones de Γ y Γτ en IRn :
γ = {x(t)}, γτ = {x(t − τ )}
Estas dos curvas, consideradas como conjunto de puntos son las mismas en
IRn . Corresponden a distintas parametrizaciones del mismo lugar geométrico.
Veamos como por un punto de IRn , contenido en el dominio donde estamos
trabajando, pasa una única órbita. Sea x0 ∈ D y Γ0 la trayectoria correspon-
diente a la única solución, x(t), que verifica x(0) = x0 . Sea Γτ la trayectoria
correspondiente a la única solución, x̃(t), que verifica x̃(τ ) = x0 . Si x0 no es un
punto crı́tico, las trayectorias Γ0 y Γτ son distintas. Sin embargo, su proyección
sobre el espacio IRn es la misma, pues x(t − τ ) = x̃(t) para todo t donde estén
definidas. Esta última afirmación es consecuencia del hecho de estar trabajando
con un sistema autónomo. Es decir, una órbita es la proyección de una familia
de trayectorias que se obtienen unas de otras por traslaciones del parámetro
t. En el caso x0 punto crı́tico, solo hay una trayectoria que se proyecte en él,
x(t) = x0 . Por tanto, cualquier otra trayectoria que tienda a él, lo hace cuando
t tiende a más infinito o menos infinito.
Las orbitas se pueden considerar descritas en forma paramétrica, con t como
parámetro. Pero también pueden ser estudiadas en forma implı́cita, eliminando
el parámetro t. Esto equivale considerar el siguiente sistema de ecuaciones:
Si el sistema original es:
x1 = f1 (x), x2 = f2 (x), . . . , xn = fn (x)
el sistema asociado que porporciona las órbitas en forma implı́cita, es:
dx1 dx2 dxn
= = ··· =
f1 (x) f2 (x) fn (x)
MAR 155

En el caso de un sistema en el plano, este sistema asociado se reduce a una


ecuación diferencial de primer orden. Las órbitas son las curvas integrales de
este sistema.
Una órbita no puede cortarse a sı́ misma sin corresponder a una solución
periódica. En efecto, supongamos que para una órbita dada se tiene:

x(0) = x(τ )

para algún τ > 0. Entonces, x(t) = x(t + τ ) para todo t, de acuerdo con el
teorema de existencia y unicidad, ası́ que la solución x(t) es periódica, y la
órbita correspondiente es una curva de Jordan.
Se llama a IRn el espacio de fases del sistema. Dado un punto de este
espacio (supongamos que D = IRn ), existe una única órbita que pasa por él.
Los puntos de la órbita se obtienen a partir de x0 :

x(t) = g t x0

donde g t es una aplicación de IRn en IRn , el llamado flujo asociado al sistema.


Desde este punto de vista, el problema puede plantearse de la forma que se
expone a continuación.
Definición 6.2 Se llama grupo uniparamétrico de transformaciones a una fa-
milia de aplicaciones de M en M (donde M es un conjunto de puntos) que
dependen de un parámetro t ∈ IR, y que verifican:

g t g s = g t+s , ∀t, s ∈ IR

g 0 = identidad en M

Definición 6.3 Un flujo es el par formado por el conjunto M y un grupo uni-


paramétrico de transformaciones de M , {g t }. M es el espacio de fases del flujo.

Definición 6.4 De acuerdo con estas definiciones, una órbita en M es la im-


agen de un punto de M por todas las aplicaciones del grupo {g t }.

Es decir, como hemos visto antes, si se define la aplicación φ:

φ : IR −→ M

por: φ(t) = g t x0 , donde x0 es un punto de M , la órbita que pasa por x0 es la


imagen de φ.
Definición 6.5 Se dice que x0 es un punto de equilibrio del flujo, si el grupo
{g t } lo deja invariante.
Entonces, la aplicación φ correspondiente es constante y la órbita que pasa
por x0 se reduce a ese punto.
En las aplicaciones que haremos, el conjunto M es un abierto de IRn , (con
más generalidad, una variedad diferenciable) y las aplicaciones del grupo son
difeomorfismos (es decir, tanto ellas como sus inversas, que existen, son difer-
enciables). Con más precisión se tiene:
156 EDO. Versión 4. Mayo 1996

Definición 6.6 El conjunto de aplicaciones {g t } de la variedad diferenciable


M en sı́ misma, es un grupo uniparamétrico de difeomorfismos si:

g : IR × M → M, g(t, x) = g t x

es una aplicación diferenciable, las aplicaciones:

gt : M → M

son difeomorfismos, y {g t } es un grupo uniparamétrico de transformaciones de


M.

Otro concepto importante es el de campo de vectores.

Definición 6.7 La velocidad del flujo, definida por:


 
d t
v(x) = gx
dt t=0

proporciona un campo de vectores en el conjunto M , asociando a cada punto x


de M el vector v(x) correspondiente.

Definición 6.8 Un punto crı́tico del campo de vectores, es aquél donde la ve-
locidad se hace cero: x0 es un punto crı́tico si v(x0 ) = 0.

Resulta entonces que los puntos de equilibrio del flujo son puntos crı́ticos del
campo de velocidades. Y viceversa.
Dado un grupo uniparamétrico de transformaciones, hemos visto como calcu-
lar el campo de velocidades asociado a él. En general el problema es el contrario,
dado un campo de vectores, calcular un grupo uniparamétrico de transforma-
ciones que tenga como campo de velocidades el campo de vectores dado. Es
decir, resolver el sistema de ecuaciones diferenciales de primer orden:

x = v(x)

Una solución de esta ecuación es una función definida en un intervalo de la


recta real con valores en M . La imagen de la aplicación que da la solución es
una órbita en el espacio de las fases M . Además, esa órbita es tangente en cada
uno de sus puntos al campo de vectores. Finalmente, la solución puede ponerse
como:
x(t) = g t x0

donde x(0) = x0 , y {g t } es un grupo uniparamétrico de transformaciones en M ,


cuyo campo de velocidades es v(x).
Llamaremos muchas veces sistemas dinámicos a este tipo de sistemas.
MAR 157

6.3 Sistemas lineales


El estudio de los sistemas autónomos lineales es una teorı́a puramente algebraica,
como hemos tenido ocasion de ver, y que puede ser estudiada completamente.
No ocurre ası́ con los no lineales. Veremos, sin embargo, que en muchos casos los
sistemas no lineales pueden ser estudiados a partir de las aproximaciones lineales
que de ellos se hacen en entornos de puntos crı́ticos, por lo que repasaremos los
sistemas lineales desde los puntos de vista introducidos previamente.
Consideremos un sistema de ecuaciones lineales autónomo, es decir, de coe-
ficientes constantes:
x = Ax
donde A es una matriz n × n.
El espacio de fases de este sistema es IRn , y el flujo tiene como grupo uni-
paramétrico de transformaciones {eAt }, con t ∈ IR. En efecto, las soluciones de
este sistema son:
x(t) = eAt x0
y la derivada de eAt x0 con respecto a t, calculada en t = 0, es justamente Ax0 ,
la velocidad. Este tipo de sistemas tiene como puntos crı́ticos las soluciones de:

Ax = 0

Si A es una matriz regular, la única solución es x = 0, único punto de equilibrio


del flujo. En general éste será el caso que estudiemos con más detalle. Se dice
que el punto crı́tico es elemental.
Ejemplo: Consideremos la ecuación del oscilador armónico amortiguado:

x + γx + kx = 0

donde se supone m = 1. Esta ecuación de segundo orden, lineal de coeficientes


constantes se puede escribir como un sistema dinámico de orden dos:
 
x =v
v  = −kx − γv

cuya solución se obtiene inmediatamente. La matriz A es:


 
0 1
−k −γ

y suponiendo que k y γ son números reales positivos, no nulos, con γ 2 mayor


que 4k, los autovalores λ1 , λ2 , son reales, distintos y negativos. Sea λ1 > λ2 .
La solución explı́cita es:
     
x(t) 1 1
= c1 eλ1 t + c2 eλ2 t
v(t) λ1 λ2
158 EDO. Versión 4. Mayo 1996

Existe una transformación lineal que permite diagonalizar la matriz A. En


la nueva base, formada por los autovectores, la solución se escribe como:
     
y(t) 1 λ1 t 0
= a1 e + a2 eλ2 t
w(t) 0 1

donde a1 = y(0), a2 = w(0). En esta base, la matriz A se convierte en:


 
λ1 0
0 λ2

y por lo tanto el campo de vectores asociado es:


 
λ1 y
λ2 w

que aparece representado en la figura 1. El único punto singular del campo es


el origen, y los ejes resultan ser lı́neas del campo, es decir, tangentes al campo
en todos sus puntos, por lo tanto posibles órbitas del sistema. No es cierto que
los dos estén en la misma órbita, ni siquiera que uno de ellos sea una órbita.
Las órbitas no se cortan y el origen es una órbita por sı́ solo. Por tanto cada
eje contiene tres órbitas, el semieje positivo, el negativo y el origen. Puesto que
el campo de vectores no tiene ninguna discontinuidad, uno cualquiera de los
semiejes es una sola órbita. No puede haber más de una porque eso implicarı́a
la existencia de nuevos puntos crı́ticos, y como hemos dicho el único punto crı́tico
es el origen. No resulta difı́cil dibujar las órbitas que aparecen en la figura 2.

y y

x x

Fig.1 Fig.2

Nótese que todas tienden al origen cuando t tiende a infinito, lo que viene
representado por la flecha dibujada sobre cada una de ellas. Además, todas
ellas son tangentes al eje horizontal (asociado al autovalor λ1 ) cuando t tiende
a infinito. El campo de vectores entra en cualquier circunferencia que se trace
de centro el origen. Este punto crı́tico es un atractor (sumidero), es decir, la
solución correspondiente es asintóticamente estable, como ya sabı́amos.
La ecuación de las órbitas en implı́citas, se obtiene fácilmente eliminando el
tiempo:
|w|λ1 = k|y|λ2
MAR 159

que representa todas las órbitas, con tal que se tome también k = ∞. Estas
curvas son curvas integrales de la ecuación diferencial:

dw λ2 w
=
dy λ1 y

que tiene un punto singular en el origen, por el que pasan infinitas soluciones.
Los puntos del eje y = 0 son también singulares, pero por ellos no pasa ninguna
solución, con lo que al escribir la ecuación asociada, cambiando los papeles de
y y w, se obtiene una solución única.
En resumen, las curvas integrales de esta ecuación contienen las órbitas del
sistema. Téngase en cuenta que una curva integral puede contener más de una
órbita. Por ejemplo, w = 0 es una curva integral de esta ecuación que contiene
tres órbitas del sistema.
Veamos ahora como las órbitas del sistema entran tangentes al eje horizon-
tal. De la ecuación asociada no se puede deducir, sin más, que la pendiente
de todas las curvas integrales, excepto el eje vertical, se hace cero en el origen.
Usando la expresion paramétrica de las soluciones se tiene:

dw w (t)
=  = be(λ2 −λ1 )t
dy y (t)

expresión que tiende a cero cuando t tiende a infinito, ya que λ1 > λ2 . Solo
cuando b = ∞, es decir, cuando estudiamos las órbitas contenidas en el eje
vertical, y = 0, la pendiente no se hace cero al tender t a infinito.
Si ahora volvemos al sistema original, es decir, en la base canónica, la matriz
del cambio de base es:
 
1 1
P =
λ1 λ2

con la que se obtiene la solución dada anteriormente. El mapa de fases se


deforma al sufrir la transformación P . Sin embargo, los ejes se convierten en
rectas, que son los autovectores, y con más generalidad, los elementos lineales,
es decir el campo de vectores, se transforman linealmente. Por tanto, el nuevo
mapa de fases es el que aparece en la figura 3.
Las órbitas siguen cayendo hacia el origen cuando t tiende a ∞, y entran en
él tangentes a una de las rectas de autovectores, concretamente a la asociada al
mayor de los dos autovalores, salvo por supuesto, las dos órbitas asociadas al
otro autovalor, que lo hacen desde lados opuestos a la recta del autovalor mayor.
En este mapa de fases, el eje horizontal es la posición del oscilador y el vertical
la velocidad; cada punto representa un estado del sistema, que, como sabemos,
viene dado por el par de datos posición–velocidad.
160 EDO. Versión 4. Mayo 1996

y x b

t
x a

Fig.3 Fig.4
El movimiento en el espacio de configuración, que es una recta, se puede
deducir de la evolución del estado en el espacio de fases. Por ejemplo, supong-
amos que en t = 0 el estado del sistema es (x0 , v0 ) (punto a en la figura 3).
La velocidad es positiva, y la elongación negativa. Por tanto el punto material
con el que trabajamos, se dirige hacia el origen (el origen del espacio real) con
velocidad decreciente, que tiende a cero. Cuando t tiende a ∞ tanto la posición
como la velocidad se anulan, pero el punto no atraviesa el origen. Si ahora con-
sideramos el punto b como estado inicial (ver figura 3) la velocidad es positiva
y la elongación es negativa, como antes. Sin embargo, en este caso la relación
entre posición y velocidad es tal que el punto llega al origen con velocidad no
nula en un tiempo finito (insistimos en que se trata del origen en el espacio
real, es decir el punto x = 0). En la órbita atravesamos el eje de velocidades.
Debido a la velocidad no nula, el móvil atraviesa el origen y se desplaza hacia
posiciones con x positiva, alejándose del origen hasta que su velocidad se anula
(en la órbita hemos atravesado el eje de posiciones). A partir de este instante
su velocidad es negativa y su posición es positiva. El móvil cae hacia el origen
al que llega en un tiempo infinito. Nótese que desde el punto de vista de la
ecuación de segundo orden de la que hemos partido, las soluciones tienen su
gráfica en diagramas (t, x), como se ve en la figura 4.
Los dibujos en el mapa de fases se pueden interpretar, desprovistos de
cualquier comentario referente a las flechas que allı́ aparecen, como el dibujo
de las curvas integrales de la ecuación de primer orden asociada, que se llama,
por tanto, ecuación de las órbitas (basta recordar el método de isoclinas estu-
diado para las ecuaciones de primer orden para relacionar de forma clara estas
dos formas de ver el problema). La relación entre un sistema de segundo or-
den y la ecuación de las órbitas asociada no es única (sea el sistema lineal o
no, incluso sea de segundo orden o no). Dado un sistema, la ecuación de las
órbitas es única, pero una ecuación de primer orden está asociada a una familia
infinita de sistemas, con mapas de fases ciertamente relacionados, pero distintos
en general. Si la ecuación es:
dy f (x, y)
y = =
dx g(x, y)
podemos escribir los sistemas:

x = k(x, y)g(x, y)
y  = k(x, y)f (x, y)
MAR 161

donde k(x, y) es cualquier función razonablemente suave. Todos estos sistemas


tienen la misma ecuación de las órbitas. Pero dependiendo de k(x, y) sus puntos
singulares son distintos.
El comportamiento de las órbitas en un entorno del punto crı́tico, (0, 0) en
este ejemplo, se repite en otros muchos, y se dice que el origen es un nodo
estable. Más adelante introduciremos la clasificación de los puntos singulares
de los sistemas lineales. Pero antes repasaremos los conceptos de estabilidad en
sistemas autónomos (lineales o no).

6.4 Estabilidad de sistemas autónomos


Consideremos el sistema:
x = f (x)
con f definida en un abierto D de IRn , continua y lipschitziana en D. Sea
x0 un punto crı́tico, es decir, f (x0 ) = 0. Definimos las siguientes nociones de
estabilidad. Supondremos que x0 = 0, para mayor sencillez de notación.
Definición 6.9 Se dice que el punto crı́tico 0 es estable si para todo 2 > 0 existe
δ(2), tal que si x0 < δ, entonces x(t) < 2 para todo t ≥ 0 , donde x(t) es la
única solución con x(0) = x0 (Fig.5a).
Como sabemos, en los sistemas lineales homogéneos, la estabilidad del origen
equivale a la acotación de las soluciones.
Definición 6.10 Si el punto crı́tico es estable y además, para todo 2 > 0 existe
η > 0 tal que limt→0 x(t) = 0, donde x(0) = x0 , x0 | < η entonces se dice
que el punto crı́tico es asintóticamente estable (Fig.5b).

Fig.5a Fig.5b
En el caso de los sistemas lineales, sabemos que si la parte real de todos los
autovalores es negativa, el sistema es asintóticamente estable.
La estabilidad de los puntos crı́ticos es fundamental en el estudio de los sis-
tema dinámicos, pero tambien es necesario a veces, saber que tipo de estabilidad
presentan las trayectorias y las órbitas.
Definición 6.11 (Estabilidad de trayectorias) Sea C una clase de trayec-
torias del sistema autónomo x = f (x), y Γ0 una de ellas correspondiente a la
solución que verifica x(0) = x0 . Se dice que Γ0 es estable si:
para todo 2 > 0, existe δ(2) > 0 tal que, si Γ1 es otra trayectoria en la clase C,
correspondiente a la solución con x̃(0) = x1 y x0 − x1 < δ, entonces, para
todo t ≥ 0, x(t) − x̃(t) < 2. Si además, x̃(t) tiende a x(t) cuando t tiende a
infinito, se dice que la estabilidad es asintótica (en C).
162 EDO. Versión 4. Mayo 1996

Ocurre muchas veces que la velocidad con la que se recorren las órbitas
varı́a de unas a otras, de forma que, aunque los puntos representativos del
estado del sistema sobre distintas órbitas estén muy lejanos, las órbitas como
lugares geométricos son próximas entre sı́ . Por ello se introduce el concepto de
estabilidad orbital.

Definición 6.12 (Estabilidad orbital) Sea C una clase de órbitas, y γ0 una


de ellas. Se dice que γ0 es orbitalmente estable en la clase C si dado 2 > 0,
existen δ(2), τ (2) positivos, tales que si otra trayectoria de la clase C pasa en
t = τ más próxima a γ0 que δ, entonces no se aleja de la órbita γ0 más de 2
para todo t ≥ τ . Es decir, se considera un entorno de la órbita γ0 de radio 2,
y las órbitas que en determinado instante se encuentran a distancia menor que
δ del punto correspondiente de la órbita γ0 , no salen del entorno mencionado
para cualquier tiempo posterior.

El concepto resulta muy útil en el caso de órbitas cerradas. Para el caso no


lineal, es posible que órbitas cerradas próximas tengan periodos distintos. Esto
hace que aunque dos órbitas, consideradas como lugares geométricos, estén muy
próximas, los puntos que representan el estado del sistema sobre cada una de las
órbitas en un instante dado t, puedan estar muy separados. No existe estabilidad
en el sentido de trayectorias, pero sı́ en el sentido orbital dado anteriormente.
Ejemplo. Si se considera un reloj de péndulo, existen dos soluciones asintóti-
camente estables, suponiendo que la cuerda permita el movimiento indefinido del
reloj. Si el estado inicial es de ciertas caracterı́sticas (amplitud inicial pequeña),
el péndulo oscila durante algun tiempo con amplitud decreciente, tendiendo a
detenerse cuando t tiende a infinito, en la práctica al cabo de un cierto inter-
valo. El reposo es un punto de equilibrio asintóticamente estable. Sin embargo,
esto no quiere decir que cualquier órbita acabe en el origen. En efecto, ex-
istirá una órbita cerrada correspondiente al movimiento estable del péndulo.
Con unas condiciones iniciales adecuadas, la órbita tiende a esta órbita estable
(asintóticamente estable en el sentido orbital) y el reloj adopta un estado de
equilibrio que corresponde a una órbita cerrada (que no un punto singular).
Volvamos nuevamente a los sistemas lineales, x = Ax, A ∈ Mn (IR), donde
sabemos que el origen es un punto singular. Supongamos además que es el único.
Se dice que x = 0 es un sumidero (atractor) del sistema si la parte real de todos
los autovalores es negativa. Se dice tambien que el flujo correspondiente es una
contracción. Si se elige adecuadamente la norma en el espacio de fases, todas
las órbitas que atraviesan una cierta esfera de centro el origen apuntan hacia el
origen. Como hemos dicho antes, las soluciones tienden hacia el origen (al ser
un sistema lineal, todas las soluciones tienden a cero cuando t tiende a infinito).
En el caso en que la parte real de todos los autovalores sea positiva, se dice
que el origen es una fuente (repulsor). Lo dicho anteriormente es ahora válido
cambiando t por −t. El flujo se llama una expansión.
Los flujos más generales son aquellos en los que la matriz A tiene autovalores
con parte real no nula. Se llaman flujos hiperbólicos. Los flujos hiperbólicos son
densos en el espacio de todos los flujos, en el siguiente sentido:
MAR 163

Proposición 6.1 El conjunto {A ∈ L(IRn ) : etA es un flujo hiperbólico} es


denso y abierto (en L(IRn )).

Es decir, todo flujo lineal puede ser aproximado arbitrariamente por un flujo
hiperbólico. Los flujos lineales con autovalores de parte real cero son pues escasos
(en el sentido anterior). Todo flujo lineal hiperbólico puede descomponerse en
una parte correspondiente a un sumidero y otra correspondiente a una fuente.
El siguiente teorema, de carácter puramente algebraico, lo afirma asi:

Teorema 6.1 Sea etA un flujo lineal hiperbólico, A ∈ L(IRn ). Entonces, IRn
admite una descomposición en suma directa:

IRn = E s ⊕ E u

invariante bajo A, y de forma que el flujo etA sea una contracción cuando se
restringe A al espacio E s , y una expansión cuando se hace a E u

Esto no quiere decir, que todas las trayectorias tiendan al origen cuando t tiende
a ∞ (espacio E s ) o a −∞ (espacio E u ). Habrá otras que no tengan ninguno de
estos dos comportamientos.

6.5 Clasificación de puntos crı́ticos. Sistemas li-


neales autónomos planos
En lo que sigue nos limitaremos a los sistemas en IR2 . El caso n > 2 es mucho
más complejo y no podemos tratarlo aquı́ . Estudiaremos primero los sistemas
lineales y después los no lineales. Los puntos crı́ticos serán elementales, como
definiremos a continuación, aunque alguna nota se hará respecto a los no ele-
mentales.
Sea el sistema lineal autónomo en IR2 :
 
x = ax + by
y  = cx + dy

donde a, b, c, d son números reales, y la matriz A:


 
a b
A=
c d

Definición 6.13 Se dice que el origen, que es un punto crı́tico, es un punto


elemental si el determinante de la matriz A es distinto de cero.

Entonces, sus autovalores son distintos de cero. El único punto singular es


el origen, y esto es lo que clasificamos. El tipo de clasificación que intentamos
establecer es el basado en la linealidad del sistema. Es decir, dos sistemas
autónomos son linealmente equivalentes si existe una matriz 2 × 2 que lleva uno
en otro. Por tanto:
164 EDO. Versión 4. Mayo 1996

Definición 6.14 Dos sistema autónomos lineales Nx = ANx, Ny  = BNy (A, B son
dos matrices n × n) son linealmente equivalentes si existe una matriz n × n, P ,
regular, tal que:
B = P AP −1
(las coordenadas se transforman como Ny = P Nx).

Está claro ahora que lo único que interesa a la hora de establecer la equiv-
alencia lineal son los autovalores y sus multiplicidades aritmética y geométrica.
Teniendo en cuenta que se trata de un sistema de orden dos, las posibilidades
que se presentan son las siguientes (det A = 0).

6.5.1 Autovalores reales


• (tr A)2 > 4 det A > 0 Es decir, raı́ces reales distintas del mismo signo.
Según este signo, se dice que el origen es:

si λ2 < λ1 < 0: NODO ESTABLE


si 0 < λ2 < λ1 : NODO INESTABLE

Las órbitas aparecen dibujadas en las figuras 6a y 6b, donde las órbitas
rectas son las direcciones de los autovectores. Nótese como en ambos casos
todas las órbitas entran (nodo estable) o salen (nodo inestable) del origen
tangentes a la recta de autovalor mayor (estable) o menor (inestable). Con
más precisión, cuando t tiende a +∞, las órbitas se aproximan al origen
en el caso estable, mientras que en el caso inestable lo hacen cuando t
tiende a −∞. La demostración es inmediata y sigue las lı́neas de lo hecho
en el caso del oscilador amortiguado (mutatis mutandis).

y y 1
2

1 2

x x

Fig.6a Fig.6b

• (tr A)2 = 4 det A. Es decir, raı́ces reales iguales. En este caso la matriz
A es diagonal (recuérdese que es 2 × 2) o bien no es diagonalizable. En
cualquier caso se sigue hablando de nodos.

A diagonal. La razón entre x(t) e y(t) es constante, por lo que las órbitas
son rectas que tienden al origen o se alejan de él, según que el au-
tovalor sea negativo o positivo. Como antes, estamos en un flujo
MAR 165

hiperbólico que es una contracción o una expansión. En este caso


se suele hablar en ocasiones de un nodo estelar estable o inestable
(figuras 7a y 7b).

y y

x x

Fig.7a Fig.7b

A no diagonalizable. Este caso se llama nodo de una tangente (solo


hay un autovector). Hay dos órbitas que son rectas (situadas sobre
una misma recta que pasa por el origen) y todas las demás entran
(nodo estable, autovalor negativo) o salen (nodo inestable, autovalor
positivo) del origen tangentes a ellas (figuras 8a y 8b).

y
y

x x

Fig.8a Fig.8b

En resumen, los nodos aparecen ligados a flujos hiperbólicos que son una
contracción o una expansión. Todas las órbitas acaban en el origen, bien
cuando t → +∞, o cuando t → −∞.

Fig.9
166 EDO. Versión 4. Mayo 1996

• det A < 0. Es decir autovalores de distinto signo: λ1 < 0 < λ2 . El


flujo es aún hiperbólico, pero no es una contracción ni una expansión. De
acuerdo con el teorema anterior, IR2 se puede poner como suma directa de
dos espacios unidimensionales, que son justamente los asociados a los dos
autovectores. Sobre uno de ellos, el correspondiente al autovalor negativo,
el flujo es una contracción. Sobre el otro, correspondiente al autovalor
positivo, el flujo es una expansión. Hay dos órbitas que son rectas que
tienden al origen cuando t → +∞. Y otras dos órbitas rectas que tienden
al origen cuando t → −∞. Las otras órbitas no tienden al origen en
ningún caso. Se dice que el origen es un PUNTO SILLA. En la figura 9
se dibujan las órbitas correspondientes.

6.5.2 Autovalores complejos


Supongamos que son λ = α ± iβ, con β > 0. Como ya hemos visto cuando
estudiamos los sistemas lineales, existe una transformación lineal que permite
escribir la matriz A en su forma canónica:
 
α −β
P AP −1 =
β α
donde P es la matriz dada por:
 
P = v u
siendo u = (w), v = (w), w el autovector correspondiente a α + iβ. Con-
sideremos entonces que la matriz A está en su forma canónica. Si ponemos
z = x + iy, el sistema es equivalente a la ecuación compleja:
z  = λz
cuya solución se calcula inmediatamente:
z(t) = Ceαt eiβt
Es decir, si α < 0 aparecen espirales decrecientes, que tienden al origen cuando
t → +∞. Tenemos nuevamente un flujo hiperbólico que corresponde a una
contracción. Si α > 0, el flujo hiperbólico que se obtiene es una expansión. Las
órbitas son espirales que se alejan del origen cuando t → +∞. En el primer caso
se tiene un FOCO ESTABLE. En el segundo se obtiene un FOCO INESTABLE
(ver figuras 10a,10b).

y y

x x

Fig.10a Fig.10b
MAR 167

Si α = 0 estamos en el único caso en que no aparece un flujo hiperbólico.


Ahora la parte real de los autovalores es cero. El sistema no es estable, con-
cretamente no es estructuralmente estable, en el sentido que una perturbación
pequeña hace que la parte real deje de ser cero. Se dice que el punto crı́tico
es un CENTRO, y es estable pero no asintóticamente estable. Las órbitas son
circunferencias de centro el origen ya que el módulo de z es constante. En
cualquier caso, las órbitas giran en torno al origen en sentido antihorario (posi-
tivo)( fig.11).

Fig.11

Los razonamientos anteriores se podrı́an haber hecho pasando a polares,


donde se advierte el carácter espiral de las órbitas, en el caso de un foco, o como
éstas son circunferencias en el caso de un centro. Sea:

z = ρeiθ

Las ecuaciones que verifican el radio y el ángulo son:

z  = λz ⇒ ρ eiθ + iρθ eiθ = ρ(α + iβ)eiθ

de donde:

ρ = αρ
θ = β

cuya solución es inmediata:

ρ(t) = Ceαt
θ(t) = βt + b

Obtenemos pues espirales logarı́tmicas crecientes (α > 0), decrecientes (α <


0) o circunferencias (α = 0), mientras el ángulo crece linealmente con t (β > 0).
Si se elimina t entre ambas ecuaciones se obtiene la ecuación implı́cita de las
órbitas:
ρ(θ) = ρ0 eαθ/β
Nótese que x(t), y(t) son funciones armónicas de t, con amplitud dependiente
también de t.
168 EDO. Versión 4. Mayo 1996

Supongamos ahora el caso general, en el que A tiene autovalores complejos


pero no está en forma canónica. Al hacer la transformación P que la lleva a la
forma canónica, calcular el mapa de fases y volver atrás, las órbitas se deforman,
de manera que las espirales se alargan en alguna dirección y las circunferencias
se transforman en elipses.
Además, el sentido de giro de las órbitas puede ser positivo o negativo. Esta
última propiedad es fácilmente detectable en la matriz A. En efecto, el sentido
es positivo si la transformación P conserva la orientación (ya que hemos visto
que en la forma canónica el sentido era positivo). Ası́ pues, basta calcular el
determinante de la matriz P . Si es positivo, las órbitas giran en sentido positivo.
Si es negativo, lo hacen en sentido negativo. Pero la matriz P es:
 
0 b
P =
β α−a

y su determinante es:
det P = −bβ
como β > 0, si b es negativo, el sentido de giro de las órbitas es positivo, y si b
es positivo el sentido de giro es negativo. La constante b (el elemento 12 en la
matriz A) no puede ser cero si hay autovalores complejos.
Supongamos que tenemos un centro. Los autovalores son λ = ±iβ, por lo
que la traza de A es cero y el determinante es β 2 > 0. Sea A:
 
a b
A=
c d

con bc < a2 . Entonces β 2 = −bc−a2 . La ecuación de las órbitas puede obtenerse


de la siguiente forma. Consideremos la ecuación de primer orden asociada:

dy cx − ay
=
dx ax + by

que es una ecuación homogénea (como siempre cuando el sistema es lineal), por
lo que un cambio apropiado serı́a v(x) = y/x. Sin embargo, cuando la traza de
la matriz A es cero, es decir cuando se trata de un centro y en algunos tipos
de puntos silla, la ecuación anterior no solo es homogénea sino tambien exacta.
Esto hace las cosas mucho más fáciles:

(ay − cx)dx + (ax + by)dy = 0

La solución viene dada por las curvas de nivel de la función:

U (x, y) = by 2 − cx2 + 2axy

que son elipses. La matriz de la forma cuadrática que se construye es definida


positiva (o definida negativa), pues, suponiendo que b sea mayor que cero, (ya
sabemos que no es cero en este caso) c debe ser menor que cero (tampoco puede
MAR 169

ser cero), y además, −bc−a2 es positivo (el caso b < 0 es totalmente equivalente).
Ası́ pues las curvas:
by 2 − cx2 + 2axy = k 2
son elipses de centro el origen. En cuanto al cálculo de sus ejes, comunes para
toda la familia, se puede hacer de las múltiples formas en las que uno calcula
los ejes de una cónica. Por ejemplo, en coordenadas polares:
x = ρ cos θ
y = ρ sen θ

k2
= b sen2 θ − c cos2 θ + a sen 2θ
ρ2
Los ejes unen el centro con los puntos más alejados (eje mayor) o menos (eje
menor). Basta pues hallar los máximos y mı́nimos de la función:
h(θ) = b sen2 θ − c cos2 θ + a sen 2θ
Derivando:
h (θ) = (b + c) sen 2θ + 2a cos 2θ
de donde igualando a cero:
2a
tan 2θ = −
b+c
y de aquı́ podemos obtener la posición de los ejes.
Resumamos los resultados obtenidos:
Autovalores reales

Del mismo signo: NODO λ1 = λ2


Iguales:
Matriz diagonalizable: Nodo estelar
Matriz no diagonalizable: Nodo de una tangente
Positivos: Inestable 0 < λ2 < λ1
Negativos: Estable λ2 < λ1 < 0
De distinto signo: PUNTO SILLA λ2 < 0 < λ1

Autovalores complejos
Con parte real distinta de cero: FOCO λ = α ± iβ, β>0
Positiva α > 0: Inestable
Negativa α < 0: Estable
Con parte real igual a cero: CENTRO (β > 0)
En la figura 12, donde se han representado en el eje de abcisas el determi-
nante de la matriz A y en el de ordenadas la traza, se hace un esquema de esta
clasificación.
170 EDO. Versión 4. Mayo 1996

NODO
TrA INESTABLE

FOCO INESTABLE
PUNTO CENTRO
SILLA detA
FOCO ESTABLE

NODO
ESTABLE

Fig.12

6.6 Ejemplos: Sistemas lineales en IR2


Dibujemos el mapa de fases de los siguientes sistemas:
Ejemplo 1.  
x = x + 2y
y  = 2x − 2y
Los autovalores de la matriz A asociada son: λ1 = −3, λ2 = 2. Se trata por
tanto de un punto silla. Las unicas órbitas rectas corresponden a los autovectores
de la matriz que son:

λ1 → (−1, 2)
λ2 → (2, 1)

Sobre la recta asociada al primer autovector, hay tres órbitas, el origen y


dos que entran en él cuando t tiende a infinito. Sobre la otra, las dos órbitas
correspondientes salen. Las otras órbitas tienden a las rectas cuando t tiende a
±∞. El hecho de que los dos autovectores sean ortogonales corresponde sim-
plemente a que la matriz es simétrica. En general no ocurre ası́ como sabemos
(Fig.13).

y y

x x

Fig.13 Fig.14

Ejemplo 2. 
x = −5x + 4y
y  = −3x + 2y
MAR 171

En este caso los autovalores son λ1 = −2, λ2 = −1, siendo el origen un nodo
estable. Los autovectores correspondientes son:

λ1 → (4, 3)
λ2 → (1, 1)

Todas las órbitas tienden al origen cuando t tiende a infinito, y todas entran
tangentes a las órbitas correspondientes al autovalor −1, el mayor de los dos,
salvo las correspondientes al autovalor −2, que lo hacen cada una desde un lado
de la recta del autovalor −1. El dibujo del campo de vectores en algunos puntos
puede ayudar a obtener el mapa de fases (Fig.14).
Ejemplo 3.  
x = −6x + 4y
y  = −4x + 2y
Hay un autovalor doble λ = −2. Se trata de un nodo estable de una tangente,
que es el único autovector que hay: (1, 1). Todas las órbitas entran en el origen
cuando t tiende a infinito, tangentes a la diagonal del primer cuadrante. Si
dibujamos el campo de vectores del sistema en algunos puntos se puede obtener
el mapa de fases dibujado en la figura 15.

y y

x x

Fig.15 Fig.16

Ejemplo 4. 
x = 3x − y
y  = 2x + y
Los autovalores son ahora complejos: λ = 2 ± i. Por lo tanto, el origen es un
foco inestable. Las órbitas giran en torno al origen en sentido positivo, (pues
−1 < 0) alejándose de él cuando t tiende a infinito (Fig.16).
Ejemplo 5.  
x = x + 5y
y  = −x − y
Los autovalores son λ = ±2i. Se trata de un centro. Las órbitas son elipses
que giran en torno al origen en sentido negativo (5 > 0). La ecuación de las
órbitas es, como hemos visto:

5y 2 + x2 + 2xy = C
172 EDO. Versión 4. Mayo 1996

donde C es una constante positiva. Los ejes de las elipses se pueden obtener de:
2a 1
tan 2θ = − =−
b+c 2
de donde:
θ = −0.23, θ = 1.34
o o
(es decir, aproximadamente, 167 , 77 ). El primero de ellos corresponde a la
localizacion del eje mayor, y el segundo a la del eje menor (Fig.17).

Fig.17

6.7 Puntos crı́ticos no elementales


Supongamos que uno de los dos autovalores de la matriz A es cero. Sea λ el
otro autovalor no nulo y consideremos la matriz en su forma canónica:
 
0 0
A=
0 λ
Los puntos del eje x, correspondiente al núcleo del operador A, son todos
puntos crı́ticos. El campo vectorial es paralelo al eje y, (0, λy), y se dirige hacia
el eje x o en sentido contrario, según λ sea negativo o positivo. Las soluciones
explı́citas son:
x(t) = a
y(t) = beλt
El mapa de fases aparece en la figura 18.

y y

x x

Fig.18 Fig.19
MAR 173

Si los dos autovalores son cero, aparte del caso trivial en el que la matriz A
es cero, la forma canónica es:
 
0 1
A=
0 0

Todos los puntos situados en el eje x son crı́ticos en este caso (nuevamente
los situados en el núcleo del operador A). Las soluciones explı́citas son:

x(t) = at + b
y(t) = a

por lo que las órbitas son paralelas al eje x y no tienden a ningún punto crı́tico
(Fig.19).

En IRn la situación es similar, aunque el número de posibilidades sea mayor.


Sin embargo, cuando el sistema es no lineal las cosas cambian. En lo que
sigue estudiaremos la estabilidad de un sistema no lineal y los casos que se
presentan en el plano, aún cuando algunos conceptos sean válidos para cualquier
dimensión.

6.8 La estabilidad según Liapunov


Los sistemas no lineales presentan en su estudio situaciones mucho más compli-
cadas que los lineales. Por ejemplo las cuestiones de estabilidad adquieren aquı́
una importancia y dificultad mayores y es necesario un análisis de la cuestión
más delicado y profundo. La teorı́a de la estabilidad de Liapunov proporciona
una herramienta muy útil para el estudio de estas cuestiones.
Supongamos que tenemos un sistema autónomo x = f (x) donde f (x) es
una función C 1 en un cierto abierto de IRn y x es un vector en ese espacio
dependiente de t. Daremos en primer lugar el llamado método directo, basado
en la función de Liapunov, concepto que introduciremos a continuación.

Definición 6.15 Sea F : D → IR, D abierto de IRn , una función diferenciable.


Consideremos un campo de vectores v(x) en IRn . Se define la derivada de F (x)
respecto al campo de vectores v(x) por:
 
d
Lv F (x0 ) = F (φ(t))
dt t=0

donde φ(t) es una curva en IRn que verifica:

φ(0) = x0 , φ (0) = v(x0 )

Es decir, en cada punto de D calculamos la derivada de F como la derivada


según el vector del campo en ese punto. Evidentemente la derivada no depende
174 EDO. Versión 4. Mayo 1996

de la curva elegida, con tal que verifique las condiciones anteriores. La derivada
se puede calcular de la siguiente forma:

n
∂F
Lv F (x0 ) = (x0 )v(x0 )
∂xk
k=1

expresión que se obtiene sin más que usar la regla de la cadena y las condiciones
sobre t. Se define la función Lv F (x) como la derivada de F (x) según el campo
de vectores v(x) en cada punto x de D.
El siguiente teorema, el resultado fundamental del método directo o segundo
método de Liapunov, establece una condición suficiente para la estabilidad de
un punto crı́tico de un sistema autónomo.
Teorema 6.2 (Liapunov) Sea x0 punto crı́tico del sistema x = f (x), con
f ∈ C 1 en un abierto que contiene a x0 , D. Supongamos que existe una función
W (x) definida en un entorno U de x0 contenido en D, derivable en U , que
verifica las propiedades siguientes:
a) W (x) es definida positiva en U (mayor que cero para todo punto de U salvo
en x0 donde se hace 0).
b) La derivada con respecto al campo f (x) es negativa o cero en U .
Entonces, x0 es un punto de equilibrio estable. Además, si la derivada es
definida negativa en U , la estabilidad es asintótica.
Las condiciones sobre la derivabilidad pueden no exigirse en x0 .

Definición 6.16 Se dice que W (x), con las propiedades especificadas en el teo-
rema anterior, es una función de Liapunov de este sistema en el punto crı́tico
x0 .

Nótese que la derivada de W (x) con respecto al campo de vectores f (x) es


simplemente la derivada de W (x(t)) con respecto a t, donde x(t) es una solución
de la ecuación diferencial. La función de Liapunov juega un papel de función
potencial, de manera que es positiva, salvo en el punto crı́tico, donde se anula
(es decir, el punto crı́tico es un mı́nimo estricto local), y tal que su pendiente
siguiendo las lineas del campo es negativa o cero. Por supuesto no tiene porqué
ser única en caso de existir. Lo que viene a decir el teorema de Liapunov, es
que si la función definida positiva W (x), tiene derivada según las órbitas (que
son las curvas del campo) negativa, entonces éstas se dirigen hacia el punto x0
que es entonces estable o asintóticamente estable si exigimos que la derivada sea
definida negativa. Véase la figura 20 donde se hace un esquema de las curvas
de nivel de W (x) y las órbitas del sistema.
Ejemplo: Consideremos el sistema autónomo:
 
 x = 2y(z − 1)
y  = −x(z − 1)
 
z = −z 3
MAR 175

Fig.20

El origen es un punto crı́tico de este sistema, y su estabilidad puede ser


analizada con la ayuda de una función de Liapunov, que construiremos de la
forma siguiente. Buscamos una función positiva en un entorno del origen en
IR3 . Escribámosla como una forma cuadrática:

W (x, y, z) = ax2 + by 2 + cz 2

e impongamos que su derivada con repecto al campo definido por los segundos
miembros de las ecuaciones del sistema sea negativa:

Lf W (x, y, z) = 2(axx + byy  + czz  ) =


2(ax2y(z − 1) − byx(z − 1) − cz 4 ) = 2((2a − b)xy(z − 1) − cz 4 )

Lo mas útil para conseguir que esta función sea negativa es poner b = 2a y
tomar c positivo (por ejemplo c = 1). De esta forma, la función:

W (x, y, z) = a(x2 + 2y 2 ) + z 2

es una función de Liapunov para el sistema con a positivo, pues su derivada es:

Lf W (x, y, z) = −2z 4

Nótese sin embargo que la derivada se hace cero no sólo en el punto crı́tico
(el origen) sino tambien en el plano z = 0. Por tanto, no se puede afirmar a
partir del teorema anterior la estabilidad asintótica del origen, pero al menos sı́
su estabilidad.
En algunos casos, la dificultad del ejemplo anterior, discriminar entre esta-
bilidad y estabilidad asintótica, se puede resolver. Consideremos el siguiente
teorema:

Teorema 6.3 Sea el sistema autónomo x = f (x), f (x) derivable con con-
tinuidad en IRn , y supongamos que el origen es un punto crı́tico. Si existe una
función real W (x) también en C 1 (IRn ), verificando:

1. W (x) > 0, ∀x ∈ IR \ {0}; W (0) = 0

2. W (x) → ∞, cuando x → ∞

3. Lf W (x) < 0, para cualquier solución (distinta de x(t) = 0) del sistema.


176 EDO. Versión 4. Mayo 1996

entonces, la solución x(t) = 0 es asintóticamente estable, y toda solución tiende


a ella (la cuenca de atracción de esa solución es todo IRn ).
Aún cuando la derivada según el campo de vectores se anule en algún punto,
es posible probar lo siguiente:
si Lf W (x) ≤ 0, y el conjunto de puntos donde esa derivada se hace cero,
K0 , no contiene ninguna órbita, entonces x(t) = 0 es asintóticamente estable.
Con más precisión se exige:
Si x(t) es una solución distinta de cero, {x(t) : t ≥ t0 } no está contenido
en K0 para ningún t0 .

La última propiedad se expresa en ocasiones diciendo que K0 es positiva-


mente invariante:

Definición 6.17 Se dice que un conjunto del espacio de fases es positivamente


invariante si se puede definir, para todo punto x de ese conjunto, la aplicación
g t para todo t y las imágenes obtenidas están en el conjunto (es decir, las órbitas
que pasan por un punto de ese conjunto están definidas para todo tiempo positivo
y no se salen del conjunto).

Damos a continuación otro enunciado similar al anterior, pero de carácter


local.

Teorema 6.4 Supongamos que x0 es un punto crı́tico de un sistema autóno-


mo, x = f (x), y que existe una función de Liapunov, W (x), definida en un
entorno U de x0 . En este caso, si existe un entorno de x0 , V , contenido en
U (y cerrado en el espacio de fases), tal que es positivamente invariante, y no
existe ninguna órbita completa (es decir, definida para todo t ∈ IR) en V \ {x0 }
sobre la cuál W (x) sea constante, el punto crı́tico es asintóticamente estable.
Además el conjunto V está en la cuenca de atracción de x0 .

En el ejemplo anterior, el conjunto K0 es el plano z = 0. Supongamos


que hay una órbita contenida en ese plano: (x(t), y(t), 0). Sustituyendo en el
sistema:  
x = −2y
y = x
sistema que tiene solución inmediata:

x(t) = a cos( 2t + φ)
√ √
y(t) = − 2a sen( 2t + φ)
En este caso, hay órbitas contenidas completamente en el plano z = 0, luego
el teorema anterior no es aplicable. Pero es más, dado que hemos sido capaces
de construir una familia de órbitas en ese plano que son cerradas, está claro que
la estabilidad del origen (que es cierta como dice el teorema de Liapunov) no
es asintótica. Tendremos más adelante oportunidad de estudiar otros ejemplos
donde sı́ se puede aplicar el teorema.
MAR 177

Ejemplo: Consideremos el sistema:


 
y = − sen θ − ay 2
θ = (cos θ − y 2 )/y

que describe el movimiento de un planeador, donde y es la velocidad del centro


de masas (normalizada) y θ el ángulo que forma la velocidad con una lı́nea
horizontal. Se supone que el plano de simetrı́a del planeador es siempre vertical.
La constante a depende de ciertas caracterı́sticas aerodinámicas del aparato y
supondremos que es cero para simplificar. Busquemos los puntos crı́ticos de
este sistema. La primera ecuación proporciona θ = 0, y la segunda y = 1. Una
función de Liapunov para este sistema es:
1 1/3 2
W (y, θ) = y − y cos θ +
3 3
En efecto, W es definida positiva en un entorno del punto (1, 0), en donde
vale 0. Su derivada con respecto al campo dado por la ecuación es:

Lf W (y, θ) = y 2 y  − y  cos θ + yθ sen θ =


−(y 2 − cos θ) sen θ + (y 2 − cos θ) sen θ = 0

Es decir es cero en todos los puntos. En este caso, la función de Liapunov


es una integral primera del sistema, y el punto crı́tico considerado es estable, de
acuerdo con el teorema de Liapunov. Las integrales primeras volverán a tratarse
en otro lugar.
Ejemplo: Consideremos el siguiente sistema autónomo:
 
x = −2x − y 2
y  = −y − x2

Estudiemos la estabilidad del origen (que obviamente es un punto crı́tico de


este sistema). Para ello construiremos una función de Liapunov. No entraremos
ahora en los métodos utilizados, ya que como veremos, para los sistemas lineales
existen formas directas de hacerlo en el caso de que existan y para algunos no
lineales se pueden aprovechar estas técnicas. En cualquier caso, sea:

W (x, y) = x2 + 2y 2

Es claro que W es una buena función de Liapunov para este sistema:

1. W (x, y) > 0 en un entorno del origen de hecho en todo el plano, salvo en


el origen, donde vale cero.

2. Lf W (x, y) = 2xx + 4yy  = −(4x2 + 2xy 2 + 4y 2 + 4x2 y). Esta función,


que se anula en el origen, no es definida negativa en todo el plano. Pero sı́
que lo es en un entorno suficientemente pequeño del origen (por ejemplo
en V = (−1, 3) × (0.1, 15)).
178 EDO. Versión 4. Mayo 1996

Por consiguiente, el origen es un punto crı́tico estable, de hecho, asintóti-


camente estable. En cuanto a su cuenca de atracción, ésta no cubre todo el
plano. Existen órbitas que no tienden a este punto cuando t tiende a infinito
(figs. 21a,21b).

Fig.21a Fig.21b

Se pueden dar criterios de inestabilidad, usando conceptos similares a los


que aparecen en el teorema de Liapunov:
Teorema 6.5 (Chetaev) Supongamos que para el sistema autónomo x =
f (x) definido en un dominio D, con un punto crı́tico en el origen, existe una
bola B, de centro el origen cuyo cierre está contenido en D y un abierto dentro
de esa bola, A, tales que se puede encontrar una función C 1 , W (x), que verifica:
1. W (x) > 0 para todo x en A.
2. Lf W (x) > 0 en A.
3. El origen pertenece al borde de A (∂A).
4. W (x) = 0 en ∂A ∩ B.
entonces, el origen es inestable.
Veamos ahora una aplicación de estos conceptos de estabilidad a los sistemas
conservativos.

6.9 Estabilidad de un sistema dinámico conser-


vativo
Consideremos un sistema conservativo en una dimensión x = f (x), donde la
fuerza f es C 1 . Como sabemos, existe una función potencial, V (x), tal que la
ecuación se puede poner como:
dV
x = −
dx
donde:  x
V (x) = − f (s)ds
x0
MAR 179

Además, podemos construir la función energı́a del sistema, que es una can-
tidad conservada:
1
E = x2 + V (x)
2
Los puntos crı́ticos de la ecuación (o del sistema de segundo orden aso-
ciado) son aquellos donde se anula x (la velocidad) y x (la aceleración) si-
multáneamente, es decir:  
x = 0
f (x) = 0
Pero f (x) es la derivada (con el signo cambiado) del potencial. Ası́ que lo que
estamos buscando son los extremos de la función potencial V (x). Sea x0 uno
de esos puntos, y consideremos la función W (x, v) dada por:

W (x, v) = E(x, v) − V (x0 )

Si x0 es un mı́nimo de la función potencial, W se anula en x0 y es positiva


en un entorno de este punto (nótese que la parte correspondiente a la energı́a
cinética es siempre positiva). Si ahora calculamos la derivada con respecto al
campo dado por la ecuación (o el sistema asociado), se tiene:

Lf W (x, v) = vv  + V  (x)x = 0

como ya sabı́amos, pues la energı́a se conserva. Por lo tanto el punto es estable.


Esto demuestra el teorema de Lagrange: los mı́nimos del potencial corresponden
a puntos de equilibrio estable de la ecuación. De manera similar se podria probar
que los máximos del potencial corresponden a puntos de equilibrio inestable.
Nótese el uso que se ha hecho de la integral primera que es la energı́a. Aún en
casos en que la energı́a no se conserva, se puede utilizar para construir funciones
de Liapunov.
Ejemplo. Consideremos un péndulo amortiguado:

x = −kx − a sen x

El origen (x = 0, v = x = 0) es un punto de equilibrio de este sistema, que


tiene la forma:  
x = v
v  = −a sen x − kv
Estudiemos su estabilidad. La energı́a en el caso de que no haya rozamiento
es:
1 2
E(x, v) = v + a(1 − cos x)
2
y es una cantidad conservada. Sin embargo, cuando hay rozamiento, esto no es
ası́ . La función E(x, v) es positiva en un entorno del origen, si a es positiva, lo
que se supone. Calculemos su derivada a lo largo de una órbita:

Lf E = vv  + ax sen x = v(−a sen x − kv) + av sen x = −kv 2


180 EDO. Versión 4. Mayo 1996

que es definida negativa (se hace cero en v = 0). Por lo tanto, es una función
de Liapunov, y el origen es un punto asintóticamente estable. Sin embargo, no
toda solución acaba en el origen. Es decir, la cuenca de atracción no es todo
el espacio de fases. Ni aún considerando que el espacio de fases más apropiado
para este problema no es el plano, sino un cilindro, debido a la periodicidad de
la ecuación en x.
El cálculo de funciones de Liapunov no es tarea sencilla. En general se
debe aprovechar cualquier información sobre el sistema que permita adivinar de
manera razonable una posible función. Como veremos ahora, en el caso lineal
es inmediato escribirlas, pero por lo mismo, no excesivamente interesante, pues
disponemos de numerosos métodos para determinar la estabilidad de un sistema
lineal.

6.10 El método de la primera aproximación


Veamos ahora como la aproximación lineal de un sistema autónomo permite en
muchas situaciones estudiar el comportamiento del sistema no lineal. En primer
lugar calcularemos funciones de Liapunov para los sistemas lineales con puntos
crı́ticos estables.
Consideremos el siguiente sistema:

x = Ax

donde A es una matriz de números reales, de dimensión n × n. Se puede


demostrar el siguiente teorema:

Teorema 6.6 Si la parte real de todos los autovalores de A es negativa, en-


tonces existe una forma cuadratica en IRn que es definida positiva y verifica la
desigualdad:
LAx W (x) ≤ −βW (x), β > 0

Se tiene por tanto que dicha función W (x) es una función de Liapunov, y de
acuerdo con el teorema anterior, el origen es un punto crı́tico asintóticamente
estable. Sin embargo, esto ya lo sabı́amos. El teorema tiene interés en relación
con el caso no lineal como veremos ahora.
Demostración: Supongamos que x1 (t), x2 (t), . . . , xn (t) es la base canónica
del espacio de soluciones del sistema x = Ax, es decir:

xi (0) = ei , i = 1, 2, . . . , n

donde ei , i = 1, . . . , n es la base canónica de IRn . Consideremos la solución x(t)


que verifica, x(0) = x0 , y que se expresará en la base anterior como:


n
x(t) = x0i xi (t), x0 = (x01 , x02 , . . . , x0n )
i=1
MAR 181

Definimos la forma cuadrática W (x) como:


 ∞
n  ∞
W (x0 ) = x(s, x0 ) 2 ds = x0i x0j (xi (s), xj (s))ds
0 i,j=1 0

donde (, ) es el producto escalar usual en IRn . Como los autovalores tienen parte
real negativa, la integral converge:

xi (t ≤ M e−αt

para todo i = 1, . . . , n, con M y α positivos (que dependen del sistema, pero


no de i). La función W es entonces una forma cuadrática definida positiva. La
desigualdad que aparece en el teorema se demuestra también fácilmente.
 ∞
W (x(t, x0 )) = x(s, x(t, x0 )) 2 ds
0

pero x(s, x(t, x0 )) = x(s + t, x0 ), pues la primera es la solución que en s = 0


verifica la condición inicial x(0, x(t, x0 )) = x(t, x0 ), que es justamente el valor
del segundo miembro en s = 0. Por tanto ambas funciones verifican la ecuación
diferencial en s y la misma condición inicial, luego son iguales para todo s.
Podemos escribir:
 ∞  ∞
W (x(t, x0 )) = x(s + t, x0 ) 2 ds = x(τ, x0 ) 2 dτ
0 t

Calculando la derivada según el campo Ax de la función W :


    ∞ 
d d
LAx W (x0 ) = W (x(t, x0 )) = x(τ, x0 ) 2 dτ = − x0 2
dt t=0 dt t t=0

De resultados conocidos de álgebra elemental, se sabe que para una forma


cuadrática definida positiva en IRn , se tiene la desigualdad:

µ x 2 ≤ W (x) ≤ ν x 2

donde µ y ν son constantes positivas que dependen de W . Por lo tanto usando


la segunda parte de la desigualdad, y llamando β = 1/ν:

LAx W (x) ≤ −βW (x)

para todo x de IRn .


El siguiente teorema establece un criterio de estabilidad basado en la primera
aproximación (lineal) de un sistema autónomo:
Teorema 6.7 (Liapunov) Sea x = f (x) un sistema lineal autónomo en IRn ,
f una función C 1 y supongamos que x = 0 es una posición de equilibrio (punto
crı́tico) del sistema, f (0) = 0. Sea A la matriz de la aproximación lineal (matriz
jacobiana de la función f (x)) en el punto x = 0. Entonces, si todos los auto-
valores de la matriz A tienen parte real negativa, el origen es un punto crı́tico
182 EDO. Versión 4. Mayo 1996

asintóticamente estable. Es más, existe δ > 0 tal que, si x0 < δ, entonces, la


solución que verifica x(0) = x0 , x(t, x0 ), satisface la siguiente acotación:

x(t, x0 ) ≤ M x0 e−αt

para todo t ≥ 0, con M , α, constantes positivas independientes de x0 .

La demostración consiste en probar que la función W (x) correspondiente a


la parte lineal, es una función de Liapunov del sistema no lineal.
Ejemplo.  
x = −2x − y 2
y  = −y − x2
Como hemos visto anteriormente, el origen es un punto crı́tico de este sis-
tema, asintóticamente estable. Calculemos la forma cuadrática asociada a la
aproximación lineal que tiene por matriz:
 
−2 0
0 −1

Esta matriz tiene autovalores con parte real negativa, luego el origen es
asintóticamente estable de acuerdo con el teorema anterior. Calculemos una
función de Liapunov para este sistema. La forma cuadrática asociada a la
aproximación lineal es:
 ∞
W (x0 , y0 ) = (x(s, x0 , y0 ), y(s, x0 , y0 )) 2 ds =
0
 ∞
x2 + 2y02
(x20 e−4s + y02 e−2s )ds = 0
0 4

Esta es una función de Liapunov para la aproximación lineal. Salvo una con-
stante multiplicativa, es la función de Liapunov asociada al sistema no lineal
que usamos en el apartado dedicado al segundo método de Liapunov.
Ejemplo: El regulador centrı́fugo de Watts.
El regulador centrı́fugo es un mecanismo que controla la presión del vapor de
una caldera que supuestamente mueve una máquina. Consta esencialmente de
dos esferas que giran a una velocidad que es proporcional a la velocidad de giro
de la máquina, y que debido a la fuerza centrı́fuga abren o cierran la válvula de
la caldera. En la figura 22 se representa esquemáticamente el regulador.

Fig.22
MAR 183

Tomando la longitud del brazo que sustenta las esferas igual a 1, la fuerza
centrı́fuga que se ejerce sobre ella es mθ2 sen φ, y supondremos que esta fuerza
está equilibrada por el peso de las bolas (de una forma rigurosa, habrı́a que
considerar que este equilibrio es dinámico, pero haremos el cálculo suponiendo
que es estático para simplificar). Se supone que existe una fuerza de rozamiento
proporcional a la velocidad, con lo que la ecuación de movimiento de las esferas
es:
mφ = −bφ + mθ2 sen φ cos φ − mg sen φ
La ecuación de la máquina también se puede determinar:

Jω  = P1 − P

donde J es el momento de la máquina, P , P1 los momentos de la fuerza ejercida


por el vapor y de la carga de la maq́uina. Entre las velocidades θ y ω existe una
relación dada por los engranajes: θ = nω, y la fuerza del vapor P1 depende de
la mayor o menor apertura de la válvula. Esta relación se puede expresar ası́:

P1 = F1 + K(cos φ − cos φ̃)

donde φ̃ es un valor medio alrededor del cuál oscila el regulador y K es una


constante positiva. La constante F1 es el valor del momento para ese ángulo
medio φ̃. Sea F = K cos φ̃ + P − F1 . Escribamos el sistema en forma normal:
 
 φ = ψ
ψ  = n2 ω 2 sen φ cos φ − g sen φ − bψ/m
 
ω = (K cos φ − F )/J

Se trata de un sistema no lineal, con un punto crı́tico en ψ = 0, φ = φ0 ,


ω = ω0 , con: 
Kg
ω0 =
n2 F
F
φ0 = arccos
K
Calculemos la aproximación lineal de este sistema en un entorno del punto
crı́tico. La matriz jacobiana en ese punto es:
 
0 1 0
 
2
sen2 φ0 2g sen2 φ0
− g cos φ0 −mb
ω0
−KJ sen φ0 0 0

No necesitamos calcular los autovalores de esta matriz. Basta con que discu-
tamos si tienen parte real negativa o no. Para ello lo más fácil es usar el criterio
de Routh-Hurwitz. El polinomio caracterı́stico es:
 
b g sen2 φ0 2Kg sen2 φ0
p(λ) = − λ3 + λ2 + λ+
m cos φ0 Jω0
184 EDO. Versión 4. Mayo 1996

y la matriz de Routh-Hurwitz es:


 b

m 1 0
 2Kg sen2 φ0 g sen2 φ0 b 
 Jω0 cos φ0 m 
2Kg sen2 φ0
0 0 Jω0

y los menores asociados son:

b bJ 2F 2Kg sen2 φ0
> 0, − > 0, >0
m m ω0 Jω0
por lo que la única condición que aparece es:
bJν
>1
m
donde ν = |dω0 /dP | es la llamada no uniformidad de la marcha (la velocidad
depende de la carga P ). Como se ve, (según los trabajos de Vichnegradski) el
aumento de masa de las esferas disminuye la estabilidad, ası́ como la disminución
del rozamiento. La disminución del momento y de la no uniformidad contribuyen
también a que la estabilidad disminuya. Para que exista estabilidad es necesario
que haya rozamiento y que la marcha no sea uniforme.
MAR 185

6.11 Ejercicios
1. Estudiar los mapas de fases de los sistemas lineales autónomos de segundo
orden que tienen algún autovalor cero.
2. (a) Sea el sistema: 
x = 1 − x + 3y
y = x + y − 1
i) Dibujar el mapa de fases.
ii) Escribir su solución general.
iii) ¿Es estable la solución que satisface x(0) = 2, y(0) = 1?
(b) Sea la ecuación diferencial:
x+y−1
y =
1 − x + 3y
iv) Estudiar la existencia y unicidad de sus soluciones.
v) Calcular su solución general.
vi) Si ya (x) es la solución que verifica ya (0) = a, estudiar si está definida
para todo x ≥ 0 según los valores de a.
vii) Estudiar si es estable la solución con y(2) = 1.
3. Calcular una función de Liapunov para

x = ax + by
a, b, c, d ∈ IR
y  = cx + by

en los casos en que exista. Discutir la estabilidad de los puntos crı́ticos


elementales de sistemas lineales en IR2 de acuerdo con las funciones hal-
ladas.
4. Discutir la estabilidad del origen en el sistema:
 
x = −(x − β 2 y)(1 − a2 x2 − b2 y 2 )
y  = −(y + α2 x)(1 − a2 x2 − b2 y 2 )

con α, β, a, b constantes positivas, α < β, a < b, utilizando el método


directo de Liapunov.
5. Discutir la estabilidad del movimiento de un cuerpo que gira con velocidad
angular ω1 = 0, ω2 = 0, ω3 = ω0 y que verifica las ecuaciones de Euler

 Aω̇1 + (C − B)ω2 ω3 = 0
B ω̇2 + (A − C)ω1 ω3 = 0

C ω̇3 + (B − A)ω1 ω2 = 0

utilizando el método de la primera aproximación.


186 EDO Versión 3. Octubre 1995

6. Discutir la estabilidad del sistema regido por la ecuación:


... 1
L x −αẋ2 ẍ + Rẋ + x=0
C
utilizando el método directo de Liapunov.

7. Estudiar la estabilidad del origen con funciones de Liapunov:


   
x = 2y 3 x = −x3 + xy 2

y = −xy − y
2 3
y  = −4x2 y − y 3

x = y 3 + x3 − x4
x + (x )3 + 2x = 0
y  = −x + y
Tema 7

Sistemas autónomos. 2

7.1 Sistemas autónomos no lineales planos


Cuando nos limitamos a IR2 , la teorı́a de los sistemas autónomos con puntos ele-
mentales (a definir más adelante) se puede hacer de manera bastante completa.
Veremos como en estos casos la aproximación lineal proporciona una información
muy detallada sobre el mapa de fases en un entorno del punto crı́tico, y otros
datos, como el ı́ndice, campos de vectores, integrales primeras, existencia de
ciertas órbitas periódicas aisladas etc. . . , permiten hacerse una idea cualitativa
del mapa completo.
Supongamos entonces un sistema autónomo en el plano:
 
x = f (x, y)
y  = g(x, y)

donde f , g son funciones C 1 en un abierto de IR2 . Los puntos crı́ticos de este


sistema se obtienen resolviendo las ecuaciones:

f (x, y) = 0
g(x, y) = 0

Sea (x0 , y0 ) un punto crı́tico. Mediante una traslación podemos llevar este
punto al origen. En él podemos hacer un desarrollo de Taylor hasta primer
orden:    
∂f ∂f
f (x, y) = f (0, 0) + x+ y + f2 (x, y)
∂x 0 ∂y 0
   
∂g ∂g
g(x, y) = g(0, 0) + x+ y + g2 (x, y)
∂x 0 ∂y 0
donde las funciones f2 (x, y), g2 (x, y) son de segundo orden en x, y, y la matriz
jacobiana en el origen es:  
a b
c d

187
188 EDO. Versión 4. Mayo 1996

con a = [∂f /∂x]0 , b = [∂f /∂y]0 , c = [∂g/∂x]0 , d = [∂g/∂y]0 , las derivadas


primeras calculadas en el origen.

Definición 7.1 Se dice que el punto crı́tico es elemental si el determinante de


la matriz A es diferente de cero.

La matriz A es la matriz de la aplicación tangente, y el hecho de tener determi-


nante distinto de cero implica ciertas consecuencias, como el que el punto crı́tico
es aislado. El sistema anterior se puede escribir como:

x = ax + by + f2 (x, y)

y  = cx + dy + g2 (x, y)

Al sistema lineal autónomo cuya matriz es A se le llama sistema lineal aso-


ciado. Como hemos visto antes al estudiar la estabilidad segun Liapunov, sus
caracterı́sticas dan en algunos casos las del sistema no lineal. Pero en el caso
del plano se puede decir mucho más a partir del sistema lineal cuando el punto
crı́tico es elemental. Enunciaremos primero un teorema que establece como el
sistema lineal determina el no lineal. Los puntos crı́ticos de un sistema autónomo
en el plano reciben los mismos nombres que los correspondientes de los sistemas
lineales, aunque algunas caracterı́sticas sean propias de estos últimos.

Teorema 7.1 El comportamiento de las órbitas en un entorno de un punto


crı́tico elemental es el mismo que para la primera aproximación salvo cuando
los autovalores de la matriz A son imaginarios puros. En este último caso el
sistema lineal tiene un centro, pero el no lineal puede tener un centro o un foco.

La estructura local de los mapas de fases en un entorno de un punto crı́tico


elemental es muy sencilla y consecuencia directa del anterior teorema. La ex-
pondremos en dos teoremas concernientes a la estructura de los puntos silla y
de los nodos no lineales.

Teorema 7.2 (Estructura local de un punto silla no lineal) Sea (0, 0), punto
crı́tico del sistema x = f (x, y), y  = g(x, y), un punto silla (es decir, lo es en
la aproximación lineal). Sean P y Q las rectas asociadas a los autovectores de
la matriz de la aproximación lineal, P al autovalor negativo y Q al positivo.
Entonces, existen dos únicas órbitas U1 y U2 que para t → ∞ tienden al ori-
gen. Junto con el punto (0, 0) forman una curva continua, derivable y tangente
en (0, 0) a la recta P. Existen también dos únicas órbitas V1 y V2 que tienden
al origen cuando t → −∞ y que, junto con (0, 0) forman una curva continua,
derivable y tangente en el origen a la recta Q. Las demás órbitas se comportan
en un entorno de (0, 0) como en el caso lineal (fig.1).
MAR 189

P
Q
Q

Fig.1 Fig.2
Teorema 7.3 (Estructura local de un nodo no lineal) Sea (0, 0) un pun-
to crı́tico de un sistema x = f (x, y), y  = g(x, y), que es un nodo estable para
la aproximación lineal (el caso de un nodo inestable, u otro tipo de nodo, es
similar). Sean P, Q las rectas asociadas a los autovectores de la matriz A de
la aproximación lineal, P con autovalor λ1 , y Q ,λ2 con λ1 < λ2 < 0. Todas
las órbitas que pasan suficientemente próximas al origen tienden a él cuando
t tiende a infinito y tienen una tangente en él. Solo hay dos de ellas que son
tangentes a la recta P y se aproximan al origen desde lados opuestos de la recta
Q. Las demás órbitas son tangentes a Q (Fig.2). Para un nodo inestable el
comportamiento es el mismo cuando t tiende a menos infinito.
Nótese que las rectas P y Q que aparecen en estos teoremas no son en general
órbitas del sistema. Si el sistema lineal asociado presenta un nodo estelar o un
nodo de una tangente, los resultados para el sistema no lineal son similares a los
expuestos en el teorema anterior. Las órbitas pueden entrar (o salir) del origen
con tangente arbitraria o una sola tangente.
Cuando el punto crı́tico del sistema lineal asociado es un centro, en el no
lineal puede aparecer un foco o conservarse el centro, es decir las órbitas pueden
ser abiertas (foco) o cerradas (centro). Para determinarlo hay que emplear
otras técnicas, como el estudio del posible carácter hamiltoniano del sistema
que trataremos más adelante o la existencia de ciertas simetrı́as del campo de
vectores.
El uso de coordenadas polares puede ayudar en ocasiones a resolver este
problema. Supongamos que los autovalores del sistema lineal asociado son λ =
α ± iβ, con β > 0. En una base adecuada la matriz A se escribirá en su forma
canónica:
x = αx − βy + p(x, y)
y  = βx + αy + q(x, y)
donde las funciones p(x, y), q(x, y) son de segundo orden en x, y. Esto asegura
que el sistema anterior tiene un centro en el origen en la aproximación lineal.
Este sistema se puede escribir usando notación compleja, z = x + iy como:
z  = λz + h(z, z̄)
con h(x, y) = p(x, y) + iq(x, y), o pasando a polares con z = ρeiθ ;
 
ρ = ρ2 [a1 (θ) + a2 (θ)ρ + · · ·]
θ = 1 + ρ[b1 (θ) + b2 (θ)ρ + · · ·]
190 EDO. Versión 4. Mayo 1996

Las funciones ai (θ), bi (θ) son polinomios en sen θ, cos θ, (o en exp(±iθ)) que se
obtienen del desarrollo en serie de las funciones p(x, y) y q(x, y).
A partir de este sistema podemos construir una ecuación de primer orden
que nos dé ρ(θ):

= ρ2 (c1 (θ) + c2 (θ)ρ + · · ·)

donde el segundo miembro se obtiene al dividir los segundos miembros de las
ecuaciones del sistema. La solución de esta ecuación que verifica ρ(0) = ρ0 de-
pende de forma analı́tica del dato inicial ρ0 y puede escribirse como un desarrollo
en serie en potencias de este dato inicial:
ρ(θ, ρ0 ) = r1 (θ)ρ0 + r2 (θ)ρ20 + · · ·
sin término constante, ya que ρ(θ, 0) = 0 (la solución constante correspon-
diente al punto crı́tico). Sustituyendo en la ecuación, se obtiene una familia de
relaciones que permiten determinar los coeficientes ri y por tanto la solución del
problema. Desde un punto de vista práctico, el cálculo de la solución es muy
complicado con este método en general. Sin embargo la utilidad del mismo se
pone de manifiesto al poder determinar si el punto crı́tico es un foco o un centro.
Las ecuaciones que verifican los coeficientes de la serie tienen la forma sigu-
iente:
dri
= wi (r1 , r2 , . . . , ri−1 )

donde las funciones wi son polinomios en eiθ y e−iθ . Por tanto, los coeficientes
son periódicos si las funciones wi no tienen términos constantes. Si esto es ası́, el
punto crı́tico es un centro. Si hay alguna función wi con un término constante,
ki , se trata de un foco, que es estable si ki < 0 e inestable si ki > 0.
Para analizar como un centro del sistema lineal puede pasar a un foco cuando
perturbamos el sistema conviertiéndolo en uno no lineal, consideremos los sigu-
ientes ejemplos:
Ejemplo. Sea el sistema autónomo no lineal:
 
x = −y
y  = x + h(y)
donde h es una función analı́tica con h(0) = 0 y h (0) = 0. Es decir el sistema
es no lineal y tiene un punto singular en el origen. Calculando la aproximación
lineal, la matriz correspondiente (siempre en el origen) es:
 
0 −1
1 0
es decir, tenemos un centro en la aproximación lineal.
Como veremos en la próxima sección, si h es una función par el centro se
conserva, pues el segundo miembro de la primera ecuación es impar en x y el
de la segunda ecuación es par en y.
Sin embargo, si la función h(y) es impar, no disponemos de un criterio tan
simple para determinar si el centro se conserva. En los dos ejemplos que siguen,
el centro pasa a ser un foco, estable en el primer caso, inestable en el segundo:
MAR 191

1. 
x = −y
y = x − y3
2. 
x = −y
y = x + y3
Consideremos los ejemplos anteriores con n arbitrario:
 
x = −y
y  = x + 2y n
donde 2 = ±1. El sistema en polares se escribe como:
 
ρ = 2ρn senn+1 θ
θ = ρ(1 + 2ρn−1 senn θ cos θ)
y la ecuación de primer orden correspondiente es:
dρ 2ρn senn+1 θ
=
dθ 1 + 2ρn−1 senn θ cos θ
Llamando a(θ) = 2 senn+1 θ y b(θ) = −2 senn θ cos θ, la ecuación se puede
poner como:

= a(θ)(1 + b(θ)ρn + b2 (θ)ρn+1 + · · ·

Si, como hemos dicho antes, escribimos la solución como una serie de poten-
cias en el dato inicial ρ0 , se tienen las siguientes ecuaciones para los primeros
coeficientes de esa serie:
c1 = 0
c2 = ac21
c3 = 2ac1 c2 + abc31
c4 = a(c22 + 2c1 c3 ) + 3abc21 c2 + ab2 c41
...
que pueden ser resueltas de forma recursiva, con c1 (0) = 1, cn (0) = 0, n > 1:
c1 (θ) = 1

c2 (θ) = a(θ)
   
c3 (θ) = 2 (a(θ) a(θ) + a(θ)b(θ))
...
Sustituyendo los valores de a(θ) y b(θ):
 θ
c2 (θ) = 2 senn+1 ηdη
0
192 EDO. Versión 4. Mayo 1996

La función c2 (θ) es periódica si la integral en un periodo (2π) es cero:


 2π 
= 0 si n es par
senn+1 ηdη
0 > 0 si n es impar

Las conclusiones son pues las siguientes:

a) Si n es impar se trata de un foco, inestable si 2 > 0 o estable si 2 < 0.

b) Si n es par, la integral es cero, luego c2 es periódica. Sin embargo podrı́a


ocurrir que algún ci no lo fuera. En este caso los métodos de simetrı́a que
estudiaremos en la sección siguiente permiten demostrar que se trata de
un centro.

El estudio de la estabilidad del sistema usando funciones de Liapunov per-


mite en algunos casos discernir entre focos y centros. Concretamente en estos
ejemplos, la existencia de funciones de Liapunov permitirá asegurar la estabil-
idad asintótica del punto crı́tico y por ende afirmar que se trata de un foco
estable. Si no se pueden encontrar esas funciones, es posible que el teorema
de inestabilidad de Chetaev puede informar sobre la existencia de un foco in-
estable. Para el sistema lineal, H(x, y) = 12 (x2 + y 2 ) es una función de Liapunov
(de hecho una integral primera, una función que se conserva a lo largo de las
órbitas del sistema). No es cierto que se conserve cuando el sistema es no lineal.
En efecto, la derivada de H(x, y) a lo largo del campo de vectores del sistema:
 
x = −y
y  = x + h(y)
es:
Lv H(x, y) = −xy + yx + yh(y) = yh(y)
Por tanto, si h(y) es un función par, H(x, y) no es una buena función de
Liapunov. Si h(y) es impar, Lv H(x, y) toma el mismo signo en un entorno
suficientemente pequeño del origen. Si h(y) = 2y n , con n impar, Lv H(x, y) es
positiva cuando 2 = 1 y negativa cuando 2 = −1, de donde uno puede deducir la
estabilidad asintótica o inestabilidad del origen (aún cuando la derivada se anula
a lo largo de y = 0, pues no hay órbitas contenidas en ella, salvo x = y = 0).
El que H(x, y) no sea una buena función de Liapunov para el origen cuando
h(y) es par, no permite asegurar nada sobre la estabilidad o inestabilidad del ori-
gen. Como hemos dicho antes, en estos casos el origen es un centro. Recuérdese
que h(0) = 0, h (0) = 0.

7.2 Indice de un campo de vectores en el plano


Un concepto útil en el estudio de los mapas de fases en el plano es el de ı́ndice
de un campo de vectores respecto una curva de Jordan (homeomorfa a una
circunferencia). Podemos definirlo de la siguiente forma:
MAR 193

Definición 7.2 El ı́ndice de un campo de vectores respecto a una curva de


Jordan γ es la variación angular del campo calculado en los puntos de γ cuando
se recorre la curva en sentido positivo una sola vez, dividido por 2π.
En el caso de una curva de Jordan rectificable que no pase por ningún punto
crı́tico, el ı́ndice se puede calcular por la siguiente expresión:
Sea f (x, y),g(x, y) el campo de vectores y γ la curva de Jordan. El ı́ndice es:

1 f dg − gdf
I(γ) =
2π γ f 2 + g 2

El integrando es justamente la diferencial del arco tangente de g/f , es decir,


el ángulo que forma el campo con el eje x.
Supongamos un punto de un conjunto D donde tenemos definido un campo
de vectores, respecto del cuál es un punto ordinario o un punto crı́tico aislado.
Se define el ı́ndice del punto como el de una curva de Jordan que lo rodea
y no contiene ningún otro punto crı́tico. Este ı́ndice no depende de la curva
de Jordan utilizada (mientras no atravesemos un punto crı́tico). El ı́ndice de
un punto ordinario de un campo de vectores es cero. El ı́ndice de una curva
de Jordan que rodea un conjunto finito de puntos crı́ticos es la suma de los
ı́ndices de estos puntos crı́ticos. Calculemos ahora el ı́ndice de puntos crı́ticos
elementales de un sistema lineal:

1. Índice de un nodo. Supongamos un nodo estelar con autovalores iguales a


1. El mapa de fases aparece en la figura 6.7b. Considerando una circun-
ferencia de centro el origen, el ı́ndice es obviamente 1. Lo mismo ocurre
si los autovalores son iguales a −1 (nodo estelar estable). Cualquier otro
nodo se puede obtener mediante una deformación de alguno de estos dos,
y por lo tanto el ı́ndice sigue valiendo 1. Incluso cuando el nodo es de una
tangente, el ı́ndice es 1.
2. Índice de un centro o un foco. Para calcular el ı́ndice de un centro basta
recorrer cualquier órbita para ver que vale 1. En el caso de un foco el
resultado es el mismo.
3. Indice de un punto silla. Los puntos silla son los únicos puntos crı́ticos
elementales de ı́ndice −1. En la figura 6.9 es fácil darse cuenta de este
hecho.

El resultado más interesante en lo que concierne a los puntos crı́ticos ele-


mentales es el siguiente:
Teorema 7.4 El ı́ndice de un punto crı́tico elemental (es decir, con primera
aproximación no singular) es el mismo que el de la aproximación lineal.
El ı́ndice de una órbita cerrada es siempre igual a 1. Como consecuencia,
una órbita cerrada rodea al menos a un punto crı́tico, que no tiene porqué ser un
centro. Como veremos más adelante existe un tipo de órbitas cerradas aisladas
que no están relacionadas necesariamente con centros.
194 EDO. Versión 4. Mayo 1996

7.3 Simetrı́as y campos de vectores


Una de las técnicas importantes en la solución de ecuaciones diferenciales es el
estudio de las simetrı́as que presentan estas ecuaciones frente a transformaciones
de coordenadas, cambios de variable, etc. Consideremos un abierto de IRn , U ,
y un campo de vectores v(x) definido en él. Sea f : U → U un difeomorfismo
de U . El campo de vectores v(x) se transforma de acuerdo con la aplicación
tangente de f , que llamaremos f∗ (es decir la matriz jacobiana de f ):
Si φ(t) es una curva integral del campo, la curva transformada es f (φ(t)) y
el vector tangente en un punto f (x0 ) con φ(0) = x0 , es:
  n
d j ∂f j
j
f∗ (v) (f (x0 )) = f (φ(t)) = (x0 )φi (0)
dt t=0 i=1
∂x i

pero φi (0) = v(x0 ) de donde se obtiene, escrito simbólicamente, que:


f∗ (v) = (Df )v
donde Df es la matriz jacobiana de la aplicación f . Evidentemente todo esto
se puede escribir sin utilizar coordenadas, en un lenguaje intrı́nseco, pero no
entraremos en este tipo de cuestiones.
La definición que usaremos de simetrı́a es la siguiente:
Definición 7.3 Se dice que un difeomorfismo g : U → U es una simetrı́a del
campo de vectores v(x) definido en U , si
v(g(x)) = g∗ (v)(x), ∀x ∈ U
Es decir el campo en el punto transformado es igual al campo transformado en
el punto original.
Ejemplo: Consideremos el campo de vectores dado en el plano por:
v(x, y) = (−y, x)
y la aplicación g(x, y) del plano en sı́ mismo dada por:
  
x = x cos θ − y sen θ
y  = y sen θ + y cos θ
La matriz jacobiana es:
 
cos θ − sen θ
Dg =
sen θ cos θ
con lo cual tenemos:
v(g(x, y)) = v(x , y  ) = (−x sen θ − y cos θ, x cos θ − y sen θ)
g∗ (v)(x, y) = (−y cos θ − x sen θ, −y sen θ + x cos θ)
por lo que g es una simetrı́a del campo. Un dibujo del campo de vectores da
rápidamente el porqué de esta simetrı́a (Fig.6.6).
Consideremos ahora el sistema de ecuaciones diferenciales asociado al campo
de vectores v(x).
MAR 195

Definición 7.4 Se dice que la ecuación x = v(x) es invariante bajo el difeo-


morfismo g del espacio de fases U , si g es una simetrı́a del campo de vectores.
Se dice que g es una simetrı́a de la ecuación.
Este concepto es aplicable a ecuaciones no autónomas. La consecuencia más
importante de estos conceptos se contiene en el siguiente teorema.
Teorema 7.5 Una simetrı́a de una ecuación diferencial transforma soluciones
en soluciones.
Sea g una simetrı́a del campo de vectores v(x), y x = φ(t) una solución del
sistema x = v(x). Si aplicamos el difeomorfismo g:

y = g(φ(t))

es tambien solución del sistema:

y  = (Dg)φ (t) = g∗ v(φ(t)) = v(g(φ(t)) = v(y)

Las transformaciones de simetrı́a de un campo de vectores forman un grupo.


Cuando dependen de una manera diferenciable de uno o varios parámetros, el
grupo se dice de Lie. Los grupos de Lie tienen una importancia fundamental en
la teorı́a de ecuaciones diferenciales y en muchas otras ramas de la Matemática
y de la Fı́sica en las que la simetrı́a juega un papel.
Aunque el campo de vectores no sea invariante bajo un difeomorfismo puede
intentarse una reparametrización del sistema que haga útil esa aplicación. Vea-
mos el siguiente ejemplo.
Sea el campo en IR2 , v(x, y) = (x + y 2 , x2 − y), y la reflexión respecto a la
bisectriz del segundo cuadrante:

g(x, y) = (−y, −x)

Calculando g∗ (v)(x, y) y v(g(x, y)) tenemos:

g∗ (v)(x, y) = (y − x2 , −x − y 2 )

v(g(x, y)) = (−y + x2 , x + y 2 )


por lo que:
g∗ (v)(x, y) = −v(g(x, y))
De esta forma, el campo no es invariante respecto a esta reflexión, pero se
transforma de manera sencilla. Si consideramos el sistema asociado:
 
x = x + y2
y  = x2 − y

el cambio t por −t nos da:



x = −x − y 2
y  = −x2 + y
196 EDO. Versión 4. Mayo 1996

donde ahora  significa derivada respecto a −t. Está claro que el mapa de
fases de ambos sistemas es el mismo, pero el sentido en el que se recorren las
órbitas es opuesto. Es decir, si (x(t), y(t)) es una solución del primer sistema,
(x(−t), y(−t)) lo es del segundo. De esta forma, prescindiendo del sentido en el
que se recorren las órbitas, el mapa de fases es simétrico respecto de la bisec-
triz del segundo cuadrante. Desde un punto de vista más formal, se considera
una transformación de la variable independiente t → h(t) y la transformación
inducida en el sistema, ampliando de esta forma la definición de sistema invari-
ante.
Veamos ahora como estos criterios de simetrı́a permiten determinar en al-
gunos casos cuando un centro se conserva. Como ya hemos visto, cuando en
la aproximación lineal de un sistema autónomo en IR2 aparece un centro, en
el problema completo puede aparecer un centro o un foco. Si probamos, por
ejemplo, que las órbitas son simétricas repecto una recta que pasa por el punto
crı́tico, éstas serán necesariamente cerradas (al menos las próximas al punto
crı́tico), que será un centro. Cuando la recta es uno de los ejes, y el punto
crı́tico es el origen, el criterio de simetrı́a se escribe de la siguiente forma:

Proposición 7.1 Sea el sistema autónomo:


 
x = f (x, y)
y  = g(x, y)

que tiene un punto crı́tico en el origen, centro en la aproximación lineal. Si la


función f es impar en y, g par en y, o bien si f es par en x, g impar en x,
entonces, el centro se conserva.

Consideremos el primer caso:

f (x, −y) = −f (x, y)

g(x, −y) = g(x, y)


Es decir, bajo una reflexión respecto al eje x, el campo v = (f, g) se trans-
forma como:
S : IR2 → IR2
S(x, y) = (x, −y)
de donde:
S∗ (v)(x, y) = (f (x, y), −g(x, y))
v(S(x, y)) = v(x, −y) = (f (x, −y), g(x, −y)) = (−f (x, y), g(x, y))
es decir:
S∗ (v) = −v(S)
y por los mismos razonamientos que antes, las órbitas son simétricas respecto
al eje x. De la misma forma se prueba el resultado para la segunda condición.
En este último caso, el mapa de fases es simétrico respecto al eje y. (Nótese
MAR 197

que no se indica que las órbitas son cerradas simplemente porque el mapa sea
simétrico respecto a un eje. Lo que ocurre es que las órbitas próximas al origen
giran en torno a él, ya que este punto es un centro o un foco; al ser simétricas
son cerradas y el punto crı́tico es centro). Cuando la simetrı́a no es respecto a
un eje las condiciones no son tan sencillas de expresar.
Ejemplo: Sea el sistema:
 
x = −y
y  = x + h(y)

donde h(y) es una función analı́tica, par y con h(0) = h (0) = 0. Como ya
hemos visto, el origen es un punto crı́tico para este sistema y es un centro en la
aproximación lineal. Aplicando la proposición anterior, la función f (x, y) = −y,
es impar en y, la función g(x, y) = x + h(y) es par en y. Por lo tanto se trata
de un centro.
Ejemplo. Sea el sistema:
 
x = x + y2
y  = x2 − y

La aproximación lineal de este sistema en el punto crı́tico (−1, 1) tiene un cen-


tro. Las funciones f (x, y) = x+y 2 , y g(x, y) = x2 −y no verifican ninguno de los
criterios de paridad dados en la proposición anterior. Sin embargo, con el difeo-
morfismo considerado anteriormente S(x, y) = (−y, x), el sistema tiene órbitas
simétricas repecto la bisectriz del segundo cuadrante, ası́ que las próximas al
punto (−1, 1) son cerradas y se trata de un centro.
Puesto que no podemos desarrollar la teorı́a completa de los sistemas autó-
nomos en el plano, nos limitaremos en lo que sigue a unos casos particulares de
gran interés en aplicaciones y que resultan de un tratamiento sencillo.

7.4 Sistemas gradiente


Supongamos un sistema autonomo x = F (x), con F : U ⊂ IRn → IRn , donde
F (x) es el gradiente de una cierta función V (x) suficientemnete diferenciable,
definida en U . Si nos limitamos al caso IR2 , y suponemos que U = IR2 (o al
menos un abierto conexo simplemente conexo), la condición necesaria y sufi-
ciente para la existencia de esta función potencial V (x, y) es:
x = f (x, y)
y  = g(x, y)
las funciones f (x, y), y g(x, y) deben cumplir:
∂f ∂g
=
∂y ∂x
Veamos algunas propiedades interesantes de los sistemas gradiente. Es in-
mediato que los puntos crı́ticos de un sistema de este tipo son los extremos
198 EDO. Versión 4. Mayo 1996

(puntos donde se anula el gradiente) del potencial V (x, y). Además, la matriz
de la aproximación lineal es el hessiano de la función cambiado de signo. Si, por
ejemplo, estamos en un mı́nimo de la función V (x, y), el hessiano es definido
positivo, ası́ que los autovalores de esa matriz cambiados de signo son nega-
tivos, y por lo tanto el punto crı́tico es asintóticamente estable, concretamente
un foco estable (el hessiano es una matriz simétrica, por lo que sus autovalores
son reales). Estudiemos otra argumentación de este resultado.
Proposición 7.2 Si (x0 , y0 ) es un mı́nimo aislado del potencial V (x, y) en-
tonces es un punto crı́tico asintóticamente estable del sistema gradiente asoci-
ado.
La demostración se basa en la construcción de una función de Liapunov. En
efecto, V (x, y) no es una integral primera del sistema, sin embargo en un entorno
de un mı́nimo se puede utilizar para construir una función de Liapunov que
permite asegurar la estabilidad asintótica. En un entorno de (x0 , y0 ), la función:

F (x, y) = V (x, y) − V (x0 , y0 )

es definida positiva. Calculando su derivada respecto al campo gradiente:

L− grad V F (x, y) = − grad V (x, y) 2

que es definida negativa en un entorno del mı́nimo. De acuerdo con el teorema


de Liapunov, éste es un punto asintóticamente estable.
Otra propiedad interesante de los sistemas gradiente es que las órbitas del
sistema son ortogonales a las curvas de nivel de la función V (x, y). Este resultado
es inmediato de la ecuación, ya que (x (t), y  (t)) es el vector tangente a las órbitas
y grad V (x, y) es ortogonal a las curvas de nivel de V (x, y). Veamos un ejemplo
de este tipo de sistemas.
Ejemplo. Sea la función V (x, y) = x2 (x − 1)2 + y 2 . El sistema gradiente
asociado es:  
x = −2x(x − 1)(2x − 1)
y  = −2y
en este caso el sistema esta desacoplado con lo que su estudio es muy sencillo.
Los puntos crı́ticos son: (0, 0), (1, 0), (1/2, 0). Calculando la aproximación
lineal, es muy sencillo comprobar que los dos primeros corresponden a nodos
estables, y el tercero a un punto silla. Además, las matrices de la aproximación
lineal son diagonales (debido a que el sistema está desacoplado). En el caso del
punto silla esto hace que los autovectores sean (1, 0) y (0, 1). Los autovalores
de las matrices correspondientes a los nodos son iguales, luego nos encontramos
con un nodo estelar para el problema lineal. Las órbitas que entran en estos
nodos lo hacen cada una con una tangente distinta. La ecuacion de las órbitas
se resuelve fácilmente:
x(x − 1)
y=C
(2x − 1)2
y la derivada de y respecto a x en los puntos (0, 0) y (0, 1) depende de C.
MAR 199

Si estudiamos las curvas de nivel de la funcion V (x, y):


x2 (x − 1)2 + y 2 = k
es fácil observar que son simétricas respecto al eje x, y escribiéndolas como:
# 2 $2
1 1
x− − + y2 = k
2 4
se ve que también lo son respecto la recta x = 1/2. Solo hay curvas de nivel para
k = K 2 mayor o igual a cero. Si K = 0, tenemos los dos mı́nimos, y = 0, x = 0,
x = 1. Si K > 1/4, las curvas de nivel cortan dos veces al eje x. Si K = 1/4, lo
corta tres veces, (una de ellas en el máximo (relativo), correspondiente al punto
silla). Por fin, si K < 1/4, hay cuatro cortes con los ejes, y las curvas de nivel
constan de dos ramas disjuntas cerradas, simétricas respecto a la recta x = 1/2
(fig.3).

y y

x x

Fig.3 Fig.4
Con estos datos y el hecho de que los ejes coordenados y la recta x = 1/2
proporcionan en este caso órbitas del sistema no lineal, se puede dibujar el mapa
de fases que aparece en la figura 4, donde las curvas continuas son las órbitas
del sistema y las de trazo discontinuo, las curvas de nivel de la funcion V (x, y)
calculadas previamente. Nótese que la cuenca de atracción del nodo (0, 0), es
todo el semiplano a la izquierda de la recta x = 1/2, y la del nodo (1, 0) es el
semiplano a la derecha de x = 1/2.
Puesto que el sistema está desacoplado, es posible estudiar las ecuaciones
autónomas de primer orden correspondientes a x(t) e y(t). Para la ecuación que
fija y(t), la solución es trivial:
y(t) = C2 e−2t
Para la ecuación de x(t), la solución es más complicada de obtener, pero
el dibujo de las soluciones es muy sencillo y aparece en la figura 5. Se puede
ver como la solución no está en general definida para todo t. Concretamente,
si x(0) < 0, la solución explota para un cierto t1 < 0, y lo mismo ocurre si
x(t) > 1. Como y(t) no tiene problemas, la órbita correspondiente tiende a
(∞, y(t1 )) cuando t tiende a t1 . Sin embargo, en cualquiera de estos dos casos
las soluciones están definidas para todo t > 0 (y tienden a una de las dos
soluciones constantes x = 0, x = 1). Si 0 < x(0) < 1, las soluciones están
definidas para todo t.
200 EDO. Versión 4. Mayo 1996

1
1/2

Fig.5

7.5 Integrales primeras


Aunque introducidas de manera informal en apartados anteriores, estudiaremos
con más detalle la definición de integral primera y las propiedades que nos
interesan en relación con los sistemas autónomos.

Definición 7.5 Dado un sistema autónomo x = f (x) con espacio de fases M ,


se dice que una función diferenciable F : U → IR, U abierto de M es una
integral primera si la derivada de F con respecto al campo de vectores f (x) es
cero.

Las propiedades que necesitamos se resumen en la siguiente proposición:


Proposición 7.3 Sea F (x) una integral primera del sistema x = f (x)
1. La función F (x) es constante sobre cada solución x : I → U del sistema.
2. Cada órbita del sistema pertenece a una sola curva de nivel de la función
F (x). Es decir, si x : I → U es una solución, la órbita correspondiente
{x(t) : t ∈ I} verifica: F (x(t)) = c, ∀t ∈ I.
La demostración es inmediata. Estas dos propiedades son equivalentes a
la definición dada de integral primera. En cuanto concierne a los sistemas
autónomos con integrales primeras, el siguiente teorema establece restricciones
sobre el tipo de puntos crı́ticos:

Teorema 7.6 Un sistema con integrales primeras no constantes no puede tener


atractores (o repulsores), es decir, puntos crı́ticos asintóticamente estables cuan-
do t → ±∞.

Ejemplo:

x = x
y = y
Este sistema no tiene integrales primeras (siempre supondremos no constantes).
En efecto, las órbitas del sistema son las semirrectas que salen del origen. Pero
sobre cada una de ellas, una posible integral primera es constante. Al tender t
MAR 201

a menos infinito, todas tienden al origen, luego el valor de esa constante es el


mismo para todas ellas, que llenan el plano, luego F es constante. Formalmente,
la función:
y
F (x, y) =
x
verifica que su derivada es cero a lo largo del campo de vectores:
y y
Lv F (x, y) = − 2 x + = 0
x x
Pero la función F no es diferenciable, ni siquiera continua en un entorno del
origen.
Ejemplo.
 
x =x
y  = −y
El sistema admite una integral primera:
F (x, y) = xy
pues:
Lv F (x, y) = yx − xy = 0
El sistema tiene un punto silla en el origen.
Nótese que las posibles integrales primeras pueden buscarse como soluciones
de la ecuación diferencial en derivadas parciales de primer orden:
∂F ∂F
f (x, y) + g(x, y) = 0
∂x ∂y
para un sistema con campo de vectores dado por (f (x, y), g(x, y)). La solución
de este sistema lleva (usando el método de caracterı́sticas que no podemos de-
sarrollar aquı́) a la ecuación de las órbitas, por lo que las integrales primeras son
solución de esa ecuación. Como, al menos desde un punto de vista teórico, la
órbitas pueden representarse como una función de x, y, hay que prestar atención
a las condiciones de continuidad y diferenciabilidad impuestas a las integrales
primeras.
Ejemplo. Sistemas conservativos con un grado de libertad.
Consideremos la ecuación de Newton:
x = f (x)
donde f (x) es una función suficientemente diferenciable. Esta fuerza depende
solo de la posición, luego existe una función potencial V (x) tal que:
dV
f (x) = −
dx
La energı́a total del sistema se conserva a lo largo de una trayectoria, con lo que
tenemos una integral primera:
1 2
H(x, v) = v + V (x)
2
202 EDO. Versión 4. Mayo 1996

siendo v = x la velocidad. Los únicos tipos de puntos crı́ticos para este sistema
son centros y puntos silla (si son elementales). Además, las órbitas están con-
tenidas en las curvas de nivel de la función H(x, v). Como sabemos, un punto
crı́tico corresponde a un mı́nimo del potencial:
dV
=0
dx
y el valor de la derivada segunda en ese punto nos da el tipo de punto crı́tico:
1. Si es positiva, se trata de un mı́nimo, es decir de un centro.
2. Si es negativa, tenemos un máximo, punto silla.
3. Si es cero, nos encontramos con un punto crı́tico no elemental.
clasificación inmediata a partir, por ejemplo, del teorema de Lagrange, o del
estudio de la matriz de la aproximación lineal: Si el sistema es:
 
x =v
v  = f (x)

los puntos crı́ticos son: f (x0 ) = 0, v0 = 0. La matriz de la aproximación lineal


es:  
0 1
f  (x0 ) 0
y los autovalores son: 
λ = ± f  (x0 )
de donde se deduce el resultado anterior, pues f  (x0 ) = −V  (x0 ).
Consideremos ahora dos casos particulares de la función f (x):
Ejemplo: El problema de Kepler.
La ecuación radial del problema de Kepler es:
1 2C
x = − 2
+ 3
x x
con C > 0, de donde el potencial es:
1 C
V (x) = − + 2
x x
suma del potencial culombiano y el término centrı́fugo. El espacio de fase es el
semiplano x > 0 y el único punto crı́tico es:

x = 2C, v=0

La segunda derivada del potencial en ese punto es:

d2 V 1
2
(2C) = − 3
dx 8C
MAR 203

y por lo tanto se trata de un punto de equilibrio estable, un centro. La energı́a


total, que es una integral primera, es:
1 2 1 C
H(x, v) = v − + 2
2 x x
y sus curvas de nivel H(x, v) = E nos dan las órbitas del sistema (fig.6). No
todos los valores de la energı́a están permitidos. Concretamente, E ≥ −1/4C
para que la ecuación H(x, v) = E tenga soluciones reales.
1. E = −1/4C. En este caso, el único punto que verifica H(x, v) = E es
x = 1/2c, v = 0, es decir el centro.
2. −1/4C < E < 0. Las órbitas son cerradas para estos valores de la energı́a,
lo que se puede comprobar de manera gráfica (ver figura 6) o calculando
explı́citamente los dos puntos de retroceso:

H(x, 0) = E
1 √
x=− (1 ± 1 + 4CE)
2E
que tiene dos soluciones reales distintas.
3. E = 0. La ecuación anterior solo tiene una solución x = C. La órbita es
abierta, y la velocidad tiende a cero cuando t → ±∞, pues en este caso,
la posición tiende a infinito.
4. E > 0. Solo hay un punto de retroceso, dado por:
1 √
x=− (1 + 1 + 4CE)
2E
pues√el otro valor de x es negativo. La velocidad, cuando t → ±∞, tiende
a ± 2E.
El sentido en el que se recorren las órbitas viene dado por el sistema y el
mapa de fases completo aparece en la figura 6.
El tiempo empleado en recorrer una órbita cerrada es el periodo de movi-
miento y puede calcularse (al menos dar una expresión compacta). Si en t = t0
la partı́cula sometida a este potencial se encuentra en x = x0 , en el tiempo t se
hallará en x(t) dado por:
 x(t)
ds
t − t0 = 
x0 2(E − V (s)
donde −1/4C < E < 0, la energı́a de la partı́cula, es constante a lo largo de
la trayectoria. Esta expresión es una consecuencia inmediata de la primera
ecuación del sistema (o de la definición de velocidad). Para una órbita cerrada,
el periodo es:
 b
T ds
= 
2 a 2(E − V (s)
204 EDO. Versión 4. Mayo 1996

donde a, b son los puntos de retroceso de la órbita. Se trata de una cantidad


finita, que depende de la energı́a. Para una órbita abierta, el tiempo empleado
en recorrerla es infinito, incluso con energı́a cero:
 ∞
ds
 =∞
a 2(E − V (s)
con 0 ≤ E, y a el único punto de retroceso de la órbita.
La variable x es la distancia del planeta al centro de masas del sistema.
Por tanto los puntos de retroceso son los de mı́nima y máxima separación. Las
órbitas cerradas tienen dos (afelio y perihelio en el caso del sistema solar). Las
órbitas abiertas tienen sólo uno. La órbita correspondiente al centro (x = 2C)
es una órbita circular. La velocidad radial es cero en ella, y su distancia al
centro de masas constante.

y y

x x

Fig.6 Fig.7

Ejemplo. El péndulo simple.


Consideremos ahora un sistema conservativo con el siguiente potencial:

V (x) = 1 − cos x

donde x es una variable que podrı́a tomarse en el intervalo [0, 2π] con lo que el
espacio de fases serı́a un cilindro. Sin embargo, supondremos que x ∈ IR. La
ecuación correspondiente es:
x = − sen x
y el sistema: 
x = v
v  = − sen x
La energı́a es una integral primera del sistema:
1 2
H(x, v) = v + 1 − cos x
2
y las curvas de nivel, que contienen a las órbitas del sistema son:
1 2
v + 1 − cos x = E
2
Debido a que el coseno es una función acotada, la energı́a es siempre positiva.
MAR 205

Los puntos crı́ticos se calculan fácilmente:

v = 0, x = nπ, n∈Z

y corresponden a centros si n es par (mı́nimos del potencial) y a puntos silla si


n es impar (máximos del potencial) (fig.7). Calculemos la matriz de la aprox-
imación lineal en los puntos silla, para hallar los autovectores y por tanto la
dirección de tangencia de las separatrices:
 
0 1
1 0

por lo que los autovectores son:


   
1 1
,
1 −1

con autovalores 1 y −1 respectivamente. Con estos datos es muy sencillo dibujar


el mapa de fases que aparece en la figura 7.
Cuando la energı́a es menor que 2, el movimiento es periódico (para E = 0
estamos en un punto de equilibrio estable). Cuando la energı́a es igual a 2,
nos movemos por una separatriz. El movimiento no es periódico, y se tarda un
tiempo infinito en recorrerla. Para E > 2 la órbitas son abiertas (el movimiento
es periódico si se considera a x como una variable angular en [0, 2π] y el mapa
de fases sobre un cilindro).
Como antes, el periodo en las órbitas cerradas depende de la energı́a y se
puede dar una expresión para calcularlo:
 b
ds
T =4 
0 2(E − 1 + cos s)

donde b es la primera solución positiva de la ecuación:


1 2
v + 1 − cos b = E
2
y 0 < E < 2. Para una separatriz, el tiempo empleado en ir desde x = −π hasta
x = π es infinito:  π
ds
 =∞
−π 2(1 + cos s)
Ejemplo. Las ecuaciones de Lotka-Volterra.
Ya hemos hablado previamente de este sistema de ecuaciones que describe
las poblaciones de dos especies que comparten un mismo medio. Veamos ahora
como el sistema tiene dos puntos crı́ticos, un centro y un punto silla, y como se
puede calcular una integral primera local.
 
x = (a − by)x
y  = (cx − d)y
206 EDO. Versión 4. Mayo 1996

con a, b, c, d > 0. Los puntos crı́ticos son:

(0, 0), (d/c, a/b)

y es inmediato comprobar que el origen es un punto silla en la aproximación


lineal, que por tanto se conserva en el sistema no lineal, y que el punto (d/c, a/b)
es un centro en esa aproximación. Los subespacios invariantes de la matriz de la
aproximación lineal para el punto silla son los ejes, que en este caso coinciden con
las separatrices, como se puede ver sin más que sustituir en la ecuación. En lo
que sigue, consideraremos únicamente el primer cuadrante, ya que la población
de las especies es positiva (o cero). En la figura 8 aparece el campo de vectores
del sistema.
El problema ahora es estudiar si el punto (d/c, a/b) es un centro o un foco.
Vamos a encontrar una integral primera, con lo cual será un centro. Para ello
escribamos la ecuación que deberı́a verificar una función H(x, y) para ser integral
primera del sistema:

∂H ∂H
Lv H(x, y) = (a − by)x + (cx − d)y = 0
∂x ∂y

Esta es una ecuación en derivadas parciales de primer orden, cuya solución


general no es trivial de encontrar. Sin embargo, únicamente necesitamos una
solución particular. Busquémosla usando el método de separación de variables.
Sea:
H(x, y) = H1 (x) + H2 (y)

Sustituyendo en la ecuación se obtiene:

xH1 (x) yH  (y)


=− 2
cx − d a − by

El primer miembro depende solo de x y el segundo solo de y, por lo tanto ambos


son iguales a una constante λ. Esto nos proporciona dos ecuaciones diferenciales
ordinarias que se pueden resolver:

H1 (x) = λ(cx − d log x)

H2 (y) = λ(by − a log y)

y por tanto, una posible integral primera del sistema es:

H(x, y) = cx + by − log xd y a

tomando por ejemplo λ = 1. H(x, y) no es una integral primera global, pues no


está definida sobre los ejes. Sin embargo sı́ lo es en un entorno del punto crı́tico
(d/c, a/b) que es por tanto un centro.
MAR 207

y y

x x

Fig.8 Fig.9
Las órbitas próximas al centro son cerradas. Las correspondientes a los
ejes son obviamente abiertas. Se puede probar que éstas son las únicas órbitas
abiertas. Todas las demás son cerradas (recuérdese que estamos considerando
el primer cuadrante solamente). La demostración puede hacerse probando en
primer lugar que las órbitas giran en torno al centro (salvo separatrices). Este
resultado no se puede deducir directamente del mapa de fases (recuérdese el
caso del problema de Kepler y compárese los campos de vectores en uno y otro
ejemplo). Una vez calculado el giro de las órbitas, se usa de manera adecuada el
hecho de que el centro es un mı́nimo absoluto para la integral primera calculada
antes.
De acuerdo con el mapa de fases que aparece en la figura 9, si en un instante
dado existen las dos especies, esto es cierto en cualquier tiempo. Las poblaciones
son periódicas, y salvo en el caso en el que nos encontremos en el centro, el
número de individuos varı́a con el tiempo. Este tipo de modelos ecológicos
puede mejorarse introduciendo otros factores que afectan a la evolución de las
especies en competición.

7.6 Sistemas hamiltonianos


Volvamos al caso de los sistemas conservativos en una dimensión. Suponga-
mos que existe una función H(x, y), C 1 en algún dominio de IR2 , tal que las
ecuaciones se pueden escribir como:
∂H
x =
∂y
∂H
y = −
∂x
Se dice que el sistema es hamiltoniano y que H es el hamiltoniano del sistema.
Una condición necesaria para que un sistema sea hamiltoniano es la siguiente.
Sea el sistema:  
x = f (x, y)
y  = g(x, y)
Entonces:
∂f ∂g
+ =0
∂x ∂y
208 EDO. Versión 4. Mayo 1996

que es también una condición suficiente cuando el abierto en el que trabajamos


es simplemente conexo.
Supongamos pues que tenemos un sistema hamiltoniano. La primera pro-
piedad interesante es que H(x, y) es una integral primera del sistema:
∂H ∂H
Lv H(x, y) = f (x, y) + g(x, y) = 0
∂x ∂y
ya que:
∂H
f (x, y) =
∂y
∂H
g(x, y) = −
∂x
Este par de ecuaciones permite calcular H(x, y) si la condición establecida ante-
riormente se cumple. Nótese que es la misma que obtuvimos cuando se estudi-
aron las ecuaciones exactas. En efecto, la ecuación de las órbitas de un sistema
hamiltoniano es exacta. Por eso llamaremos también a este tipo de sistemas,
exactos. El cálculo de H(x, y) es el de la función cuyas curvas de nivel contienen
a las órbitas del sistema.
En el caso de un sistema lineal, los flujos hamiltonianos se caracterizan por
la condición:
tr A = 0
donde A es la matriz del sistema. En este caso, f (x, y) = ax + by, g(x, y) =
cx + dy, por lo que la condición de ser hamiltoniano es:
a+d=0
La ecuación de autovalores es ahora:
λ2 + det A = 0
por lo que, si el determinante es positivo tendremos un centro y si es negativo
un punto silla (de acuerdo con lo que sabemos de un sistema con integrales
primeras, no puede tener atractores ni repulsores). Si el determinante es igual
a cero los puntos crı́ticos son no elementales.
El hamiltoniano se puede calcular:
∂H
= ax + by
∂y
∂H
− = cx − ay
∂x
de donde:
1 2
H(x, y) = (by − cx2 + 2axy)
2
y sus curvas de nivel son cónicas, elipses si b y c tienen signos opuestos (deter-
minante positivo, centro) o hipérbolas si tienen el mismo signo (determinante
negativo, punto sillla).
MAR 209

Ejemplo. Los sistemas conservativos en una dimensión son obviamente


hamiltonianos. Supongamos la ecuación:

x = x3 − x

El hamiltoniano asociado es simplemente en este caso la energı́a cinética más la


potencial:

1 2 p2 x2 x4
H(x, y) = y + x(s − s3 )ds = + −
2 0 2 2 4

donde y = x y las órbitas del sistema están contenidas en las curvas de nivel
de H(x, y):
2y 2 + 2x2 − x4 = 4E

El sistema tiene tres puntos crı́ticos correspondientes a los extremos del poten-
cial:
dV
= x(1 − x2 ) = 0
dx
de donde x = −1, 0, 1. Los situados en x = ±1 son máximos, y por tanto puntos
silla, y x = 0 es un mı́nimo, es decir un centro. Como siempre en estos sistemas
que proceden de una ecuación de segundo orden (es decir cuya primera ecuación
es x = y), en los puntos crı́ticos y = 0.
Las órbitas son cerradas en un entorno del centro (correspondientes a en-
ergı́as entre 0 y 1/4). En cada curva de nivel de la función H(x, y) hay tres
órbitas, una cerrada y dos abiertas (ver figura 10). Por encima de 1/4 las
órbitas son abiertas (y hay una única órbita en cada curva de nivel). Cuando
E = 1/4 las órbitas que aparecen son las seis separatrices (los puntos silla tienen
dos separatrices comunes) y los puntos silla mismos. La ecuación de esta curva
de nivel es:
2y 2 + 2x2 − x4 = 1

es decir:
2y 2 = (x2 − 1)2

que son dos parábolas simétricas:

1
y = ± √ (x2 − 1)
2

∂H
= ax + by
∂y
∂H
− = cx − ay
∂x
210 EDO. Versión 4. Mayo 1996

y y

x x

Fig.10 Fig.11

Ejemplo. Volvamos de nuevo al sistema:


 
x = x + y2
y  = x2 − y

Se trata de un sistema hamiltoniano (lo que nos permite asegurar sin más que
el centro de la aproximación lineal se conserva). El hamiltoniano no es ahora
tan trivial de escribir como en el caso anterior, pues el sistema no procede
directamente de una ecuación de segundo orden. En cualquier caso, resulta
muy sencillo resolver:
∂H
= x + y2
∂y
∂H
− = x2 − y
∂x
obteniéndose:
1 3
H(x, y) = (y − x3 + 3xy)
3
Como se ve en este caso, la segunda variable y no es la derivada de la
primera x con respecto a t, impidiéndonos una interpretación tan sencilla como
en el primer ejemplo (fig.11).
En general, llamando a las variables q, p el sistema de ecuaciones de Hamilton
se escribe como:
∂H
q =
∂p
∂H
p = −
∂q

donde H es una función de q y p. Si definimos una función L(q, q  ) (considerando


a q y q  como variables independientes) por:

L(q, q  ) = pq  − H(p, q)

se tiene:
∂L
p=
∂q 
MAR 211

La función L(q, q  ) es el lagrangiano del sistema, y la ecuación de Euler-


Lagrange es simplemente la ecuación de segundo orden a la que se puede reducir
el sistema:  
d ∂L ∂L

− =0
dt ∂q ∂q

7.7 Ciclos lı́mite


Como hemos visto a través de múltiples ejemplos, las órbitas en un entorno de
un centro son cerradas, es decir las soluciones de la ecuación son periódicas.
Tan cerca como queramos de una de ellas hay otra órbita cerrada. Sin embargo
no son éstas las únicas soluciones periódicas que puede presentar un sistema
autónomo en el plano. A veces existen órbitas cerradas aisladas, es decir, en un
entorno suyo son las únicas órbitas cerradas. Las demás se mueven hacia ella
cuando t tiende a más o menos infinito. Las llamaremos ciclos lı́mite. Antes de
estudiar estas soluciones, necesitamos introducir unos conceptos previos.
Sea x = f (x) un sistema autónomo definido en un abierto de IR2 , U , con f
diferenciable con continuidad en U .

Definición 7.6 (Conjuntos lı́mite) Se define el conjunto Lω (y) de los puntos


ω-lı́mite de y ∈ IR2 por:

Lω (y) = {x ∈ U : ∃{tn } ⊂ IR, lim tn = ∞, lim g tn x = y}


n→∞ n→∞

t
donde g es el flujo asociado al sistema autónomo dado. El conjunto Lα (y) se
define de igual forma cambiando ∞ por −∞

La definición se puede dar para órbitas γ:


Definición 7.7 Si γ+ (P ) = puntos que la órbita γ atraviesa después de M ,

Lω (γ) = ∩M γ̄+ (M )

Dela misma forma, si γ− (P ) = puntos que la órbita γ atraviesa antes de M ,

Lω (γ) = ∩M γ̄− (M )

Los conjuntos de puntos lı́mite son compactos, conexos y no vacı́os (con-


siderando los mapas de fases en la esfera S 2 ). Veamos algunos ejemplos de
conjuntos lı́mite.

1. Supongamos que el origen es un foco estable para un cierto sistema au-


tónomo, y sea γ una trayectoria que es atraı́da por el foco. Su conjunto
Lω (γ) es el origen, que no es un punto de la órbita. Si el sistema es lineal,
el conjunto Lα (γ) es el punto del infinito.
2. En el caso de un centro, las órbitas cerradas tienen como conjuntos lı́mite
a ellas mismas:
Lω (γ) = Lα (γ) = γ
212 EDO. Versión 4. Mayo 1996

Se tienen los dos resultados siguientes que pueden aclarar algo el significado
de los conjuntos lı́mite:

• Una órbita que tiene una intersección no vacı́a con su conjunto lı́mite, está
contenida en él.

• Una órbita es cerrada si y solo si coincide con sus conjuntos lı́mite.

Los conjuntos lı́mite de una órbita solo pueden ser de los siguientes tipos:

i) Lω (γ) = {P }, donde P es un punto crı́tico. La órbita γ tiende a P cundo


t → ∞ siguiendo una dirección fija o en espiral.

ii) Lω (γ) es una órbita cerrada, que coincide con γ o bien γ tiende en espiral
a ese conjunto cuando t → ∞, por uno de sus lados.

iii) Lω (γ) puede ser una unión de órbitas (separatrices) y puntos crı́ticos que
cierran un abierto homeomorfo al disco unidad. En este caso γ tiende en
espiral hacia Lω (γ), lo mismo que cualquier trayectoria suficientemente
próxima a Lω (γ) (dentro del cerrado cuya frontera es Lω (γ) y que contiene
a γ).

Lo anterior es igualmente cierto para Lα (γ) cambiando t por −t.

Ejemplos.

1. Como hemos dicho antes, si P es un punto crı́tico del tipo nodo estable, el
conjunto Lω (γ) siendo γ una órbita que tiende a P , es justamente P .

2. Un centro corresponde al caso ii), cuando el conjunto Lω (γ) coincide con


la órbita. Un ciclo lı́mite, concepto que introduciremos a continuación, es
la segunda posibilidad que aparece en ii).

Una vez introducido el concepto de conjunto lı́mite, veremos ahora que se


entiende por ciclo lı́mite:

Definición 7.8 Un ciclo lı́mite de un sistema autónomo es una solución perió-


dica aislada. Es decir, en un entorno suyo no hay más soluciones periódicas.

También podemos definir un ciclo lı́mite de la forma siguiente:

Definición 7.9 Un ciclo lı́mite es una órbita cerrada K tal que está contenida
en el conjunto Lω (P ) o Lα (P ) para algún punto P ∈ K.

La estructura de las órbitas en las proximidades de un ciclo lı́mite viene


descrita en el siguiente teorema:

Teorema 7.7 Sea γ una órbita cerrada de un sistema autónomo (como siempre
en el plano) correspondiente a un ciclo lı́mite. Toda otra órbita del sistema está
contenida en una de las dos regiones en las que γ divide al plano. Entonces, se
pueden presentar dos casos:
MAR 213

i) Todas las órbitas exteriores próximas a γ (o bien las interiores) se enrollan


en espiral sobre la órbita γ cuando t → ∞.
ii) El comportamiento anterior se da cuando t → −∞.
Si en el primer caso todas las órbitas (interiores y exteriores) próximas a γ tien-
den a ella cuando t → ∞ se dice que el ciclo lı́mite es estable (asintóticamente).
Si lo hacen cuando t → −∞ se dice que es inestable. Si las interiores tienden a
γ y las exteriores se alejan (o viceversa) se dice que es semiestable (fig. 12).

y
y

x x

Fig.12a Fig.12b

Un criterio útil para la búsqueda de ciclos lı́mite es el teorema de Poincaré-


Bendixson (que no es más que la descripción de conjuntos lı́mite hecha anteri-
ormente) que se puede enunciar de la forma siguiente:
Teorema 7.8 (Poincaré-Bendixson) Supongamos un sistema autónomo en
IR2 . Un conjunto lı́mite que no contenga puntos crı́ticos es una órbita cerrada.
(Si se supone el sistema en IR2 habrá que exigir que el conjunto lı́mite sea
compacto y no vacı́o.)
Existe una multitud de resultados sobre la existencia de ciclos lı́mite. Dado el
carácter elemental del tratamiento no podemos entrar en un estudio detallado de
estos temas. Sin embargo analizaremos con un cierto detalle una clase especial
de ecuaciones de segundo orden no lineales, las ecuaciones de Liénard.

7.8 Ecuaciones de Liénard


Consideremos la ecuación de segundo orden con un término disipativo:

x + f (x)x + g(x) = 0

o el sistema asociado (definido de la manera usual para esta ecuación):


 
x = y − F (x)
y  = −g(x)

donde la derivada de la función F (x) es f (x).


Bajo ciertas hipótesis sobre las funciones h(x) y g(x), se puede demostrar
que estas ecuaciones admiten un ciclo lı́mite. Concretamente:
214 EDO. Versión 4. Mayo 1996

1. La función g(x) verifica:


 ∞
xg(x) > 0, ∀x = 0, g(x)dx = ∞
0

2. La función F (x) es univaluada en IR y liptschitziana en intervalos acotados.


Además existe un entorno de cero suficientemente pequeño donde xF (x) >
0 cuando x = 0.
3. Fuera de un entorno del origen [−a, a], F (x) está acotada por dos cons-
tantes k < k  :

F (x) ≥ k, ∀x > a, F (x) ≤ k  , ∀x < −a

Con alguna hipótesis más se puede probar que el ciclo lı́mite es único. Con-
sideremos ahora el caso particular F (x) = x3 − x, g(x) = x con lo que el sistema
es:  
x = y − x3 + x
y  = −x
Esta es la ecuación de van der Pol que aparece en las oscilaciones man-
tenidas de circuitos electrónicos en los que hay elementos como triodos u otros
osciladores.

Fig.13

Esta ecuación tiene una única solución periódica que es asintóticamente es-
table. Cualquier otra órbita del sistema, salvo el origen, acaba en ella cuando
t → ∞. Estudiemos su mapa de fases. El único punto crı́tico del sistema es el
origen. La aproximación lineal tiene como matriz:
 
1 1
.
−1 0

Su determinante es 1 y su traza también por lo que se trata de un foco inestable.


Un estudio del campo de vectores ayuda a dibujar el mapa de fases. La curva
y = x3 − x determina los puntos en los que el campo es vertical y un uso
apropiado de la aplicación de Poincaré (que relaciona los sucesivos puntos de
corte de una órbita con un segmento dado) permite asegurar que las órbitas giran
MAR 215

en torno al origen cuando t → ∞. Sin embargo, el carácter local del estudio


del foco no podrı́a decir nada sobre la existencia de ciclos lı́mite. De la teorı́a
general enunciada antes para las ecuaciones de Liénard, se puede concluir que
existe un único ciclo lı́mite para este problema. Además, dicho ciclo es estable, y
su posición se puede determinar aproximadamente. En la figura 13 se representa
el mapa de fases de esta ecuación en el que se ve el carácter atractor del ciclo
lı́mite. No importa cuales sean las condiciones iniciales para este sistema (salvo
que se esté en el punto (0, 0), que es un punto crı́tico) la solución siempre acaba
en el ciclo lı́mite.
La ecuación de van der Pol se puede considerar como una perturbación de
un sistema conservativo. Sea el sistema:

x = y
y = −x

que tiene como energı́a (integral primera):

1 2 1 2
E= y + x .
2 2
Supongamos el sistema perturbado:

x = y + 2f1 (x, y)
y = −x + 2f2 (x, y)

Para valores pequeños del parámetro las soluciones de este sistema no difieren en
mucho (para tiempo finito) de las soluciones del sistema conservativo inicial. Las
órbitas del sistema perturbado no serán en general cerradas. La energı́a definida
como antes no se conservará, pero en el caso que sean espirales, podemos estudiar
si crece o decrece cuando ha dado una vuelta completa alrededor del origen.
Calculemos para ello la derivada de la función E(x, y) con respecto al campo
de vectores v de la ecuación perturbada:

Lv E = x(y + 2f1 (x, y)) + y(−x + 2f2 (x, y)) = 2(xf1 (x, y) + yf2 (x, y)).

Evaluando la integral de Lv E a lo largo de una órbita durante una vuelta ten-


dremos la variación buscada. Sin embargo, no conocemos la ecuación de las
órbitas. Integremos en una circunferencia de radio R (que es una órbita para el
sistema conservativo inicial):
 2π
∆E = 2 Lv E(x = R cos t, y = R sen t)dt + O(22 )
0

es decir:
∆E = 2F (R) + O(22 ).
donde: 
F (R) = (f1 (x, y)dy − f2 (x, y)dx).
216 EDO. Versión 4. Mayo 1996

Si F (R) es positiva, la energı́a crece y las órbitas se alejan en espiral del origen.
Si es negativa la energı́a decrece, y las órbitas se acercan en espiral al origen. Si
F (R) cambia de signo, aparece una órbita cerrada, cuando F (R0 ) = 0 (que no
tiene porqué ser una circunferencia, recuérdese que es un cálculo aproximado).
Veamos que ocurre en la ecuación de van der Pol cuando introducimos un
parámetro pequeño 2:  
x = y − 2(x3 − x)
y  = −x
En este caso F (R) se puede calcular explı́citamente
  2π
F (R) = (x3 − x)dy = R cos t(R2 cos2 t − 1)(−R cos t)dt =
0
3
πR2 (1 − R2 ).
4

La gráfica de F (R) frente a R aparece en la figura 14. Para R0 = 2/ 3,
F (R0 ) = 0 y tenemos un ciclo lı́mite que además es estable (pues la función F (R)
pasa de ser positiva a ser negativa y de acuerdo con lo dicho anteriormente, las
órbitas internas se alejan del origen acercándose al ciclo lı́mite, y las externas
tienden también al ciclo lı́mite al decrecer la energı́a en cada giro).

F(R)

R
0
R

Fig.14

El razonamiento anterior es solo válido para valores del parámetro 2 peque-


ños.

7.9 Bifurcación de Hopf


Para terminar esta breve introducción a los sistemas autónomos, estudiaremos
en esta sección la llamada bifurcación de Hopf. En general, dado un sistema
en el que aparece un parámetro, se dice que hay una bifurcación cuando las
caracterı́sticas de las soluciones cambian bruscamente al pasar el parámetro por
un determinado valor. Por ejemplo, sea el sistema:
 
x = y
y  = −x − y 3 + 2y
MAR 217

asociado a la ecuación x + (x )3 − 2x + x = 0 que tiene un solo punto crı́tico
en el origen. Calculando la matriz de la aproximación lineal:
 
0 1
.
−1 2

La traza de esta matriz es 2 y el determinante 1. Cuando 22 < 4 los autovalores


son complejos y tenemos un foco. Si, en ese intervalo, 2 es negativo, el foco es
estable (pues es la traza de la matriz). Si 2 es positivo, el foco es inestable. Ası́
pues, al atravesar el punto 2 = 0 aparece un cambio brusco en el comportamiento
de las órbitas próximas al origen, que pasan de acercarse a él a alejarse. Este
es un punto de bifurcación.
En el caso 2 = 0, los autovalores de la matriz son imaginarios puros. Sin
embargo se trata de un foco estable, como ya vimos cuando estudiamos la clasi-
ficación de puntos crı́ticos. El término y 3 destruye el centro que hay en la
aproximación lineal. Todas las órbitas en este caso tienden hacia el origen.
Cuando 2 > 0 hemos visto que las órbitas próximas al origen se alejan de él.
Sin embargo, el término dominante para las órbitas lejanas al origen es y 3 , luego
lejos de él, las órbitas se acercan al (0, 0). Esta situación provoca la aparición
de un ciclo lı́mite caracterı́stico de la bifurcación de Hopf (fig.15). Como hemos
visto antes, para 2 = 1 se obtiene la ecuación de van der Pol que tiene un ciclo
lı́mite (cambiando adecuadamente las notaciones).

y y

x x

Fig.15a Fig.15b

y y

x x

Fig.15c Fig.15d

Con esto terminamos estos capı́tulos dedicados a los sistemas autónomos.


Aunque hemos procurado dar una visión amplia de los sistemas en el plano, han
quedado muchas cuestiones por tratar. Y no hemos podido llegar a sistemas en
218 EDO. Versión 4. Mayo 1996

más dimensiones en los que pueden aparecer fenómemos más interesantes (como
caos) y por supuesto más complicados de estudiar.
MAR 219

7.10 Ejercicios
1. Dibujar el mapa de fases:
   
x = y(x + 1) x = y − y 2 x = yex
; ;
y  = x(1 + y 3 ) y  = x − x2 y  = ex − 1
  
x = 8x − y 2 x = −x + xy
; ; x = (2 − x )x
y  = −6y + 6x2 y  = xy
1 1
x + 2
− 3 = 0; x + x + sen x = 0
x x
2. Dibujar, tras escribir las ecuaciones en coordenadas polares:
    
x =y+x  x2 + y 2 x = (x − y)(1 − x2 − y 2 )
;

y = −x + y x + y 2 2 y  = (x + y)(1 − x2 − y 2 )
 
x = −y − x(x2 + y 2 − 1)(x2 + y 2 − 4)
y  = x − y(x2 + y 2 − 1)(x2 + y 2 − 4)

3. Dibujar el mapa de fases (el uso de polares es útil):


 
x = x(x2 + y 2 − 1)(x2 + y 2 − 9) − y(x2 + y 2 − 2x − 8)
y  = y(x2 + y 2 − 1)(x2 + y 2 − 9) + x(x2 + y 2 − 2x − 8)

4. Dibujar los mapas de fases de los sistemas:


   
x =y x = (x2 + y 2 )y
A)  B)
y = −x y  = −(x2 + y 2 )x

¿Qué relación existe entre las soluciones de A) y B) ? Resolverlas.


5. Calcular los valores de µ para los que el mapa de fases cambia radical-
mente, dibujando el mapa de fases en cada caso:

x = x2 − 4x + µ; x + 2µx + (1 + µ2 )x = 0

6. Sea V (x, y) = 2x2 − 2xy + 5y 2 + 4x + 4y + 4 y consideremos el sistema:


 
x = −Vx
y  = −Vy

Dibujar el mapa de fases y las curvas de nivel de V (x, y).


7. Dibujar el mapa de fases del sistema:
 
x = xy
y = x + y2
220 EDO Versión 3. Octubre 1995

8. Sea x = g(x) y supongamos que en x0 la gráfica de la función potencial


tiene punto de inflexión con tangente horizontal. Describir el mapa de
fases cerca de tal punto singular.
9. Sea la ecuación (E): x + x − 2x + ax2 = 0
Hallar los puntos singulares de (E) y clasificarlos según los valores de
a. Determinar en cada caso la estabilidad de dichos puntos singulares.
Dibujar el mapa de fases para a = 1. Si (E) rige el movimiento de un
punto sobre el eje x a lo largo del tiempo, describir (a la vista del mapa
de fases) el movimiento del punto si inicialmente está en reposo en x = 1.
10. Sea (A):
1 1
x − (x )2 + x(x − 2) = 0
2 2
Clasificar los puntos singulares de su mapa de fases. Hallar la ecuación de
sus órbitas. Dibujar el mapa de fases. Sea (E) la ecuación v  = f (x, v) que
se ha debido resolver para hallar la ecuación de las órbitas. Estudiar exis-
tencia y unicidad de soluciones de (A) y (E). Comprobar que existen dos
soluciones de (E) que pasan por el origen y que existe una única solución
de (A) con x(0) = x (0) = 0. Explicar por qué no es contradictorio. Pre-
cisar a la vista del mapa de fases la estabilidad de la solución de (A) que
satisface: (i) x(0) = 0, x (0) = 0; (ii) x(7) = 2, x (7) = 0; (iii) x(−1) = 1,
x (−1) = −1.
11. Se considera una partı́cula que se mueve sobre el eje x según la ecuación:
d2 x x
(E) =− 2
dt2 (x + 9)2
a) Dibujar el mapa de fases de (E). Describir brevemente los posibles
movimientos de la partı́cula.
b) Determinar la órbita que pasa por x = 0, v = 1/3. ¿Qué velocidad
tiene la partı́cula si se mueve según esta órbita cuando pasa por
x = 4? ¿Cuánto tiempo tarda en llegar a x = 4?
c) ¿Qué soluciones x(t) de (E) están definidas para todo t? Consideremos
ahora la ecuación diferencial de primer orden:
dv x
(O) =−
dx v(x2 + 9)2
cuyas curvas integrales son las órbitas de (E).
d) ¿Es estable la solución v(x) de (O) que satisface v(0) = 1/3? ¿Alguna
solución de (O) es asintóticamente estable?
12. Sea (E): x + g(x) = 0 la ecuación de un sistema conservativo y supong-
amos que g(0) = 0, g(x) < 0, si x < 0, g(x) > 0 si x > 0 y además
 x
(I) g(s)ds → ∞ si x → ±∞
0
MAR 221

a) ¿Cuántas soluciones periódicas tiene (E) ?


b) ¿Qué pasa si se suprime la hipótesis (I) ?
13. Sea (E): x − 3x2 − cx − d = 0, con c, d ∈ IR, c>0
Dibujar el mapa de fases de (E). Comprobar que la función u(ξ, τ ) =
x(ξ − cτ ) donde x(t) es solución de (E) verifica la ecuación:

∂u ∂u ∂ 3 u
= 6u − 3
∂τ ∂ξ ∂ξ
Calcular una solución de (E) cuya trayectoria en el espacio de fases es una
separatriz que rodea un centro (tomar d = 0).
14. Un punto se mueve a lo largo del eje x siguiendo la ecuación x = −1/x2 .
Dibujar el mapa de fases e interpretarlo. Si el punto se encuentra inicial-
mente en reposo a la derecha y a una distancia x0 del origen, calcular el
tiempo que tarda en llegar al origen.
15. Un péndulo se desplaza un ángulo α ∈ (0, π) de su posición de equilibrio
estable y se abandona. Hallar el periodo de la oscilación en función de una
integral. Suponer g/l = 1. Comparar con el periodo de la aproximación
lineal.
16. Sean m, n ∈ IN impares. Probar que todas las soluciones de x = y m , y  =
−xn son periódicas.
17. Sea x + xn = 0, n ∈ IN impares. Hallar una fórmula para el periodo
de la solución con x(0) = 0, x (0) = a. ¿Para qué n es este periodo
independiente de a ?
18. Estudiar si es estable la posición de equilibrio de la ecuación:

x + xn = 0, n ∈ IN

19. Dado el sistema de ecuaciones:


 
x = 2x − 4y + ax3 + by 2
y  = 2x − 2y

a, b ∈ IR, a2 + b2 = 0.
elegir a y b de forma que el sistema tenga un centro en el origen y dibujar
el mapa de fases. Calcular la ecuación de las órbitas. Señalar en el mapa
de fases una órbita correspondiente a una solución del sistema que sea
inestable y otra correspondiente a una solución definida para todo t.
20. Supongamos que el sistema:

x = x(1 − y)
y  = y(−1 + x)
222 EDO Versión 3. Octubre 1995

describe la evolución de dos poblaciones animales en relación predadora.


Sea por ejemplo x el número de moscas e y el de murciélagos en unidades
adecuadas. Dibujar e interpretar el mapa de fases. Comprobar que (según
este modelo) es contraproducente emplear insecticida si éste mata también
determinada proporción de los murciélagos existentes.

21. Se consideran las ecuaciones siguientes:



x = (a − by − ex)x
(a, b, c, d, e > 0)
y  = (cx − d)y

que describen la evolución de dos poblaciones x e y. Interpretar su signifi-


cado. Clasificar los puntos singulares, hacerse una idea del mapa de fases
y establecer expectativas de futuro para las poblaciones x e y (según los
valores de las constantes).

22. Describe el sistema 


x = x(2 − x − y)
y  = y(3 − 2x − y)
la evolución de una población de truchas (x) y salmones (y) en un mismo
estanque. Dibujar el mapa de fases e interpretarlo. Si un pescador pesca
sólo truchas con una velocidad proporcional al número existente, indicar
como influye en la evolución de ambas poblaciones su mayor o menor
habilidad.

23. Sea el sistema: 


ẋ = y p
ẏ = xp
donde p > 0, x ≥ 0, y ≥ 0.

a) Hállese la ecuación de las órbitas y dibujénse éstas aproximadamente.


b) Tómese la solución que verifica x = (0), y(0) = 1. ¿Existe algún valor
de p para el que esta solución explote (es decir, tienda a infinito) en
tiempo finito?

24. Sea
d2 x
= x1/2 .
dt2
Determinar la solución que satisface x(2) = 1/9, ẋ(2) = 2/9. ¿Existe más
de una solución satisfaciendo x(0) = ẋ(0) = 0? Sea x̄(t) la solución que
verifica x̄(0) = 2, x̄˙ (0) = −1 ¿Existe algún T > 0 tal que x̄(T ) = 2?
Dibujar aproximadamente x̄(t).

25. Se considera el sistema:


x = h(y − x)
y  = x + h(y − x)
MAR 223

con h función derivable en todo IR.


Demostrar que sus posibles puntos crı́ticos están sobre el eje y. ¿De qué
tipo pueden ser?
En el caso particular en que h(z) = 2 − z:

a) Calcular la ecuación de las órbitas.


b) Dibujar el mapa de fases.
c) Hallar la solución del sistema que satisface x(0) = 0, y(0) = 2.
d) ¿Qué soluciones del sistema están definidas para todo t de IR?
e) ¿Es estable la solución con x(0) = y(0) = 0?
26. Sea el sistema: 
x = 2xy
y  = 1 − x2 + y 2

a) Dibujar su mapa de fases.


b) Estudiar qué soluciones del sistema están definidas para todo t de IR.
c) Hallar las curvas ortogonales a las órbitas del sistema.

También podría gustarte