Está en la página 1de 115

Ecuaciones Diferenciales I

Artemio Gonz
alez L
opez

Madrid, enero de 2004

Indice general
1 Introducci
on
1.1 Preliminares . . . . . . . . . . . . . . . . . . . . .
1.2 Tecnicas elementales de integraci
on . . . . . . . .
1.2.1 y = f (x) . . . . . . . . . . . . . . . . . .
1.2.2 Ecuaciones con variables separadas . . . .
1.2.3 Ecuaciones homogeneas . . . . . . . . . .
1.2.4 Ecuaciones lineales . . . . . . . . . . . . .
1.2.5 Ecuacion de Bernoulli . . . . . . . . . . .
1.2.6 Ecuacion de Riccati . . . . . . . . . . . .
1.2.7 Ecuaciones exactas y factores integrantes
1.3 Existencia y unicidad de soluciones . . . . . . . .
1.3.1 Funciones lipschitzianas . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

1
1
2
2
3
6
7
9
10
12
16
19

2 Ecuaciones y sistemas lineales


2.1 Estructura del espacio de soluciones . . . . . . . . . .
2.2 Wronskiano . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Formula de AbelLiouville . . . . . . . . . . .
2.2.2 Metodo de variaci
on de constantes de Lagrange
2.3 Sistemas con coeficientes constantes . . . . . . . . . .
2.4 C
alculo de la exponencial de una matriz . . . . . . . .
2.4.1 Polinomio interpolador de Lagrange . . . . . .
2.5 Ecuaciones de orden n . . . . . . . . . . . . . . . . . .
2.5.1 Ecuaciones lineales . . . . . . . . . . . . . . . .
2.6 Ecuaciones lineales con coeficientes constantes . . . . .
2.6.1 Soluci
on de la ecuaci
on inhomogenea . . . . . .
2.7 Estabilidad de sistemas y ecuaciones lineales . . . . . .
2.7.1 Criterio de RouthHurwitz . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

27
28
30
32
33
34
37
41
45
46
52
54
57
62

.
.
.
.
.
.

65
65
66
71
78
85
93

3 Soluciones en forma de serie


3.1 Puntos regulares . . . . . . . .
3.1.1 Funciones analticas . .
3.1.2 La ecuaci
on de Hermite
3.2 Puntos singulares regulares . .
3.2.1 La ecuaci
on de Bessel .
3.2.2 El punto del infinito . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

INDICE GENERAL

4 Sistemas din
amicos en el plano
4.1 Resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Sistemas din
amicos lineales en R2 . . . . . . . . . . . . . . . . . . . . .
4.3 Sistemas din
amicos no lineales en R2 . . . . . . . . . . . . . . . . . . . .

ii
97
97
103
107

Captulo 1

Introducci
on
1.1

Preliminares

En general, una ecuaci


on diferencial es una expresi
on que relaciona el valor de una
funcion (o funciones) inc
ognita(s) en cada punto con el de sus derivadas parciales en el
mismo punto. Por ejemplo, la expresi
on
u
u
(x, y) +
(x, y) = 0
x
y

(1.1)

es una ecuaci
on diferencial. Las soluciones de la ecuaci
on anterior, es decir las funciones
u(x, y) para las cuales dicha ecuaci
on se verifica identicamente (en todos los puntos (x, y)
pertenecientes a un abierto D R2 ), son las funciones de la forma
u(x, y) = f (x y) ,
donde f es una funci
on derivable arbitraria.
Ejemplo 1.1. La ecuaci
on
u
u
(x, y) +
(y, x) = 0
x
y
no es una ecuaci
on diferencial, ya que las derivadas parciales de u no est
an evaluadas
en el mismo punto.
Una ecuaci
on como (1.1), en la que la funcion inc
ognita u depende de m
as de una
variable, se denomina ecuaci
on en derivadas parciales. Por el contrario, si u es una
funcion de una variable la ecuaci
on diferencial se dice ordinaria. Son estas ecuaciones las
que nos interesaran fundamentalmente en este curso, por lo que daremos a continuaci
on
una definicion m
as cuidadosa de ellas.
Definici
on 1.2. Un sistema de ecuaciones diferenciales ordinarias (EDOs) es un
sistema de ecuaciones del tipo

F x, y, y , . . . , y (n) = 0 ,
(1.2)

donde F = (F1 , . . . , Fp ) : R |Rm {z


Rm} Rp es una funcion definida en un
n+1 veces

abierto U . Una soluci


on de (1.2) es una funcion u : R Rm n veces derivable en un
intervalo abierto D R que verifica

F x, u(x), u (x), . . . , u(n) (x) = 0 ,
x D .
1


CAPITULO 1. INTRODUCCION

Notaci
on:
u(k) =

dk u
dxk

p = n
umero de ecuaciones del sistema (el sistema F = 0 es equivalente a las p ecuaciones F1 = = Fp = 0, donde Fi es la i-esima componente de F ).

m = n
umero de funciones inc
ognitas (la funcion inc
ognita vectorial y : R Rm es
equivalente a las m funciones inc
ognitas escalares y1 , . . . , ym : R R, donde yi es la
i-esima componente de y). Generalmente, p = m .

n = orden del sistema. Se supone que alguna derivada parcial

Fi
(n)
yj

no es identica-

mente cero, para que alguna derivada n-esima de y aparezca en el sistema.


Ejemplo 1.3.
y1 = B(y1 , y2 ) y2
y2 = B(y1 , y2 ) y1
(donde B(y1 , y2 ) es una funci
on dada) es un sistema de dos ecuaciones de orden 2
(describe el movimiento de una partcula de carga unidad en el plano (y1 , y2 ) bajo la
accion de un campo magnetico de intensidad B(y1 , y2 ) perpendicular a dicho plano).

1.2

T
ecnicas elementales de integraci
on

Comenzaremos estudiando el caso m


as sencillo de una ecuaci
on escalar de primer
orden (n = m = p = 1)
F (x, y, y ) = 0 .
Muchas veces es posible despejar y en funcion de (x, y) de la ecuaci
on anterior, obteniendose as la ecuaci
on escalar de primer orden en forma normal
y = f (x, y) .

1.2.1

y = f (x)

Si f es continua en un intervalo abierto D, la ecuaci


on se resuelve integrando ambos
miembros a partir de un punto cualquiera x0 D:
y=

f (s) ds + c ,
x0

donde c = y(x0 ) es una constante arbitraria.


La soluci
on general de la ecuaci
on anterior depende de una constante arbitraria c R
(el punto x0 se fija de antemano).
El problema de valor inicial
y = f (x) ,
tiene la soluci
on u
nica y =

Rx

x0

f (s) ds + y0 .

y(x0 ) = y0


CAPITULO 1. INTRODUCCION

1.2.2

Ecuaciones con variables separadas


y =

f (x)
,
g(y)

(1.3)

con f, g continuas en sendos intervalos abiertos U, V , y g(y) 6= 0 para todo y V .


Soluci
on. Toda soluci
on y(x) satisface
Z x
Z x


g y(s) y (s) = f (s) =
g y(s) y (s) ds =
f (s) ds .
x0

x0

Haciendo el cambio de variable t = y(s) en la primera integral se obtiene


Z

y(x)

g(t) dt =
y(x0 )

f (s) ds .
x0

Si y0 es un punto arbitrario (pero fijo) de V , vemos que toda soluci


on y(x) ha de satisfacer
la ecuaci
on implcita
Z y
Z x
g(s) ds =
f (s) ds + c ,
(1.4)
y0

x0

R y(x )
donde c = y0 0 g(s) ds es una constante arbitraria. Recprocamente, derivando (1.4)
(considerando a y como funci
on de x) se comprueba que toda funcion y(x) que verifique
(1.4) es soluci
on de (1.3). Se dice que la expresi
on (1.4) es la soluci
on general de (1.3).
Estudiemos m
as detenidamente la soluci
on general (1.4). Es de la forma
Z y
Z x
(x, y) = c ,
con (x, y) =
g(s) ds
f (s) ds .
y0

(1.5)

x0

La ecuaci
on (1.5) define implcitamente una familia a un par
ametro de curvas planas.
Cada curva de la familia (que se obtiene fijando el valor del par
ametro c) tiene la
propiedad de que su pendiente y en un punto cualquiera (x, y) de la curva satisface
la ecuaci
on (1.3), es decir y = f (x)/g(y). Este tipo de curvas se denominan curvas
integrales de la ecuaci
on (1.3). Notese que una soluci
on de (1.3) no es m
as que una
funcion cuya gr
afica est
a contenida en una curva integral.
Sea (a, b) U V un punto del plano, por el que pasa la curva de la familia (1.5)
con c = (a, b). Por el teorema de la funci
on implcita, la relaci
on (1.5) define en un
entorno del punto (a, b) una funci
on y(x) tal que y(a) = b si

(a, b) = g(b) 6= 0 ,
y
condici
on que se cumple por la hip
otesis hecha sobre g. (Notese que es de clase C 1 (U
V ), por lo que el teorema es aplicable.) Esta funcion es soluci
on de la ecuaci
on diferencial
(1.3) (ya que satisface la relaci
on implcita (1.5)) con la condici
on inicial y(a) = b. El
teorema de la funci
on implcita garantiza que esta soluci
on es u
nica localmente (en
un entorno de a), ya que dicho teorema garantiza la unicidad local de la funcion y(x)
que satisface la relaci
on implcita (1.5) junto con la condici
on y(a) = b. Por tanto, el
problema de valor inicial asociado a la ecuaci
on (1.3) tiene soluci
on u
nica local si los
datos iniciales est
an en el abierto U V .


CAPITULO 1. INTRODUCCION

3
2
y
1

x 2

1
2
3

Figura 1.1: Curvas integrales de la ecuaci


on y = x/y.
Ejemplo 1.4. Consideremos la ecuaci
on
x
y = ,
y

(1.6)

que es del tipo anterior con f (x) = x, U = R, g(y) = y. Como g se anula en 0, como
intervalo V podemos tomar o bien V+ = R+ (n
umeros reales positivos) o bien V = R ,
pero no V = R. La integraci
on de esta ecuaci
on es inmediata, siendo la soluci
on general
y 2 + x2 = c ,

(1.7)

con c > 0 una constante arbitraria. Las curvas integrales son pues circunferencias de

radio c (fig. 1.4). Si hemos tomado V = R+ , entonces y > 0, y por tanto de (1.7) se
sigue que
p
(1.8)
y = c x2 ,

que est
a definida (y es derivable) en el intervalo abierto ( c, c). Por el contrario, si
tomamos V = R entonces y < 0, y la soluci
on general es entonces
p

c < x < c.
(1.9)
y = c x2 ,

As, en este caso cada curva integral (1.7) da lugar a dos soluciones (tiene dos ramas).
Utilizando las expresiones (1.8) y (1.9) es facil probar que el problema de valor inicial
y(x0 ) = y0 para la ecuaci
on (1.6) tiene soluci
on u
nica para todo (x0 , y0 ) con y0 6= 0.
La ecuaci
on diferencial (1.6) no tiene sentido en el eje horizontal, ya que ah se anula el
denominador del miembro derecho. En cuanto a las soluciones (1.8)(1.9), ambas tienen

lmite cero cuando x c , pero su derivada tiende a infinito en estos puntos.


Ejemplo 1.5. Sea ahora la ecuaci
on con variables separadas
y = y 2 cos x .

(1.10)

Ahora f (x) = cos2 x, U = R, g(y) = y12 , V = R+ o V = R . Sin embargo, n


otese que
ahora el miembro derecho de la ecuaci
on tiene sentido (es continuo, de hecho C ) en


CAPITULO 1. INTRODUCCION

4
y
2

10 8 6 4 2 0

4 x 6

8 10

Figura 1.2: Soluciones de la ecuaci


on y = y 2 cos x.
todo el plano (x, y). De hecho, en este caso y(x) = 0 es obviamente soluci
on de (1.10).
2
Si y 6= 0 la ecuaci
on se integra de la forma usual (dividiendo por y ):
1
y
1
= cos x = = sen x c y =
,
2
y
y
c sen x

(1.11)

con c R constante arbitraria. Notese que la soluci


on y = 0 no est
a contenida en la
expresi
on anterior para ning
un valor de finito de c (formalmente, se obtendra haciendo
c ). Tambien es evidente que ninguna de las soluciones (1.11) corta a la soluci
on
y = 0.
El comportamiento de las soluciones (1.11) depende de que |c| 1 o |c| > 1. En
este u
ltimo caso el denominador de (1.11) nunca se anula, por lo que las soluciones con
|c| > 1 est
an definidas en todo R (fig. 1.5). Sin embargo, si |c| 1 entonces
c = sen x x = arc sen c + 2k

o x = arc sen c + (2k + 1) ,

k Z,

por lo que el denominador se anula infinitas veces, y la soluci


on y = (c sen x)1
tiene infinitas asntotas verticales (cf. fig. 1.5). Mas propiamente, si |c| 1 la expresi
on
(1.11) define infinitas soluciones, cada una de ellas con intervalo de definicion (xi , xi+1 )
limitado por dos ceros sucesivos de la ecuaci
on sen x = c. En este caso tanto la soluci
on
como sus(s) derivada(s) tienden a infinito cuando nos aproximamos a los lmites de dicho
intervalo.
Notese que tanto en este ejemplo (para |c| 1) como en el anterior las soluciones
no est
an definidas en toda la recta real. En el ejemplo anterior, esto era debido a que
eventualmente toda soluci
on se aproxima a la recta y = 0, en que el miembro derecho de
la ecuaci
on (1.6) es discontinuo (tiende a infinito, si x 6= 0). Sin embargo, en este caso
las soluciones tienen singularidades en puntos en que el miembro derecho de la ecuaci
on
diferencial es continuo (en este caso, el miembro derecho de (1.10) es continuo, de hecho
C , en todo el plano). Dicho de otro modo, no es posible averiguar la existencia y
la posici
on de estas singularidades estudiando las singularidades del miembro derecho
de (1.10). Estas singularidades aparecen no porque el miembro derecho de (1.10) sea
discontinuo, sino porque la derivada de la soluci
on crece cada vez m
as r
apido, de forma
que la soluci
on explota en un tiempo finito.


CAPITULO 1. INTRODUCCION

Ejercicio. Probar que el problema de valor inicial y(x0 ) = y0 para la ecuaci


on (1.10)
tiene soluci
on u
nica para todo (x0 , y0 ), dada por
y=

y0
1 + y0 (sen x0 sen x) .

Notese que esta expresi


on contiene a la soluci
on y = 0 (se obtiene para y0 = 0).

1.2.3

Ecuaciones homog
eneas

Se trata de ecuaciones de primer orden


y = f (x, y) ,

(1.12)

en que la funci
on f es continua en un abierto U R2 y homogenea de grado cero, es
decir
f (tx, ty) = f (x, y) ,
x, y U , t R , t 6= 0 .
Este tipo de ecuaciones se resuelven transformandolas en una ecuaci
on de variables
separadas mediante el cambio
y = xz,
(1.13)
valido para x 6= 0. En efecto,
y = x z + z = f (x, xz) = f (1, z)

z =

f (1, z) z
.
x

(1.14)

La ecuaci
on anterior tiene soluciones constantes z = para toda raz de la ecuaci
on
= f (1, ) .
En la variable y estas son soluciones lineales y = x, mientras que las dem
as soluciones
se obtienen integrando (1.14), es decir son de la forma
log |x| + c =

y/x

dz
.
f (1, z) z

Ejemplo 1.6.
y =

3xy + 2y 2
.
x2 + xy

(1.15)

Es una ecuaci
on homogenea (tanto el numerador como el denominador son homogeneos
de grado 2), con
f (1, z) =

z(z + 2)
3z + 2z 2
= f (1, z) z =
.
1+z
z+1

Las soluciones lineales son por tanto y = 0 e y = 2x. Las dem


as soluciones est
an dadas
por

Z
Z 
z+1
1 1
1
1
log |x| + c =
dz =
+
dz = log |z(z + 2)| ,
z(z + 2)
2 z z+2
2

de donde

z(z + 2) = Cx2


CAPITULO 1. INTRODUCCION

y = x x 1 + x2

y = x + x 1 + x2

4
2

y = x + x 1 x2
2

1
2

y = x x 1 x2

y = 2x

Figura 1.3: Soluciones de la ecuaci


on (1.15).
con C = e2c constante no nula. Resolviendo esta ecuaci
on cuadratica en z y sustituyendo z = y/x obtenemos finalmente
y = x x

1 + Cx2 .

(1.16)

p
Esta soluci
on est
a definida para todo x si C > 0, y para |x| < 1/ |C| si C < 0
(cf. fig. 1.3). En este caso f es singular en las rectas x = 0 y x + y = 0, por lo que
el abierto U estar
a contenido en una de las cuatro regiones abiertas determinadas por
la intersecci
on de estas rectas. En cada una de estas regiones el signo del radical en la
formula anterior est
a bien determinado: por ejemplo, si x < 0 y x+y > 0 deber
a tomarse
el signo . Finalmente, n
otese que haciendo C = 0 en la formula (1.16) obtenemos
las dos soluciones lineales de la ecuaci
on (1.15).

1.2.4

Ecuaciones lineales
y = a(x) y + b(x) ,

(1.17)

donde a y b son funciones continuas en un intervalo abierto U . La ecuaci


on se dice
homog
enea si b 0, e inhomogenea (o completa) en caso contrario. La ecuacion lineal
homogenea
y = a(x) y
(1.18)
es de variables separadas, y por tanto se resuelve facilmente. En efecto, y = 0 es soluci
on,
y si y 6= 0 se tiene
y
= a(x) = log |y| =
y

x0

Rx
a(s) ds
,
a(s) ds + c0 = y = c e x0

donde c = ec0 es una constante real arbitraria (si c = 0 obtenemos la soluci


on particular
y = 0 excluida al principio). Observese que el conjunto de todas las soluciones de la
ecuaci
on homogenea (1.18) es un espacio vectorial de dimension uno.


CAPITULO 1. INTRODUCCION

Para hallar la soluci


on de la ecuaci
on completa utilizaremos el metodo de variaci
on
de las constantes, debido a Lagrange, que consiste en expresar la soluci
on en la forma
Rx
a(s) ds
,
(1.19)
y = c(x) e x0

evidentemente basada en la soluci


on general de la homogenea. Sustituyendo en la ecuacion diferencial se obtiene
Rx

y a(x) y b(x) = c (x) e

Rx

a(s) ds

Rx

a(s) ds

+ c(x) a(x) e x0
a(x) c(x) e
Rx

a(s) ds
= 0 c (x) = b(x) e x0
,
x0

de donde se obtiene

c(x) = c +

Rt
x
0

b(t) e
x0

a(s) ds

x0

a(s) ds

b(x)

dt ,

donde c R es una constante arbitraria. Utilizando la ecuaci


on (1.19) llegamos a la
siguiente expresi
on para la soluci
on general de la ecuaci
on lineal completa (1.17):
Rx
Rx
Z
a(s)
ds
a(s)
ds
y = c e x0
+ e x0

x
x0

Rt
x
0
b(t) e

a(s) ds

dt ,

o, equivalentemente,
Z
Rx
a(s) ds
x
0
+
y = ce

x
x0

Rx
b(t) e t a(s) ds dt .

(1.20)

De nuevo, la soluci
on depende del par
ametro arbitrario c.
Notese que la expresi
on anterior tiene la estructura
Rx
a(s) ds
+ yp (x) ,
y = c e x0

donde el primer termino es la soluci


on general de la ecuaci
on homogenea e yp (x) es
una soluci
on particular de la ecuaci
on completa. Recprocamente, si se conoce cualquier
soluci
on particular y1 (x) de la ecuaci
on completa entonces y y1 (x) es soluci
on de la
ecuaci
on homogenea para toda soluci
on y de la ecuaci
on completa, por lo que
Rx
a(s) ds
+ y1 (x) .
y = c e x0
De (1.20) se deduce que una soluci
on particular y1 (x) de la ecuaci
on completa puede
calcularse a partir de una soluci
on cualquiera no trivial (no identicamente nula) yH (x)
de la ecuaci
on homogenea mediante la formula
Z x
b(t)
dt ,
y1 (x) = yH (x)
x0 yH (t)
por lo que la soluci
on general de (1.17) se puede escribir como sigue:
Z x
b(t)
dt .
y = c yH (x) + yH (x)
x0 yH (t)


CAPITULO 1. INTRODUCCION

Ejemplo 1.7.
y =

x + 2y
.
x

(1.21)

Esta ecuaci
on (que tiene sentido s
olo si x 6= 0, es decir si x pertenece a las semirrectas
R+ o R ) es lineal (inhomogenea), ya que se puede escribir
y =

2
y + 1.
x

La ecuaci
on anterior es homogenea, por lo que podra resolverse utilizando el procedimiento explicado en la Secci
on 1.2.3; sin embargo, en esta secci
on la resolveremos
trat
andola como una ecuaci
on lineal.
Soluci
on general de la homogenea:
2
y
= = log |y| = 2 log |x| + c0 = y = c x2 ,
y
x

c R.

Soluci
on particular de la completa:
yp (x) = x

dt
= x2 (x1 ) = x .
t2

Por tanto, la soluci


on general de la ecuaci
on (1.21) es
y = c x2 x
(familia de par
abolas tangentes a la recta y = x en el origen). Notese que, aunque la
ecuaci
on es singular en x = 0, las funciones anteriores son C en el origen.

1.2.5

Ecuaci
on de Bernoulli
y = a(x) y + b(x) y r ,

r R , r 6= 0, 1 ,

(1.22)

con a, b continuas en un intervalo abierto U (los valores r = 0 y r = 1 corresponden


a ecuaciones lineales, ya resueltas). (Notese que, en general, y r s
olo tiene sentido para
y > 0.) Esta ecuaci
on se integra reduciendola a una ecuaci
on lineal mediante un cambio
de variable dependiente del tipo
z = yp ,
con p =
6 0 escogido apropiadamente. En efecto, sustituyendo y = z 1/p en la ecuaci
on
(1.22) y operando se obtiene la siguiente ecuaci
on para z:
i
h
1+ r1
p
,
z = p a(x) z + b(x) z

que es lineal si

1+

r1
= 0, 1 .
p

El u
ltimo caso hay que descartarlo (ya que r 6= 1), por lo que queda p = 1 r , y la
ecuaci
on anterior se convierte en la ecuaci
on lineal


1
z = (1 r) a(x) z + b(x)
(y = z 1r ) .


CAPITULO 1. INTRODUCCION

10

Ejemplo 1.8.
y =

2xy y 2
.
x2

(1.23)

Se trata de una ecuaci


on de Bernoulli con r = 2, ya que puede escribirse
y =

2
1
y 2 y2 .
x
x

Haciendo el cambio z = 1/y se obtiene por la ecuaci


on lineal en z
2
1
z = z + 2 .
x
x

(1.24)

La soluci
on general de la ecuaci
on homogenea es
c
z= 2.
x
Una soluci
on particular de la ecuaci
on (1.24) es
Z x
1
1
dt = .
zp (x) = 2
x
x
Por tanto, la soluci
on general de (1.24) es
z=

x+c
,
x2

y=

x2
.
x+c

y la de la ecuaci
on propuesta (1.23)

Ejercicio. Resolver la ecuaci


on (1.23) considerandola como una ecuaci
on homogenea.

1.2.6

Ecuaci
on de Riccati
y = a(x) + b(x) y + c(x) y 2 ,

(1.25)

con a, b, c continuas en un intervalo abierto U . (Si c 0 la ecuaci


on de Riccati se reduce
a una ecuaci
on lineal, y si a 0 a una de Bernoulli.)
Esta ecuaci
on, de gran importancia en Fsica Matematica, en general no se puede
resolver por cuadraturas (es decir, no es posible obtener una expresi
on explcita para la
soluci
on general de la ecuaci
on en terminos de los coeficientes a, b, c y sus primitivas). Sin
embargo, si conocemos una soluci
on particular y0 (x) de la ecuaci
on podemos reducirla
mediante el cambio de variable
1
u=
y y0 (x)
a una ecuaci
on lineal, que ya hemos visto como resolver en la secci
on 1.2.4. En efecto,
efectuando el cambio anterior obtenemos


b(x) y y0 (x) + c(x) y 2 y0 (x)2
y + y0 (x)
y y0 (x)

= b(x) u c(x)
u =
2 =
2
y y0 (x)
y y0 (x)
y y0 (x)


= b(x) + 2c(x)y0 (x) u c(x) .
(1.26)


CAPITULO 1. INTRODUCCION

11

Ejemplo 1.9.
y = cos x y

sen x 2
y .
cos2 x

Es una ecuaci
on de Riccati, con soluci
on particular y0 (x) = cos x. Efectuando el cambio
de variable
1
u=
y cos x

obtenemos

h
sen x 2 i
y + sen x
2

sen
x

cos
x
+
y
+
y
=
u
(y cos x)2
cos2 x



sen x
2 cos x
1
1
= u2 sen x + +
+ cos2 x ,
+
2
2
u cos x u
u

u =

y por tanto u verifica la ecuaci


on lineal
u = (1 + 2 tan x)u +

sen x
.
cos2 x

(1.27)

La soluci
on general de la ecuaci
on homogenea es
u=c

ex
,
cos2 x

con c constante. Una soluci


on particular de la ecuaci
on completa es
Z
x
ex
1 ex
sen x + cos x
t
e
sen
t
dt
=

ex (sen x + cos x) =
.
2
2
cos x
2 cos x
2 cos2 x
Por tanto la soluci
on de la ecuaci
on lineal (1.27) es
u=c

ex
sen x + cos x

,
2
cos x
2 cos2 x

y la de la ecuaci
on de partida
y = cos x +

2 cos2 x
,
Cex sen x cos x

donde C = 2c es una constante arbitraria.


Si c no es identicamente nula, la ecuaci
on de Riccati (1.25) se linealiza mediante el
cambio de variable
1 z
y=
,
c(x) z
que la transforma en una ecuaci
on lineal de segundo orden en z. En efecto,
y =

c (x) z
1 z 2
1 z 2
b(x) z
1 z
+
+
+
=
a(x)

c(x) z
c(x)2 z
c(x) z 2
c(x) z
c(x) z 2

y por tanto z es soluci


on de


c (x)
z b(x) +
z + a(x)c(x)z = 0 .
c(x)

(1.28)


CAPITULO 1. INTRODUCCION

12

Veremos en el captulo siguiente que la soluci


on general de esta ecuaci
on puede expresarse
en la forma
z = k1 z1 (x) + k2 z2 (x) ,
con k1 , k2 R y z1 , z2 dos soluciones particulares linealmente independientes. Si conseguimos hallar explcitamente la soluci
on general de la ecuaci
on lineal (1.28), la de la
ecuaci
on de Riccati de partida est
a dada por
y=

1 k1 z1 (x) + k2 z2 (x)
.
c(x) k1 z1 (x) + k2 z2 (x)

Notese que esta soluci


on depende de una s
ola constante arbitraria (el cociente k1 /k2
o k2 /k1 ).
Ejercicio. La soluci
on general de la ecuaci
on de Riccati
y = x +

y2
y
+
.
x
x

es
y = x tan(x c) ,

c R.

Obtener esta soluci


on linealizando la ecuaci
on dada y resolviendo la ecuaci
on lineal

correspondiente. [Ayuda: la soluci


on general de la ecuaci
on z + z = 0 es z = k1 cos x +
k2 sen x.]
La estrecha relaci
on entre la ecuaci
on de Riccati (1.25) y la ecuaci
on lineal (1.28) da
lugar a multitud de importantes propiedades de las soluciones de la ecuaci
on de Riccati.
As, por ejemplo, si yi (x) (1 i 4) son cuatro soluciones distintas de la ecuaci
on de
Riccati entonces puede probarse que la raz
on cu
adruple
(y4 y2 )(y3 y1 )
(y4 y1 )(y3 y2 )

(1.29)

es constante. En particular, si se conocen tres soluciones particulares distintas y1 , y2 , y3


de la ecuaci
on de Riccati (1.25) entonces su soluci
on general y(x) se obtiene despejando
y de la ecuaci
on
(y y2 )(y3 y1 )
= c,
c R.
(1.30)
(y y1 )(y3 y2 )

1.2.7

Ecuaciones exactas y factores integrantes

Una ecuaci
on diferencial de primer orden de la forma
P (x, y) + Q(x, y) y = 0 ,

(1.31)

con P, Q funciones continuas en un abierto U R2 y Q(x, y) 6= 0 para todo (x, y) U ,


se dice exacta en U si existe una funcion f : U R tal que
P (x, y) = fx (x, y) ,

Q(x, y) = fy (x, y) ,

En otras palabras, la ecuaci


on (1.31) es exacta si
(P, Q) = f

en U .

(x, y) U .

(1.32)


CAPITULO 1. INTRODUCCION

13

Por tanto, una ecuaci


on exacta (1.31) puede escribirse
fx (x, y) + fy (x, y) y = 0 .
Si y(x) es una soluci
on cualquiera de dicha ecuaci
on entonces



d
f x, y(x) = 0 .
fx x, y(x) + fy x, y(x) y (x) =
dx

De esto se deduce que la soluci


on general de la ecuaci
on exacta (1.31)(1.33) est
a dada
implcitamente por

f x, y = c .
Por el teorema de la funci
on implcita, la ecuaci
on anterior define localmente a y como
funcion de x en un entorno de cada punto de U (ya que fy (x, y) = Q(x, y) no se anula
en U por hip
otesis).
Observese que si (1.31) es una ecuaci
on exacta y P, Q son de clase C 1 (U ) entonces
Py (x, y) = Qx (x, y) ,

(x, y) U ,

(1.33)

ya que (lema de Schwarz) ambos miembros son iguales a fxy (x, y). Recprocamente, puede probarse que si se cumple la condici
on (1.33) en un abierto simplemente conexo
U entonces la ecuaci
on es exacta. (Un abierto de R2 es conexo si dos puntos cualesquiera de dicho abierto se pueden unir por una curva continua enteramente contenida
en el abierto. Un abierto conexo es simplemente conexo si toda curva cerrada continua
contenida en el abierto puede deformarse de forma continua a un punto sin salirse del
abierto. Intuitivamente, un abierto es simplemente conexo si es conexo (consta de una
s
ola pieza) y no tiene agujeros. Ejemplos de abiertos simplemente conexos son el conjunto R2 , un disco abierto, un rect
angulo abierto, un tri
angulo abierto, etc. Los abiertos
2
estrellados y, en particular, convexos de R son simplemente conexos. Un abierto no
simplemente conexo es, por ejemplo, R2 menos un punto, un disco abierto menos uno
de sus puntos,
o un anillo.)
Probemos que la condici
on (1.33) es suficiente para que la ecuaci
on (1.31) sea exacta
si U = (a, b) (c, d) es un rect
angulo abierto (en particular, si U = R2 ). En efecto, sea
(x0 , y0 ) un punto fijo de U . Integrando la ecuaci
on fx = P respecto de x obtenemos
Z x
f (x, y) =
P (s, y) ds + g(y) ,
x0

donde la funci
on g s
olo puede depender de y. (Notese que los puntos de la forma (s, y)
pertenecen a U si y (c, d) y s (a, b).) Imponiendo la segunda ecuaci
on fy = Q y
aplicando la relaci
on (1.33) obtenemos una ecuaci
on diferencial para g:
Z x
Z x

fy (x, y) = g (y) +
Py (s, y) ds = g (y) +
Qx (s, y) ds = g (y) + Q(x, y) Q(x0 , y)
x0

x0

= Q(x, y) g (y) = Q(x0 , y) .

Por tanto,
g(y) =

Q(x0 , s) ds + c ,

y0

y
f (x, y) =

x0

P (s, y) ds +

y0

Q(x0 , s) ds + c .

(1.34)


CAPITULO 1. INTRODUCCION

14

d
(x0 , y) 0
0

(x, y)
U

(x0 , y0 )
c
a

Figura 1.4: Caminos que unen (x0 , y0 ) con (x, y) en U .


(De nuevo, el segmento vertical (x0 , s) con s (c, d) est
a contenido en U .)
La funci
on f est
a definida a menos de una constante arbitraria. Notese que la formula
(1.34) se puede escribir como la integral de lnea
Z
Z
[P (x, y) dx + Q(x, y) dy] ,
(P, Q) d~r
f (x, y) =
0

donde 0 es el camino quebrado de la fig. 1.4. Como


la condici
on (1.33) garantiza la
R
independencia del camino de la integral de lnea (P dx + Q dy), para toda curva C 1 a
trozos U , tambien podemos escribir
Z
f (x, y) = [P (x, y) dx + Q(x, y) dy] ,

donde es cualquier curva contenida en U que una el punto fijo (x0 , y0 ) U con el
punto variable (x, y) U . Por ejemplo, si es el segmento que une (x0 , y0 ) con (x, y),
es decir
(t) = (x0 , y0 ) + t(x x0 , y y0 ) ,
t [0, 1] ,
entonces dx = (x x0 ) dt, dy = (y y0 ) dt, y por tanto
f (x, y) =

1


(x x0 )P x0 + t(x x0 ), y0 + t(y x0 )


+ (y y0 )Q x0 + t(x x0 ), y0 + t(y x0 ) dt .

Ejemplo 1.10.

12x + 5y 9 + (5x + 2y 3)y = 0 .


Se trata de una ecuaci
on exacta, ya que
P = 12x + 5y 9 ,

Q = 5x + 2y 3

Py = Qx = 5 .

La funci
on f tal que f = (P, Q) se encuentra facilmente:
fx = 12x + 5y 9 = f = 6x2 + 5xy 9x + g(y) ;

fy = 5x + g (y) = 5x + 2y 3 g (y) = 2y 3
g(y) = y 2 3y + const.

(1.35)


CAPITULO 1. INTRODUCCION

15

Por tanto, la soluci


on general de la ecuaci
on propuesta est
a dada implcitamente por la
ecuaci
on
6x2 + 5xy + y 2 9x 3y = c .

(Se trata de una familia de hiperbolas.)


Observese que si (x, y) es una funcion no nula en U la ecuaci
on (1.31) es equivalente
a la ecuaci
on
(x, y)P (x, y) + (x, y)Q(x, y)y = 0 .
(1.36)

A toda funci
on tal que la ecuaci
on anterior sea exacta se le llama un factor integrante
para la ecuaci
on de partida (1.31). La ecuaci
on que ha de cumplir el factor integrante
es por tanto (si U es, de nuevo, un abierto simplemente conexo del plano)
(P )y = ( Q)x ,
que se puede escribir como la siguiente ecuaci
on lineal en derivadas parciales de primer
orden para :


P (x, y) y Q(x, y) x + Py (x, y) Qx (x, y) = 0 .
(1.37)

Si se conoce un factor integrante cualquiera de la ecuaci


on (1.31) dicha ecuaci
on se
resuelve integrando la ecuaci
on exacta (1.36). Se puede probar que la ecuaci
on (1.37)
tiene (localmente) infinitas soluciones si P, Q son, por ejemplo, de clase C 1 en U . Por
tanto, toda ecuaci
on de la forma (1.31) posee un factor integrante. El problema es que, en
general, no hay ninguna forma sistematica para encontrar dicho factor integrante, ya que
la ecuaci
on en derivadas parciales (1.37) es casi siempre mucho m
as difcil de resolver que
la ecuaci
on diferencial ordinaria de partida (1.31). S
olo si Py Qx es particularmente
sencillo se puede dar alguna regla pr
actica para calcular el factor integrante . Por
ejemplo, si
Py Qx
g(x)
Q
s
olo depende de x entonces (1.31) admite un factor integrante (x) funcion s
olo de x, ya
que en este caso haciendo y = 0 en la ecuaci
on (1.37) se obtiene la ecuaci
on diferencial
ordinaria en x
Rx
(x) = g(x) (x) = (x) = c e g(t) dt .
Analogamente, si

Py Qx
h(y)
P
la ecuaci
on (1.31) posee el factor integrante funcion de y u
nicamente:
Ry
(y) = c e h(t) dt .

Ejercicio.
Probar que la ecuaci
on (1.31) posee un factor integrante (r) funcion de
p
2
2
r = x + y si y s
olo si
Py Qx
= g(r) ,
yP xQ
y que en tal caso puede calcularse por la formula
Rr
(r) = c e t g(t) dt .


CAPITULO 1. INTRODUCCION

16

Ejemplo 1.11. Consideremos la ecuaci


on
y 2 (x2 + y 3 )y x = 0 .

(1.38)

Aqu

Py Qx
= 2y 2 = h(y) .
P
La ecuaci
on posee por tanto el factor integrante
Ry 2
2 3
(y) = e 2t dt = e 3 y .
Py = 0 ,

Qx = 2xy 2 ,

2 3

Para integrar la ecuaci


on hallamos una funcion f tal que f = e 3 y (P, Q), es decir
2 3
2 3
1
fx = x e 3 y = f = x2 e 3 y + g(y) ;
2
2 3
2 3
2 2 32 y 3

fy = x y e
+ g (y) = (x2 y 2 + y 5 ) e 3 y = g (y) = y 5 e 3 y .

Por tanto (omitiendo la constante arbitraria)


g(y) =
de donde

2 3

y 5 e 3 y dy =

1
3

y3

t e 3 t dt =


2 3
1
2y 3 + 3 e 3 y ,
4


 2 y3
1 2 1
3
f (x, y) = x +
2y + 3 e 3 .
2
4

La soluci
on general de la ecuaci
on de partida es pues
2 3

x2 + y 3 = c e 3 y

3
.
2

(Notese que en este caso puede despejarse x en funcion de y.)


Ejercicio. Resolver la ecuaci
on (1.38) convirtiendola en una de variables separadas mediante el cambio z = x2 + y 3 .

1.3

Existencia y unicidad de soluciones

Hemos visto en la secci


on anterior que el problema de valor inicial
y = f (x, y)

(1.39)

y(x0 ) = y0

(1.40)

asociado a la ecuaci
on diferencial de primer orden (1.39) tena soluci
on u
nica, salvo para
datos iniciales (1.40) en que la funcion f no era suficientemente regular. En esta secci
on
vamos a estudiar en detalle el problema de la existencia y unicidad de soluciones del
problema (1.39)(1.40), intentando precisar bajo que condiciones sobre la funcion f y
los datos iniciales (x0 , y0 ) la soluci
on es u
nica. Consideraremos el caso m
as general en
que la variable dependiente (funci
on inc
ognita) y toma valores en Rn :
y = (y1 , . . . , yn ) Rn ,

(1.41)


CAPITULO 1. INTRODUCCION

17

por lo que la funci


on f ha de ser una funcion vectorial que tome valores en Rn y definida
en un abierto U de Rn+1 :
f = (f1 , . . . , fn ) : U Rn+1 Rn ,

U abierto .

(1.42)

La ecuaci
on (1.39) es por tanto un sistema de n ecuaciones diferenciales de primer orden
en forma normal

y1 = f1 (x, y1 , . . . , yn )

..
.


yn = fn (x, y1 , . . . , yn ) ,
y el dato inicial (1.40) es equivalente a las n condiciones

y1 (x0 ) = y01 , . . . , yn (x0 ) = y0n ,



si y0 = y01 , . . . , y0n .
La ventaja de considerar a y como una funcion vectorial es que la soluci
on del
problema (1.39)(1.40) implica la soluci
on de otros problemas interesantes. En efecto,
consideremos la ecuaci
on escalar m
as general de orden n en forma normal

u(n) = F x, u, u , . . . , u(n1) ,

(1.43)

donde u : R R. Esta ecuaci


on se puede escribir como un sistema de primer orden
introduciendo (por ejemplo) las variables
yi = u(i1) ,

1 i n,

(1.44)

(u(0) u) convirtiendose entonces en la ecuaci


on vectorial (1.39) con

f (x, y) = y2 , . . . , yn , F (x, y1 , . . . , yn ) .

(1.45)

(Mas precisamente, y(x) es soluci


on de la ecuaci
on (1.39)(1.45) si y s
olo si y(x) =
u(x), u (x), . . . , u(n1) (x) , con u(x) soluci
on de (1.43).) La condici
on inicial (1.40) se
escribe en terminos de la funci
on inc
ognita original u como sigue:
u(i) (x0 ) = y0,i+1 ,

0 i n 1.

En otras palabras, en este caso se asignan valores iniciales (en x = x0 ) a la funcion u


y a sus primeras n 1 derivadas. La soluci
on del problema (1.39)(1.40) conlleva por
tanto la soluci
on del problema de valor inicial para una ecuaci
on normal de orden n

u(n) = F x, u, u , . . . , u(n1)
(1.46)
u(i) (x0 ) = u0i ,

0 i n 1.

(1.47)

La existencia local de soluciones del problema de valor inicial (1.39)(1.40) est


a garantizada si la funci
on f es continua en su abierto de definicion, seg
un afirma el siguiente
teorema, debido al matem
atico italiano G. Peano (18581932):


CAPITULO 1. INTRODUCCION

18

Teorema de existencia de Peano. Sea f : U Rn continua en el abierto U , y


sea (x0 , y0 ) U . Entonces el problema (1.39)(1.40) tiene (al menos) una soluci
on
y(x) definida en un intervalo de la forma (x0 h, x0 + h), para h > 0 suficientemente
peque
no.
(El n
umero h, que es funci
on (x0 , y0 ), se puede estimar explcitamente, y depende esencialmente de lo grande que sea el valor de kf (x, y)k en U .)
Es facil convencerse de que la continuidad de f en U no garantiza la unicidad (ni
siquiera local) del problema de valor inicial (1.39)(1.40) con datos iniciales en U . Un
ejemplo muy sencillo es el de la ecuaci
on
y = 3 y 2/3 ,

(1.48)

para la cual f (x, y) = 3 y 2/3 es continua en U = R2 . El teorema de Peano garantiza por


tanto la existencia de por lo menos una soluci
on del problema de valor inicial asociado a
la ecuaci
on (1.48) para cualquier dato inicial (x0 , y0 ). Notese, sin embargo, que no existe
la derivada parcial de primer orden de f respecto de y en el eje horizontal y = 0. (En
particular, f no es derivable en dicho eje.)
Una soluci
on de (1.48) es la funcion y(x) = 0, definida en todo R. Si y 6= 0, integrando
la ecuaci
on (es de variables separadas) obtenemos
y = (x + c)3 ,

(1.49)

funcion tambien definida en toda la recta real (fig. 1.5). (Se demuestra que la soluci
on
10
8
6
4
2
2

0
2

4
6
8
10

Figura 1.5: Soluciones de la ecuaci


on y = 3 y 2/3 .
particular y = 0, que no se obtiene de (1.49) para ning
un valor de c R, es la envolvente
de la familia de par
abolas c
ubicas (1.49).) Es facil ver que el problema de valor inicial
para la ecuaci
on (1.48) con la condici
on inicial
y(x0 ) = 0

(1.50)

no tiene soluci
on u
nica, ni siquiera localmente. Por ejemplo, las funciones y(x) = 0 e
3
y(x) = (x x0 ) son dos soluciones de dicho problema que no coinciden en ning
un
intervalo abierto centrado en x0 .


CAPITULO 1. INTRODUCCION

1.3.1

19

Funciones lipschitzianas

Introduciremos a continuaci
on una condici
on sobre la funcion f m
as fuerte que la continuidad, que ser
a suficiente para que el problema de valor inicial (1.39)(1.40) tenga
soluci
on u
nica local. Comenzaremos con el caso sencillo de funciones de una variable.
Definici
on 1.12. Una funci
on f : I R (siendo I un intervalo) es lipschitziana si
existe una constante positiva L > 0 (constante de Lipschitz ) tal que
|f (x1 ) f (x2 )| L |x1 x2 | ,

x1 , x2 I .

(1.51)

f lipschitziana en I = f uniformemente continua en I.


Sin embargo, f lipschitziana en I =
6
f derivable en I. Por ejemplo, f (x) = |x| es
lipschitziana en cualquier intervalo (con constante de Lipschitz igual a 1), ya que de la
desigualdad triangular se deduce que
||x1 | |x2 || |x1 x2 | .
La derivabilidad de f no implica en general su lipschitzianidad. Por ejemplo, la funcion
f (x) = x2 no es lipschitziana en I = R. En efecto, si lo fuera existira L > 0 tal que
2

x1 x22 = |x1 + x2 | |x1 x2 | L |x1 x2 | ,
x1 , x2 R ,
lo que implicara el resultado absurdo

|x1 + x2 | L ,

x1 6= x2 .

Proposici
on 1.13. Si f es derivable en un intervalo I y f est
a acotada en I, entonces
f es lipschitziana en I.
Demostraci
on. En efecto, si |f (x)| L para todo x I aplicando el teorema del valor
medio se obtiene


|f (x1 ) f (x2 )| = f () |x1 x2 | L |x1 x2 | ,

ya que min(x1 , x2 ), max(x1 , x2 ) I.
Q.E.D.
Corolario 1.14. f : I R de clase C 1 en un intervalo compacto I = f lipschitziana
en I.

Demostraci
on. Si f C 1 (I) con I intervalo compacto, f es continua en el intervalo
compacto I, por lo que f es necesariamente acotada en dicho conjunto (alcanza, de
hecho, sus valores m
aximo y mnimo en I). La proposici
on anterior implica entonces
que f es lipschitziana en I.
Q.E.D.
Pasemos a continuaci
on al caso que en realidad nos interesa, en el que f : R Rn

Rn .


CAPITULO 1. INTRODUCCION

20

Definici
on 1.15. Sea f : I D Rn , siendo I R un intervalo y D Rn (no
necesariamente abierto). Diremos que f es lipschitziana en la segunda variable (o
en el segundo argumento) en I D si existe L > 0 (de nuevo llamada constante de
Lipschitz ) tal que




f (x, y 1 ) f (x, y 2 ) L y 1 y 2 ,
x I , y 1 , y 2 D .
(1.52)
En la formula anterior, kk denota la norma euclidiana en Rn , es decir
q
n
v = (v1 , . . . , vn ) R = kvk = v12 + + vn2 .

La definicion 1.15 es an
aloga a la 1.12, considerando a la variable x como un par
ametro
y cambiando el valor absoluto por la norma.
Proposici
on 1.16. Sea f : I D Rn , con D abierto convexo. Si las derivadas
fi
an acotadas en I D, entonces f
parciales yj (1 i n) existen, son continuas y est
es lipschitziana en I D.
Demostraci
on. Sean (x, y 1 ), (x, y 2 ) I D. Aplicando el teorema del valor medio a
cada componente fi de f obtenemos
fi (x, y 1 ) fi (x, y 2 ) = fi (x, i ) (y 1 y 2 ) ,
para alg
un punto i del segmento que une y 1 con y 2 (contenido en D por ser dicho
conjunto convexo), donde el gradiente est
a tomado respecto de las variables (y1 , . . . , yn ).
Por la desigualdad de CauchySchwarz,






fi (x, y 1 ) fi (x, y 2 ) fi (x, i ) y 1 y 2 nM y 1 y 2
siendo M una cota superior de los valores absolutos de las derivadas parciales
I D. De esta desigualdad se sigue que




f (x, y 1 ) f (x, y 2 ) nM y 1 y 2

Por tanto, f es lipschitziana en I D, y se puede tomar L = nM .

fi
yj

en

Q.E.D.

Si las derivadas parciales de f (x, y) respecto de las variables yi son continuas en un


abierto U Rn+1 entonces f es localmente lipschitziana en cada punto de U . Esto
quiere decir que para todo (x0 , y0 ) U la funcion f es lipschitziana en cualquier cilindro
compacto [x0 , x0 + ] B r (y0 ) contenido en U , donde
Br (y0 ) = {y Rn : ky y0 k < r} ,

B r (y0 ) = {y Rn : ky y0 k r}

denotan respectivamente la bola abierta o cerrada de centro y0 y radio r. En efecto, al ser


fi
aticamente est
a acotada
yj continua en el compacto [x0 , x0 + ] B r (y0 ) U autom
en dicho compacto, y por tanto puede aplicarse la proposici
on anterior.
Repasemos a continuaci
on algunos resultados relativos a la nocion de convergencia
uniforme, que ser
an fundamentales para la demostracion del teorema de PicardLindelof.
Una sucesion de funciones gk : Rm Rn (k N) se dice uniformemente convergente a la funci
on g en U Rm si para todo > 0 existe N N tal que
k N = kg(x) gk (x)k < ,

para todo x U .


CAPITULO 1. INTRODUCCION

21

Notese que N s
olo puede depender de , no del punto x U .
P
Analogamente, la serie de funciones
k=1 gk converge uniformemente en U si para
todo > 0 existe N N tal que

X



gk (x) < ,


para todo x U .

k=N +1

Obviamente, la convergencia uniforme de una funcion (o serie de funciones) en U


implica su convergencia puntual en cada punto de U , pero el recproco no tiene por
que ser cierto.
m y k N, y la
Criterio M de
Weierstrass: si kgk (x)k Mk para todo x U RP
P
serie numerica k=1 Mk es convergente, entonces la serie de funciones
k=1 gk converge
uniformemente en U .

Si la sucesion de funciones gk : Rm Rn (k N) converge uniformemente en


U Rm , y cada gk es continua en U , entonces el lmite de la sucesion g = limk gn
es una funci
on continua en U . Un resultado an
alogo vale para la suma de una serie
uniformemente convergente de funciones continuas (enunciarlo).
Si la sucesion de funciones gk : [a, b] R R (k N) converge uniformemente
en [a, b], y cada gk es una funci
on integrable en [a, b], entonces lim gk es integrable en
k

[a, b], y se tiene


lim

k a

gk (t) dt =

Z b
a


lim gk (t) dt .

Un resultado an
alogo vale para series uniformemente convergentes de funciones integrables en un intervalo.
Teorema de PicardLindel
of. Sea f : A [x0 a, x0 +a]B b (y0 ) RRn Rn
(con a > 0, b > 0) continua y lipschitziana con respecto a la segunda variable en el
conjunto A. Entonces el problema de valor inicial (1.39)(1.40) tiene una soluci
on
u
nica y(x) definida en el intervalo [x0 , x0 + ], siendo
= min(a, b/M )
y M el supremo de kf k en A.
Demostraci
on. (Notese, antes de empezar, que la existencia de M est
a garantizada por
ser f continua en el conjunto compacto A.) La demostracion est
a basada en un argumento muy sencillo de aproximaciones sucesivas (de Picard) a la soluci
on del problema
(1.39)(1.40). Por sencillez, nos restringiremos al caso n = 1 (ecuaci
on escalar), en que
A es un rect
angulo cerrado
A = [x0 a, x0 + a] [y0 b, y0 + b]
y kf (x, y)k = |f (x, y)|.


CAPITULO 1. INTRODUCCION

22

i) En primer lugar, podemos transformar el problema de valor inicial en una ecuaci


on
integral integrando la ecuaci
on diferencial entre x0 y x (con x [x0 a, x0 + a]),
obteniendo
Z x

y(x) = y0 +
f t, y(t) dt .
(1.53)
x0

Mas precisamente, la funci


on y(x) es soluci
on del problema de valor inicial (1.39)(1.40)
si y s
olo si y(x) es una soluci
on continua de la ecuaci
on integral (1.53). (Ejercicio:
pruebese esto en detalle.)

ii) A continuaci
on construimos recursivamente una familia de funciones yk : [x0 , x0 +
] [y0 b, y0 + b] (k = 0, 1, . . . ) diferenciables en el intervalo [x0 , x0 + ] de la
forma siguiente. En primer lugar, definimos
y0 (x) = y0 ,

x [x0 , x0 + ] .

A continuaci
on definimos
y1 (x) = y0 +

x
x0


f t, y0 dt ,

x [x0 , x0 + ] .

La funci
on y1 est
a claramente definida y es diferenciable en [x0 , x0 + ] (por la
continuidad de f en A). Adem
as, se tiene
Z x




f t, y0 dt M |x x0 | M b , x [x0 , x0 + ] .
|y1 (x) y0 |

x0
(1.54)
Procediendo recursivamente, supongamos que hemos definido las funciones diferenciables
y0 , . . . , yk : [x0 , x0 + ] [y0 b, y0 + b]. Entonces se define
yk+1 (x) = y0 +

x
x0


f t, yk (t) dt ,

x [x0 , x0 + ] .

(1.55)

Por hip
otesis de induccion, yk es diferenciable en [x0 , x0 + ] e yk (t) [y0 b, y0 + b]
para t [x0 , x0 + ]. Esto implica que f t, yk (t) es continua si t [x0 , x0 + ],
y por tanto (teorema fundamental del C
alculo) yk+1 es diferenciable en [x0 , x0 + ].
Utilizando de nuevo la hip
otesis de induccion (yk (t) [y0 b, y0 + b]) se obtiene
Z x







|yk (x) y0 |
f t, yk (t) dt M |x x0 | M b , x [x0 , x0 + ] .
x0

iii) Probaremos a continuaci


on por induccion la importante desigualdad
|yk+1 (x) yk (x)|

M Lk |x x0 |k+1
,
(k + 1)!

x [x0 , x0 + ] , k = 0, 1, . . . ,

(1.56)
donde L > 0 es una constante de Lipschitz de f en A. En efecto, para k = 0 la desigualdad ya est
a probada (vease (1.54)). Supuesta la desigualdad anterior cierta para
k = 0, 1, . . . , m 1 con m 1, utilizando la hip
otesis de induccion y la lipschitzianidad


CAPITULO 1. INTRODUCCION

23

de f en la variable y obtenemos
Z x





|ym+1 (x) ym (x)| =
f t, ym (t) f t, ym1 (t) dt
x0
Z x









f t, ym (t) f t, ym1 (t) dt
x0
Z x

Z




M Lm1 x
m



L
|ym (t) ym1 (t)| dt L
|t

x
|
dt
0


m!
x0
x0


Z
M Lm |x x0 |m+1
M Lm x
m
=

(t

x
)
dt
=
0

m!
m!
(m + 1)
x0

|x x0 |m+1
.
(m + 1)!

Lm

Esto prueba la desigualdad (1.56) para k = m, completando as el proceso de induccion.


iv) Probemos a continuaci
on que la sucesion de funciones yk (k N) converge uniformemente en [x0 , x0 + ] a una funcion continua y. En efecto, consideremos la serie
telesc
opica

X
y0 +
[yk+1 yk ] ,
(1.57)
k=0

cuya convergencia uniforme es equivalente a la de la sucesi


on de funciones yk (k N)
(ejercicio). Utilizando la desigualdad (1.56) se obtiene
x [x0 , x0 + ] = |yk+1 (x) yk (x)|
Como la serie numerica

X
(L)k+1
k=0

(k + 1)!

M (L)k+1
M Lk k+1
=
.
(k + 1)!
L (k + 1)!

= eL 1

es convergente, la serie (1.57) y, por tanto, la sucesion yk , converge uniformemente en


[x0 , x0 + ] (criterio M de Weierstrass). Al ser las funciones yk continuas en el
intervalo [x0 , x0 + ] y uniformemente convergentes a y en dicho intervalo, la funcion
y es continua en [x0 , x0 + ].
v) Probaremos a continuaci
on que la funcion y(x) definida por
y(x) = lim yk (x) ,
k

x [x0 , x0 + ] .

(1.58)

es soluci
on del problema de valor inicial. En efecto, pasando al lmite cuando k en
la desigualdad |yk (x) y0 | b se obtiene |y(x) y0 | b, para todo x [x0 , x0 + ].
La convergencia uniforme de la sucesion yk (k N) a la funcion y en [x0 , x0 + ]
tambien garantiza que la sucesion de funciones gk : [x0 , x0 + ] R definida por

gk (t) = f t, yk (t)

converge uniformemente a la funci
on g(t) = f t, y(t) para t [x0 , x0 + ], ya que
(aplicando de nuevo la lipschitzianidad de f )



|g(t) gk (t)| = f t, y(t) f t, yk (t) L |y(t) yk (t)|


CAPITULO 1. INTRODUCCION

24

De esto se deduce que


lim

k x0


f t, yk (t) dt =

x0


f t, y(t) dt .

Tomando por tanto el lmite cuando k en la igualdad (1.55) vemos que y es soluci
on
de la ecuaci
on integral (1.53). Como y es continua en [x0 , x0 + ], esto implica que y
es soluci
on del problema de valor inicial (1.39)(1.40). (Notese que el teorema de Peano
garantizaba la existencia de por lo menos una soluci
on de dicho problema.)
vi) Probemos, por u
ltimo, la unicidad. A tal efecto, supongamos que z : [x0 , x0 +]
[y0 b, y0 + b] es soluci
on del problema de valor inicial (1.39)(1.40). Demostremos por
induccion que si yk (k N) es una de las funciones construidas anteriormente entonces
se tiene la importante desigualdad
|z(x) yk (x)|

M Lk |x x0 |k+1
,
(k + 1)!

x [x0 , x0 + ] , k = 0, 1, 2, . . . . (1.59)

En efecto, la desigualdad es claramente cierta para k = 0, ya que al ser z soluci


on de la
ecuaci
on integral (1.53) se tiene:
Z x




|z(x) y0 | =
f t, z(t) dt M |x x0 | .
x0

Supongamos la desigualdad cierta para k = 0, . . . , m 1 (con m 1). Entonces la


desigualdad para k = m se obtiene como obtuvimos (1.56) para k = m, sin m
as que
reemplazar ym+1 por z, ya que
Z x



f t, z(t) f t, ym1 (t) dt .
z(x) ym (x) =
x0

Esto prueba por induccion las desigualdades (1.59). Finalmente, tomando el lmite cuando k en (1.59) se obtiene
M (L |x x0 |)k+1
= 0,
k L
(k + 1)!

|z(x) y(x)| lim

x [x0 , x0 + ] ,

lo cual implica que z = y en [x0 , x0 + ]. (Recuerdese que para todo t R se tiene


lim tm /m! = 0.) Esto concluye la demostracion.
Q.E.D.

Comentarios
Las funciones yk (x) (k N) construidas en la demostracion del teorema de Picard
Lindelof, cuyo lmite es la soluci
on y(x) del problema de valor inicial (1.39)(1.40), se
denominan aproximantes de Picard de la soluci
on y(x). De (1.59) con z = y se obtiene
una estimaci
on del error cometido al aproximar y(x) por su k-esimo aproximante:
ky(x) yk (x)k

M Lk |x x0 |k+1
,
(k + 1)!

x [x0 , x0 + ] , k = 0, 1, 2, . . . . (1.60)

Notese que, aunque para x fijo el miembro derecho tiende a cero cuando k , para k
fijo la aproximacion (1.60) s
olo es buena si |x x0 | es suficientemente peque
no. Ademas,
el calculo del aproximante yk requiere calcular k integrales definidas. Esto hace que, en


CAPITULO 1. INTRODUCCION

25

la pr
actica, los aproximantes de Picard no tengan excesiva utilidad, aunque su valor
teorico es indudable.
Ni la continuidad ni la lipschitzianidad de f son condiciones necesarias para la existencia o la unicidad de soluciones del problema de valor inicial (1.39)(1.40). Por ejemplo,
la funcion
(
y
2 + 4 x , x 6= 0
x
f (x, y) =
0,
x=0
es discontinua en el eje vertical x = 0. La soluci
on general de la ecuaci
on lineal y =
f (x, y) se calcula facilmente, y es igual a
y(x) = x2 +

c
.
x2

Por tanto, el problema de valor inicial para la ecuaci


on y = f (x, y) con la condici
on
2
inicial y(0) = 0 tiene la soluci
on u
nica y(x) = x . Notese, sin embargo, que si la condici
on
inicial es y(0) = y0 6= 0 entonces el problema (1.39)(1.40) no tiene soluci
on, ya que la
u
nica soluci
on de la ecuaci
on diferencial definida en x = 0 es y(x) = x2 .
En la pr
actica, en lugar del teorema de PicardLindelof se aplican sus dos corolarios
siguientes:
Proposici
on 1.17. Si f : A I Rn Rn (siendo I R un intervalo) es continua y
lipschitziana respecto de la segunda variable en A, entonces para todo x0 I el problema
de valor inicial (1.39)(1.40) tiene una soluci
on u
nica en el intervalo I.
Demostraci
on. Repasando la demostracion del teorema de PicardLindelof se observa
que la restriccion b/M s
olo es necesaria para asegurar que yk (x) B b (y0 ). Al
reemplazar B b (y0 ) por Rn , esta condici
on deja de ser necesaria.
Q.E.D.
fi
(1
Proposici
on 1.18. Si la funci
on f : U Rn y sus derivadas parciales y
j
n
i, j n) son continuas en el abierto U R R , entonces para todo (x0 , y0 ) U el
problema de valor inicial
on u
nica en un intervalo de la
 (1.39)(1.40) tiene una soluci
forma x0 , x0 + , con > 0 (dependiente de (x0 , y0 )) suficientemente peque
no.

Demostraci
on. Basta tomar a, b > 0 lo suficientemente peque
nos para que el compacto
A = [x0 a, x0 + a] B b (y0 ) este contenido en U . Al ser f continua y lipschitziana
respecto de la segunda variable A (por el comentario que sigue a la Proposici
on 1.16),
podemos aplicar el teorema de PicardLindelof a f en dicho conjunto.
Q.E.D.
Corolario 1.19. Si f : U RRn Rn es de clase C 1 en el abierto U , el problema de
valor inicial (1.39)(1.40) tiene soluci
on u
nica local para todo dato inicial (x0 , y0 ) U .
Ejemplo 1.20. Hallemos los aproximantes de Picard para el problema
y = x y ,

y(0) = 1 ,

cuya soluci
on exacta es
y(x) = ex

2 /2

(1.61)

(1.62)

En este caso la funci


on f (x, y) = xy es C y lipschitziana respecto de la segunda variable
en todo J R para todo intervalo compacto J R, por lo que los aproximantes de Picard


CAPITULO 1. INTRODUCCION

26

est
an definidos (y convergen a la soluci
on) en todo R (ver los comentarios anteriores).
Como y0 = 1 se tiene
Z x
x2
t dt = 1 +
y1 (x) = 1 +
2
0

Z x 
2
x2 x4
t
+
,
dt = 1 +
t 1+
y2 (x) = 1 +
2
2
8
0
y, en general,
k
X
x2n
yk (x) =
.
2n n!

(1.63)

n=0

En efecto, asumiendo esta formula cierta para k = 0, 1, . . . , m 1 (m 1) y aplicando


la definicion de ym se obtiene
ym (x) = 1 +

m1
X
n=0

m1
m1
X
X
t2n
x2n+2
x2(n+1)
dt
=
1
+
=
1
+
,
2n n!
2n (2n + 2) n!
2n+1 (n + 1)!
n=0
n=0

que es (1.63) con k = m. Esto prueba (1.63) por induccion.


Notese que en este caso yk no es otra caso que el polinomio de Taylor de orden
2k de la soluci
on exacta. Esto, sin embargo, no es general; por ejemplo, considerese el
problema y = y 2 , y(0) = 1.

Captulo 2

Ecuaciones y sistemas lineales


Un sistema lineal de primer orden es un sistema de n ecuaciones diferenciales
ordinarias en n funciones inc
ognitas (y1 , . . . , yn ) y de la forma
y = A(x) y + b(x) ,

(2.1)

donde b = (b1 , . . . , bn ) : R Rn es una funcion vectorial (el t


ermino inhomog
eneo
de la ecuaci
on (2.1)) y A : R Mn (R) es una funcion matricial. En otras palabras,
para cada x

a11 (x) . . . a1n (x)

..
A(x) = ...
(2.2)
.
...
an1 (x) . . . ann (x)

es una matriz n n con coeficientes reales aij (x) (1 i, j n). Si b 0 diremos que el
sistema (2.1) es homog
eneo, e inhomog
eneo en caso contrario.
Nota: El conjunto Mn (R) es un espacio vectorial real de dimension n2 . Una base de
dicho espacio es la formada por las matrices Eij (1 i, j n) cuyo u
nico elemento de
matriz no nulo es un 1 en la posici
on ij. En el espacio vectorial Mn (R) se suele definir
la norma del supremo
kAk = max {kA vk : kvk = 1} ,

A Mn (R) ,

en terminos de la cual
kA wk kAk kwk ,

w Rn .

Un calculo sencillo muestra que si kvk = 1 entonces kAvk2


kAk

X
n

i,j=1

a2ij

1
2

Pn

2
i,j=1 aij ,

por lo que

n max {|aij | : 1 i, j n} .

Notese, finalmente, que una funci


on matricial A : R Mn (R) es continua en x R si
2
y s
olo si sus n elementos de matriz aij : R R (1 i, j n) son funciones continuas
en x.
Utilizando el teorema de PicardLindelof es inmediato probar el siguiente teorema
de existencia y unicidad para el problema de valor inicial asociado al sistema lineal (2.1):
Teorema 2.1. Si b : I Rn y A : I Rn son continuas en el intervalo I R,
entonces para todo x0 I y para todo y0 Rn el problema de valor inicial (2.1) con la
condici
on inicial y(x0 ) = y0 tiene una u
nica soluci
on en el intervalo I.
27

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

28

Demostraci
on. Basta probar (por que?) la existencia y unicidad del problema planteado
en todo intervalo compacto J I. Por la Proposici
on 1.17, es suficiente probar que la
n
n
funcion f : J R R definida por
f (x, y) = A(x) y + b(x)
es continua y lipschitziana respecto de la segunda variable en J Rn . La continuidad
de f en J Rn es inmediata a partir de la de las funciones A y b en J I, ya que para
todo (x1 , y1 ) J Rn se tiene


f (x2 , y2 ) f (x1 , y1 ) = A(x2 )(y2 y1 ) + A(x2 ) A(x1 ) y1 + b(x2 ) b(x1 ) 0

si (x2 , y2 ) (x1 , y1 ). La lipschitzianidad de f respecto de la variable y es tambien


inmediata de establecer, ya que si (x, y1 ), (x, y2 ) J Rn se tiene
kf (x, y2 ) f (x, y1 )k = kA(x)(y2 y1 )k kA(x)k ky2 y1 )k nM ky2 y1 k ,
si
M = max {|aij (x)| : 1 i, j n , x J} .

(La existencia de M se deduce de la continuidad de las n2 funciones aij en el compacto


J.)
Q.E.D.
En particular, las soluciones de un sistema lineal (2.1) con coeficientes constantes
est
an definidas en toda la recta real.

2.1

Estructura del espacio de soluciones

Llamaremos espacio de soluciones del sistema lineal (2.1) al conjunto S formado por
todas sus soluciones, es decir



S = y : I R Rn y (x) = A(x) y + b(x) , x I C 1 (I) .

(Ejercicio: justifquese esta u


ltima inclusion.) Una de las propiedades fundamentales de
los sistemas lineales homogeneos
y = A(x) y ,

y Rn ,

(2.3)

es que si 1 y 2 son soluciones del sistema, entonces 1 + 2 es soluci


on para todo
, R, ya que

(1 +2 ) (x) = 1 (x)+2 (x) = A(x)1 (x)+ A(x)2 (x) = A(x) 1 (x)+2 (x) .

En otras palabras:

Teorema 2.2. El espacio de soluciones de un sistema homogeneo es un espacio vectorial


real.
Para sistemas lineales inhomogeneos el resultado anterior admite una generalizaci
on
inmediata. En efecto, si yp es una soluci
on particular fija del sistema e y es cualquier
soluci
on entonces y yp es soluci
on del sistema homogeneo (2.3) asociado a (2.1). Si
llamamos S0 al espacio de soluciones del sistema homogeneo (2.3) entonces y yp S0 ,
o equivalentemente y yp + S0 . Recprocamente, si yH es cualquier soluci
on del sistema

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

29

homogeneo (2.3) entonces yp + yH es claramente una soluci


on de (2.1). Esto prueba que
el espacio de soluciones S del sistema (2.1) es el espacio afn
S = yp + S0 .

(2.4)

Hemos probado por tanto el siguiente


Teorema 2.3. El espacio de soluciones del sistema lineal inhomogeneo (2.1) es un
espacio afn paralelo al espacio de soluciones del sistema homogeneo asociado.
Estudiemos a continuaci
on cu
al es la dimensi
on del espacio de soluciones del sistema
homogeneo (2.3). Para ello, llamemos Y i (x) a la soluci
on del problema de valor inicial
Y i = A(x)Y i ,

Y i (x0 ) = ei ,

siendo x0 I un punto fijo pero arbitrario, y ei el i-esimo vector de la base can


onica
n
de R (de hecho, para el razonamiento que sigue podramos tomar cualquier otra base).
Sea ahora y(x) una soluci
on cualquiera del sistema lineal homogeneo, y llamemos
y0 = y(x0 ) (y01 , . . . , y0n ) =
Entonces la funci
on
y(x) =

n
X

n
X

y0i ei .

i=1

y0i Y i (x)

i=1

es soluci
on del sistema (2.3) (por ser combinaci
on lineal de soluciones) y verifica la
condici
on inicial
n
X
y0i ei = y0 = y(x0 ) .
y(x0 ) =
i=1

Por el teorema de unicidad, y = y en I. En otras palabras, toda soluci


on del sistema
homogeneo (2.3) puede expresarse como una combinaci
on lineal
y=

n
X

y0i Y i

i=1

de las n soluciones Y i . Esto prueba, en particular, que


dim S0 n .
Para probar que, de hecho, la dimension del espacio de soluciones del sistema (2.3) es
exactamente igual a n basta probar que las n soluciones Y i (1 i n) son linealmente
independientes. Para ello, supongamos que existieran n constantes reales i (1 i n)
tales que
n
X
i Y i = 0 ,
i=1

es decir

n
X
i=1

i Y i (x) = 0 ,

x I .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

30

En particular, haciendo x = x0 en la igualdad anterior obtenemos


0=

n
X
i=1

i ei = 1 = = n = 0 ,

por la independencia lineal de los vectores de la base can


onica. Hemos probado por tanto
el siguiente resultado fundamental:
Teorema 2.4. El espacio de soluciones del sistema homogeneo y = A(x) y (con
y : R Rn ) es un espacio vectorial real de dimensi
on n.

2.2

Wronskiano

Llamaremos sistema fundamental de soluciones del sistema homogeneo (2.3) a toda


base de su espacio de soluciones, es decir a todo conjunto de n soluciones linealmente
independientes y 1 , . . . , y n . (Por ejemplo, las n soluciones Y 1 , . . . , Y n forman un sistema
fundamental de soluciones.) Por definicion, toda soluci
on de (2.3) es una combinaci
on
lineal de las soluciones y 1 , . . . , y n . En otras palabras, si y(x) es soluci
on de (2.3) entonces
y(x) =

n
X

ci y i (x) ,

i=1

x I ,

para ciertas constantes reales c1 , . . . , cn . Igualando la k-esima componente de ambos


miembros obtenemos las n igualdades escalares
yk (x) =

n
X

yki (x) ci ,

i=1

1 k n,

equivalentes a la igualdad matricial


y(x) = Y (x)c

(2.5)

con c = (c1 cn )t y
Y (x) = y 1 (x) y 2 (x) . . .

y11 (x) . . .


..
y n (x) ...
.
1
yn (x) . . .

y1n (x)
.. .
.

ynn (x)

Recprocamente, es inmediato comprobar que si y(x) est


a dada por (2.5) entonces es
soluci
on del sistema homogeneo (2.3) cualquiera que sea el vector constante c Rn .
Definici
on 2.5. Una matriz fundamental del sistema (2.3) es cualquier funcion matricial x 7 Y (x) Mn (R) cuyas columnas forman un sistema fundamental de soluciones.
En general, dadas n soluciones 1 , . . . , n del sistema homogeneo (2.3) (no necesariamente independientes), consideremos la matriz

(x) = 1 (x) 2 (x) . . . n (x)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

31

asociada a dichas soluciones. Notese que la matriz (x) es soluci


on de la ecuaci
on matricial
(x) = A(x)(x) .
(2.6)
En efecto, operando con matrices columna se tiene

(x) = 1 (x) 2 (x) . . . n (x) = A(x) 1 (x) A(x)2 (x) . . .
= A(x) (x) .

A(x)n (x)

De la misma forma se demuestra que si la matriz n n (x) satisface la ecuaci


on (2.6)
entonces cada una de las n columnas de es soluci
on del sistema (2.3).
Definici
on 2.6. Llamaremos wronskiano de las soluciones 1 , . . . , n al determinante
de la matriz (x), es decir
1

(x) . . . n (x)
1
1



.. .
..
W [1 , . . . , n ](x) = det (x) = ...

.
.
1

n (x) . . . nn (x)

Escribiremos a partir de ahora W (x) cuando quede claro del contexto a que soluciones
i (1 i n) nos estamos refiriendo.
Si las soluciones k (1 k n) son
linealmente dependientes (como funciones)
entonces los vectores 1 (x), . . . , n (x) son linealmente dependientes en cada punto
x I, por lo que el determinante de la matriz (x) cuyas columnas son dichos vectores
es identicamente nulo. En otras palabras,
 1

, . . . , n linealmente dependientes = W [1 , . . . , n ](x) = 0 , x I .


Recprocamente, si el wronskiano de las soluciones 1 , . . . , n se anula identicamente
entonces dichas soluciones son linealmente dependientes. De hecho, probaremos
que si

1
n
W (x0 ) = 0 para alg
un x0 I entonces las soluciones , . . . ,
son linealmente
independientes. En efecto, n
otese que la anulaci
on de W (x0 ) implica que los vectores
k (x0 ) ,

1 k n.

son linealmente dependientes, es decir que existen constantes k (1 k n) tales que


n
X

k k (x0 ) = 0 .

k=1

Pero entonces la funci


on
y(x) =

n
X

k k (x)

k=1

es soluci
on del sistema homogeneo (2.3) con dato inicial y(x0 ) = 0. Por la unicidad de
soluciones de (2.3), de esto se deduce
 que y(x) =
0 para todo x I, lo cual prueba la
dependencia lineal de las soluciones 1 , . . . , n . Hemos pues demostrado el siguiente
resultado fundamental:
 1

, . . . , n linealmente dependientes W [1 , . . . , n ](x) = 0 , x I . (2.7)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

32

Si k (1 k n) son soluciones del sistema homogeneo (2.3), entonces o bien


W (x) = 0 para todo x I, o bien W (x) 6= 0 para todo x I.
En efecto, si las soluciones son linealmente dependientes entonces su wronskiano se
anula identicamente, mientras que si son independientes de la demostracion del resultado
anterior se deduce que el wronskiano no se puede anular en ning
un punto.
Una funci
on matricial : I Mn (R) es una matriz fundamental del sistema (2.3)
si y s
olo si
i) (x) = A(x) (x), para todo x I
ii) det (x) 6= 0, para todo x I.
Notese que la condici
on ii) es equivalente a pedir que det (x0 ) 6= 0 para alg
un x0 I.
 1

n
Observese que si , . . . , son funciones (diferenciables) arbitrarias la anulaci
on
de su wronskiano en todos los puntos no implica la dependencia lineal. Por ejemplo, las
funciones
1 (x) = (sen x, x) ,
2 (x) = (x sen x, x2 )
son linealmente independientes, aunque su wronskiano se anula para todo x R.
Ejercicio. Son las funciones

1 (x) = (1, x) ,

2 (x) = (x, 1 x2 )

soluci
on de alg
un sistema lineal homogeneo (con coeficientes continuos) en I = R?


Soluci
on. El wronskiano de las funciones 1 , 2 es igual a


1
x

W (x) =
= 1 2 x2 .
x 1 x2

as
Dicho wronskiano se anula en los puntos x = 1/ 2, y es distinto de cero en los dem
puntos. Como W ni es identicamente nulo ni tampoco es distinto de cero en R, las
funciones dadas no pueden ser soluci
on de ning
un sistema lineal homog
R.
eneo en
1
2
Elwronskiano de y no se anula en los intervalos (, 1/ 2), (1/ 2, 1/ 2)
y (1/ 2, ), por lo que no est
a descartado que dichas funciones puedan ser soluci
on de
alg
un sistema lineal homogeneo si nos restringimos a estos intervalos. De hecho, puede
probarse que en dichos intervalos 1 y 2 son soluciones (linealmente independientes)
del sistema homogeneo


1
x
1

y.
y =
1 2x2 1 + x2 3x

2.2.1

F
ormula de AbelLiouville

Sean, de nuevo, k (x) (1 k n) n soluciones del sistema homogeneo (2.3). Derivando


su wronskiano W (x) respecto de x obtenemos
1

1 (x) . . . n1 (x)


n . . . . . . . . . . . . . . . . . . .
X
1

(x) . . . n (x) .
W (x) =
(2.8)
i
i

i=1 . . . . . . . . . . . . . . . . . . .
1 (x) . . . n (x)
n
n

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

Dado que
ki (x) =

n
X

aij (x) kj (x) ,

x I ,

j=1

33

1 i, k n ,

la i-esima fila del i-esimo determinante en (2.8) es igual a


aii (x) i (x) +

n
X

aij (x) j (x)

j=1
j6=i

(donde j denota la j-esima fila de ). De esto se sigue que el i-esimo determinante que
aparece en (2.8) es igual a
aii (x) W (x) ,
puesto que un determinante no vara al a
nadir a una fila cualquier combinaci
on lineal
de las restantes. Obtenemos as la igualdad
W (x) = W (x)

n
X
i=1

aii (x) tr A(x) W (x) .

Integrando esta ecuaci


on diferencial lineal ordinaria de primer orden en W (x) obtenemos
la f
ormula de AbelLiouville
Rx
tr A(t) dt
W (x) = W (x0 ) e x0
,
x I ,
(2.9)
donde x0 es un punto cualquiera de I. De esta formula se sigue inmediatamente el
resultado sobre el wronskiano probado anteriormente (W (x) = 0 para todo x I
o W (x) 6= 0 para todo x I).

2.2.2

M
etodo de variaci
on de constantes de Lagrange

Los resultados de esta secci


on se refieren al sistema homogeneo (2.3). Sin embargo, si se
conoce una matriz fundamental de dicho sistema homogeneo podemos hallar la soluci
on
general del sistema inhomogeneo (2.1) aplicando el metodo de variaci
on de constantes
de Lagrange. En efecto, la formula (2.5) para la soluci
on general del sistema homogeneo
sugiere expresar una soluci
on cualquiera del sistema inhomogeneo mediante
y(x) = Y (x)z(x) ,
siendo Y una matriz fundamental del sistema homogeneo y z : I Rn la nueva funcion
inc
ognita. Sustituyendo en (2.1) se obtiene
y = Y (x) z + Y (x) z = Y (x) z + A(x)Y (x) z = A(x)y + b(x) z = Y (x)1 b(x) .
(Notese que Y (x) es invertible en cada punto, ya que su determinante es el wronskiano
de n soluciones linealmente independientes de la ecuaci
on homogenea (2.3), y por tanto
no se anula en ning
un punto.) Integrando esta ecuaci
on entre x0 I y x obtenemos
Z x
z(x) =
Y (t)1 b(t) dt + c ,
x0

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

34

(con c Rn constante) de donde se obtiene la siguiente formula para la soluci


on general
del sistema inhomogeneo (2.1):
y(x) = Y (x) c + Y (x)

Y (t)

b(t) dt = Y (x) c +

x0

Y (x)Y (t)1 b(t) dt .

(2.10)

x0

Notese que el primer termino (Y (x) c) es la soluci


on general del sistema homogeneo
asociado, mientras que el termino restante proporciona una expresi
on explcita de una
soluci
on particular del sistema inhomogeneo en terminos de la matriz fundamental Y (x)
y el termino inhomogeneo b(x).

2.3

Sistemas con coeficientes constantes

En general (a diferencia de lo que ocurre para una ecuaci


on lineal escalar) no es posible dar un metodo general para hallar una matriz fundamental de un sistema lineal
homogeneo en funci
on de sus coeficientes. De hecho, s
olo en muy contados casos en
que dichos coeficientes son funciones particularmente sencillas de x es posible calcular
explcitamente una matriz fundamental del sistema (2.3) (y, por variaci
on de constantes,
obtener as la soluci
on general del sistema inhomogeneo (2.1)).
Un caso muy importante en que se puede calcular la matriz fundamental del sistema
lineal (2.3) es aquel en que la matriz de coeficientes del sistema es constante. En otras
palabras, en este caso el sistema (2.3) adopta la forma sencilla
y = A y ,

A Mn (R) .

(2.11)

Formalmente, la soluci
on de este sistema con la condici
on inicial y(0) = y0 es
y = exA y0 .
Pero que sentido tiene la exponencial de la matriz xA en esta formula?
Para responder a esta pregunta, recuerdese que para todo t R se define et como
la suma de la serie de potencias
k
X
t
et =
.
k!
k=0

Se demuestra que la serie anterior es absolutamente convergente para todo t R, siendo


la convergencia uniforme en cada intervalo compacto de la recta real. Guiados por lo
anterior, definamos

X
Bk
B
,
B Mn (R) ,
e =
(2.12)
k!
k=0

donde B 0 = 1 denota la matriz identidad. Para que la definicion tenga sentido, debemos
probar que la serie anterior converge en el espacio vectorial Mn (R) para toda matriz
B Mn (R). Para probar este resultado, n
otese primero que

k
k
k N ,
B kBk ,

puesto que si v Rn con kvk = 1 por definicion de la norma del supremo se tiene









k
k
k
2
B v kBk B k1 v kBk B k2 v kBk kvk = kBk .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

35

La convergencia (absoluta) de la serie (2.12) para toda matriz B Mn (R) se deduce


del criterio de Cauchy. En efecto, si N > m se verifica

N
k
N
N
X Bk
B
X
X
kBkk

0 ,



k!
k!
k! m,N
k=m+1

k=m+1

k=m+1

en virtud de la convergencia de la serie numerica de ekBk . En particular, por lo que


acabamos de demostrar la serie de potencias (con coeficientes matriciales)
xA

X
xk Ak
k=0

(2.13)

k!

converge para todo x R, para cualquier matriz A Mn (R). Ademas, la convergencia


de esta serie es uniforme en todo intervalo compacto por el criterio M de Weierstrass,
ya que si x [a, b] se tiene
k k
x A |x|k kAkk

(M kAk)k

M = max(|a| , |b|) ,
k!
k!
k!

siendo la serie numerica

X
(M kAk)k
k=0

k!

= eM kAk

convergente. Derivando termino a termino la serie (2.13) se obtiene la serie


!

X
X
X
X
xk1 Ak
xk Ak
xk Ak
k xk1 Ak
A.
=
=A
=
k!
(k 1)!
k!
k!
k=1

k=1

k=0

k=0

Esta u
ltima serie es uniformemente convergente en todo intervalo compacto, por lo visto
anteriormente. Por tanto, en todo intervalo compacto de la recta real la funcion matricial
exA es derivable, siendo su derivada la serie anterior. En definitiva, hemos probado la
formula
d xA
x R .
(2.14)
e = A exA = exA A ,
dx
Esta formula demuestra que las n columnas de la matriz exA son soluciones del
sistema (2.11). Estas soluciones son linealmente independientes, ya que su wronskiano
en x = 0 es igual a
det(e0 ) = det 1 = 1 6= 0 .

Hemos probado por tanto el siguiente resultado:

Teorema 2.7. La matriz exA es una matriz fundamental del sistema homogeneo con
coeficientes constantes y = A y.
En otras palabras, la soluci
on general del sistema (2.11) est
a dada por
y(x) = exA c ,

(2.15)

con c Rn un vector constante. (Notese que, como ya sabamos por uno de los corolarios
del teorema de PicardLindelof, las soluciones de (2.11) est
an definidas para todo x R.)
En particular, dado que e0 es la matriz identidad, la soluci
on del problema de valor inicial
y = A y ,

y(0) = y0

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

36

es simplemente
y(x) = exA y0 .
La funci
on exponencial matricial verifica las siguientes propiedades:
i) e(s+t)A = esA etA ,

s, t R

ii) eA es invertible, siendo (eA )1 = eA


iii) Para toda matriz invertible P se tiene P eA P 1 = eP AP

En efecto, la primera propiedad se deduce (como para la funcion exponencial en R)


manipulando adecuadamente la serie de e(s+t)A , lo cual es posible dado que esta serie
converge absolutamente. La segunda propiedad es consecuencia de la primera y de la
identidad e0 = 1. Por u
ltimo,
!

k
X
X
P Ak P 1 X (P AP 1 )k
A
1
P 1 =
=
= eP AP .
P eA P 1 = P
k!
k!
k!
k=0

k=0

k=0

En relaci
on con la propiedad i), n
otese que si A, B Mn (R) son dos matrices que
conmutan, es decir satisfacen la igualdad
[A, B] AB BA = 0 ,
entonces se puede probar que
eA+B = eA eB = eB eA .
Sin embargo, esta u
ltima igualdad no es cierta, en general, para matrices A y B arbitrarias
Por lo dicho en la secci
on anterior, la soluci
on general del problema de valor inicial
para el sistema homogeneo
y = A x + b(x)
(2.16)
es
xA

y=e

c+

e(xt)A b(t) dt ,

(2.17)

x0

con c Rn un vector constante. La soluci


on de (2.16) con la condici
on inicial y(x0 ) = y0
se calcula resolviendo la ecuaci
on matricial
y0 = ex0 A c c = ex0 A y0 .
Utilizando la propiedad ii) se obtiene
y = e(xx0 )A y0 +

e(xt)A b(t) dt .

x0

Ejercicio. Pruebese la formula det(eA ) = etr A , valida para toda matriz A Mn (R).
Soluci
on. Al ser las columnas de exA soluci
on del sistema lineal (2.11), det(exA ) es el
wronskiano de dichas soluciones. Aplicando la formula de AbelLiouville obtenemos
Rx

det(exA ) = det(e0 ) e

tr A dt

Haciendo x = 1 se obtiene la formula propuesta.

= ex tr A .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

2.4

37

C
alculo de la exponencial de una matriz

Estudiaremos en esta secci


on algunos metodos pr
acticos para calcular la exponencial de
una matriz. Por lo visto en la secci
on anterior, esto nos permitira encontrar la soluci
on
general de un sistema homogeneo con coeficientes constantes va la formula (2.15) (o,
m
as generalmente, la soluci
on del sistema inhomogeneo (2.16) va la ecuaci
on (2.17)).
Recordemos, en primer lugar, que toda matriz A Mn (R) es semejante a una matriz
diagonal por bloques (en general con elementos de matriz complejos)

J1

J2

J = P 1 A P =
,
.
.

.
Jm

donde cada bloque de Jordan Ji es de la forma

Ji = i 1 + Ni ,
siendo Ni una matriz nilpotente del tipo

N [ni ]

N [ni ]

Ni =
..
.

(s 1)

 (s 1) 
N ni i

En esta formula ni ni ni i , y N [k] Mk (R) denota la matriz nilpotente


elemental de orden k

0
1 0

..

.
.
N [k] = 1

.. ..

.
.
1 0
De la igualdad

det(J t 1) = det(P 1 A P t 1) = det[P 1 (A t 1)P ] = det(A t 1)


se deduce que
det(A t 1) = (1 t)r1 (m t)rm ,
(s 1)

donde los enteros ri = ni +ni + +ni i


son las multiplicidades algebraicas de los
autovalores i . Los m n
umeros distintos 1 , . . . , m C, denominados los autovalores
de la matriz A, son por tanto las m races distintas de la ecuaci
on
pA (t) det(A t 1) = 0 .
Al polinomio (de grado n) pA (t) se le denomina polinomio caracterstico de la matriz
A.
La matriz N [k] es una matriz nilpotente de orden k, es decir N [k]j se anula si y s
olo
si j k. De esto se deduce que las matrices Ni son matrices nilpotentes de orden ni (el
ndice del autovalor i ), es decir
Nini 1 6= 0,

Nini = 0 ,

1 i m.

(2.18)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

38

A la matriz J Mn (C) (que es u


nica salvo por el orden de los bloques) se le llama la
forma can
onica de Jordan de la matriz A. Notese que N [1] = 0, y por tanto que
J es una matriz diagonal (cuyos elementos de matriz diagonales son los autovalores de
la matriz A, repetidos tantas veces cuanta sea su multiplicidad algebraica) si y s
olo si
n1 = . . . nm = 1.
El calculo de la exponencial de la matriz xA se reduce a la de xJ, ya que
exA = eP (xJ)P

= P exJ P 1 .

(Notese que, aunque J y P pueden ser complejas, exA es real si A es real.) Para calcular
la exponencial de xJ, observese que de las igualdades
k

J1

J2k

Jk =
k N ,
,
..

.
k
Jm

se deduce que

xJ

exJ1

exJ2
..

.
exJm

El problema se reduce por tanto a calcular la exponencial de cada bloque xJi . Pero esto
es inmediato, ya que al conmutar las matrices i 1 y Ni se tiene
exJi = exi 1 exNi = ei x exNi .
Por u
ltimo, de la nilpotencia de Ni (ec. (2.18)) se deduce que la serie de exNi se reduce
a la suma finita
nX
i 1
xk k
exNi =
N .
k! i
k=0

Notese que

donde

exNi

se puede calcular por bloques mediante la formula

xN [n ]
i
e

exN [ni ]

xNi
,

e
=
..

 (s 1) 
i
exN ni

exN [k]

1
x
2
x
2!
3
=
x3!
.
.
.

xk1
(k1)!

1
x

(2.19)

x2
2!

..
.

1
x
..
.

1
..
.

xk2
(k2)!

...

x2
2!

..
.

x 1

(2.20)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

39

En definitiva, la exponencial de la matriz xA Mn (R) est


a dada por la siguiente
formula:

x xN
e 1 e 1

e2 x exN2
1

exA = P
,
P
..

.
em x exNm

donde exNi se calcula utilizando las ecuaciones (2.19) y (2.20).


Las columnas de la matriz P forman una base de Cn respecto de la cual la matriz
del operador lineal v 7 A v adopta su forma can
onica J (base de Jordan de A).
Notese que la matriz P exJ (que es m
as facil que calcular que exA = P exJ P 1 , ya que
para su c
alculo no se necesita conocer la inversa de la matriz P ) es tambien una matriz
fundamental del sistema lineal homogeneo (2.11). En efecto, de las igualdades


P exJ ei = P exJ P 1 (P ei ) = exA (P ei ) , 1 i n ,

se deduce que las columnas de P exJ son soluciones del sistema. Ademas, el wronskiano
de estas soluciones es no nulo, ya que


det P exJ = det P det exJ 6= 0 ,

al ser P y exJ matrices invertibles. Sin embargo (a diferencia de exA , que es siempre
real si A es real) la matriz P exJ puede ser compleja, por lo que para obtener a partir de
ella una matriz fundamental real habra que tomar, en general, combinaciones lineales
adecuadas de sus columnas.
Si es un autovalor de A y v un autovector correspondiente a este autovalor, ex v
es una soluci
on del sistema (2.11), ya que


d  x 
e v = ex (v) = ex (A v) = A ex v .
dx

Si R la soluci
on ex v es real (pues el autovector v se puede tomar real). Si = a+ i b
con b 6= 0, al ser la matriz A real posee tambien el autovalor con autovector v. Sumando
y restando
las dos soluciones
ex v y ex v ex v se obtienen las dos soluciones reales


Re ex v e Im ex v , dadas respectivamente por


eax cos(b x) Re v sen(b x) Im v ,

Si A es diagonalizable entonces

J =



eax cos(b x) Im v + sen(b x) Re v .

1
2
..

(2.21)

.
n

(donde ahora no suponemos que los n


umeros i son distintos dos a dos) y por tanto

x
e 1

e2 x



P exJ = P1 P2 . . . Pn
= e1 x P1 e2 x P2 . . . en x Pn .
.
.

nx
e

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

40

En otras palabras, si A es diagonalizable las funciones


ei x Pi ,

1in ,

(2.22)

donde i es un autovalor de A y Pi es un autovector correspondiente a este autovalor,


son soluciones fundamentales del sistema homogeneo (2.11). Si alguno de los autovalores
i es complejo, por lo visto anteriormente podemos reemplazar las soluciones ei x Pi y
ei x P i por dos soluciones reales del tipo (2.21) (con a = Re i , b = Im i , v = Pi ).
Sean ahora {Pl+1 , . . . , Pl+k } {v1 , . . . , vk } los vectores de la base can
onica de Cn
correspondientes a un bloque de Jordan elemental
1k + N [k] .
Entonces las columnas l + 1, . . . , l + k de la matriz P exJ est
an dadas por

1
x

1
2

x
1


 x xN [k]
2!
x
3
2

.
x
=e
v1 . . . vk x
v1 . . . vk e e
x
1

3!
2!
.

..
.. .. ..
.
.
.
.
.
.

xk2
x2
xk1
x 1
2!
(k1)!
(k2)! . . .
Por tanto las k funciones vectoriales
ex

j
X
xi
i=0

i!

vkj+i ,

0j k1 ,

(2.23)

son soluciones del sistema homogeneo (2.11). Estas soluciones son todas reales si el
autovalor R (ya que en una matriz real los autovectores propios generalizados
correspondientes a un autovalor real se pueden siempre escoger reales). Si el autovalor
es complejo, al ser la matriz A real el complejo conjugado de es tambien autovalor

de A. Se demuestra en el curso de Algebra


Lineal que la matriz A tiene un bloque de
Jordan asociado a este autovalor de la forma
1k + N [k] ,
pudiendose tomar como vectores de la base can
onica de Jordan asociados a este autovalor
los vectores {v 1 , . . . , v k }. Por tanto el sistema (2.11) posee en este caso junto con (2.23)
las k soluciones
j
X
xi
v kj+i ,
0j k1
(2.24)
ex
i!
i=0

complejas conjugadas de las anteriores. Si = a+ i b (con a, b R), sumando y restando


las soluciones (2.23) y (2.24) se obtienen las 2k soluciones reales
ax

eax

j
X
xi 

i=0
j
X
i=0

i!


cos(b x) Re vkj+i sen(b x) Im vkj+i ,


xi 
cos(b x) Im vkj+i + sen(b x) Re vkj+i ,
i!

(2.25)
0 j k 1.

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

41

Estas observaciones demuestran el siguiente teorema:


Teorema 2.8. Las soluciones del sistema homogeneo con coeficientes constantes y =
A y (A Mn (R)) son combinaciones lineales (con coeficientes en Rn ) de funciones
de la forma
xj eax cos(b x) , xk eax sen(b x) .
(2.26)
En esta f
ormula a + i b (con b 0) recorre todos los autovalores de la matriz A, y los
exponentes j, k han de ser menores que el ndice del autovalor a + i b.

2.4.1

Polinomio interpolador de Lagrange

Uno de los metodos m


as efectivos para el calculo de la exponencial de una matriz (o, en
general, de una funci
on matricial) es el basado en el polinomio interpolador de Lagrange,
que describiremos a continuaci
on. El metodo es consecuencia del teorema de Cayley
Hamilton, seg
un el cual
pA (A) = 0 ,
A Mn (R) .
Por definicion, el polinomio mnimo de la matriz A es el polinomio m
onico de grado
mnimo A que anula a la matriz A, es decir tal que
A (A) = 0 .

(2.27)

Se demuestra que tal polinomio es u


nico, y est
a dado por
A (t) = (t 1 )n1 (t 2 )n2 (t m )nm ,

(2.28)

siendo de nuevo ni el ndice del autovalor i de A. Es tambien facil probar que si P es


un polinomio que anula a A entonces P es divisible por A .
Sea ahora f : R R una funcion analtica real definida por la serie de potencias
f (t) =

ak tk ,

k=0

|t| < R ,

donde R > 0 es el radio de convergencia de la serie (R = en el caso de la exponencial).


Igual que se hizo al principio de este captulo con la funci
on exponencial, se demuestra
que la serie matricial
f (X) =

X
k=0

ak X k ,

X Mn (R) ,

es convergente si kXk < R. Para calcular f (A) para una matriz concreta A Mn (R)
con kAk < R, observese que la igualdad (2.27) permite expresar cualquier potencia de
la matriz A de exponente mayor o igual al grado
d(A) = n1 + + nm
del polinomio mnimo de A en terminos de potencias con exponentes menores que d(A).
Esto demuestra que existe un polinomio Pf,A (dependiente de f y de A) de grado menor
o igual que d(A) 1 tal que
f (A) = Pf,A (A) .
(2.29)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

42

Tal polinomio es u
nico, ya que si f (A) = Q(A) con deg Q d(A) 1 entonces Pf,A Q
es un polinomio de grado menor
o igual al del polinomio mnimo de A que anula a la
matriz A, y por tanto Pf,A Q = 0. Al polinomio Pf,A de grado d(A) 1 definido por
(2.29) se le denomina el polinomio interpolador de Lagrange de la matriz A para la
funcion f . Para el c
alculo de Pf,A se suele utilizar en la pr
actica el siguiente resultado:
Proposici
on 2.9. El polinomio interpolador Pf,A est
a unvocamente determinado por
las d(A) ecuaciones lineales en los coeficientes de Pf,A
(k)

Pf,A (i ) = f (k) (i ) ,

0 k ni 1 ,

i = 1, . . . , m ,

(2.30)

siendo ni el ndice del autovalor i de A (es decir, la dimensi


on del mayor bloque
elemental de Jordan correspondiente al autovalor i ).
Aunque no intentaremos dar una demostracion rigurosa de este resultado, es facil
dar una justificaci
on heurstica del mismo observando que f (A) = Pf,A (A) si y s
olo si
f (A) v = Pf,A (A) v para todo v perteneciente a la base de Jordan de A. Esta u
ltima
condici
on es equivalente a las ecuaciones (2.30), ya que si vk es un vector de la base
can
onica de Jordan de A correspondiente al autovalor i entonces
(A i )j vk = vk+j ,

0 j m 1;

(A i )m vk = 0

para alg
un n
umero natural m ni . Escribiendo
f (t) Pf,A (t) =

X
j=0

bj (t i )j

(la serie es convergente para |t| suficientemente peque


no) se tendra


m1

X
X

bj vk+j ,
bj (A i )j vk =
f (A) Pf,A (A) vk =
j=0

j=0

que es cero si y s
olo si
bj =

1
(f Pf,A )(j) (i ) = 0 ,
j!

Ejemplo 2.10. Calculemos por el metodo

A = 4
4

0 j m 1.

anterior exA , siendo A M3 (R) la matriz

9 7
9 6 .
8 5

El polinomio caracterstico de A es


3 t
9
7

pA (t) = 4
9t
6 = (t 1)2 (t + 1) .
4
8
5 t

Los autovalores son por tanto 1 = 1 y 2 = 1


de A es

1 0
J = 0 1
0

(doble), y la forma can


onica de Jordan

0
0 .
1

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

43

En esta formula = 0 si n2 = 1 (es decir, hay dos bloques elementales de Jordan


de dimension 1 correspondientes al autovalor 2 = 1) o = 1 si n2 = 2 (hay un
u
nico bloque elemental de dimension 2 correspondiente a dicho autovalor). Notese que
el n
umero total de bloques elementales de Jordan de una matriz cualquiera A Mn (R)
correspondientes a un autovalor es igual a la dimension de ker(A ), que a su vez es
igual a n rank(A ). Por tanto,
= 0 dim ker(A 1) = 2 rank(A 1) = 1

= 1 dim ker(A 1) = 1 rank(A 1) = 2 .


Como


 

4 9 7
4 9 7
4
9 7

A 1 = 4 8 6

4 8 6
0 1
1
4 8 6

tiene rango 2, concluimos que n2 = 2, y

1 0 0
J = 0 1 0 .
0 1 1

El ndice n1 es claramente igual a 1, por ser 1 autovalor simple. El polinomio mnimo


de la matriz A es por tanto
A (t) = (t + 1)(t 1)2 ,
siendo su grado d(A) = 3. Por lo visto anteriormente, llamando f (t) = ex t (donde x se
trata como un par
ametro y t es la variable independiente) se tiene
exA = P (A) ,
siendo P (t) = + t + t2 un polinomio de grado menor o igual que 2. Las ecuaciones
que determinan este polinomio son:
f (1) = P (1)
f (1) = P (1)
f (1) = P (1) .
Sustituyendo en estas ecuaciones f (t) = ex t y la expresi
on para P se obtiene
ex = +
ex = + +

x ex = + 2 .
La soluci
on de este sistema es
1
1
= (senh x + 2 cosh x x ex ) , = senh x , = (x ex senh x) .
2
2
Por tanto
1
1
exA = (senh x + 2 cosh x x ex ) 1 + senh x A + (x ex senh x)A2 =
2
2

x
x
x
x
x
2e e
5e + (5 x)e
4e + (x 4)ex
= 2ex 2ex 5ex + 2(3 x)ex 4ex + 2(x 2)ex .
2ex 2ex 5ex + (5 2x)ex 4ex + (2x 3)ex

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

44

Un sistema fundamental de soluciones del sistema y = A y es el dado por las columnas


de esta matriz, es decir
y 1 = ex (2, 2, 2) + ex (1, 2, 2)

y 2 = ex (5, 5, 5) + ex (5, 6, 5) + x ex (1, 2, 2)

y 3 = ex (4, 4, 4) + ex (4, 4, 3) + x ex (1, 2, 2) .

La soluci
on general del sistema es una combinaci
on lineal arbitraria c1 y 1 + c2 y 2 + c3 y 3 de
estas soluciones fundamentales. Notese que, de acuerdo con el Teorema 2.8, las soluciones
del sistema y = A y son combinaciones lineales con coeficientes en R3 de las funciones
ex ,

ex ,

x ex .

Por ejemplo, la soluci


on del problema de valor inicial
y = A y ,
es

y(0) = (0, 1, 1)

x
e + ex
0
y(x) = exA 1 = ex + 2 ex = ex (1, 1, 1) + ex (1, 2, 2) .
ex + 2 ex
1

Ejercicio. Hallar la soluci


on del problema

x = x y
y = 2 x y

x(0) = 1 , y(0) = 2 .

Soluci
on. En este caso las variables dependientes son (x, y), por lo que la variable independiente ser
a denotada por t. El sistema de ecuaciones que hay que resolver es lineal
homogeneo con coeficientes constantes, ya que se puede escribir en la forma
 
 
x
x
=A
y
y
con
A=


1 1
.
2 1

Los autovalores de la matriz A se hallan facilmente:





1
1
pA () =
= (1 + )2 + 2 = 0 = 1 i 2 .
2
1
Por tanto en este caso la matriz A es diagonalizable, y
A () = pA () = (1 + )2 + 2 .
La matriz etA es igual al polinomio interpolador de primer grado P () = + para
la funcion f () = et , donde los coeficientes y se calculan a partir de las ecuaciones

f (1 i 2) = et ei 2 t = P (1 i 2) = + (1 i 2) .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

La soluci
on de estas ecuaciones es

et
= et cos( 2t) + sen( 2 t) ,
2

45

et
= sen( 2 t) .
2

Por tanto la matriz fundamental del sistema es





1
et
tA
t
e =e
cos( 2t) + sen( 2 t) 1 + sen( 2 t) A
2
2

!
1 sen( 2 t)
2
t)

cos(
2

= et
. (2.31)
2 sen( 2 t)
cos( 2 t)
Finalmente, la soluci
on del problema propuesto es
! 





1 sen( 2 t)
2
t)

cos(
1
x(t)
cos( 2 t) 2 sen( 2 t)
t
t
2

.
=e
=e
2
y(t)
2 cos( 2 t) + 2 sen( 2 t)
2 sen( 2 t)
cos( 2 t)

2.5

Ecuaciones de orden n

En general, una ecuaci


on escalar de orden n en forma normal es una expresi
on
de la forma

u(n) = F x, u, u , . . . , u(n1) ,
(2.32)

donde x R, u : R R y F : RRn R. Una ecuaci


on de este tipo siempre se puede
reescribir como un sistema de n ecuaciones de primer orden mediante la introducci
on
de la variable

y = u, u , . . . , u(n1) Rn .
En efecto, la ecuaci
on (2.32) es equivalente al sistema
y = f (x, y)
con


f (x, y) = y2 , . . . , yn , F (x, y) .

(2.33)

Notese que las condiciones iniciales adecuadas para el sistema (2.33)


y(x0 ) = y0
se traducen en las condiciones
u(k) (x0 ) = uk0 ,

0k n1 ,

(2.34)

sobre las derivadas de orden n 1 de la funcion escalar u en el punto x0 . La funcion


f es continua, derivable, de clase C 1 , etc. si y s
olo si la funcion F lo es. En cuanto a la
condici
on de Lipschitz, n
otese que, al ser
n
X



2
f (x, y 1 ) f (x, y 2 ) 2 =
(yi1 yi2 )2 + F (x, y 1 ) F (x, y 2 ) ,
i=2


2 
2
y 1 y 2 + F (x, y 1 ) F (x, y 2 ) .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

46

si la funci
on F es lipschitziana respecto al segundo argumento en un conjunto tambien
lo ser
a f , pues de la ecuaci
on anterior y




F (x, y 1 ) F (x, y 2 ) M y 1 y 2
se deduce que




p
f (x, y 1 ) f (x, y 2 ) M 2 + 1 y 1 y 2 .

Por tanto, son validos todos los teoremas de existencia y unicidad que dedujimos en el
Captulo 1 sin m
as que sustituir la funcion f por F y los datos iniciales y(x0 ) = y0 por
las condiciones (2.34) sobre las derivadas de u en x0 . Los resultados que aplicaremos
m
as a menudo son los siguientes:
Teorema 2.11. Si F : U R Rn R es continua en el abierto U , entonces
(n1)
para todo (x0 , u0 , . . . , u0
) U el problema de valor inicial (2.32)(2.34) tiene al
menos una soluci
on u(x) definida en un intervalo de la forma (x0 , x0 + ), con
(n1) 
x0 , u0 , . . . , u0
> 0.
F
Teorema 2.12. Si F : U RRn R y sus derivadas parciales u
(i) , 0 i n1,
1
son continuas en el abierto U (en particular, si F es de clase C (U )), entonces para to(n1)
do (x0 , u0 , . . . , u0
) U el problema de valor inicial (2.32)(2.34) tiene una soluci
on
(n1) 
u
nica en un intervalo de la forma (x0 , x0 + ), con x0 , u0 , . . . , u0
> 0.

Teorema 2.13. Si F : A = I Rn R (con I R un intervalo) es continua


y lipschitziana respecto de la segunda variable en A, entonces para todo x0 I el
problema de valor inicial (2.32)(2.34) tiene una soluci
on u
nica en el intervalo I.

2.5.1

Ecuaciones lineales

Consideraremos a continuaci
on el caso en que la funcion F es lineal (o, hablando con
m
as propiedad, afn) en u y sus derivadas. La ecuaci
on (2.32) se puede entonces escribir
como sigue:
u(n) + an1 (x) u(n1) + + a1 (x) u + a0 (x) u = b(x) ,

(2.35)

donde las funciones ai : R R (0 i n 1) y b : R R se suponen continuas en


un intervalo I R. La ecuaci
on (2.35) se dir
a homog
enea si b(x) = 0 para todo x I,
e inhomogenea (o completa) en caso contrario. El sistema de primer orden asociado a
la ecuaci
on (2.35) es tambien lineal, ya que puede escribirse en la forma
y = A(x) y + b(x) en
con

0
0
..
.

1
0
..
.

0
1
..
.

...

...

..
.
A(x) =

..
0
.
0
0
a0 (x) a1 (x) a2 (x) . . .

(2.36)
0
0
..
.

1
an1 (x)

(2.37)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

47

A la matriz n n (2.37) se le llama matriz compa


nera de la ecuaci
on lineal de orden
n (2.35). Notese, en particular, que
tr A(x) = an1 (x) ,

x I .

(2.38)

Al ser continuos en el intervalo I los coeficientes del sistema lineal (2.36) (por la
hip
otesis hecha sobre las funciones ai y b), el problema de valor inicial asociado a dicho
sistema posee una u
nica soluci
on en I para todo dato inicial en I Rn . Por tanto:
Teorema 2.14. Si las funciones ai : I R (1 i n) y b : I R son continuas
en un intervalo I, el problema de valor inicial (2.34)(2.35) posee una u
nica soluci
on
en I para todo x0 I.
Es evidente que si u1 y u2 denotan dos soluciones de la ecuaci
on homogenea
u(n) + an1 (x) u(n1) + + a1 (x) u + a0 (x) u = 0 ,

(2.39)

entonces cualquier combinaci


on lineal u1 + u2 (con , R) es tambien soluci
on
de dicha ecuaci
on. El espacio de soluciones de la ecuaci
on homogenea (2.39) es por
tanto un subespacio vectorial del espacio C n (I). Ademas, si {1 , . . . , m } son soluciones
linealmente independientes de (2.39) entonces las m soluciones del sistema lineal de
primer orden asociado a (2.39)
(n1) 

y i = i , i , . . . , i

1 i m,



son obviamente linealmente independientes. Recprocamente, si las funciones y 1 , . . . , y m
son linealmente independientes tambien lo son las soluciones {1 , . . . , m }, ya que derivando n 1 veces la igualdad
1 1 + + m m = 0

(i R , 1 i m)

se deduce que
1 y 1 + + m y m = 0 ,



de donde se sigue que i = 0 para 1 i m por la independencia lineal de y 1 , . . . , y m .
Utilizando este hecho y las propiedades de los sistemas lineales de primer orden se
deducen facilmente los siguientes resultados:
El espacio S0 de las soluciones u(x) de la ecuaci
on lineal homogenea (2.39) es un
subespacio vectorial de dimensi
on n del espacio C n (I).
El espacio S de las soluciones u(x) de la ecuaci
on lineal completa (2.35) es un subespacio afn paralelo al subespacio vectorial S0 . En otras palabras, las soluciones de (2.35)
son de la forma
u(x) = u0 (x) + up (x) ,
donde up es una soluci
on particular arbitraria (pero fija) de (2.35), y u0 S0 es cualquier
soluci
on del sistema homogeneo asociado.
Ejemplo 2.15. Consideremos la ecuaci
on de segundo orden
u + 2 u = 0 ,

(2.40)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

48

con > 0. El sistema de primer orden asociado es




0
1

y Ay
y =
2 0
siendo y = (u, u ). Los autovalores de la matriz A son las soluciones de la ecuaci
on



1
2
2

2 = + = 0 = i .

Por lo visto anteriormente, dos soluciones reales linealmente independientes de la ecuacion est
an dadas por
y 1 = Re(eix v) , y 2 = Im(eix v) ,
siendo v un autovector correspondiente al autovalor i . Tomando v = (1, i ) se obtiene


y 1 = cos(x), sen(x) , y 2 = sen(x), cos(x) .

Por tanto un sistema fundamental de soluciones de la ecuaci


on (2.40) es el formada por
las funciones
cos(x) , sen(x) .
Si 1 , . . . , n son n soluciones de la ecuaci
on homogenea de orden n (2.39), el wronskiano W [1 , . . . , n ](x) de dichas soluciones es por definicion el wronskiano de las soluciones correspondientes del sistema lineal de primer orden asociado a (2.39), es decir


1 (x)
...
n (x)


1 (x)
...
n (x)

W [1 , . . . , n ](x) =
.
(2.41)
. . . . . . . . . . . . . . . . . . . . . . . .
. .(n1)
(n1)

(x) . . . n
(x)
1

Muchas veces escribiremos abreviadamente W (x) en lugar de W [1 , . . . , n ](x). Diremos


que {1 , . . . , n } forman un sistema fundamental de soluciones de (2.39) si son
linealmente independientes, y por lo tanto forman una base del espacio de soluciones de
dicha ecuaci
on. Si {1 , . . . , n } forman un sistema fundamental de soluciones de (2.39)
entonces cualquier soluci
on u(x) de dicha ecuaci
on puede expresarse en la forma
u(x) =

n
X

ci i (x)

i=1

para ciertas constantes reales ci (1 i n).


Si {1 , . . . , n } son linealmente independientes
entonces
las n soluciones del sistema
 1

n
lineal de primer orden asociado a (2.39) y , . . . , y tambien son linealmente independientes, por lo que
W [1 , . . . , n ](x) = W [y 1 , . . . , y n ](x) 6= 0 ,

x I .

Recprocamente, si W [1 , . . . , n ](x0 ) 6= 0 para alg


un x0 I entonces W [y 1 , . . . , y n ](x0 ) 6=
1
n
0, por lo que las funciones y , . . . , y , y por tanto tambien {1 , . . . , n }, son linealmente independientes. Hemos probado por tanto el siguiente resultado:
{1 , . . . , n } linealmente independientes W [1 , . . . , n ](x0 ) 6= 0 para alg
u n x0 I
W [1 , . . . , n ](x) 6= 0 para todo x I.

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

49

De nuevo, n
otese que estas equivalencias s
olo son ciertas, en general, si {1 , . . . , n }
son soluciones de una ecuaci
on lineal homogenea de orden n (2.39).
Sean, como antes, {1 , . . . , n } soluciones (no necesariamente independientes) de la
ecuaci
on homogenea (2.39). Aplicando la formula de AbelLiouville y teniendo en cuenta
la formula (2.38) se obtiene la identidad
W (x) =

Rx
x
0
W (x0 ) e

an1 (t) dt

(2.42)

En particular, el wronskiano es constante si an1 es identicamente cero.


Veamos ahora c
omo construir la soluci
on general de la ecuaci
on inhomogenea de
orden n (2.35) a partir de un sistema fundamental de soluciones {1 , . . . , n } de la
ecuaci
on homogenea asociada. Para ello, consideremos la matriz fundamental

1 (x)
...
n (x)
1 (x)
...
n (x)

(x) =
. . . . . . . . . . . . . . . . . . . . . . . . . .
(n1)
(n1)
1
(x) . . . n
(x)
del sistema de primer orden asociado a la ecuaci
on homogenea (2.39). La soluci
on general
del sistema lineal (2.36) asociado a (2.35) es (por variaci
on de constantes)
Z x
y(x) = (x)c +
b(t) (x) (t)1 en dt .
(2.43)
x0

La primera componente del miembro derecho es por tanto la soluci


on general de (2.35).
Para escribir esta soluci
on m
as explcitamente, n
otese que la primera componente de
(x) (t)1 en es igual a
n
X
i=1

n
X


Mni (t)
i (x)(1)i+n
1i (x) (t)1 in =
W (t)
i=1



1 (t)
...
n (t)


(t)
...
n (t)

1 1
. . . . . . . . . . . . . . . . . . . . . . . . . ,
=

W (t) (n2)
(n2)
(t) . . . n
(t)
1
(x)
...
n (x)
1

donde Mni (t) denota el menor asociado al elemento de matriz ni de la matriz (t).
Sustituyendo esta formula en (2.43) se obtiene finalmente la siguiente expresi
on para la
soluci
on general de la ecuaci
on (2.35):

u(x) =

n
X
i=1

ci i (x) +

x
x0

1 (t) ...

1 (t) ...

..
..

.
.

(n2) (t) ...
1

1 (x)

...




b(t)
..

.
W (t) dt .
(n2)
n
(t)
n (t)
n (t)

(2.44)

n (x)

Por ejemplo, para la ecuaci


on lineal de segundo orden

u + a1 (x) u + a0 (x) u = b(x)

(2.45)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

se tiene
u(x) = c1 1 (x) + c2 2 (x) +

x0

En otras palabras, la funci


on
up (x) =


1 (t) 2 (t) b(t)
dt .
1 (x) 2 (x)
W (t)



b(t)

(t)

(t)
1
2


1 (x) 2 (x) W (t) dt

x0

50

(2.46)

(2.47)

es una soluci
on particular de la ecuaci
on inhomogenea (2.45). Notese que esta soluci
on
particular tiene como condiciones iniciales en x0
up (x0 ) = up (x0 ) = 0 .
Ejemplo 2.16. Consideremos la ecuaci
on de segundo orden
u + 2 u = F (x) ,

> 0,

(2.48)

que describe el movimiento de un oscilador arm


onico sometido a una fuerza externa
F (x) (movimiento forzado). Tomando
1 (x) = cos(x) ,
se tiene

2 (x) = sen(x)



cos(x)
sen(x)

W (x) =
= .
sen(x) cos(x)

(Notese que W (x) es constante; esto es consecuencia de la formula de AbelLiouville


(2.42), ya que en este caso an1 a1 = 0.) Como



1 (t) 2 (t) cos(t) sen(t)
=


1 (x) 2 (x) cos(x) sen(x) = sen (x t)

la soluci
on general de (2.48) es

1
u(x) = c1 cos(x) + c2 sen(x) +

u(x) = c1 cos(x) + c2 sen(x) +

sen (x t) F (t) dt ,

que tambien se puede escribir

sen(s) F (x s) ds .

Supongamos, por ejemplo, que la fuerza externa es de tipo sinusoidal:


F (x) = F0 sen( x) ,

> 0.

Entonces
Z x
Z x
sen(s) sen (x s) ds
sen(s) F (x s) ds = F0
0
0
Z


F0 x 
cos ( + )s x cos ( )s + x ds
=
2 0
Z
 F0 x

F0
sen(x) + sen(x)
cos ( )s + x ds .
=
2( + )
2 0

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

51

Si 6= (es decir, la frecuencia de la fuerza externa no es igual a la frecuencia natural


del sistema) entonces
Z x


1 
sen(x) sen(x) .
cos ( )s + x ds =

Por tanto la soluci


on general de la ecuaci
on (2.48) es en este caso de la forma
u = C1 cos(x) + C2 sen(x) +

F0
sen(x) ,
2

con C1 , C2 constantes. Todas las soluciones de (2.48), aunque no son peri


odicas a menos
que / Q, son en este caso acotadas. Por el contrario, si = se tiene
Z x
Z x

cos( x) ds = x cos(x) ,
cos ( )s + x ds =
0

y por tanto en este caso la soluci


on de (2.48) es

F0
x cos(x) .
2
En particular, en este caso ninguna soluci
on est
a acotada cuando x , debido al
u
ltimo termino. Este es el conocido fenomeno de la resonancia.
u = C1 cos(x) + C2 sen(x)

En general, no es posible expresar la soluci


on general de una ecuaci
on lineal de
orden n en terminos de sus coeficientes y de las primitivas de dichos coeficientes. Sin
embargo, en el caso de la ecuaci
on de segundo orden (2.45) si se conoce una soluci
on
(no identicamente nula) de la ecuaci
on homogenea se puede hallar la soluci
on general
de la ecuaci
on de partida. En efecto, si (x) es una soluci
on particular de la ecuaci
on
homogenea asociada a (2.45), y denotamos por u(x) a una soluci
on cualquiera de dicha
ecuaci
on, entonces la formula de AbelLiouville proporciona la identidad
Rx
x a1 (t) dt

0
(x)u (x) u = k e
siendo k = W [, u](x0 ). Integrando esta ecuaci
on diferencial de primer orden para u
obtenemos facilmente
Rt
Z x
1
x a1 (s) ds
0
e
dt .
u(x) = c (x) + k (x)
2
x0 (t)

Esta es la soluci
on general de la ecuaci
on homogenea asociada a (2.45). En particular,
n
otese que (x) y
Rt
Z x
1
x a1 (s) ds
0
e
dt
(x) = (x)
(2.49)
2
x0 (t)
forman un sistema fundamental de soluciones de dicha ecuaci
on, ya que (por construccion) W [, ](x0 ) = 1 6= 0.
En el caso de una ecuaci
on homogenea (2.39) de orden n > 2, el conocimiento de una
soluci
on particular (x) permite reducir la ecuaci
on a otra ecuaci
on lineal homogenea
de orden n 1 mediante el cambio de variable dependiente


u
.
z=
(x)
En este caso, tambien se puede probar que si se conocen n 1 soluciones linealmente
independientes de la ecuaci
on entonces se puede hallar la soluci
on general de la misma.

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

2.6

52

Ecuaciones lineales con coeficientes constantes

Veremos en esta secci


on c
omo hallar la soluci
on general de la ecuaci
on lineal (2.35)
cuando los coeficientes ai (0 i n 1) son constantes. Para ello, consideremos en
primer lugar la ecuaci
on homogenea
u(n) + an1 u(n1) + + a1 u + a0 u = 0 ,
donde a0 , . . . , an1 son n constantes
matriz constante

0
0

..
A=
.

0
a0

(2.50)

reales. La matriz compa


nera de esta ecuaci
on es la

1
0
...
0
0
1
...
0

..
..
..
..
.
(2.51)
.
.
.
.

..
.
1
0
0
a1 a2 . . . an1

El polinomio caracterstico de la matriz A se calcula facilmente desarrollando el determinante de A por la u


ltima fila, obteniendose
pA () = (1)n (n + an1 n1 + + a1 + a0 ) = 0 .

(2.52)

Por definicion, al polinomio


p() = n + an1 n1 + + a1 + a0

(2.53)

se le llama polinomio caracterstico de la ecuaci


on (2.50). Los autovalores de la
matriz A son por tanto las races del polinomio caracterstico p(). Sean 1 , . . . , m
dichos autovalores (tomados distintos dos a dos), y sea ri la multiplicidad algebraica del
autovalor i , es decir
p() = ( 1 )r1 ( m )rm ,

r1 + + rm = n .

Es facil ver que el ndice ni del autovalor i de la matriz A es igual en este caso a su
multiplicidad algebraica ri . En efecto, n
otese que la igualdad ni = ri es equivalente a
que el bloque de Jordan del autovalor i conste de un s
olo bloque de Jordan elemental

1 i

Ji =
Mri (C).
.
.
.
.

.
.
1 i

A su vez, esta u
ltima condici
on equivale a que dim ker(A i ) = 1. Pero esto es evidente dada la forma de la matriz A, puesto que la ecuaci
on (A i )v = 0 determina
completamente las componentes v2 , . . . , vn de v en terminos de v1 . En efecto,

ker(A i ) = R 1, i , . . . , in1 .
(2.54)

Por tanto, el sistema lineal y = A y asociado a la ecuaci


on (2.50) tiene un sistema
fundamental de soluciones (complejas, en general) de la forma
ei x

k
X
j=0

xj vri i k+j ,

0 k ri 1 ,

1 i m,

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

53

donde los n vectores constantes (en general complejos) vli (1 l ri , 1 i m) forman


una base de Jordan de la matriz A, siendo adem
as vri i un autovector de A de autovalor
i . Tomando la primera componente de cada una de las funciones anteriores obtenemos
un sistema fundamental de soluciones de la ecuaci
on (2.50) de la forma
ei x

k
X
j=0

xj ciri k+j ,

0 k ri1 ,

1 i m.

(2.55)

donde la constante cil es la primera componente del vector vli . Notese que ninguna de
las constantes ciri puede anularse, en virtud de (2.54). Utilizando esta propiedad es facil
demostrar por induccion a partir de (2.55) que las n funciones
xk ei x ,

0 k ri1 ,

1im ,

(2.56)

forman un sistema de generadores del espacio de soluciones de (2.50). Al ser la dimension


de dicho espacio tambien igual a n, las funciones (2.56) forman un sistema fundamental
de soluciones de la ecuaci
on homogenea (2.50).
Si i R, las ri soluciones de la forma anterior correspondientes a este autovalor
son reales. Si i = ai + i bi con bi 6= 0, podemos sustituir las 2ri soluciones complejas
i por la parte real y la parte imaginaria de las soluciones
asociadas a los autovalores i y
correspondientes al autovalor i , obteniendose as las soluciones
xk eai x cos(bi x) ,

xk eai x sen(bi x) ,

0 k ri 1 .

(2.57)

En resumen, hemos probado el siguiente resultado:


La ecuaci
on (2.50) tiene un sistema fundamental de soluciones reales formado por
funciones de la forma (2.56) si i es una raz real de multiplicidad ri del polinomio
caracterstico (2.53), o de la forma (2.57) si ai + i bi (con bi > 0) es una raz compleja
del polinomio caracterstico, tambien de multiplicidad ri .
Este resultado se puede probar directamente observando que la ecuaci
on (2.50) se puede
escribir en la forma
p(D) u = 0 ,
siendo D el operador derivada:
D=
De la igualdad
se sigue que

d
.
dx


(D ) f (x) e x = f (x) e x

(D )k f (x) e x = f (k) (x) e x .

Si i es una raz de p de multiplicidad ri entonces

p() = q() ( i )ri ,


siendo q() un polinomio de grado nri con q(i ) 6= 0. Entonces p(D) = q(D)(D i )ri ,
y por tanto


ri
k
k i x
i x d
x = 0,
0 k ri 1 ,
p(D)(x e ) = q(D) e
dxri

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

54

lo que prueba que las funciones (2.56) son soluciones de la ecuaci


on (2.50). La independencia lineal de las soluciones (2.56)(2.57) tambien se puede probar directamente de
forma sencilla.
Ejemplo 2.17. Hallemos la soluci
on general de la ecuaci
on de tercer orden con coeficientes constantes
u(IV ) + u + u + u = 0 .
(2.58)
El polinomio caracterstico asociado a esta ecuaci
on es
p() = 4 + 3 + + 1 = ( + 1)2 (2 + 1) .
Los autovalores son por tanto 1 = 1 (de multiplicidad r1 = 2) y las races de la
ecuaci
on
2 + 1 = 0 ,
es decir


1
1i 3 ,
2
de multiplicidad r2 = r3 = 1. La soluci
on general de la ecuaci
on (2.58) es por tanto
2,3 =

h
x
u(x) = ex (c1 + c2 x) + e 2 c3 cos

3
2

con c1 , . . . , c4 constantes arbitrarias.

2.6.1


x + c4 sen

3
2

i

(2.59)

Soluci
on de la ecuaci
on inhomog
enea

Consideremos a continuaci
on la ecuaci
on inhomogenea con coeficientes constantes
u(n) + an1 u(n1) + + a1 u + a0 u = b(x) .

(2.60)

Por supuesto, una vez hallada la soluci


on general de la ecuaci
on homogenea (2.50) por el
procedimiento que acabamos de explicar, la soluci
on general de la ecuaci
on homogenea
(2.60) se puede calcular cualquiera que sea el termino inhomogeneo b(x) utilizando
la formula (2.44). Sin embargo, para ciertas formas sencillas, pero que se presentan
frecuentemente en la pr
actica, del miembro derecho de la ecuaci
on (2.60), el metodo de
los coeficientes indeterminados que describiremos a continuaci
on permite calcular una
soluci
on particular de (2.60) de manera m
as sencilla. La soluci
on general de (2.60) se
halla entonces sumando a esta soluci
on particular la soluci
on general de la ecuaci
on
homogenea.
Supongamos, en primer lugar, que
b(x) = q(x) e x ,

(2.61)

donde q(x) es un polinomio. Si r es la multiplicidad de como raz del polinomio


caracterstico (2.53) de la ecuaci
on homogenea (2.50) (r = 0 si p() 6= 0), entonces
p() = p0 ( )r + p1 ( )r+1 + + ( )n ,
con pi R (o C, si es complejo) para i = 0 , . . . , n r 1 y p0 6= 0. Por tanto
i
 h
p(D) q(x) e x = p0 q(r) (x) + p1 q(r+1) (x) + + q(n) (x) e x .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

55

Luego en este caso la ecuaci


on (2.60)(2.61) tiene una soluci
on particular de la forma
up (x) = xr Q(x) e x ,

(2.62)

con
Q(x) = Q0 + Q1 x + + Qd xd ,

d = gr q

(2.63)

un polinomio de grado igual al grado de q cuyos coeficientes se calculan igualando los


coeficientes de las potencias de x en la ecuaci
on
p0 (xr Q)(r) + p1 (xr Q)(r+1) + + (xr Q)(n) = q .
En efecto, la ecuaci
on anterior proporciona un sistema lineal de d + 1 ecuaciones en los
d + 1 coeficientes de Q, que puede demostrarse siempre es compatible. En la pr
actica no
es preciso recordar la ecuaci
on anterior, ya que el polinomio Q se calcula simplemente
sustituyendo (2.62) en la ecuaci
on (2.60).
Ejemplo 2.18. Hallemos una soluci
on particular de la ecuaci
on
u(IV ) + u + u + u = x ex .

(2.64)

Aqu = 1 es un autovalor del polinomio caracterstico de la ecuaci


on homogenea
de multiplicidad 2, y q(x) = x es un polinomio de grado 1. Buscamos por tanto una
soluci
on particular de la forma
up (x) = x2 (a + b x) ex .
Para calcular p(D) up es conveniente desarrollar p(D) en potencias de D + 1, ya que
(D + 1)k f (x) ex = f (k)(x) ex . Utilizando la formula de Taylor se obtiene


p() = ( + 1)2 3 3( + 1) + ( + 1)2 .

Por tanto



p(D) up = 3(2a + 6bx) 3 6b ex = x ex 3(2a + 6bx) 18b = x ,

lo que conduce a las ecuaciones

6a 18b = 0 ,

18b = 1 .

La soluci
on particular buscada es por tanto
up (x) =

1 3
(x + 3 x2 ) ex .
18

(2.65)

La soluci
on general de la ecuaci
on (2.64) es la suma de esta soluci
on particular y la
soluci
on (2.59) de la ecuaci
on homogenea.
Ejemplo 2.19. Hallemos ahora una soluci
on particular de la ecuaci
on
u(IV ) + u + u + u = x + cos2 x .

(2.66)

Aparentemente, no se puede aplicar el metodo de los coeficientes indeterminados a esta


ecuaci
on. Sin embargo, podemos escribir el miembro derecho de la misma como
x+


1
1 + cos(2x) .
2

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

56

Por linealidad, una soluci


on particular de (2.66) es la suma de una soluci
on particular
de cada una de las ecuaciones
1
(2.67)
u(IV ) + u + u + u = x + .
2
y
1
u(IV ) + u + u + u = cos(2x) .
(2.68)
2
El miembro derecho de la ecuaci
on (2.67) es de la forma (2.61), con = 0, r = 0 (ya
que 0 no es raz del polinomio caracterstico de (2.58)) y q(x) = x + 12 . Debemos buscar
por tanto una soluci
on particular de la forma
u1 (x) = a + b x ,
lo que conduce a la ecuaci
on
1
1
a = ,
2
2
Por tanto, la primera soluci
on particular es
b + (a + bx) = x +

b = 1.

1
.
2
Para encontrar una soluci
on particular de (2.68), observese que si u(x) es una soluci
on
de
1
(2.69)
u(IV ) + u + u + u = e2ix .
2
entonces u2 = Re u es una soluci
on de (2.68). El miembro derecho de (2.69) es de nuevo
on posee por tanto una
de la forma (2.61), con = 2 i, r = 0 y q(x) = 21 . Esta ecuaci
soluci
on particular de la forma
u(x) = c e2ix .
u1 (x) = x

Sustituyendo en la ecuaci
on se obtiene
(16 8i + 2i + 1)c =
de donde
c=
Por tanto

1
,
2

1
17 + 6i
=
.
2(17 6i)
650
u(x) =

17 + 6i 2ix
e
650


1 
17 cos(2x) 6 sen(2x) .
650
Una soluci
on particular de la ecuaci
on (2.66)es por tanto
u2 (x) = Re u(x) =

up (x) = u1 (x) + u2 (x) = x


1 
1
+
17 cos(2x) 6 sen(2x) .
2 650

Esta claro, en definitiva, que aplicando el metodo de los coeficientes indeterminados


se puede hallar de manera sencilla una soluci
on particular de (2.60) si b(x) es de la forma
b(x) =

N
X

i=1


qi (x) ei x + ri (x) eai x cos(bi x) + si (x) eci x sen(di x) ,

siendo i , ai , bi , ci , di constantes reales y qi , ri , si polinomios.

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

2.7

57

Estabilidad de sistemas y ecuaciones lineales

Consideraremos en esta secci


on el problema de valor inicial para un sistema de ecuaciones
diferenciales de primer orden (no necesariamente lineal)
y = f (x, y)

(2.70)

y(x0 ) =

Supongamos que para = y0 el problema (2.70) tiene una soluci


on u
nica Y (x; y0 ) en la
semirrecta [x0 , ). Diremos que dicha soluci
on es estable si:
i) Existe un R > 0 tal que si k y0 k < R el problema (2.70) tiene una soluci
on
u
nica Y (x; ) en el intervalo [x0 , )
ii) Para todo > 0 existe 0 < < R tal que
k y0 k <

kY (x; ) Y (x; y0 )k < , x x0 .

y0 +

(2.71)

Y (x; y0 )

y0

y0

x0

Figura 2.1: Estabilidad de la soluci


on Y (x; y0 ).
La soluci
on Y (x; y0 ) se dice asint
oticamente estable si es estable, y adem
as existe
0 < r < R tal que
k y0 k < r

lim kY (x; ) Y (x; y0 )k = 0 .

(2.72)

Nota. En general, la condici


on (2.72) por si s
ola no basta para garantizar la estabilidad
asintotica de la soluci
on Y (x; y0 ), ya que (2.72) no implica en general (2.71) (excepto
si f es una funci
on afn de y, o si y R y f es continua y lipschitziana respecto de la
segunda variable).
Aunque la definicion de estabilidad es valida para un sistema de ecuaciones diferenciales de primer orden arbitrario, las propiedades de estabilidad de las soluciones de los
sistemas lineales son particularmente sencillas, y por ello merecen un estudio especial.
La propiedad fundamental de los sistemas lineales es que todas sus soluciones tienen
el mismo tipo de estabilidad:

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

58

y0 +

Y (x; y0 )

y0
y0

x0

Figura 2.2: Estabilidad asintotica ( r).


Proposici
on 2.20. Una soluci
on cualquiera del sistema lineal
y = A(x) y + b(x)

(2.73)

(con A : I Mn (R), b : I Rn continuas en el intervalo I = [x0 , )) es estable


(resp. asint
oticamente estable) si y s
olo si la soluci
on trivial y(x) = 0 del sistema
homogeneo asociado es estable (resp. asint
oticamente estable).
Demostraci
on. En primer lugar, la continuidad de A y b en el intervalo [x0 , ) garantiza
la existencia y unicidad de soluciones del problema de valor inicial asociado al sistema
(2.73) para todo dato inicial y(x0 ) = . Sea Y (x; ) la soluci
on de (2.73) con dato inicial
Y (x0 ; ) = , y denotemos por Y0 (x; ) la soluci
on del problema de valor inicial para
el sistema homogeneo correspondiente a (2.73) con la condici
on inicial Y0 (x0 ; ) = .
Entonces Y (x; ) Y (x; y0 ) es una soluci
on del sistema homogeneo asociado a (2.73)
con dato inicial
Y (x0 ; ) Y (x0 ; y0 ) = y0 .
Por unicidad,
Y (x; ) Y (x; y0 ) = Y0 (x; y0 ) ,
de donde se sigue el enunciado.

Q.E.D.

Debido a este resultado, diremos que un sistema lineal es estable (resp. asintoticamente estable) si todas sus soluciones son estables (resp. asint
oticamente estables)
o, equivalentemente, si la soluci
on trivial del sistema homogeneo asociado es estable
(resp. asint
oticamente estable). Notese, en particular, que un sistema lineal tiene el mismo tipo de estabilidad que el sistema homogeneo asociado.
Proposici
on 2.21. El sistema lineal homogeneo
y = A(x) y

(2.74)

es estable si y s
olo si todas sus soluciones son acotadas en [x0 , ).
Demostraci
on.
=) Si el sistema es estable, la soluci
on trivial es estable, y por tanto existe > 0
tal que (por ejemplo)
kY0 (x; )k < 1 ,

x x0 ,

kk < .

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

Entonces para todo x x0 se tiene





y0 1 + ky0 k 
= 1 + ky0 k

kY0 (x; y0 )k = Y0 x;

1 + ky0 k

59



1 + ky0 k

<
Y0 x; y0
.

1 + ky0 k

=) Si todas las soluciones son acotadas para todo x x0 se tiene


kY0 (x; ei )k < Mi ,

1 i n.

Pero entonces se tiene



n
n
n
X
X

X


Mi kk .
|i | Mi
i Y0 (x; ei )
kY0 (x; )k =


i=1

i=1

i=1

Esto implica facilmente que la soluci


on trivial del sistema, y por tanto dicho sistema, es
estable.
Q.E.D.
Nota. Si el sistema homogeneo (2.74) es estable y sus coeficientes son continuos en R,
de modo que las soluciones de dicho sistema est
an definidas en todo R, dichas soluciones
no tienen por que estar acotadas en el intervalo (, x0 ].
Ejercicio. Probar que un sistema lineal con coeficientes continuos es asintoticamente
estable si y s
olo si toda soluci
on y(x) del sistema homogeneo asociado tiende a 0 cuando
x .

La Proposici
on 2.21 no es cierta para sistemas m
as generales, ni siquiera para sistemas lineales inhomogeneos (2.73). Las propiedades de estabilidad del sistema lineal
inhomogeneo (2.73) se pueden resumir en los siguientes enunciados:

i) La estabilidad de (2.73) no implica la acotacion de sus soluciones. Sin embargo, si


(2.73) es estable entonces o bien todas sus soluciones son acotadas, o bien todas
ellas son no acotadas.
ii) Si todas las soluciones de (2.73) son acotadas, entonces el sistema es estable.
Estos resultados se prueban facilmente teniendo en cuenta que cualquier soluci
on de
(2.73) es la suma de una soluci
on particular m
as una soluci
on arbitraria del sistema
homogeneo asociado (2.74).
Estudiemos a continuaci
on la estabilidad de un sistema lineal con matriz de coeficientes constante
y = A y + b(x) .
(2.75)
La estabilidad de este sistema depende, por la Proposici
on 2.20, de la estabilidad de la
soluci
on trivial del sistema homogeneo con coeficientes constantes
y = A y .

(2.76)

Por el Teorema 2.8, la soluci


on general de (2.76) se puede escribir
y(x) =

m nX
i 1
X

vik xk ei x ,

(2.77)

i=1 k=0

donde 1 , . . . , m C son los autovalores de la matriz A, ni es el ndice del autovalor


i , y vik Cn . Los vectores vik con 0 k ni 1 son reales si el autovalor i es real, y

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

60

j es un par de autovalores complejos


vik = vjk para k = 0 , . . . , ni 1 = nj 1 si i =
conjugados. Aplicando la desigualdad triangular se obtiene
ky(x)k

m nX
i 1
X
i=1 k=0

kvik k |x|k e(Re i )x .

(2.78)

En esta formula k k denota la norma en Cn , definida por


kzk =

n
X
i=1

|zi |2

1/2

donde z = (z1 , . . . , zn ) Cn y |zi | es el m


odulo de zi . De (2.78) se sigue que si
Re i < 0 ,

i = 1, . . . , m ,

entonces todas las soluciones de (2.76) son acotadas para x x0 , y adem


as se tiene
lim ky(x)k = 0 .

Esto implica que la soluci


on trivial de (2.76), y por tanto el sistema (2.75), es asint
oticamente estable.
Supongamos a continuaci
on que
Re i > 0 ,

para alg
un i = 1, . . . , m .

Entonces (2.76) tiene una soluci


on de la forma
y(x) = v ei x ,
o

si i R ,


y(x) = e(Re i )x v cos(Im i x) + w sen(Im i x) ,

si Im i 6= 0

(con v, w Rn , v 2 + w2 6= 0). Como y(x) no est


a acotada en [x0 , ) (al ser Re i > 0),
el sistema homogeneo (2.76), y por tanto tambien (2.75), es inestable.
Supongamos ahora que
Re i = 0 para i = 1, . . . , j

Re i < 0 para i = j + 1, . . . , m .

Si
ni = 1 ,

i = 1, . . . , j ,

entonces (2.78) se reduce a


ky(x)k

j
X
i=1

kvi0 k +

m nX
i 1
X

i=j+1 k=0

kvik k |x|k e(Re i )x .

(2.79)

Esto muestra que toda soluci


on de (2.76) est
a acotada, y por tanto el sistema (2.75) es
estable. Sin embargo, (2.75) no es asintoticamente estable, ya que si i = 1, . . . , j posee
soluciones de la forma
v cos(Im i x) + w sen(Im i x)

(v, w Rn , v 2 + w2 6= 0)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

61

(esta soluci
on se reduce a una constante si Im i = 0), que no tienden a 0 si x .
Por el contrario, si
ni > 1
para alg
un i = 1, . . . , j
entonces el sistema (2.75) es inestable. En efecto, en este caso el sistema homogeneo
(2.76) posee alguna soluci
on no acotada de la forma
nX
i 1
k=0


xk 
uik cos(Im i x) + wik sen(Im i x)
k!

2
(uik , wik Rn , u2ik + wik
6= 0)

2 6= 0 porque
(i {1, . . . , j}), en virtud de la ecuaci
on (2.25). (Notese que u2ik + wik
wik + i uik pertenece a la base de Jordan de A.)
Esto prueba por tanto el siguiente resultado:

i) Si todos los autovalores de la matriz A tienen parte real negativa, el sistema


(2.75) es asint
oticamente estable
ii) Si alg
un autovalor de A tiene parte real positiva, el sistema (2.75) es inestable
iii) Si todos los autovalores de A tienen parte real no positiva, el sistema (2.75) es
estable (pero no asint
oticamente estable) si los ndices de todos los autovalores
con parte real nula son iguales a uno, e inestable en caso contrario.
Nota. Observese que la condici
on ni = 1 es equivalente a que la multiplicidad algebraica
del autovalor i sea igual a su multiplicidad geometrica (es decir, a que Ji = i 1).
Se define la estabilidad de las soluciones de una ecuaci
on escalar de orden n en
terminos de las correspondientes soluciones del sistema de primer orden asociado. En
particular, para la ecuaci
on lineal
u(n) + an1 (x) u(n1) + + a1 (x) u + a0 (x) u = b(x)
(con ai , b : I R continuas en I = [x0 , )) una soluci
on es estable (resp. asintoticamente estable) si y s
olo si lo es la soluci
on trivial del sistema homogeneo correspondiente.
Podemos hablar por tanto de ecuaciones lineales estables, asintoticamente estables, o
inestables. Si todos los coeficientes ai (0 i n 1) son constantes, el resultado que
acabamos de probar para un sistema lineal de primer orden con matriz de coeficientes
constante implica que en este caso la ecuaci
on es asint
oticamente estable si todas las
races del polinomio caracterstico tienen parte real negativa, estable (pero no asintoticamente estable) si todas las races tienen parte real no positiva, y los que tienen parte
real cero son simples, e inestable en cualquier otro caso (en particular, si alguna raz
tiene parte real positiva). En efecto, hemos visto en la Secci
on 2.6 que el ndice de los
autovalores del sistema lineal de primer orden asociado a una ecuaci
on lineal homogenea
con coeficientes constantes de orden n es igual a la multiplicidad de dichos autovalores
como races del polinomio caracterstico.
Ejemplo 2.22. Estudiemos la estabilidad del sistema
y1 = y2
y2 = y1

y3 = y4

y4 = 2y1 + y3 .

(2.80)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

La matriz de coeficientes es en este caso

0
1
A=
0
2

El polinomio caracterstico es

1

1
pA () =
0
0
2
0
por tanto los autovalores son

1
0
0
0

62

0 0
0 0
.
0 1
1 0


0
0


0
0 1 1
=
= (2 + 1)2 ,
1 1 1
1
1 = i ,

2 = i ,

ambos de multiplicidad algebraica 2. El sistema no puede ser asintoticamente estable (ning


un autovalor tiene parte real negativa), y ser
a estable s
olo si la multiplicidad
geometrica de cada uno de los autovalores es 2, es decir si
dim ker(A i) = 2 ,
o, equivalentemente, si y s
olo si
rank(A i) = 4 2 = 2 ,
Como (por ejemplo)

i 1 0
0
i 1 0
0
i 1 0
0
1 i 0

0 0
0
0
0
Ai=

0 2i 1 i ,
0
0 i 1 0
0 i 1
0
0 i 1
2
0
1 i
0 2i 1 i
la matriz A i tiene rango 3, y por tanto el sistema (2.80) es inestable.

2.7.1

Criterio de RouthHurwitz

El criterio de estabilidad de un sistema o ecuaci


on lineal con coeficientes constantes que
acabamos de deducir requiere conocer las races del polinomio caracterstico del sistema o ecuaci
on considerado. Aunque el calculo aproximado de estas races no presenta
ning
un problema, el c
alculo exacto es difcil para polinomios de grado 3 y 4, y en general
imposible para polinomios de grado superior. Sera por tanto deseable disponer de alg
un
criterio de estabilidad formulado exclusivamente en terminos de los coeficientes del sistema o ecuaci
on, particularmente cuando dichos coeficientes dependen de par
ametros.
El caso m
as interesante en la pr
actica, y por tanto el m
as estudiado, es el de estabilidad asint
otica. Diremos por tanto que un polinomio es estable si todas sus races
tienen parte real negativa. En lo que queda de secci
on s
olo consideraremos polinomios
m
onicos, lo que no supone ninguna perdida de generalidad y simplifica los criterios que
formularemos a continuaci
on.

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

63

Es facil deducir una condici


on necesaria para que un polinomio sea estable. En efecto,
si las races (no necesariamente distintas) son 1 , . . . , r y 1 i 1 , . . . , s i s
con i > 0, i > 0, i R y r + s = n, entonces el polinomio se puede escribir
p(t) = (t + 1 ) (t + r )[(t + 1 )2 + 12 ] [(t + s )2 + s2 ]

= (t + 1 ) (t + r )(t2 + 21 t + 21 + 12 ) (t2 + 2s t + 2s + s2 ) .

(2.81)

Es evidente de esta formula que todos los coeficientes de p son estrictamente positivos.
Por tanto, una condici
on necesaria para que el polinomio
p(t) = tn + an1 tn1 + + a1 t + a0

(2.82)

sea estable es que


ai > 0 ,

i = 0, 1, . . . , n 1 .

Esta condici
on no es, en general, suficiente (excepto para polinomios de grado 2). El criterio que formularemos a continuaci
on proporciona una condici
on necesaria y suficiente
para la estabilidad del polinomio (2.82):
Criterio de RouthHurwitz. Una condici
on necesaria y suficiente para que el polinomio (2.82) sea estable es que todos los menores principales del siguiente determinante
sean positivos:


an1
1
0
0
. . . 0 0

an3 an2 an1
1
. . . 0 0

an5 an4 an3 an2 . . . 0 0


(2.83)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


0
0
0
0
. . . a1 a2

0
0
0
0
. . . 0 a0
Adem
as, si alguno de dichos menores es negativo el polinomio (2.82) tiene alguna raz
con parte real positiva.

El criterio de RouthHurwitz proporciona condiciones necesarias y suficientes de


estabilidad muy sencillas para valores peque
nos de n. Por ejemplo, para n = 2 dichas
condiciones se reducen a


a1 1


a1 > 0 ,
0 a0 = a0 a1 > 0 ,
es decir

a0 > 0 ,

a1 > 0 .

Para n = 3 el determinante (2.83) es




a2 1 0


a0 a1 a2 ,


0 0 a0

y por tanto el criterio de RouthHurwitz proporciona las condiciones


a2 > 0 ,

a1 a2 a0 > 0 ,

a0 (a1 a2 a0 ) > 0 ,

o bien
a0 > 0 ,

a2 > 0 ,

a1 a2 a0 > 0 .

(2.84)

CAPITULO 2. ECUACIONES Y SISTEMAS LINEALES

Es claro que estas condiciones implican que a1


considerar el determinante

a3 1 0

a1 a2 a3

0 a0 a1

0 0 0

64

> 0. Finalmente, para n = 4 hay que



0
1
,
a2
a0

y las condiciones de RouthHurwitz son por tanto


a3 > 0 ,

a2 a3 a1 > 0 ,

H a1 (a2 a3 a1 ) a0 a23 > 0 ,

a0 H > 0

o bien
a0 > 0 ,

a3 > 0 ,

a2 a3 a1 > 0 ,

a1 a2 a3 a21 a0 a23 > 0 .

De nuevo, es facil ver que estas condiciones implican que a1 , a2 > 0.


Ejemplo 2.23. Consideremos el sistema lineal
x = 2x + y
y = z

(2.85)

z = a x 5z ,

donde (x, y, z) son las variables dependientes, a R es un par


ametro, y denotaremos
por t a la variable independiente. El polinomio caracterstico del sistema es


2 1

0


0

1 = 3 72 10 a .

a
0 5

Para determinar la estabilidad del sistema (2.85), debemos por tanto estudiar el polinomio
p() = 3 + 72 + 10 + a .
(2.86)
Una condici
on necesaria para que haya estabilidad asintotica es por tanto que el par
ametro a sea positivo. Las condiciones de RouthHurwitz (2.84), necesarias y suficientes para
la estabilidad asint
otica del sistema, son en este caso
0 < a < 70 .

(2.87)

La regi
on de estabilidad (asint
otica) en el espacio de par
ametros (la recta real) es por
tanto el intervalo (0, 70). Del criterio de RouthHurwitz tambien se sigue que si a < 0
o a > 70 el sistema es inestable. Si a = 0 el polinomio (2.86) tiene una raz simple
igual a 0 y 2 races reales negativas, y por tanto el sistema (2.85) es estable (pero
no asint
oticamente estable). Si a = 70, ha de haber alguna raz de p con parte real
nula. En efecto, si no fuera este el caso habra alguna raz con parte real positiva, ya
que el sistema no puede ser asint
oticamente estable para a = 70 por no cumplirse las
condiciones necesarias y suficientes de estabilidad asint
otica (2.87). Dicha raz tendra
entonces parte real negativa para a < 70 y positiva para a = 70, por lo que sera una
funcion discontinua de a para a = 70, lo cual es imposible. En efecto, se demuestra que
las races de un polinomio son funciones continuas de los coeficientes de dicho polinomio
para todos los valores de dichos coeficientes para los cuales las races son simples (teorema
de la funci
on implcita). (Notese que para a = 70 las races de p son todas simples, ya

que p y p no tienen races comunes para dicho valor de a.) Como 0 no es raz de p para
a = 70, en este caso p tiene dos races complejas conjugadas i y una raz real < 0
( no puede ser positiva por el razonamiento anterior). Por tanto, para a = 70 el sistema
(2.85) es estable (pero no asint
oticamente estable).

Captulo 3

Soluciones en forma de serie


3.1

Puntos regulares

Nos dedicaremos en este captulo al estudio de la ecuaci


on lineal homogenea de segundo
orden
u + a1 (x) u + a0 (x) u = 0 ,
(3.1)
aunque los metodos que vamos a introducir a continuaci
on se generalizan sin dificultad
a ecuaciones lineales homogeneas de orden n > 2. En general, salvo en casos muy
particulares (por ejemplo, si los coeficientes ai son constantes), es imposible resolver
exactamente la ecuaci
on (3.1), es decir expresar su soluci
on general en terminos de sus
coeficientes y las primitivas de dichos coeficientes.
Ejemplo 3.1. La ecuaci
on de Schr
odinger (independiente del tiempo) para una partcula cu
antica unidimensional de masa m sometida a un potencial V (s) en un estado estacionario de energa E es


~2
(s) + V (s) E (s) = 0 ,
2m

(3.2)

siendo ~ 1,055 1034 J s la constante de Planck reducida y (s) la amplitud de la


densidad de probabilidad (en general compleja) de la partcula. En otras palabras, la
Rb
probabilidad de encontrar la partcula en el intervalo [a, b] es a |(s)|2 ds. La ecuaci
on
anterior es una ecuaci
on lineal homogenea de segundo orden, que se puede escribir en la
forma reducida

(s) + U (s) (s) = 0 ,
(3.3)
siendo

2mE
2m
,
U (s) = 2 V (s) .
(3.4)
2
~
~
Supongamos, en primer lugar, que la partcula se mueve en un campo de fuerzas constante F > 0. Entonces V (s) = F s, y por tanto
=

U (s) = U0 s ,

U0 =

2mF
> 0.
~2

Efectuando el cambio de variable


2/3

x = U0

( + U0 s) ,
65

u(x) = (s)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

66

(el signo menos se debe a razones hist


oricas) se obtiene la ecuaci
on de Airy
u x u = 0 .

(3.5)

Esta ecuaci
on no se puede resolver en terminos de funciones elementales. De hecho, su
soluci
on general se expresa en terminos de funciones de Airy (que a su vez se pueden
escribir en terminos de funciones de Bessel).
Consideremos ahora el oscilador arm
onico cu
antico, para el cual el potencial es
1
V (s) = m 2 s2 .
2
La ecuaci
on de Schr
odinger reducida es por tanto

 m 2 

+
s2 = 0 .
~
Efectuando el cambio
x=

m
s,
~

u(x) = (s)

se obtiene la ecuaci
on de Weber
u + ( x2 )u = 0 ,

(3.6)

siendo

~
2E
=
.
m
~
De nuevo, para valores arbitrarios de la soluci
on general de la ecuaci
on anterior no es
expresable en terminos de funciones elementales, sino a traves de funciones cilndricas
parabolicas. Sin embargo, si = 2m + 1 con m = 0, 1, 2, . . . entonces la ecuaci
on (3.6)
tiene una soluci
on particular de la forma
=

u(x) = e

x2
2

Pm (x) ,

siendo Pm un polinomio de grado m llamado el m-esimo polinomio de Hermite. Observese


que si = 2m + 1 entonces


1
~
E = m+
2
es la energa del (m + 1)-esimo estado ligado (de energa bien definida) del oscilador.

3.1.1

Funciones analticas

Recuerdese que una funci


on f : R R se dice analtica en el punto x0 R si f es la
suma de una serie de potencias convergente en la variable x x0 , es decir si
f (x) =

X
i=0

ci (x x0 )i ,

(3.7)

siendo el radio de convergencia R de la serie anterior positivo. En lo que sigue utilizaremos las siguientes propiedades bien conocidas de las series de potencias:

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

67

La serie de potencias (3.7) converge absolutamente en su intervalo de convergencia


(x0 R, x0 + R), siendo la convergencia uniforme en cada subintervalo cerrado
contenido en el intervalo de convergencia.
Una serie de potencias es infinitas veces derivable en su intervalo de convergencia,
y sus derivadas se pueden calcular derivando termino a termino la serie. De esta
propiedad se deduce facilmente la f
ormula de Taylor para los coeficientes de la
serie:
f (k)(x0 )
,
k = 0, 1, 2, . . . .
(3.8)
ck =
k!
De la propiedad anterior se sigue inmediatamente que una funcion f : R R es
analtica en x0 si es C en un entorno de x0 , y la serie de Taylor de f converge a
f en un entorno de dicho punto.
Si f, g : R R son analticas en x0 , las funciones f + g (con , R) y f g
son analticas en x0 . Si, adem
as, g(x0 ) 6= 0, el cociente f /g es analtico en x0 .
Ejemplo 3.2. La funci
on f (x) = x (con R) s
olo es analtica en x = 0 si
N {0}. En efecto, para cualquier otro valor de las derivadas de la funcion de orden
mayor que son singulares en el origen. De hecho, f no est
a ni siquiera bien definida
para x < 0 a menos que no sea un racional p/q con p, q Z primos entre s y q impar.
La funci
on g(x) = |x| est
a definida en toda la recta real para 0, pero no es C (y
por tanto tampoco analtica) en x = 0 si no es un entero no negativo par.
Ejemplo 3.3. Existen funciones C que no son analticas. Por ejemplo, la funcion
f : R R dada por
(
2
e1/x , x 6= 0
f (x) =
0,
x=0
es C en R, pero no es analtica en el origen (todas sus derivadas en el origen se anulan).
Definici
on 3.4. Diremos que x0 R es un punto regular de la ecuaci
on (3.1) si los
coeficientes a0 (x) y a1 (x) son funciones analticas en el punto x0 .
En otras palabras, tanto a0 como a1 admiten desarrollos en serie de potencias de x x0
ak (x) =

X
i=0

ak,i (x x0 )i ,

k = 0, 1 ,

con radios de convergencia positivos R0 y R1 , respectivamente. Tomando, por tanto,


R = min(R0 , R1 ) > 0 ambas series convergen simult
aneamente para |x x0 | < R.
Ejemplo 3.5. Si los coeficientes de la ecuaci
on (3.1) son polinomios en la variable
independiente todo punto es regular para dicha ecuaci
on. Esto es lo que ocurre, por
ejemplo, para las ecuaciones de Airy y de Hermite.
Ejemplo 3.6. Estudiemos cu
ales son los puntos regulares de la ecuaci
on lineal homogenea de segundo orden
(ex 1)u + x2 u + sen xu = 0 .

(3.9)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

68

Para ello, debemos primero escribir la ecuaci


on en la forma (3.1), es decir
u +

sen x
x2
u + x
u = 0.
1
e 1

ex

Los coeficientes de la ecuaci


on son por tanto
a0 (x) =

sen x
,
ex 1

a1 (x) =

x2
.
ex 1

En primer lugar, ambas funciones son C en R {0}, ya que si x R ex 1 s


olo se
anula en x = 0. Como el numerador y el denominador que definen a a0 y a1 son funciones
analticas en todo punto, y el cociente de funciones analticas es una funcion analtica
en los puntos donde no se anula el denominador, concluimos que a0 y a1 son analticas
en cualquier punto x0 6= 0. Por tanto x0 6= 0 es un punto regular de la ecuaci
on (3.9).
En cuanto al punto x = 0, aunque el denominador ex 1 se anula en este punto,
ocurre lo mismo con los numeradores sen x y x2 . De hecho, definiendo (como es habitual)
cos x
= 1,
x0 ex

a0 (0) = lim a0 (x) = lim


x0

2x
= 0,
x0 ex

a1 (0) = lim a1 (x) = lim


x0

los coeficientes ak son funciones analticas en x = 0. En efecto,

a0 (x) =

X
x2i+1
(1)i
(2i + 1)!
i=0

X
xi
i=1

(1)i

i=0

i!

i=0

x2i
(2i + 1)!

xi
(i + 1)!

siendo tanto el numerador como el denominador funciones analticas en R (series convergentes de potencias de x con radio de convergencia infinito; aplquese, por ejemplo, el
criterio del cociente). Como la serie en el denominador no se anula (vale 1) para x = 0,
el cociente a0 (x) es analtico en x = 0. Analogamente,
a1 (x) =

x
x2
=
,

X xi
X xi
i!
(i + 1)!
i=1

i=0

es de nuevo el cociente de dos series de potencias de x convergentes en toda la recta


real, con denominador distinto de cero en el origen. Luego tambien el origen es un
punto regular de la ecuaci
on (3.9), y por tanto todos los puntos son regulares para esta
ecuaci
on.
Cual es el radio de convergencia de las series de Taylor de a0 y a1 centradas en
el punto x0 ? En principio parece difcil responder a esta pregunta, ya que no es facil
obtener la expresi
on general de los coeficientes en estos desarrollos. Sin embargo, para
calcular el radio de convergencia lo mejor es considerar a las funciones a0 y a1 en el
plano complejo, es decir
a0 (z) =

sen z
,
ez 1

a1 (z) =

z2
,
ez 1

z C,

ya que puede probarse que el radio de convergencia de una serie de potencias en R no


vara cuando se considera dicha serie en el plano complejo. Las funciones a0 y a1 (con

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

69

a0 (0) y a1 (0) definidos como antes) son analticas en todo el plano complejo excepto en
los puntos
zk = 2ki ,
k Z {0} ,
pues en estos puntos se anula el denominador en las expresiones que definen a0 y a1 ,
mientras que el numerador es distinto de cero. El radio de convergencia del desarrollo
de ai (z) en serie de potencias de z z0 (i = 0, 1, z0 C) es la distancia de z0 a la
singularidad m
as pr
oxima de la funcion ai , ya que ak no est
a acotada en un entorno de
dicha singularidad. Aplicando este resultado a un punto x0 R obtenemos facilmente
las formulas
q
R0 = R1 = 4 2 + x20 ,
ya que las singularidades m
as pr
oximas de las funciones a0 o a1 a un punto del eje real
son los puntos 2i. Por tanto en este caso R = min(R0 , R1 ) est
a dado por la formula
anterior. En particular, para x0 = 0 obtenemos R = 2.
Teorema 3.7. Si x0 es un punto regular de la ecuaci
on (3.1), toda soluci
on de dicha
ecuaci
on es una funci
on analtica en el punto x0 , siendo el radio de convergencia de
su serie de Taylor centrada en el punto x0 mayor o igual que el mnimo de los radios
de convergencia de las series de Taylor centradas en x0 para a0 y a1 .
En otras palabras, si x0 es un punto regular para la ecuaci
on (3.1) y R es el mnimo
de los radios de convergencia de las series de Taylor centradas en x0 de los coeficientes
de dicha ecuaci
on, toda soluci
on u(x) admite un desarrollo en serie de potencias
u(x) =

X
i=0

ci (x x0 )i

(3.10)

convergente para |x x0 | < R. Los coeficientes ci R (i = 0, 1, . . . ) de este desarrollo


se calculan sustituyendo la serie anterior en la ecuaci
on diferencial e igualando a cero los
coeficientes de las potencias de x en la expresi
on resultante. Notese que para calcular u
y u podemos derivar la serie (3.10) termino a termino, por las propiedades de las series
de potencias. Por ejemplo, el teorema anterior permite asegurar que las soluciones de la
ecuaci
on (3.9) son analticas en el origen con radio de convergencia 2, es decir pueden
representarse por una serie de Maclaurin
u(x) =

ci xi

i=0

convergente para |x| < 2.


Ejemplo 3.8. Consideremos la ecuaci
on con coeficientes constantes
u u = 0 .

(3.11)

Todo punto x0 R es regular para esta ecuaci


on, con radio de convergencia R = (ya
que los coeficientes son funciones constantes). Por tanto las soluciones de esta ecuaci
on
son funciones analticas en todo R. Desarrollemos, por ejemplo, alrededor de x0 = 0.
Sustituyendo la serie (3.10) (con x0 = 0) en la ecuaci
on (3.11) obtenemos

X
i=2

i(i 1)ci xi2

X
i=0

ci xi =

X
[(i + 2)(i + 1)ci+2 ci ] xi = 0 .
i=0

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

70

Igualando a cero el coeficiente de xi en esta expresi


on obtenemos la siguiente relaci
on
de recurrencia que han de satisfacer los coeficientes ci :
(i + 2)(i + 1)ci+2 = ci ,

i = 0, 1, 2, . . . .

(3.12)

La relaci
on anterior determina los coeficientes pares en terminos de c0 y los impares
en terminos de c1 , ya que relaciona ci con ci+2 (n
otese que el coeficiente de ci+2 en
(3.12) no se anula para ning
un i = 0, 1, . . . ). Los coeficientes c0 = u(0) y c1 = u (0)
quedan completamente indeterminados por la relaci
on de recurrencia (3.12), lo cual es
razonable, dado que la ecuaci
on (3.11) debe tener una soluci
on para todo valor de las

condiciones iniciales u(0) = c0 y u (0) = c1 . La relaci


on de recurrencia (3.12) se resuelve
facilmente. En efecto, si c0 6= 0 podemos escribir
1
c2k c2k2
c2
1
1
1
c2k
=
...
=
...
=
c0
c2k2 c2k4
c0
2k(2k 1) (2k 2)(2k 3)
21
(2k)!
c0
,
= c2k =
(2k)!
expresi
on que es obviamente valida tambien si c0 = 0. Analogamente, si c1 6= 0 entonces
c2k+1
1
c2k+1 c2k1
c3
1
1
1
=
...
=
...
=
c1
c2k1 c2k3
c1
(2k + 1)(2k) (2k 1)(2k 2)
32
(2k + 1)!
c1
= c2k+1 =
,
(2k + 1)!
que de nuevo vale tambien para c1 = 0 en virtud de (3.12). La soluci
on general de la
ecuaci
on (3.12) es por tanto

X
X
x2k+1
x2k
+ c1
= c0 cosh x + c1 senh x .
u(x) = c0
(2k)!
(2k + 1)!
k=0

k=0

Ejemplo 3.9. Consideremos a continuaci


on la ecuaci
on de Airy (3.5), para la cual todos
los puntos son regulares y con radio de convergencia infinito (pues los coeficientes son
polinomios). Desarrollando de nuevo alrededor de x0 = 0 obtenemos la ecuaci
on

X
i=2

i(i 1)ci xi2

ci xi+1 = 2c2 +

i=0

X
[(i + 2)(i + 1)ci+2 ci1 ] xi = 0 .
i=1

Igualando a cero los coeficientes de las potencias de x obtenemos


c2 = 0

(3.13)

junto con la relaci


on de recurrencia
(i + 2)(i + 1)ci+2 = ci1 ,

i = 1, 2, . . . .

(3.14)

Notese que ahora la relaci


on de recurrencia relaciona ck con ck+3 . De esta propiedad y
la ecuaci
on (3.13) se sigue que
c3k+2 = 0 ,

k = 0, 1, 2, . . . .

(3.15)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

71

Ahora c0 determina todos los coeficientes de ndice m


ultiplo de 3, mientras que c1 determina los coeficientes c3k+1 con k = 0, 1, 2 . . . . Mas concretamente, para calcular c3k
reescribamos la relaci
on de recurrencia (3.14) en la forma

1
c3k = c3k3 .
32 k k
3

Si c0 6= 0 se tiene

32
32
c3k
c3
c3k c3k3
32



...
=
=
c0
c3k3 c3k6
c0
k k 31 (k 1) k 43
1 23
= c3k =

32k c0
 ,
k! 23 35 k 13

relaci
on valida tambien para c0 = 0. Analogamente, de (3.14) se sigue que

1
32 k k +
c3k+1 = c3k2 ,
3

y por tanto si c1 6= 0 se verifica

32
32
c3k+1
c4
c3k+1 c3k2
32



...
=
=
c1
c3k2 c3k5
c1
k k + 31 (k 1) k 23
1 43
= c3k+1 =

32k c1
 .
k! 43 37 k + 13

Por consiguiente la soluci


on general de la ecuaci
on de Airy est
a dada por
u(x) = c0

X
k=0

X
x3k
x3k
.
+
c
x
1
3k k! 2 5 (3k 1)
3k k! 4 7 (3k + 1)

(3.16)

k=0

Como los coeficientes de la ecuaci


on de Airy son funciones analticas en todo R (polinomios), el radio de convergencia de las series (3.16) que definen a u(x) es infinito.

3.1.2

La ecuaci
on de Hermite

Si en la ecuaci
on de Weber
+ ( x2 ) = 0
efectuamos el cambio de variable dependiente
(x) = e

x2
2

u(x)

obtenemos la ecuaci
on de Hermite
u 2x u + 2 u = 0 ,

(3.17)

donde 2 = 1 es un par
ametro real. Como los coeficientes de esta ecuaci
on son
polinomios, todo punto es regular, y el radio de convergencia de la serie de Taylor

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

72

centrada en cualquier punto de las soluciones de la ecuaci


on es infinito. Desarrollando
alrededor del origen

X
ci xi
u(x) =
i=0

y sustituyendo en la ecuaci
on obtenemos la identidad

X
i=2

i2

i(i 1)ci x

i ci x + 2

i=1

ci xi = 0

i=0

que podemos reescribir como sigue:

X
i=0

[(i + 2)(i + 1) ci+2 + 2( i) ci ] xi = 0 .

De esta ecuaci
on se obtiene la relaci
on de recurrencia
(i + 2)(i + 1) ci+2 = 2(i ) ci ,

i = 0, 1, . . . .

(3.18)

Como el coeficiente de ci+2 no se anula para ning


un i = 0, 1, . . . , la relaci
on anterior
determina todos los coeficientes pares (impares) en terminos de c0 (c1 ). Para calcular
los coeficientes pares escribimos (3.18) para i = 2k 2 (k = 1, 2, . . . ), obteniendo
2k(2k 1) c2k = 2( 2k + 2) c2k2 ,

k = 1, 2, . . . .

(3.19)

Por tanto (suponiendo que c0 6= 0, ya que si c0 = 0 todos los coeficientes pares se anulan)
2
c2n c2n2
c2
2( 2n + 2) 2( 2n + 4)
c2n

=
c0
c2n2 c2n4
c0
2n(2n 1) (2n 2)(2n 3)
21
(2)n
( 2) . . . ( 2n + 2)
=
(2n)!
y
c2n =

(2)n
( 2) . . . ( 2n + 2) c0 ,
(2n)!

n = 0, 1, . . . .

(3.20)

Analogamente, para los coeficientes impares c2k+1 la relaci


on de recurrencia se escribe
(2k + 1)(2k) c2k+1 = 2( 2k + 1) c2k1 ,

k = 1, 2, . . . ,

por lo que (si c1 6= 0)


c2n+1
2( 1)
c2n+1 c2n1
c3
2( 2n + 1) 2( 2n + 3)

=
c1
c2n1 c2n3
c1
(2n + 1)(2n) (2n 1)(2n 2)
32
n
(2)
( 1)( 3) . . . ( 2n + 1) .
=
(2n + 1)!
Por tanto
c2n+1 =

(2)n
( 1)( 3) . . . ( 2n + 1) c1 ,
(2n + 1)!

n = 0, 1, . . . ,

(3.21)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

73

expresi
on obviamente valida tambien si c1 = 0. Por tanto la soluci
on general de la
ecuaci
on de Hermite (3.17) es
u(x) = c0 u0 (x) + c1 u1 (x) ,
donde
u0 (x) =

n=0

y
u1 (x) =

( 2) . . . ( 2n + 2)

( 1)( 3) . . . ( 2n + 1)

n=0

(2)n 2n
x
(2n)!

(3.22)

(2)n
x2n+1 ,
(2n + 1)!

(3.23)

siendo estas series convergentes para todo x R. Las funciones uk (x) (k = 0, 1) son
ambas soluciones de la ecuaci
on de Hermite (3.17), siendo u0 una funcion par y u1 impar,
es decir
uk (x) = (1)k uk (x) ,
k = 0, 1 .
(3.24)
Las condiciones iniciales satisfechas por las funciones uk (x) son
u0 (0) = 1,

u (0) = 0 ;

u1 (0) = 0,

u1 (0) = 1 .

(3.25)

Las funciones u0 y u1 , que como hemos visto anteriormente forman un sistema fundamental de soluciones de la ecuaci
on de Hermite, se reducen a polinomios para ciertos
valores del par
ametro que aparece en la ecuaci
on. En efecto, la soluci
on par u0 (x) se
reduce a un polinomio si se anula el coeficiente c2n para alg
un valor de n = 1, 2, . . . , es
decir si
( 2) . . . ( 2n + 2) = 0

para alg
un n. Esto s
olo es posible si = 2N (N = 0, 1, . . . ) es igual a un entero par no
negativo. En tal caso c2N +2 es proporcional a
( 2) . . . ( 2N ) = 0
y todos los coeficientes pares c2k con k N + 1 se anulan, ya que contienen el factor
2N . Por tanto si = 2N (con N = 0, 1, . . . ) la soluci
on u0 se reduce al polinomio
de grado 2N
N
X
(2x)2n
N!
( = 2N ) .
(1)n
P2N (x) =
(N n)! (2n)!
n=0

Notese que ninguno de los coeficientes en este desarrollo se anula. Por el contrario, si
= 2N la soluci
on impar u1 no es polin
omica, ya que
(2N 1)(2N 3) . . . (2N 2n + 1) 6= 0 ,

n = 1, 2, . . . .

La soluci
on u1 ser
a sin embargo polin
omica si = 2N + 1 (N = 0, 1, . . . ) es igual a un
entero impar ya que entonces
c2N +3 ( 1)( 3) . . . ( 2N 1) = 0 ,
lo cual implica (por la relaci
on de recurrencia) que c2k+3 = 0 para k N . En este caso
la soluci
on u1 se reduce al polinomio de grado 2N + 1
P2N +1 (x) =

N
(2x)2n+1
N!
1 X
(1)n
2 n=0
(N n)! (2n + 1)!

( = 2N + 1) .

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

74

De nuevo, para estos valores de la soluci


on par u0 no se reduce a un polinomio.
Puede probarse que si no es un entero no negativo, en cuyo caso ninguna de las
soluciones uk (x) se reduce a un polinomio, cualquier soluci
on no nula de la ecuaci
on de
2
Hermite se comporta como ex para x o x . Ello se debe, esencialmente, a
que las funciones uk (x) verifican
2
ci+2

,
ci i i
mientras que
2

ex =

X
x2i
i=0

i!

b2j x2j

j=0

cumple
1
2
1
bi+2 i=2j 1/(j + 1)!
=
=

= .
bi
1/j!
j + 1 j j
i
Esto implica (teniendo en cuenta la paridad de uk ) que si no es un entero no negativo
se tiene
2
2
u1 (x) A1 sig x ex ,
u0 (x) A0 ex ,
|x|

|x|

para ciertas constantes no nulas A0 y A1 , y por tanto el comportamiento de cualquier


soluci
on no nula de la ecuaci
on de Hermite para distinto de un entero no negativo es
2
on no nula
como ex en + o en . Pero entonces el comportamiento de una soluci
2
2
de la ecuaci
on de Weber (x) = ex /2 u(x) cuando x + o x es como ex /2 .
En particular, para estos valores de ninguna soluci
on no nula de la ecuaci
on de Weber
verifica la condici
on
Z
(x)2 dx < .
(3.26)

Por tanto, si no es un entero no negativo el oscilador cu


antico no puede tener un
estado ligado de energa


~
1
E=
= +
~.
2
2
Por el contrario, si = m es un entero no negativo, la ecuaci
on de Hermite tiene una
soluci
on polin
omica Pm (x), y por tanto la ecuaci
on de Weber para = 2m + 1 tiene
una soluci
on de la forma
(x) = Pm (x) e

x2
2

que verifica obviamente la condici


on de normalizacion (3.26). De esto se deduce que
las energas de los estados ligados del oscilador arm
onico cu
antico est
an dadas por la
formula


1
~,
m = 0, 1, . . . .
E = m+
2
Esta formula fue deducida empricamente por Planck en 1900 para explicar la distribuci
on de frecuencias del espectro de radiaci
on de un cuerpo negro, y con ella puede
decirse que comenz
o la Mecanica Cu
antica.
Los polinomios de Hermite Hk (x) (k = 0, 1, . . . ) son proporcionales a los polinomios Pk (x) que acabamos de introducir. En la pr
actica, los polinomios de Hermite se

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

75

suelen definir mediante las formulas


m

X
(2m)!
(2m)!
(1)n+m
P2m (x) =
(2x)2n
m!
(2n)! (m n)!

H2m (x) = (1)

n=0

m
X
(1)i
=
i=0

(2m)!
(2x)2m2i
i! (2m 2i)!

m
X
(2m + 1)!
+ 1)!
(1)n+m
P2m+1 (x) =
(2x)2n+1
m!
(2n
+
1)!
(m

n)!
n=0

m (2m

H2m+1 (x) = 2(1)

m
X
(1)i
=
i=0

(2m + 1)!
(2x)2m+12i .
i! (2m + 1 2i)!

Ambas formulas se pueden englobar en la siguiente:


[k/2]

Hk (x) =

X
i=0

(1)i k!
(2x)k2i ,
i! (k 2i)!

k = 0, 1, . . . ,

(3.27)

donde [x] denota la parte entera de x (mayor entero menor o igual que x). Al ser Hk
proporcional a Pk para todo k = 0, 1, . . . , Hk es soluci
on de la ecuaci
on de Hermite con
= k, es decir
Hk 2x Hk + 2k Hk = 0 ,
k = 0, 1, . . . .
(3.28)
Los primeros polinomios de Hermite son:
H0 (x) = 1
H1 (x) = 2 x
H2 (x) = 4 x2 2

H3 (x) = 8 x3 12 x

H4 (x) = 16 x4 48 x2 + 12 .
Se define la funci
on generatriz de los polinomios de Hermite como la funcion
F (x, z) =

X
Hk (x)
k=0

k!

zk .

(3.29)

Procediendo formalmente se obtiene


F (x, z) =
=

[k/2]
X
X
k=0 i=0

X
j=0

j=0 i=0

(2xz)j X

j!

X X (1)i
(1)i
(2x)k2i z k =
(2x)j z j+2i
i! (k 2i)!
i! j!
i=0

2
(z 2 )i
2
= e2xz ez = e2xzz .
i!

Como, por definicion de F ,




k
F (x, z)
,
Hk (x) =
k
z
z=0

(3.30)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

76

utilizando la formula anterior para F (x, z) se obtiene




k
k


k h (zx)2 x2 i
(zx)2
x2 d
w 2
x2
e
=e
e
e
=e
Hk (x) = k e


k
k
z
z
dw
z=0
z=0
w=x

k

d
2
2
= (1)k ex
es
,
dsk
s=x

es decir

Hk (x) = (1)k ex

dk x2
.
e
dxk

(3.31)

La identidad anterior es la llamada f


ormula de Rodrigues para los polinomios de Hermite.
Derivando la definicion (3.29) de la funcion generatriz respecto de z y x y utilizando
(3.30) se obtienen propiedades importantes de los polinomios de Hermite. En efecto,
derivando parcialmente respecto de z se obtiene

k=0

k=0

X 2x Hk (x)
X 2 Hk (x)
2
2xzz 2
e
= 2(x z) e2xzz =
zk
z k+1
z
k!
k!
=

X

j=0

 zj
2x Hj (x) 2j Hj1 (x)
,
j!

que por (3.29) ha de ser igual a

X
Hk (x) k1 X
zj
Hj+1 (x) .
z
=
(k 1)!
j!
j=0

k=1

Igualando los coeficientes de z j en ambas expresiones se obtiene la identidad


Hj+1 (x) = 2x Hj (x) 2j Hj1 (x) ,

j = 0, 1, . . . ,

(3.32)

que puede ser utilizada para calcular recursivamente los polinomios de Hermite a partir
de H0 (x) = 1. Analogamente, derivando la funcion generatriz respecto de x se obtiene

X 2 Hk (x)
X
X
2xzz 2
zj
2
zj
Hj (x) ,
e
= 2z e2xzz =
z k+1 =
2 jHj1 (x)
=
x
k!
j!
j!
k=0

j=0

j=0

de donde se deduce la relaci


on
Hj (x) = 2j Hj1 (x) ,

j = 0, 1, . . . .

(3.33)

Notese que combinando las relaciones (3.32) y (3.33) se deduce facilmente que el polinomio Hj es soluci
on de la ecuaci
on de Hermite con = j, ya que

d 

2x Hj (x) Hj+1 (x) = 2x Hj (x) + 2Hj (x) Hj+1


(x)
dx
= 2x Hj (x) + 2Hj (x) 2(j + 1) Hj (x) = 2x Hj (x) 2j Hj (x) .

Hj (x) = 2jHj1
(x) =

Otra de las propiedades importantes de los polinomios de Hermite es su ortogona2


lidad en la recta real respecto de la funcion peso ex , es decir
Z
2
m 6= n .
Hn (x) Hm (x) ex dx = 0 ,
(3.34)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

77

Para probar esta relaci


on, basta recordar que las funciones k (x) = Hk (x) e
la ecuaci
on de Weber con = 2k + 1, es decir
k (x) + (2k + 1 x2 ) k (x) = 0 ,

x2
2

verifican

k = 0, 1, . . . .

De esta ecuaci
on se deduce que





0 = n m +(2m+1x2 )m m n +(2n+1x2 )n = n m
m n 2(nm)n m ,

es decir


d

n m
m n = 2(n m)n m .
dx
Integrando esta igualdad entre y + se obtiene (3.34), ya que

2

(x) x Hm (x) Hn (x) ex = 0 .


lim n (x) m
(x) = lim Hm
x

En Mecanica Cu
antica es tambien de gran interes el calculo de la integral (3.34) para
2
m = n. Para evaluar dicha integral, multipliquemos (3.32) por Hj+1 ex e integremos
entre y +. Aplicando las relaciones de ortogonalidad (3.34) se obtiene
Z
Z
d  x2 
2
x2
Hj (x) Hj+1 (x) dx
e
Hj+1 (x) e dx =
dx

Z

 2

2 d 
ex
= ex Hj (x) Hj+1 (x) +
Hj (x) Hj+1 (x) dx .
dx

Utilizando de nuevo las relaciones de ortogonalidad (3.34) y la identidad (3.33) queda


Z
Z

2

2
x2
(x) dx
ex Hj (x) Hj+1 (x) + Hj (x) Hj+1
Hj+1 (x) e dx =

Z

 2
=
2j Hj1 (x) Hj+1 (x) + 2(j + 1) Hj2 (x) ex dx

Z
2
j = 0, 1, . . . .
Hj2 (x) ex dx ,
= 2(j + 1)

De esta igualdad se deduce facilmente que


Z
Z
Z
2
x2
n
2
x2
n
H0 (x) e dx = 2 n!
Hn (x) e dx = 2 n!

ex dx .

Como la u
ltima integral es igual a , se tiene finalmente
Z

2
Hn2 (x) ex dx = 2n n! .

(3.35)

Ejercicio.
i) Probar que si a0 es una funci
on par y a1 es impar (y ambas son continuas), entonces
u(x) es soluci
on de la ecuaci
on (3.1) si u(x) es soluci
on.
ii) Deducir que las soluciones uk (x) de la ecuaci
on (3.1) definidas por las condiciones
iniciales (3.25) tienen la paridad de (1)k , es decir satisfacen (3.24).
iii) Concluir que, si el punto x = 0 es regular y u(x) es soluci
on de la ecuaci
on (3.1)

con las condiciones iniciales u(0) = c0 , u (0) = c1 , entonces u admite un desarrollo


en serie de potencias de la forma
u(x) = c0

X
i=0

i x2i + c1

X
i=0

i x2i+1 .

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

3.2

78

Puntos singulares regulares

Consideremos de nuevo la ecuaci


on lineal homogenea de segundo orden
u + a1 (x) u + a0 (x) u = 0.

(3.36)

Estudiaremos en esta secci


on el comportamiento de las soluciones de (3.36) en las proximidades de un punto x0 que no es regular para dicha ecuaci
on. Diremos en tal caso que
x0 es un punto singular para la ecuaci
on (3.36). En estas notas s
olo vamos a considerar
un tipo especial (aunque muy importante) de puntos singulares de la ecuaci
on (3.36),
las llamadas singularidades aisladas.
Definici
on 3.10. Diremos que el punto x0 R es una singularidad aislada de la
funcion f : R R si f no es analtica en x0 , pero existe r > 0 tal que f es analtica
si 0 < |x x0 | < r. El punto x0 es una singularidad aislada de la ecuaci
on (3.36) si es
una singularidad aislada de uno de sus coeficientes a0 o a1 , siendo singularidad aislada
o punto regular del otro coeficiente.
p
2
Por ejemplo, las funciones 1/x, |x|, log |x| y e1/x tienen una singularidad aislada
en x = 0, y la ecuaci
on
u + log |x| u + sen x u = 0
tiene una singularidad aislada en x = 0.
Las definiciones anteriores tienen sentido si x es una variable compleja, sin m
as que
interpretar |x x0 | como el m
odulo del n
umero complejo x x0 o, lo que es lo mismo,
la distancia entre los puntos x0 y x en el plano complejo. Sin embargo, si x C es una
variable compleja las funciones log x y xr er log x con r
/ Z no tienen una singularidad
aislada en x = 0, ya que son ambas discontinuas en una semirrecta que parte del origen.
Se suele decir que log x y xr (r
/ Z) tienen un punto de ramificaci
on en el origen.
Supongamos que x0 es una singularidad aislada de la ecuaci
on (3.36). En tal caso el
punto x0 no es regular para la ecuaci
on (3.36), por lo que no es aplicable el Teorema
3.7. El matem
atico alem
an L. Fuchs probo en 1868 que una ecuaci
on lineal homogenea
(3.36) (con x C) con una singularidad aislada en x0 C tiene la propiedad de que
toda soluci
on suya u(x) definida en las proximidades de x0 satisface la condici
on


lim (x x0 )M u(x) = 0
(3.37)
xx0

para alguna constante M si y s


olo si los coeficientes de la ecuaci
on son de la forma
a1 (x) =

p(x)
,
x x0

a0 (x) =

q(x)
,
(x x0 )2

x 6= x0 ,

(3.38)

con p y q funciones analticas en x0 .


Definici
on 3.11. Diremos que una singularidad aislada x0 de la ecuaci
on (3.36) es un
punto singular regular de dicha ecuaci
on si los coeficientes de la ecuaci
on son de la
forma (3.38), siendo p y q funciones analticas en x0 .
En otras palabras, para que una singularidad aislada x0 sea un punto singular regular
las funciones p y q definidas por
p(x) = (x x0 ) a1 (x) ,

q(x) = (x x0 )2 a0 (x)

(3.39)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

79

para x 6= x0 y


p(x0 ) = lim (x x0 )a1 (x) ,



q(x0 ) = lim (x x0 )2 a0 (x)

xx0

xx0

deben ser analticas en x0 .

Ejemplo 3.12. Consideremos la ecuaci


on
x u + u + log |x| u = 0 .

(3.40)

Todo punto x0 6= 0 es un punto regular de la ecuaci


on (3.40), ya que los coeficientes de
la ecuaci
on
log |x|
1
a0 (x) =
a1 (x) = ,
x
x
son funciones analticas en x0 6= 0. En efecto,

X (1)k
1
1
1
1
(x x0 )k ,
=
=
=
k+1
0
x
(x x0 ) + x0
x0 1 + xx
x
x0
0
k=0

|x x0 | < |x0 | .

Por otra parte, log|x|


es analtica en x0 6= 0, al ser el producto de dos funciones analticas
x
en x0 (1/x y log |x|). Recuerdese que log |x| es analtica en todo punto x0 6= 0, ya que





x x0
x x0 |xx0 |<|x0 |

=
log |x0 | + log 1 +
log |x| = log |x0 | + log 1 +
x0
x0

k+1
X
(1)
= log |x0 | +
(x x0 )k , |x x0 | < |x0 | .
k
k
x
0
k=1
El punto x0 = 0 es una singularidad aislada de la ecuaci
on (3.40), ya que es singularidad
aislada de ambos coeficientes de la ecuaci
on. Para que dicho punto sea un punto singular
regular de la ecuaci
on, las funciones
p(x) = x a1 (x) = 1 ,

q(x) = x2 a0 (x) = x log |x|

han de ser analticas en 0. Pero esto es falso, ya que aunque p es analtica (constante)
en R, y existe
lim q(x) = 0 ,
x0

q no es ni siquiera una vez derivable en el origen. Por tanto, 0 es un punto singular


irregular de la ecuaci
on (3.40).
Para tener una idea aproximada acerca de que tipos de comportamiento cabe esperar
para las soluciones de la ecuaci
on (3.36) en las proximidades de un punto singular regular
x0 , empezaremos estudiando la ecuaci
on m
as sencilla que tiene una singularidad de este
tipo. Para ello tomamos (por sencillez) x0 = 0 e imponemos que las funciones p(x) y q(x)
se reduzcan a sendas constantes p0 y q0 , respectivamente, lo que conduce a la ecuaci
on
de Euler de segundo orden
x2 u + p0 x u + q0 u = 0 .
Esta ecuaci
on se resuelve facilmente mediante el cambio de variable dependiente
t = log |x| ,

x 6= 0.

(3.41)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

80

En efecto, si hacemos
y(t) = u(x)
entonces

dx
= x para todo t, por lo que
dt
dy
dx
= u (x)
= x u (x) ,
dt
dt

d2 y
= x2 u (x) + x u (x) ,
dt2

y por tanto y(t) satisface la ecuaci


on lineal homogenea de coeficientes constantes
d2 y
dy
+ q0 y = 0 .
+ (p0 1)
dt2
dt

(3.42)

Notese que el polinomio caracterstico de esta ecuaci


on es
p(r) = r 2 + (p0 1) r + q = r(r 1) + p0 r + q0 .

(3.43)

Si ri (i = 1, 2) son las dos races (posiblemente complejas) del polinomio caracterstico,


la soluci
on general de la ecuaci
on (3.42) est
a dada por

r1 t
r2 t

si r1 6= r2 , r1 , r2 R
c1 e + c2 e ,
y(t) = (c1 + c2 t) ert ,
si r1 = r2 r R

 t

c1 cos( t) + c2 sen( t) e , si r1,2 = i C .

Por tanto, la soluci


on general de la ecuaci
on de Euler (3.41) es

r1
r2

si r1 6= r2 , r1 , r2 R
c1 |x| + c2 |x| ,
r
u(x) = (c1 + c2 log |x|) |x| ,
si r1 = r2 r R

c1 cos( log |x|) + c2 sen( log |x|) |x| , si r1,2 = i C .

(3.44)

Observese que para ciertos valores de las races r1 y r2 (o, lo que es lo mismo, de los
coeficientes p0 y q0 ), algunas o incluso todas las soluciones de la ecuaci
on de Euler (3.41)
pueden ser analticas en x = 0, aunque los coeficientes de la ecuaci
on no lo sean. Mas
concretamente, si r1 6= r2 son enteros no negativos entonces todas las soluciones son
analticas en x = 0, mientras que si r1 = r2 r es un entero no negativo entonces hay
una s
ola soluci
on linealmente independiente que es analtica en x = 0, a saber u(x) = xr .
(Por que se puede sustituir |x|ri por xri en (3.44) si ri es un entero?) En cualquier caso,
cualquiera que sean r1 y r2 es evidente que existe una constante M suficientemente
grande tal que

lim xM u(x) = 0
x0

para toda soluci


on u(x) de (3.41), incluso si interpretamos x en la formula anterior como
una variable compleja.
En general, si x0 es un punto singular regular de la ecuaci
on (3.36) definiremos p0 y
q0 mediante


p0 = p(x0 ) = lim (x x0 )a1 (x) ,
xx0



q0 = q(x0 ) = lim (x x0 )2 a0 (x) . (3.45)
xx0

Se define tambien el polinomio indicial de la ecuaci


on (3.36) mediante
F (r) = r(r 1) + p0 r + q0 ,

(3.46)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

81

con p0 y q0 dados por la formula anterior.


El siguiente teorema, debido a G. Frobenius (1874), es de gran importancia pr
actica,
ya que describe con gran precision el comportamiento de las soluciones de la ecuaci
on
lineal homogenea (3.36) en las proximidades de un punto singular regular x0 . Por sencillez, supondremos que x0 = 0 (lo que siempre puede conseguirse con el cambio de
variable independiente t = x x0 ), y por tanto escribiremos la ecuaci
on (3.36) en la
forma
x2 u + x p(x) u + q(x) u = 0 ,
(3.47)
con
p(x) =

pi xi ,

q(x) =

qi xi ,

i=0

i=0

|x| < R .

(3.48)

Teorema de Frobenius. Sean r1 y r2 las races del polinomio indicial (3.46) de


(3.47), numeradas de forma que
Re r1 Re r2 .

(3.49)

Entonces se tiene:
i) Si r1 6= r2 y r1 r2
/ N, la ecuaci
on (3.47) tiene un sistema fundamental de
soluciones de la forma
ui (x) = |x|ri vi (x) ,

i = 1, 2 ,

(3.50)

con vi analtica en 0, y vi (0) = 1.


ii) Si r1 = r2 r, (3.47) admite un sistema fundamental de soluciones
u1 (x) = |x|r v1 (x) ,

u2 (x) = u1 (x) log |x| + |x|r v2 (x) ,

(3.51)

con vi analtica en 0, v1 (0) = 1 y v2 (0) = 0.


iii) Si r1 r2 n N, (3.47) posee el sistema fundamental de soluciones
u1 (x) = |x|r1 v1 (x) ,

u2 (x) = (sig x)n c u1 (x) log |x| + |x|r2 v2 (x) ,

(3.52)

con vi analtica en 0, vi (0) = 1 y c R constante (posiblemente nula).


En todos los casos, el radio de convergencia de la serie de Maclaurin de vi (i = 1, 2)
es mayor o igual que R.
Notese que en el caso i) las races pueden ser complejas, es decir r1,2 = i . En tal caso
es conveniente reemplazar las soluciones complejas (3.50) por el sistema fundamental de
soluciones reales


|x| w1 (x) cos( log |x|) + x w2 (x) sen( log |x|) ,


(3.53)
|x| w1 (x) sen( log |x|) x w2 (x) cos( log |x|) ,

donde de nuevo wi es (real) y analtica con radio de convergencia al menos R en 0, y


w1 (0) = 1.

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

82

Demostraci
on. Nos limitaremos a dar a continuaci
on una justificaci
on heurstica del
teorema de Frobenius, evitando entrar en detalles tecnicos (como, por ejemplo, la verificacion de la convergencia de las series que utilizaremos). La idea de la prueba es ensayar
una soluci
on del tipo

X
ci xi ,
con c0 6= 0
(3.54)
u(x) = |x|r
i=0

e intentar calcular el exponente r y los coeficientes ci sustituyendo (3.54) en la ecuaci


on
(3.47). Para fijar ideas, supondremos en lo que sigue que x > 0. Sustituyendo entonces
(3.54) en (3.47) se obtiene


 X
 X
 X
X
X
j
i+r
i+r
j
ci xi+r
+
qj x
(i+r) ci x
(i+r)(i+r 1) ci x +
pj x
i=0

i=0

i=0

j=0

i=0

j=0

h
X

(i + r)(i + r 1) ci +

i
X
k=0

 i i+r
= 0.
(k + r)pik + qik ck x

Igualando a cero los coeficientes de las potencias de x se deduce la relaci


on de recurrencia
(i + r)(i + r 1) ci +

i
X

k=0


(k + r)pik + qik ck = 0 ,

i = 0, 1, . . . .

(3.55)

Haciendo i = 0 se obtiene la ecuaci


on


r(r 1) + p0 r + q0 c0 = F (r) c0 = 0 ,

de donde se sigue que

F (r) = 0 .

(3.56)

La ecuaci
on (3.56) implica que r s
olo puede ser igual a una de las dos races r1,2 del
polinomio indicial. Si i = 1, 2, . . . reescribimos (3.55) como


i1
X



(k + r)pik + qik ck ,
(i + r)(i + r 1) + (i + r) p0 + q0 ci =

i = 1, 2, . . . .

k=0

Teniendo en cuenta la definicion del polinomio indicial (3.46) queda finalmente


F (r + i) ci =

i1
X

k=0


(k + r)pik + qik ck ,

i = 1, 2, . . . .

(3.57)

Si r = r1 , es facil ver que la ecuaci


on anterior determina todos los coeficientes ci con
i = 1, 2, . . . en terminos de c0 . En efecto, la condici
on necesaria y suficiente para que
esto ocurra es que ci se pueda despejar de (3.57) en terminos de c0 , . . . , ci1 para todo
i = 1, 2, . . . . A su vez, esto es equivalente a que
F (r1 + i) 6= 0 ,

i = 1, 2, . . . .

Si esto no se cumpliera para alg


un i = 1, 2, . . . entonces F tendra la raz r2 = r1 + i
con Re r2 = Re r1 + i > Re r1 , en contra de la definicion (3.49) de r1 . Esto demuestra
que la ecuaci
on (3.47) siempre posee una soluci
on no trivial de la forma
u1 (x) = xr1 v1 (x)

(x > 0)

(3.58)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

con
v1 (x) =

83

ci xi ,

i=0

donde los coeficientes ci se determinan en funcion de c0 mediante la relaci


on de recurrencia (3.57). Se demuestra que la serie de potencias que define a v1 tiene radio de
convergencia mayor o igual que R, y que por tanto v1 es analtica en 0. Ademas, podemos suponer sin perdida de generalidad que c0 = 1, es decir v(0) = 1. Si r1 r2
/ N, se
cumple tambien la condici
on
F (r2 + i) 6= 0 ,

i = 1, 2, . . . .

Por tanto en este caso la ecuaci


on (3.47) posee tambien una soluci
on de la forma
u2 (x) = xr2 v2 (x)

(x > 0)

con v2 analtica en 0 y v2 (0) = 1. Si r2 6= r1 es obvio que esta soluci


on es linealmente
independiente de la anterior, ya que el cociente de ambas soluciones no es constante (es
de la forma xr2 r1 por una funci
on analtica que vale 1 en el origen). Con esto queda
por tanto probado el primer apartado.
Supongamos a continuaci
on que
r1 r2 = n

con n = 0, 1, . . . .

Utilizando la soluci
on (3.58) podemos construir una segunda soluci
on linealmente independiente de la ecuaci
on aplicando la formula (2.49), es decir
Z x 2r1
R
t
t a1 (s) ds
e
dt .
(3.59)
u2 (x) = u1 (x)
v12 (t)
Al ser el origen un punto singular regular de la ecuaci
on (3.47) se tiene
Z

a1 (s) ds =

siendo
(t) =

Z tX

p(s)
ds = p0 log t + (t)
s

pi si1 ds =

X
pi
i=1

i=1

ti

una funci
on analtica en el origen con (0) = 0. Sustituyendo en la formula (3.59) se
obtiene
Z x
Z x
(t)
p0 2r1 e
tp0 2r1 (t) dt ,
(3.60)
dt u1 (x)
t
u2 (x) = u1 (x)
2
v1 (t)
con
(t) =

e(t) X i
bi t

v12 (t)
i=0

analtica en el origen (cociente de dos funciones analticas con denominador no nulo en


0) y
b0 = (0) = e(0) = 1 6= 0 .

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

84

De la definicion (3.46) del polinomio indicial F (r) se sigue que


r1 + r2 = 1 p0 = p0 2r1 = r2 r1 1 = n 1 .
De (3.60) se deduce por tanto que
u2 (x) = u1 (x)

n1

(t) dt = u1 (x)

xX

bi tin1 dt

i=0

X
bi
xin bn u1 (x) log x + xr2 w(x) ,
= bn u1 (x) log x + u1 (x)
in

(3.61)

i=0
i6=n

con

X
bi
w(x) = v1 (x)
xi
in
i=0
i6=n

una funci
on analtica en el origen, y

0,
n=0
w(0) =
1
b
0 = 6= 0 , n = 1, 2, . . . .
n
n

Esto demuestra los dos u


ltimos apartados del teorema de Frobenius, ya que si n = 0 el
coeficiente del termino u1 (x) log x es b0 6= 0.
Q.E.D.
Igual que en un punto regular, los coeficientes de las funciones analticas vi que
aparecen en el teorema de Frobenius se obtienen sustituyendo en la ecuaci
on diferencial
(3.47) las expresiones (3.50)(3.52). Sin embargo, si las races de la ecuaci
on indicial
difieren en un entero aparece la dificultad adicional de la posible presencia de un termino
logartmico, que es segura si la ecuaci
on indicial tiene una raz doble.
Si r1 r2 = n N , lo primero es determinar si aparece o no un termino logartmico
en la segunda soluci
on u2 (x). Para ello lo m
as eficiente es empezar asumiendo que dicho
termino no aparece, y buscar por tanto una soluci
on del tipo
r2

ci xi

(x > 0)

(3.62)

i=0

con c0 6= 0. Como F (r2 + i) 6= 0 para i = 1, 2, . . . , n 1, la relaci


on de recurrencia
(3.57) determina los coeficientes c1 , . . . , cn1 en funcion de c0 . Para i = n, sin embargo,
F (r2 + n) = F (r1 ) = 0, y por tanto la relaci
on de recurrencia se reduce a la ecuaci
on
n1
X
k=0


(k + r)pnk + qnk ck = 0 .

(3.63)

Si los coeficientes c0 , . . . , cn1 calculados precedentemente no verifican la ecuaci


on anterior, hemos llegado a una contradicci
on, y por tanto ha de haber un termino logartmico
en la segunda soluci
on (es decir, c 6= 0 en (3.52)). Por el contrario, si se cumple (3.63)
la relaci
on de recurrencia permite calcular ci con i > n, ya que F (r2 + i) 6= 0 para
i > n. Notese que el coeficiente cn es arbitrario; pero esto es logico, ya que cn multiplica
a xr2 +n = xr1 , y el coeficiente de este termino se puede asignar a voluntad a
nadiendo

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

85

un m
ultiplo adecuado de la primera soluci
on (3.58). Por tanto, si se cumple la condicion (3.63) hay una segunda soluci
on del tipo (3.62), es decir sin termino logartmico.
Esto prueba que (3.63) es la condici
on necesaria y suficiente para que no haya termino
logartmico en la segunda soluci
on de (3.47).
Supongamos a continuaci
on que r1 = r2 r , por lo que la presencia del termino
logartmico est
a garantizada. Para calcular la segunda soluci
on en este caso, sean ci (s)
(i = 1, 2, . . . ) los coeficientes determinados por la relaci
on de recurrencia
F (s + i) ci (s) =

i1
X


(k + s)pik + qik ck (s) ,

i = 1, 2, . . . .

(3.64)

k=0

junto con la condici


on c0 = 1. Notese que esta relaci
on de recurrencia determina los
coeficientes ci (s) si r s
/ N, ya que F s
olo se anula en r; en particular, podemos tomar
|s r| < 1. Como s no tiene por que ser una raz del polinomio indicial, la funcion
u(x, s) = xs

ci (s) xi

(x > 0)

i=0

no es soluci
on de la ecuaci
on (3.47). En efecto, teniendo en cuenta la forma en que se
obtuvo la relaci
on de recurrencia (3.57) es facil ver que


L u(x, s) x2 u + xp(x) u + q(x) u = F (s) xs .

Derivando esta ecuaci


on respecto de s y haciendo s = r se obtiene:







L u(x, s) = L
u(x, s) = F (r) xr + F (r) xr log x = 0 ,
s s=r
s s=r

ya que r es por hip


otesis una raz doble de F . Por lo tanto, la funcion

X
X

i
r
r
ci (r) x u1 (x) log x + x
u(x, s) = u(x, r) log x + x
ci (r) xi
s s=r
i=0

i=0

es soluci
on de la ecuaci
on lineal homogenea (3.47).

3.2.1

La ecuaci
on de Bessel

La ecuaci
on
x2 u + x u + (x2 2 ) u = 0 ,

x > 0,

(3.65)

donde 0 es un par
ametro real, recibe el nombre de ecuaci
on de Bessel. El origen
es un punto singular regular de esta ecuaci
on, ya que es de la forma (3.47) con
p(x) = 1 ,

q(x) = x2 2

(3.66)

funciones analticas en 0 (polinomios). En este caso


p0 = 1 ,

q0 = 2 ,

(3.67)

y por tanto el polinomio indicial es


F (r) = r(r 1) + r 2 = r 2 2 .

(3.68)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

86

Las races del polinomio indicial son en este caso reales:


r1 = ,

r2 =

(3.69)

(recuerdese que r1 siempre designa a la raz de parte real mayor), siendo su diferencia
r1 r2 = 2 .

(3.70)

Busquemos, en primer lugar, la soluci


on del tipo (3.54), que en este caso ser
a de la
forma

X
ci xi+
(x > 0) .
u1 (x) =
i=0

Sustituyendo en la ecuaci
on de Bessel se obtiene

X

i=0

X

ci xi++2
(i + )(i + 1) + (i + ) 2 ) ci xi+ +
i=0

= (1 + 2)c1 x+1 +

X

i=2


i(i + 2)ci + ci2 xi+ = 0 .

Igualando a cero los coeficientes de las potencias de x obtenemos la ecuaci


on
c1 = 0

(3.71)

junto con la relaci


on de recurrencia
i(i + 2)ci = ci2 ,

i = 2, 3, . . . .

(3.72)

Como (3.72) relaciona el coeficiente ci con ci2 , los coeficientes pares (impares) son
proporcionales a c0 (c1 ), de donde se deduce que
c2k+1 = 0 ,

k = 0, 1, . . . .

(3.73)

Llamando
c2k = bk ,

k = 0, 1, . . . ,

la relaci
on de recurrencia (3.72) se transforma en
4k(k + ) bk = bk1 ,

k = 1, 2, . . . .

(3.74)

Como el coeficiente de bk no se anula para ning


un k > 0 (ya que 0), esta relaci
on de
recurrencia determina todos los coeficientes bk con k = 1, 2, . . . en terminos de b0 . En
efecto, de (3.74) se obtiene facilmente
bk =

(1)k
b0 ,
22k k! ( + k)( + k 1) ( + 1)

k = 1, 2, . . . .

(3.75)

Tomando b0 = 2 obtenemos la siguiente soluci


on de la ecuaci
on de Bessel:
u1 (x; ) =

 x 2n+
(1)n
.
n!(
+
n)

(
+
2)(
+
1)
2
n=0

(3.76)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

87

Por el teorema de Frobenius, la serie que define esta funcion es convergente para todo
x R, ya que los coeficientes p y q son polinomios. (Esto tambien se puede comprobar
directamente en este caso utilizando el criterio del cociente.)
Para simplificar los coeficientes en la formula anterior utilizaremos la funci
on gamma de Euler, definida por
Z
tz1 et dt .
(z) =
(3.77)
0

El argumento z en esta formula es complejo, y la integral converge absolutamente (y, por


tanto, (z) est
a bien definida) si Re z > 0. Integrando por partes se prueba facilmente
la relaci
on funcional fundamental satisfecha por la funcion :
(z + 1) = z (z) .
Como
(1) =

(3.78)

et dt = 1 ,

de la relaci
on funcional se deduce inmediatamente que
(n + 1) = n!

n = 0, 1, . . . .

Por tanto la funci


on es una generalizaci
on del factorial. La funcion se extiende
facilmente al semiplano izquierdo utilizando la relaci
on funcional (3.78). Por ejemplo, si
1 < Re z < 0 entonces se define
(z) =

(z + 1)
.
z

De esta forma se obtiene una funcion analtica en todo el plano complejo, excepto en
los puntos z = 0, 1, 2, . . . , donde se prueba que tiene polos simples (es decir,
diverge como (z + k)1 cuando z k, con k = 0, 1, . . . ). Por u
ltimo, se demuestra
que la funci
on no tiene ceros en el plano complejo. Por tanto, la funcion 1/ es entera
(analtica en todo el plano complejo), y se anula s
olo en los enteros negativos y en el
origen.
Utilizando la relaci
on funcional (3.78) repetidamente se obtiene
( + n + 1) = ( + n) ( + 2)( + 1)( + 1) .
Multiplicando la soluci
on u1 (x; ) por la constante no nula (ya que 0) 1/( + 1)
se llega a la soluci
on
J (x) =

n=0

 x 2n+
(1)n
,
n! ( + n + 1) 2

(3.79)

que se denomina funci


on de Bessel de primera especie y orden . Si
2 6= 0, 1, . . . ,

(3.80)

por el teorema de Frobenius la segunda soluci


on de la ecuaci
on de Bessel es
J (x) =

n=0

 x 2n
(1)n
.
n! (n + 1) 2

(3.81)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

88

(x)
15

10

-4

-2

2
-5

-10

-15

Figura 3.1: Gr
afica de la funcion (x).
Por tanto, si 2 6= 0, 1, . . . la soluci
on general de la ecuaci
on de Bessel est
a dada por
u(x) = C1 J (x) + C2 J (x) ,
con C1 y C2 constantes arbitrarias. Notese que J0 (0) = 1, mientras que para > 0 la
funcion J (x) se anula en el origen:
J (0) = 0 ,

>0 .

Sin embargo, si 0 J s
olo es analtica en x = 0 si = 0, 1, . . . , ya que x s
olo
es analtica en el origen para estos valores de . Ademas, si 6= 1, 2, . . . entonces
1/(1 ) 6= 0, y por tanto J (x) diverge cuando x 0 si 6= 0, 1, . . . :
J (x)

x0

J0 (x)

2
x
(1 )

( 6= 0, 1, . . . ) .

(3.82)

J2 (x)

J2 (x)

0.4

0.8

0.2

0.4

0.6
5

0.2

0.4
0.2
5
-0.2

10

15

20

25

30

10

15

20

25

30

-0.2

10

15

20

25

30

-0.4
-0.6

-0.2

-0.8

-0.4

Figura 3.2: Gr
afica de las funciones J0 y J2 .
Si
2 = 0, 1, . . . ,
es necesario calcular la segunda soluci
on linealmente independiente u2 (x) de la ecuaci
on
de Bessel. En particular, si 2 = 1, 2, . . . debemos determinar si aparece o no un termino

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

89

logartmico (que debe aparecer forzosamente para = 0). Si


=

1 3
, ,...
2 2

(es decir, si es semientero), no hay termino logartmico. Esto se puede ver estudiando la
relaci
on de recurrencia para la segunda raz () de la ecuaci
on indicial, o m
as facilmente
observando que en este caso J sigue siendo soluci
on de la ecuaci
on de Bessel (ya que
dicha ecuaci
on no cambia si se sustituye por ), y no es proporcional a J (x). En
efecto, ya hemos visto que J se anula en el origen para > 0, mientras que, al ser
1/(1 ) 6= 0 para = 1/2, 3/2, . . . , la soluci
on J diverge en 0 como x (vease la
ec. (3.82)). De hecho, se puede probar que si m Z entonces




1
1
Jm+ 1 (x) = Am
cos x + Bm
sen x ,
(3.83)
2
x
x
con Am y Bm polinomios. Por ejemplo,
r
2
sen x ,
J 1 (x) =
2
x

J 1 (x) =
2

2
cos x .
x

(3.84)

Por el contrario, si
= 1, 2, . . .
entonces la segunda soluci
on contiene un termino logartmico. Una indicaci
on de este
hecho es que si N la funci
on J es proporcional a J . En efecto, en este caso
1
= 0,
(n + 1)

n = 0, 1, . . . , 1 .

Por tanto
J (x) =
=

n=

X
k=0

 x 2n X
 x 2k+
(1)k+
(1)n
=
n! (n + 1) 2
(k + )! (k + 1) 2
k=0

(1)k+

(k + + 1) k!

 x 2k+
2

= (1) J (x) ,

= 1, 2, . . . .

Para ver con m


as detalle que en este caso ( N) hay un termino logartmico, n
otese
que la relaci
on de recurrencia para la hipotetica soluci
on
u2 (x) = x

ci xi

i=0

es simplemente (3.71) y (3.72) con reemplazado por , es decir


i(i 2) ci = ci2 ,

i = 2, 3, . . . .

De nuevo, todos los coeficientes impares son cero, y los coeficientes pares bk = c2k se
determinan por
4k(k ) bk = bk1 ,
k = 1, 2, . . . .
Esta relaci
on determina b1 , . . . , b1 en terminos de b0 , siendo todos estos coeficientes
no nulos si b0 6= 0. Sin embargo, en este caso la relaci
on que debera determinar b se
reduce a
0 = b1 ,

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

90

que es contradictoria, ya que b1 6= 0 si b0 6= 0 .


Calculemos a continuaci
on la segunda soluci
on linealmente independiente de la ecuacion de Bessel para = 0. De acuerdo con el teorema de Frobenius, escribimos
u2 (x) = J0 (x) log x + v2 (x) J0 (x) log x +

ci xi

i=1

(n
otese que podemos tomar c0 = 0) y sustituimos esta expresi
on en la ecuaci
on de Bessel
para = 0, obteniendo
(x J0 + J0 + x J0 ) log x + 2 J0 + x v2 + v2 + x v2 = 0 ,
o bien, ya que J0 es soluci
on de la ecuaci
on de Bessel para = 0,
x v2 + v2 + x v2 + 2 J0 = 0 .

(3.85)

Notese que en esta expresi


on no aparece ya ning
un termino logartmico, lo que ocurre
tambien en el caso general. Sustituyendo el desarrollo en serie de potencias de v2 en esta
u
ltima ecuaci
on multiplicada por x se obtiene facilmente

X
X
X

(1)n n  x 2n1
i+2
i
ci x
+ 2x
= 0,
i(i 1) + i]ci x +
n!2
2
n=1

i=0

i=0

es decir
c1 x +

i ci + ci2 ) x + 4

X
(1)n n  x 2n

n=1

i=2

n!2

= 0.

(3.86)

De esta relaci
on se deduce en primer lugar que c1 = 0. Como la u
ltima serie no contiene
m
as que potencias pares, la relaci
on de recurrencia para las potencias impares
(2k + 1)2 c2k+1 + c2k1 = 0 ,

k = 1, 2, . . .

implica que todos los coeficientes impares son nulos:


c2k+1 = 0 ,

k = 0, 1, . . . .

(3.87)

Definiendo bn = c2n e igualando a cero el coeficiente de x2n en (3.86) se obtiene la


relaci
on de recurrencia para los coeficientes pares:
n2 bn =

(1)n n
1
bn1 + n 2 ,
4
4 n!

n = 1, 2, . . . .

(3.88)

Multiplicando ambos miembros de esta relaci


on por (4)n (n 1)!2 y llamando k =
k
2
(4) k! bk se obtiene
n = n1 +

1
,
n

n = 1, 2, . . . .

La soluci
on de esta relaci
on de recurrencia es inmediata:
n =

1
1
+
+ + 1 + 0 ,
n n1

n = 1, 2, . . . .

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

Al ser 0 = b0 = c0 = 0 se tiene finalmente




1
1
(1)n+1
1 + + +
,
bn = n 2
4 n!
2
n

91

n = 1, 2, . . . .

Hemos probado por tanto que la segunda soluci


on linealmente independiente de la ecuacion de Bessel de orden 0 est
a dada por
N0 (x) = J0 (x) log x

X
(1)n

n=1

n!2

1
1
1 + + +
2
n

 
x 2n
.
2

(3.89)

La funci
on N0 se denomina funci
on de Neumann de orden cero. Notese que la funcion
N0 , a diferencia de la otra soluci
on J0 , no es analtica en el origen, donde se comporta
como log x:
N0 (x) log x .
x0

En la pr
actica, en lugar de la funcion de Neumann N0 se suele escoger como segunda
soluci
on linealmente independiente la combinaci
on lineal de J0 y N0 dada por
Y0 (x) =
donde
= lim


2
N0 (x) (log 2 )J0 (x) ,

1
1
1 + + + log n
2
n

0,577216

es la llamada constante de EulerMascheroni. La funcion Y0 (que tambien diverge logartmicamente en el origen) se suele denominar funci
on de Bessel de segunda especie
de orden 0. La soluci
on general de la ecuaci
on de Bessel de orden 0 es por tanto
u(x) = C1 J0 (x) + C2 Y0 (x) ,
con C1 y C2 constantes reales.
Para m = 1, 2, . . . , un c
alculo parecido al anterior pero algo m
as complicado
demuestra que una segunda soluci
on de la ecuaci
on de Bessel de orden m linealmente
independiente de Jm est
a dada por la funcion de Neumann de orden m
m1
1 X (m n 1)!  x 2nm
2 n=0
n!
2

 

1 X (1)n
x 2n+m
1
1
1
1

(3.90)
1 + + + + 1 + + +
2
n!(n + m)!
2
n
2
n+m
2

Nm (x) = Jm (x) log x

n=0

(donde se sobreentiende que el sumatorio 1 + 21 + + n1 desaparece si n = 0). De nuevo,


es m
as habitual usar como segunda soluci
on de la ecuaci
on de Bessel de orden m la
funcion de Bessel de segunda especie y orden m definida por
Ym (x) =


2
Nm (x) (log 2 )Jm (x) ,

en terminos de la cual la soluci


on general de la ecuaci
on de Bessel de orden m = 0, 1, . . .
est
a dada por
u(x) = C1 Jm (x) + C2 Ym (x) ,
C1 , C2 R .

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

92

Nota: Si se define
Y (x) =

cos() J (x) J (x)


,
sen()

6= 0, 1, . . . ,

entonces J e Y forman un sistema fundamental de soluciones de la ecuaci


on de Bessel
de orden tambien para 6= 0, 1, . . . . Se demuestra que
Ym (x) = lim Y (x) ,

m = 0, 1, . . . .

El comportamiento asntotico (para x ) de las funciones de Bessel de primera y


segunda especie est
a dado por la formula
r

2

J (x)
,
cos x

x
x
2
4
r

2

.
Y (x)
sen x

x
x
2
4

En particular, las funciones de Bessel de primera y segunda especie tienen infinitos


ceros en el eje real positivo, y presentan un comportamiento oscilatorio amortiguado
para x .
Las funciones de Bessel satisfacen ciertas relaciones de recurrencia, que se pueden
deducir de las dos identidades
(x J ) = x J1
(x

J ) = x

J+1 .

(3.91)
(3.92)

Para probar la primera de estas identidades basta utilizar el desarrollo en serie (3.79)
de J , que proporciona
(x J ) =

 x 2(n+) X
(1)n 2 (n + )  x 2n+21
(1)n 2
d X
=
dx
n! (n + + 1) 2
n! (n + + 1) 2
n=0

n=0

= x J1 .

La identidad (3.92) se prueba de forma semejante. Las funciones de Bessel de segunda


especie Y satisfacen tambien las identidades (3.91)(3.92), aunque aqu no demostraremos esta resultado. Sumando y restando las identidades (3.91)(3.92) multiplicadas
por x y x , respectivamente, se obtienen las siguientes relaciones entre funciones de
Bessel de distintos ndices y sus derivadas:
J1 J+1 = 2J
2
J1 + J+1 =
J .
x

(3.93)
(3.94)

La segunda de estas identidades se puede utilizar para calcular de forma recursiva las
funciones de Bessel de ndice + k (k = 1, 2, . . . ) a partir de J y J1 . Por ejemplo, las
funciones de Bessel de ndice entero positivo se pueden expresar en terminos de J0 y J1 .
Del mismo modo, la expresi
on (3.83) para las funciones de Bessel de orden semientero se
deduce facilmente de la relaci
on (3.94) y la ecuaci
on (3.84). Notese, por u
ltimo, que las
funciones de Bessel de segunda especie tambien satisfacen las relaciones (3.93)(3.94),
ya que estas son consecuencia de (3.91)(3.92).

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

3.2.2

93

El punto del infinito

Supongamos que los coeficientes de la ecuaci


on lineal homogenea (3.36) est
an definidos
para |x| > R. Para estudiar el comportamiento de las soluciones de esta ecuaci
on en el
punto del infinito o, con mayor propiedad, para |x| , efectuamos en la ecuaci
on
el cambio de variable
1
t=
x
y estudiamos el comportamiento de la ecuaci
on resultante para
y(t) = u(x) u(1/t)
para t 0. Como u(x) = y(1/x) se tiene
u (x) =

1
y (1/x) ,
x2

u (x) =

1
2
y (1/x) + 3 y (1/x) ,
4
x
x

sustituyendo en la ecuaci
on diferencial (3.36) se obtiene la ecuaci
on lineal homogenea
de segundo orden
y + A1 (t) y + A0 (t) y = 0 ,
(3.95)
donde los coeficientes Ai (t) est
an dados por
A1 (t) =

1
2
2 a1 (1/t),
t
t

A0 (t) =

1
a0 (1/t) .
t4

(3.96)

Definici
on 3.13. Diremos que el punto del infinito es regular (resp. singular regular)
para la ecuaci
on original (3.36) si el origen es un punto regular (resp. singular regular)
para la ecuaci
on (3.95)
Supongamos, por ejemplo, que el punto del infinito es un punto regular para la
ecuaci
on (3.36). Esto significa que las funciones Ai (t) (i = 0, 1) son analticas en el
origen con series de Maclaurin convergentes para |t| < r, y por tanto (teorema de
Fuchs) toda soluci
on y(t) de (3.95) admite el desarrollo
y(t) =

bi t i ,

i=0

|t| < r .

Por consiguiente, cualquier soluci


on u(x) = y(1/x) de la ecuaci
on original (3.36) admite
un desarrollo en serie en potencias negativas de x
u(x) =

X
bi
,
xi
i=0

|x| >

1
.
r

(3.97)

Analogamente, el punto del infinito ser


a un punto singular regular para la ecuaci
on
(3.36) si no es un punto regular, pero las funciones t A1 (t) y t2 A0 (t) son analticas en
t = 0, es decir si
1
1
(3.98)
a1 (1/t),
a0 (1/t)
t
t2
son analticas en el origen.

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

94

Ejemplo 3.14. Consideremos la ecuaci


on de Legendre
(1 x2 )u 2x u + ( + 1) u = 0 ,

(3.99)

donde 21 es un par
ametro real. En este caso
a1 (x) =

2x
,
x2 1

a0 (x) =

y por tanto los coeficientes Ai est


an dados por
A1 (t) =

2
t

2
1
2
t
t

1
t2

2t
,
t2 1

( + 1)
,
1 x2
( + 1)
.
t2 (t2 1)

A0 (t) =

El coeficiente A0 es divergente en t = 0 si 6= 0, por lo que el punto del infinito no es


regular para la ecuaci
on de Legendre si 6= 0. Sin embargo, las funciones
p(t) t A1 (t) =

2t2
,
t2 1

q(t) t2 A0 (t) =

( + 1)
t2 1

son analticas en t = 0, siendo sus series de Maclaurin convergentes para |t| < 1 (distancia
a la singularidad m
as pr
oxima en el plano complejo). Por tanto, el origen es un punto
singular regular para la ecuaci
on de Legendre para 6= 0. (Claramente, el origen es un
punto regular de (3.99) si = 0.) Para estudiar el comportamiento de las soluciones de
esta ecuaci
on para |x| , estudiamos la ecuaci
on (3.95), que en este caso se escribe
t2 (t2 1)y + 2t3 y + ( + 1)y = 0 ,

(3.100)

en t = 0. Para esta ecuaci


on,
p0 = 0 ,

q0 = ( + 1) ,

y por tanto el polinomio indicial es


F (r) = r(r 1) ( + 1) = (r + )(r 1) .
Las races de la ecuaci
on indicial son por tanto
r1 = + 1 ,

r2 = .

Notese que la numeracion de las races es la correcta, ya que


r1 r2 = 2 + 1 0 .
on de Legendre
Por el teorema de Frobenius, si 12 y 2 6= 1, 0, 1, . . . la ecuaci
(3.99) tiene un sistema fundamental de soluciones de la forma
u1 (x) =

1 X ck
,
|x|+1 k=0 xk

u2 (x) = |x|

X
dk
,
xk

(3.101)

k=0

con c0 = d0 = 1, siendo las series anteriores convergentes para |x| > 1. Analogamente,
si = 12 un sistema fundamental de soluciones de la ecuaci
on de Legendre es de la
forma

1 X ck
,
u1 (x) = p
|x| k=0 xk

1 X dk
u2 (x) = u1 (x) log |x| + p
,
|x| k=1 xk

(3.102)

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

95

con c0 = 1, siendo de nuevo ambas series convergentes para |x| > 1.


Si = 0, el punto t = 0 es regular para la ecuaci
on (3.100), por lo que dicha
ecuaci
on posee una sistema fundamental de soluciones analticas en (1, 1). Por tanto
las soluciones de la ecuaci
on de Legendre para = 0 admiten un desarrollo de la forma
(3.97) para |x| > 1.

Nota. De hecho, la ecuaci


on de Legendre para = 0 es una ecuaci
on lineal de primer
orden en u , y por tanto se integra facilmente. Su soluci
on general es


1 x
+ C2 ,

u(x) = C1 log
1 + x
con C1 , C2 constantes arbitrarias.

Ejercicio. Probar que si = 1, 2, . . . la ecuaci


on de Legendre tiene dos soluciones linealmente independientes de la forma (3.101), mientras que para = 1/2, 3/2, . . . hay
una base de soluciones de la forma

1 X ck
u1 (x) =
,
|x|+1 k=0 xk

X
dk
u2 (x) = c u1 (x) log |x| + |x|
,
xk

k=0

con c0 = d0 = 1 y c 6= 0.
Soluci
on.
Sea 2 + 1 = n + 1 con n = 1, 2, . . . , de modo que las races de la ecuaci
on indicial
son r1 = n2 + 1 y r2 = n2 . El teorema de Frobenius garantiza entonces la existencia de
una soluci
on de la forma

X
n
ci ti ,
y1 (t) = t 2 +1
i=0

donde hemos supuesto, por sencillez, que t > 0. Debemos ahora determinar si la ecuaci
on
(3.100) posee una soluci
on de la forma
y2 (t) =

di ti 2

i=0

on diferencial (3.100) se obtiene inmediatamente


con d0 6= 0. Sustituyendo en la ecuaci
2

t (t 1)

X
i=0

 n  n  n

X
 n n
X
n
i 2 +2 n n
i 2 2
di i
i 1 t
+1
di ti 2
di i t
+2
+
2
2
2
2 2
i=0

i=0

= nd1 t1 2 +

h
X
i=2

i


n
n
n
i(n i + 1)di + i 1 i 2 di2 ti 2 = 0 .
2
2


De esta forma se obtiene la condici


on
n d1 = 0
junto con la relaci
on de recurrencia



n
n
i(n i + 1)di = i 1 i 2 di2
2
2

(3.103)

i = 2, 3, . . . .

(3.104)

Si n = 2m es un entero positivo par la relaci


on de recurrencia tiene soluci
on. En efecto,
si n = 2m con m = 1, 2, . . . entonces todos los coeficientes pares est
an determinados por

CAPITULO 3. SOLUCIONES EN FORMA DE SERIE

96

la relaci
on de recurrencia en funci
on de d0 , ya que 2m + 1 i no se anula para ning
un
entero par i. Ahora d1 = 0, y por tanto la relaci
on de recurrencia implica que
d3 = = d2m1 = 0 .
Haciendo i = 2m + 1 en la relaci
on de recurrencia se obtiene
0 d2m+1 = 0 ,
lo cual implica que d2m+1 no est
a determinado. (Esto es razonable, ya que si a
nadimos a
y2 (t) un m
ultiplo cualquiera de y1 (t) seguimos teniendo una soluci
on.) Sin embargo, dado
que 2m + 1 i no se anula para i = 2m + 3, 2m + 5, . . . , todos los coeficientes impares
a partir de d2m+1 est
an determinados por este (en particular, se anulan si tomamos
d2m+1 = 0).
Veamos ahora que ocurre si n = 2m 1 con m = 1, 2, . . . . En este caso todos los
coeficientes impares son nulos, ya que d1 = 0 y 2m i no es cero para i impar. Como
2m i tampoco se anula para i = 2, . . . , 2m 2, los coeficientes pares d2 , . . . , d2m2
est
an determinados por la relaci
on de recurrencia en funcion de d0 . Ninguno
de dichos


coeficientes se puede anular si d0 6= 0, ya que el factor i m 12 i m 23 no
se anula para ning
un entero i. Sin embargo, la relaci
on de recurrencia para i = 2m
proporciona la ecuaci
on



1
3
0= m
m
d2m2 ,
2
2
que es contradictoria. Por tanto, la segunda soluci
on contiene en este caso un termino
logartmico.

Captulo 4

Sistemas din
amicos en el plano
4.1

Resultados generales

Un sistema din
amico en Rn es un sistema aut
onomo de n ecuaciones diferenciales
de primer orden
x = f (x) .
(4.1)
Notese que la funci
on vectorial f : Rn Rn no depende del tiempo (variable independiente) t. La notaci
on que utilizaremos en este captulo es la siguiente:
x = (x1 , . . . , xn ) ,

x =

dx
.
dt

Notese que un sistema arbitrario (es decir, no necesariamente aut


onomo)
dy
= g(t, y)
dt

(4.2)

puede convertirse facilmente en un sistema din


amico. En efecto, si x = (t, y) entonces
x = f (x), siendo

f (x) = 1, g(x) .

Recprocamente, las soluciones de este sistema con la condici


on inicial t(0) = 0 son de
la forma (t, y(t)), con y(t) soluci
on de (4.2).
Si la funci
on f es de clase C 1 en un abierto U Rn entonces f , considerada como
funcion de R Rn Rn independiente de la variable t, es localmente lipschitziana en
RU respecto de la variable x. Por tanto, dado cualquier dato inicial x0 U localmente
hay una u
nica soluci
on x(t; t0 , x0 ) del sistema din
amico satisfaciendo dicho dato inicial
en el instante t = t0 :
x(t0 ; t0 , x0 ) = x0 .
Si t0 = 0, escribiremos normalmente x(t; x0 ) en lugar de x(t; 0, x0 ).
Historicamente, el primer ejemplo de sistema din
amico es el que describe el movimiento de un sistema cl
asico aislado de N partculas. En efecto, si las coordenadas
espaciales de la i-esima partcula las denotamos por Xi = Xi1 , Xi2 , Xi3 entonces las
ecuaciones de Newton del sistema son de la forma
i = Fi (X1 , . . . , XN , X 1 , . . . , X N ) ,
X

97

i = 1, 2, . . . , N ,

(4.3)


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

98


siendo Fi = F1 , F2 , F3 la fuerza por unidad de masa que act
ua sobre la i-esima partcula. Introduciendo la velocidad Pi = X i y llamando

x = X1 , . . . , XN , P1 , . . . , PN R6N ,

las ecuaciones de Newton (4.3) se convierten en el sistema din


amico (4.1) con f : R6N
6N
R dada por

f (x) = x3N +1 , . . . , x6N , F1 (x), . . . , FN (x) .

Una trayectoria de un sistema din
amico es la gr
afica t, x(t) de cualquier soluci
on
x(t) (t I, siendo I R un intervalo). Notese por tanto que las trayectorias son curvas
en R U Rn+1 , parametrizadas adem
as de una forma especial (es decir, utilizando
la primera coordenada como par
ametro de la curva). Una
orbita del sistema din
amico
(4.1) es una curva U Rn (considerada como conjunto de puntos) que se puede
parametrizar con una soluci
on x(t) del sistema (4.1), es decir tal que
= {x(t) : t I} ,

(4.4)

para alguna soluci


on x(t) del sistema. Por lo tanto, la proyeccion de una trayectoria
(t, x(t)) R U sobre U Rn es una orbita, y recprocamente toda orbita se puede
parametrizar de modo que sea la proyeccion sobre U de una trayectoria. Se suele llamar
espacio de fases del sistema din
amico n-dimensional (4.1) al abierto U Rn en que f
1
est
a definida (y es de clase C ), mientras que al cilindro R U Rn+1 se le denomina
espacio de fases ampliado. Llamaremos tambien mapa de fases del sistema din
amico
(4.1) al conjunto de todas sus
orbitas.
Ejemplo 4.1. Consideremos el sistema din
amico plano (es decir, n = 2)
x 1 = x2 ,

x 2 = x1 .

(4.5)

Este es un sistema lineal homogeneo de coeficientes constantes x = A x, siendo




0 1
A=
.
1 0
La soluci
on general del sistema es por tanto

 

cos t sen t

tA
x(t) = e x0 =
= cos t + sen t, sen t + cos t ,
sen t cos t

con (, ) R2 . Las trayectorias del sistema son por tanto las helices

t 7 (t, cos t + sen t, sen t + cos t R3 ,
t R.

Notese que las trayectorias son curvas en R3 . Las orbitas del sistema son las proyecciones
de las helices anteriores sobre las dos u
ltimas coordenadas, es decir las curvas planas
parametrizadas por

t 7 cos t + sen t, sen t + cos t .
Las ecuaciones parametricas de las orbitas son por tanto
x1 = cos t + sen t ,

x2 = sen t + cos t .

Eliminando el par
ametro t obtenemos la ecuaci
on implcita de las orbitas
x21 + x22 = 2 + 2 .
Se trata, por tanto, de circunferencias de centro el origen y radio

a2 + 2 .


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

99

La propiedad fundamental de un sistema aut


onomo (en el que la funcion f no depende explcitamente del tiempo t) es la siguiente:
Proposici
on 4.2. Si x(t) es una soluci
on de (4.1) y c R entonces x(t + c) sigue
siendo soluci
on de (4.1).
Demostraci
on. Si y(t) = x(t + c) entonces


y(t)
= x(t
+ c) = f x(t + c) = f y(t) .

Q.E.D.

Por el teorema de unicidad, si f C 1 (U ) dos trayectorias del sistema no se pueden


cortar, ya que en caso contrario las soluciones correspondientes a dichas trayectorias
tendran ambas el mismo dato inicial (el punto de corte). Este resultado es cierto tambien para sistemas no aut
onomos. Sin embargo, los sistemas aut
onomos satisfacen una
condici
on m
as fuerte:
Proposici
on 4.3. Las o
rbitas del sistema din
amico (4.1) no se cortan.
Demostraci
on. Supongamos, en efecto, que dos orbitas distintas (localmente) 1 y 2 se
cortaran en el punto x0 U . Sean x1 (t) y x2 (t) dos soluciones del sistema correspondientes a dichas
orbitas. entonces existiran dos tiempos t1 y t2 tales que
x1 (t1 ) = x2 (t2 ) = x0 .

(4.6)

Por el resultado anterior, las funciones y 1 (t) = x1 (t + t1 ) e y 2 (t) = x2 (t + t2 ) son ambas


soluci
on del sistema, y por (4.6) satisfacen la condici
on inicial
y 1 (0) = y 2 (0) = x0 .
Por el teorema de unicidad, y 1 (t) = y 2 (t) en un entorno de t = 0, y por tanto las funciones
x1 y x2 parametrizan la misma curva en un entorno de x0 (pues x1 (t) = x2 (t + t2 t1 )
en un entorno de t = t1 ).
Q.E.D.
De la demostracion anterior tambien se sigue que si es una orbita de (4.1) y x(t) es
una soluci
on del sistema que parametriza , entonces las u
nicas soluciones del sistema
que parametrizan a la
orbita son de la forma x(t + c) con c R constante. En otras
palabras, la parametrizaci
on de cualquier o
rbita de un sistema din
amico est
a determinada salvo por una traslaci
on temporal. (En lo anterior se sobreentiende que nos referimos
a parametrizaciones de las
orbitas con soluciones del sistema.) En particular, el sentido
de recorrido (orientaci
on) de las orbitas est
a bien determinado, ya que x(t) y x(t + c)
ambas determinan la misma orientacion.
Geometricamente, el sistema din
amico (4.1) admite la siguiente interpretacion senn
n
cilla. La funci
on f : U R R que define el sistema es un campo de vectores
en U Rn , ya que a cada punto x de U le asigna un vector f (x) Rn (piensese, por
ejemplo, en el caso n = 3). Si es una orbita del sistema y x0 es un punto cualquiera
de , el vector f (x0 ) es tangente a en x0 , y su sentido coincide con la orientaci
on de
. En efecto, si x(t) es una soluci
on de (4.1) que parametriza a entonces x0 = x(t0 )
para alg
un t0 , y por tanto (al ser x(t) soluci
on del sistema) x(t
0 ) = f x(t0 ) = f (x0 ).
Las orbitas cerradas de un sistema aut
onomo (de clase C 1 ) han de ser necesariamente
curvas cerradas simples (sin autointersecciones). En efecto, si una orbita cerrada del


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

100

sistema (4.1) se autointersecara en un punto x0 entonces por dicho punto pasaran en


realidad dos
orbitas distintas del sistema.
Proposici
on 4.4. Una o
rbita del sistema (4.1) es cerrada si y s
olo si las soluciones
del sistema que la parametrizan son funciones peri
odicas.
Demostraci
on. Notese que la condici
on del enunciado tiene sentido, ya que acabamos
de ver que las soluciones que parametrizan una orbita difieren en una traslaci
on en el
tiempo. Si x(t) es una soluci
on de (4.1) de perodo T > 0, la orbita que parametriza
es una curva cerrada, ya que obviamente
= {x(t)) : t0 t < t0 + T }
y x(t0 ) = x(t0 + T ). Recprocamente, supongamos que es una orbita cerrada del
sistema, y sea x(t) una soluci
on del sistema que parametrice . Si x(t) est
a definida en
t = a, por ser la curva cerrada existe un mnimo valor de b > a tal que x(a) = x(b).
Entonces x(t) y x(t + b a) son dos soluciones del sistema que verifican la misma
condici
on inicial en t = a. Por el teorema de unicidad, x(t) = x(t + b a) para todo t,
y por tanto la soluci
on x tiene perodo b a.
Q.E.D.
Por definicion, el perodo de una orbita cerrada del sistema (4.1) es el (menor)
perodo de cualquier soluci
on del sistema que parametrice dicha curva.
Ejemplo 4.5. Las curvas del sistema din
amico (4.5) se pueden escribir como sigue:

x(t) = r cos(t t0 ), sen(t t0 )

siendo r =

2 + 2 y

= r cos t0 ,

= r sen t0 .

Otra parametrizacion de la misma orbita es x(t) = r(cos t, sen t). Las orbitas son por
tanto circunferencias centradas en el origen y orientadas en sentido horario. En este caso,
todas las
orbitas del sistema son cerradas y tienen el mismo perodo (2). En general, sin
embargo, dos
orbitas cerradas distintas de un sistema din
amico tienen distinto perodo.
Es posible encontrar la ecuaci
on cartesiana (o implcita) de las orbitas de un sistema
sin hallar antes sus soluciones. Para ello parametrizamos la orbita utilizando como
par
ametro una de las coordenadas, por ejemplo la primera. Por el teorema de la funcion
inversa, esto podremos hacerlo localmente en un entorno de cualquier punto en que
x 1 6= 0, es decir en que f1 (x) 6= 0. La orbita vendra por tanto descrita
localmente con

una parametrizacion de la forma x1 7 x1 , x2 (x1 ), . . . , xn (x1 ) . Para determinar las
funciones xi (x1 ) (2 i n), observese que
x i
fi (x1 , x2 , . . . , xn )
dxi
=
=
,
dx1
x 1
f1 (x1 , x2 , . . . , xn )

i = 2, 3, . . . , n .

La ecuaci
on diferencial de las
orbitas en esta parametrizacion es por tanto el siguiente
sistema no aut
onomo de orden n 1:
fi (x1 , x2 , . . . , xn )
dxi
=
,
dx1
f1 (x1 , x2 , . . . , xn )

i = 2, 3, . . . , n .

(4.7)


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

101

Observese que esta parametrizacion s


olo tiene sentido en puntos en que f1 (x) 6= 0. Por
ejemplo, en el caso de un sistema plano, que normalmente escribiremos
(
x = f (x, y)
(4.8)
y = g(x, y) ,
las ecuaciones de las
orbitas son
g(x, y)
dy
=
,
dx
f (x, y)

si f (x, y) 6= 0

(4.9)

f (x, y)
dx
=
,
dy
g(x, y)

si g(x, y) 6= 0 .

(4.10)

Por ejemplo, para el sistema lineal


(

x = y
y = x

estudiado anteriormente, la ecuaci


on de las orbitas tomando a x como variable independiente es
dy
x
= , y 6= 0 ,
dx
y
que es de variables separadas y se integra facilmente:
x2 + y 2 = c ,

c 0 R.

Como ya vimos anteriormente, las orbitas son circunferencias centradas en el origen.


Los u
nicos puntos del espacio de fases en que no es posible parametrizar las orbitas tomando como par
ametro alguna de las coordenadas son los puntos en que todas
las funciones fi se anulan. Estos puntos, de importancia fundamental para entender el
comportamiento cualitativo del sistema din
amico correspondiente, reciben el nombre de
puntos crticos o equilibrios del sistema:
Definici
on 4.6. Un punto x0 Rn es un punto crtico o equilibrio del sistema (4.1)
si f (x0 ) = 0 .
Si x0 es un punto crtico del sistema (4.1), dicho sistema posee obviamente la soluci
on
constante x(t) = x0 , para todo t R. Esta es la raz
on por la cual a los puntos crticos
de un sistema din
amico se les llama tambien equilibrios. Visto de otra forma, un punto
crtico es una
orbita del sistema din
amico (4.1) que se reduce a un punto. Por la Proposici
on 4.3, ninguna
orbita del sistema puede contener a un punto crtico x0 . Observese,
sin embargo, que una
orbita x(t) puede entrar en el equilibrio (si lim x(t) = x0 ) o
t

salir de el (si lim x(t) = x0 ).


t

En un sistema din
amico, los equilibrios son los puntos m
as interesantes. En efecto,
si x0 Rn no es un equilibrio (f (x0 ) 6= 0) se puede probar que es posible realizar un
cambio de variables local y = Y (x) de forma que en la variable y el sistema din
amico
(4.1) se escriba
y1 = 1 ,
y2 = = yn = 0 .
En las nuevas coordenadas y1 , . . . , yn , las orbitas del sistema en las proximidades del
punto y0 = Y (x0 ) son simplemente rectas paralelas al eje y1 .


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

102

Definici
on 4.7. Sea x0 un punto crtico del sistema din
amico (4.1).
i) x0 es un punto crtico aislado si el sistema no tiene ning
un punto crtico en el
entorno perforado 0 < kx x0 k < , con > 0 suficientemente peque
no.
ii) x0 es un punto crtico elemental (simple, no degenerado) si det Df (x0 ) 6= 0 .
iii) x0 es un punto crtico hiperb
olico si todos los autovalores de Df (x0 ) tienen parte
real distinta de cero.
Proposici
on 4.8. x0 punto crtico hiperb
olico = x0 punto crtico elemental = x0
punto crtico aislado.
Demostraci
on. La primera implicaci
on es trivial, ya que si det Df (x0 ) = 0 alg
un autovalor de Df (x0 ) es igual a cero, y por tanto x0 no es un punto crtico hiperb
olico. En cuanto
a la segunda, por el teorema de la funcion inversa existe un entorno V = B (x0 ) de x0
en que f es invertible. Por tanto, si x V y f (x) = 0 = f (x0 ) entonces x = x0 . Q.E.D.
Ejemplo 4.9. Estudiemos c
omo son los puntos crticos del sistema din
amico lineal
x = A x

(4.11)

en terminos de la matriz A. En primer lugar, x0 es un punto crtico de (4.11) si y s


olo si
A x0 = 0. Por tanto, 0 es siempre un punto crtico de (4.11), y es el u
nico punto crtico si
y s
olo si la matriz A es no degenerada (det A 6= 0). El origen es un punto crtico aislado
si y s
olo si det A 6= 0. En efecto, si det A 6= 0 entonces 0 es el u
nico punto crtico, y si
det A = 0 entonces las soluciones de A x0 = 0 forman un subespacio lineal (en n
ucleo de
la matriz A) que contiene a 0.
Como f (x) = A x, se tiene que Df (x0 ) = A para todo x0 . Por tanto, x0 es un punto
crtico elemental de (4.11) si y s
olo si det A 6= 0. En otras palabras, si det A 6= 0 el u
nico
punto crtico es 0, que es aislado y elemental, y si det A = 0 entonces hay infinitos puntos
crticos, que forman un subespacio lineal y son no aislados (y, por tanto, no elementales).
Por u
ltimo, si det A 6= 0 el origen es un punto crtico hiperb
olico si y s
olo si todos los
autovalores de A tienen parte real no nula.
La importancia de los sistemas din
amicos lineales estriba en que un sistema din
amico
arbitrario se puede aproximar por un sistema lineal apropiado en las proximidades de
cualquier equilibrio x0 . En efecto, por definicion de derivada
f (x) = f (x0 ) + Df (x0 ) (x x0 ) + (x) = Df (x0 ) (x x0 ) + (x) ,
siendo k(x)k muy peque
no frente a kx x0 k:
lim

xx0

k(x)k
= 0.
kx x0 k

Es razonable por tanto pensar que el sistema din


amico (4.1) se pueda aproximar (en
un sentido que precisaremos a continuaci
on) en las proximidades del equilibrio x0 por
el sistema lineal
y = Df (x0 ) y ,
(4.12)
siendo y = x x0 la desviaci
on del equilibrio. Diremos que (4.12) es la aproximaci
on lineal de (4.1) en el punto crtico x0 . El mapa de fases de (4.1) en un entorno de


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

103

x0 y el de su aproximacion lineal (4.12) en un entorno del origen deberan ser cualitativamente semejantes. En general, sin embargo, esto s
olo es cierto si el punto crtico x0 es
1
hiperb
olico . Por ejemplo, si x0 es un punto crtico hiperb
olico de (4.1) su estabilidad
puede determinarse estudiando la estabilidad de la aproximacion lineal en x0 :
Teorema 4.10. Si x0 es un punto crtico hiperb
olico del sistema din
amico (4.1),
entonces x0 tiene el mismo tipo de estabilidad para (4.1) que la aproximaci
on lineal
de (4.1) en x0 .
En otras palabras, x0 es asint
oticamente estable si todos los autovalores de Df (x0 )
tienen parte real negativa, e inestable si alg
un autovalor de Df (x0 ) tiene parte real
positiva.

4.2

Sistemas din
amicos lineales en R2

Consideremos el sistema din


amico lineal
 
 
x
x
=A
,
y
y

A=


a b
.
c d

(4.13)

Llamaremos
= tr A a + d ,

d = det A ad bc .

(4.14)

Supondremos que la matriz A es no degenerada, es decir d 6= 0 , y por tanto el origen


es un punto crtico elemental del sistema lineal (4.13). El polinomio caracterstico de A
es
pA () = 2 + d ,
(4.15)
con discriminante
= 2 4d .

(4.16)

Sea X = (x, y), y efectuemos un cambio de variables dependientes real X = P Z , con


det P 6= 0. Entonces

X = P Z = A X = Z = P 1 A X = P 1 AP Z
y por tanto Z(t) es soluci
on del sistema lineal


Z = P 1 AP Z .

(4.17)

Si los autovalores de la matriz A son ambos reales, se puede escoger P de modo que sus
columnas de P formen una base de Jordan de A, en cuyo caso


1 0
1
P AP = J =
,
(4.18)
2
siendo 1 2 los dos autovalores de A, y {0, 1}, con = 0 si 1 =
6 2 o si A
es proporcional a la identidad. Notese que los mapas de fases de (4.13) y (4.17) son
1

Intuitivamente, esto se debe a que si el punto crtico es hiperb


olico una peque
na perturbaci
on del
sistema lo transformar
a en un punto crtico hiperb
olico. La hiperbolicidad de un punto crtico es por
tanto generica.


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

104

linealmente equivalentes, ya que se pasa de uno al otro mediante el cambio de variable


lineal X = P Z. Observese tambien que
= 1 + 2 ,

d = 1 2 .

(4.19)

Se pueden dar los siguientes casos:


I) Los autovalores de A son reales, es decir
2 4d 0 .
I.a)

(4.20)

d<0

Notese que d < 0 = 2 4d > 0. En este caso los dos autovalores tienen signos
opuestos, es decir
1 < 0 < 2 .
Si Z = (z1 , z2 ), la soluci
on general del sistema en Z es
z1 = c1 e1 t ,

z2 = c2 e2 t ,

(4.21)

con c1 y c2 constantes arbitrarias. La ecuaci


on cartesiana de las orbitas se deduce facilmente de la anterior:
2

z2 = c |z1 | 1 ,

c R,

(4.22)

junto con z1 = 0 (en realidad, se trata de las dos orbitas {z1 = 0, z2 > 0} y {z1 = 0, z2 < 0}).
Notese que las dos soluciones
Z(t) = (1, 0)e1 t
parametrizan el eje z1 (menos el origen) y entran en el punto crtico (el origen), al ser
1 negativo, mientras que las soluciones
Z(t) = (0, 1)e2 t
parametrizan el eje z2 y salen del origen (2 > 0). Si efectuamos la transformacion
lineal X = P Z para pasar a las variables originales X = (x, y), el mapa de fases es
semejante. En particular, los ejes z1 y z2 se transforman en dos rectas, dirigidas en la
direcci
on de los dos autovectores linealmente independientes de la matriz A. En este
caso se dice que el origen es un punto de silla del sistema (4.13).
I.b)

d>0

Notese que las desigualdades d > 0 y 2 4d 0 implican que 6= 0. En este caso


los dos autovalores tienen el mismo signo, igual al signo de . Es conveniente distinguir
los siguientes subcasos:
I.b.1)

2 4d > 0 ,

d>0

Los dos autovalores son distintos, y del mismo signo. La soluci


on del sistema y la
ecuaci
on de las
orbitas todava est
an dados por (4.21) y (4.22), respectivamente. Sin
embargo, al ser los dos autovalores del mismo signo, todas las soluciones tienden al
origen para t si < 0, y por tanto 1 < 2 < 0, o para t si > 0 y
0 < 1 < 2 . Notese adem
as que si > 0 y c1 6= 0
2 c2 (2 1 )t
z2 (t)
= lim
e
= 0,
t 1 c1
t z1 (t)
lim


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

105

Por tanto, si > 0 todas las


orbitas menos la recta z1 = 0 salen del origen con pendiente
cero. Analogamente, si < 0 y c2 6= 0 todas las orbitas menos z2 = 0 entran en el origen
tangentes al eje z2 .
En las coordenadas originales X = (x, y), todas las orbitas entran o salen del origen
seg
un sea < 0
o > 0. Dichas
orbitas entran o salen del origen tangentes a la recta
paralela al autovector correspondiente al menor autovalor en valor absoluto, excepto la
recta paralela al otro autovector. Diremos que el origen es un nodo estable si < 0, y
un nodo inestable si > 0.
I.b.2)

2 4d = 0

( d > 0) ,

A = 1

Las soluciones son las rectas X = v et , con v R2 y = /2. De nuevo, si > 0


las orbitas salen del origen, y entran en el origen si < 0. Se dice en este caso que el
origen es un nodo propio (estable si < 0, inestable si > 0).
2 4d = 0 ( d > 0) , A 6= 1
I.b.3)
En este caso la forma can
onica de Jordan de A es



0
J=
,
= .
1
2
Notese que en este caso la matriz A tiene un s
olo autovector linealmente independiente,
que est
a dado por la segunda columna de P . La soluci
on del sistema (4.17) es ahora
z1 = c1 et ,

z2 = (c1 t + c2 ) et

(c1 , c2 R) .

La ecuaci
on de las
orbitas es
z2 = z1


1
log |z1 | + c ,

c R,

junto con z1 = 0. De nuevo, todas las orbitas entran en el origen (resp. salen del origen)
si < 0 (resp. > 0). Adem
as, si c1 6= 0


z2 (t)
c2
c1 t + (c1 + c2 )
1
=
=t+
+
,
z1 (t)
c1
c1 t
por lo que todas las
orbitas entran o salen del origen tangentes al eje z2 . En las coordenadas de partida x, las
orbitas entran o salen del origen (seg
un sea < 0 o > 0)
tangentes a la recta paralela al autovector de la matriz A. Se dir
a que el origen es un
nodo de una tangente (estable si < 0, inestable si > 0).
II)

2 4d < 0

En este caso hay dos autovalores complejos conjugados 1,2 = i , con > 0.
Existe por tanto un vector v C2 tal que
A v = ( + i )v .
Tomando la parte real e imaginaria de esta igualdad compleja obtenemos las dos igualdades reales
A Re v = Re v Im v ,

A Im v = Im v + Re v .


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

Por tanto, si P = Re v Im v se tiene

P 1 A P =

106

Como la traza y el determinante son invariantes bajo transformaciones lineales se tiene


d = 2 + 2 .

= 2 ,

(4.23)

Efectuando el cambio X = P Z obtenemos el sistema en Z


z1 =

z1 + z2

(4.24)

z2 = z1 + z2 .
Pasando a coordenadas polares
z1 = r cos ,

z2 = r sen

obtenemos:
r 2 = z12 + z22 = r r = z1 z1 + z2 z2 = r 2
z1 = z1 + z2 = r cos (r sen ) = z1 z2 = = .
El sistema en coordenadas polares es
= ,

r = r ,

(4.25)

con soluci
on general
r = r0 et ,

= 0 t ;

r0 , 0 R .

(4.26)

La ecuaci
on de las
orbitas es por tanto

r = r0 e (0 ) .

(4.27)

Se trata de una familia de espirales logartmicas, si 6= 0 (es decir, 6= 0), o circunferencias centradas en el origen, si = 0 ( = 0). En el plano (x, y), las orbitas siguen
siendo espirales para 6= 0, y son elipses centradas en el origen para = 0. En el
primer caso ( 6= 0) se dice que el origen es un foco, estable para < 0 e inestable para
> 0, mientras que si = 0 el origen es un centro. Si > 0, las espirales tienden
al origen para t , mientras que si < 0 esto ocurre para t . El sentido de
giro alrededor del origen de las espirales o las circunferencias se determina facilmente
observando cu
al es la direcci
on del vector velocidad A X cuando la orbita cruza uno de
los ejes. Por ejemplo, la componente x del vector velocidad para x = 0 es f (0, y) = b y.
Por tanto, el sentido de giro es horario (antihorario) si b > 0 (b < 0). Del mismo modo,
como g(x, 0) = c x el sentido de giro es horario si c < 0, y antihorario si c > 0. Notese
que
2 4d = (a + d)2 4(ad bc) = (a d)2 + 4bc < 0 = bc < 0 .

En el plano de los par


ametros (, d), el conjunto 2 4d = 0 representa una par
abola.
El tipo de punto crtico que el sistema lineal (4.13) tiene en el origen (punto de silla,
nodo, foco o centro) est
a determinado por la posici
on del punto (, d) en el espacio de
par
ametros en relaci
on con esta par
abola y con los ejes coordenados (fig. 4.1).


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
d
FOCO EST.
NODO EST.

FOCO INEST.

2 4d = 0

NODO INEST.

CENTRO

NODO EST.

107

NODO INEST.

PTO. DE SILLA

PTO. DE SILLA

Figura 4.1: Tipos de puntos crticos del sistema lineal (4.13).

4.3

Sistemas din
amicos no lineales en R2

Consideremos a continuaci
on el sistema din
amico plano
(
x = f (x, y)
y = g(x, y) ,

(4.28)

donde las funciones f y g se supondran como mnimo de clase C 1 en un abierto U R2 ,


y supongamos que (x0 , y0 ) es un punto crtico de (4.28). La aproximacion lineal del
sistema (4.28) en el punto crtico (x0 , y0 ), es el sistema lineal
X = a X + b Y
Y = c X + d Y ,
siendo (X, Y ) = (x x0 , y y0 ),




a b
fx (x0 , y0 ) fy (x0 , y0 )
= D(f, g)(x0 , y0 ) =
.
c d
gx (x0 , y0 ) gy (x0 , y0 )

(4.29)

(4.30)

El siguiente teorema relaciona el comportamiento del sistema no lineal (4.28) en las


proximidades de un punto crtico elemental (x0 , y0 ) con el de su aproximacion lineal
(4.29) en un entorno del origen. Dicho teorema afirma esencialmente que si f y g son
suficientemente regulares en (x0 , y0 ), y dicho punto crtico es hiperb
olico, entonces el
sistema original (4.28) y su aproximacion lineal (4.29) tienen el mismo tipo de punto
crtico en (x0 , y0 ) y en el origen, respectivamente.


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

108

Teorema 4.11. Sea (x0 , y0 ) un punto crtico elemental del sistema (4.28), es decir


fx (x0 , y0 ) fy (x0 , y0 )

6= 0 .
f (x0 , y0 ) = g(x0 , y0 ) = 0 ,
det D(f, g)(x0 , y0 ) =
gx (x0 , y0 ) gy (x0 , y0 )
Entonces se verifica:

i) Si (f, g) C 1 y la aproximaci
on lineal (4.29) tiene un foco o un punto de silla
en el origen, entonces el sistema (4.28) tiene resp. un foco del mismo tipo (es
decir, estable o inestable) o un punto de silla en (x0 , y0 ).
ii) Si (f, g) C 2 y la aproximaci
on lineal (4.29) tiene un nodo en el origen, entonces el sistema (4.28) tiene un nodo del mismo tipo (estable o inestable, de
una tangente) en (x0 , y0 ).
iii) Si f y g son analticas en (x0 , y0 ) y la aproximaci
on lineal (4.29) tiene un centro
en el origen, entonces el sistema (4.28) puede tener un centro o un foco en
(x0 , y0 ).
Nota. Si la aproximacion lineal tiene un nodo en el origen y (f, g) s
olo es de clase C 1 ,
el sistema no lineal (4.28) puede tener un foco en (x0 , y0 ). Por ejemplo, esto es lo que
ocurre para el sistema

x = x
log r
x

y = y +
log r

en el origen. Analogamente, si la aproximacion lineal tiene un centro en el origen y (f, g)


es de clase C k (con 1 k < ), el sistema no lineal (4.28) puede tener un centro-foco
en el origen. Considerese, por ejemplo, el sistema
(
x = y + x r k+1 sen(1/r)
y =

x + y r k+1 sen(1/r)

en el origen.
Seg
un el teorema anterior, si la aproximacion lineal (4.29) tiene un centro en el
origen el sistema original puede tener en dicho punto un centro o un foco (a
un cuando
las funciones f y g sean analticas en el punto crtico). Para determinar en este caso
que tipo de punto crtico tiene el sistema (4.28) en (x0 , y0 ) se pueden usar muchas veces
consideraciones elementales de simetra. En efecto, si probamos que el mapa de fases del
sistema (4.28) en un entorno de (x0 , y0 ) es simetrico respecto de alguna recta que pase
por dicho punto entonces (x0 , y0 ) ha de ser forzosamente un centro, ya que una curva de
tipo espiral no es simetrica respecto de ninguna recta.
La simetra m
as facil de caracterizar es la simetra respecto de los ejes coordenados.
Por ejemplo, determinemos una condici
on suficiente para que las orbitas sean simetricas
respecto del eje x, suponiendo que (x0 , y0 ) = (x0 , 0) y que el origen es un centro de la
aproximacion lineal en este punto. En primer lugar, para que el campo de vectores (f, g)
sea continuo en el eje x las
orbitas deben cortar dicho eje con tangente vertical, es decir
f (x, 0) = 0

(4.31)

para |x x0 | suficientemente peque


 no. En segundo lugar, la simetra respecto del eje
horizontal implica que si x, y(x) es una orbita entonces (x, y(x)) tambien lo es. Esto


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

109

significa que si la funci


on y(x) es soluci
on de
y =

g(x, y)
f (x, y)

tambien lo ser
a la funci
on y(x). Imponiendo esta condici
on se obtiene



g x, y(x)
g x, y(x)
d

 =

y(x) = y (x) =
dx
f x, y(x)
f x, y(x)
para todo x. Esto se cumplira si

g(x, y)
g(x, y)
=
.
f (x, y)
f (x, y)
Por tanto, una condici
on suficiente para que las orbitas de (4.28) sean simetricas respecto
del eje horizontal es
g(x, y)
g(x, y)
=
,
f (x, y)
f (x, y)

f (x, 0) = 0 .

(4.32)

g(x, y) = g(x, y) ,

(4.33)

En particular, ambas condiciones se cumpliran si


f (x, y) = f (x, y) ,

es decir si f es impar en y y g es par en dicha variable. Analogamente, las orbitas de


(4.28) son simetricas respecto del eje y si
g(x, y)
g(x, y)
=
,
f (x, y)
f (x, y)

g(0, y) = 0

(4.34)

o, en particular, si
f (x, y) = f (x, y) ,

g(x, y) = g(x, y) .

(4.35)

Ejemplo 4.12. Consideremos el sistema


x = y
y = x x3 .

(4.36)

En este ejemplo, las funciones


g(x, y) = x x3

f (x, y) = y ,

son analticas en todo R2 . Los puntos crticos del sistema son las soluciones de las
ecuaciones
y = x x3 = 0 ,
es decir
(0, 0),

(1, 0),

(1, 0) .

La matriz jacobiana de (f, g) es


D(f, g)(x, y) =


0
1
.
1 3x2 0

(4.37)


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

110

Como el determinante de esta matriz, que es igual a 3x2 1, no se anula en ninguno de


los puntos crticos, todos ellos son elementales. En el origen, la aproximacion lineal de
(4.36) es
 
 


X
X
0 1
=A
,
A=
.
(4.38)
Y
1 0
Y
Al ser det A = 1 < 0, el origen es un punto de silla de la aproximacion lineal (4.38), y
por tanto del sistema original (4.36). Para estudiar el mapa de fases de dicho sistema en
las proximidades del origen, hacemos lo propio con el mapa de fases de la aproximacion
lineal (4.38). Los autovalores de la matriz A son las soluciones de la ecuaci
on



1
2

1 = 1 = 0 ,

es decir = 1. Los autovectores (X, Y ) correspondientes al autovalor = 1 son las


soluciones de

   
1
1
X
0
=
.
1 1
Y
0

Se trata, por tanto, de la recta Y = X. Analogamente se prueba que los autovectores


correspondientes al autovalor = 1 est
an sobre la recta Y = X. El mapa de fases
del sistema lineal (4.38) tiene por tanto el aspecto de la figura 4.2. Volviendo al sistema
original (4.36) en el origen, las dos rectas Y = X se transforman en dos curvas llamadas
separatrices, que salen o entran del origen con pendiente respectivamente igual a 1 o
1 (figura 4.3).

4
2

x
6

2
4
6

Figura 4.2: Mapa de fases del sistema lineal (4.38).


En los dos puntos crticos (1, 0), la matriz de la aproximacion lineal es igual a


0 1
.
2 0
La ecuaci
on de autovalores de esta matriz es 2 + 2 = 0, por lo que el origen es un centro
de la aproximacion lineal de (4.36) tanto en (1, 0) como en (1, 0). Al ser las funciones
f y g analticas, el sistema (4.36) puede tener un centro o un foco en (1, 0). Pero en


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

111

este caso el mapa de fases es simetrico respecto del eje horizontal, ya que f (x, y) = y es
impar en y, y g(x, y) = x x3 es par en dicha variable (al ser independiente de y). Como
ambos puntos crticos (1, 0) est
an sobre el eje horizontal, dichos puntos son centros del
sistema (4.36).

0.4
1.6

0.4 0

x
0.4

1.6

0.4
1

Figura 4.3: Mapa de fases del sistema (4.36).


El mapa de fases del sistema (4.36) tiene el aspecto de la figura 4.3. Esto se puede
ver facilmente, por ejemplo, teniendo en cuenta que x = y es siempre positivo en el
semiplano superior y negativo en el inferior. Por tanto, en el semiplano superior las
orbitas se recorren hacia la derecha, mientras que en el inferior el sentido de recorrido es
hacia la izquierda. Por otra parte, y = x(1 + x)(1 x) es negativa para x > 1, positiva
para 0 < x < 1, negativa para 1 < x < 0, y positiva para x < 1. Por ejemplo, la
separatriz con pendiente 1 en el origen se mueve hacia la derecha y hacia arriba para
0 < x < 1. Al llegar a x = 1 el signo de y cambia, por lo que el movimiento es hacia
abajo y hacia la derecha hasta que esta orbita corta el eje x. Al pasar al semiplano
inferior x = y < 0, y el movimiento es hacia la izquierda y hacia abajo (ya que x > 1)
hasta llegar a x = 1, en que de nuevo y se hace positiva. Entre este punto y el origen
(al que esta
orbita llega como la segunda separatriz, pues de otra forma cortara a otra
orbita) el movimiento es hacia la izquierda y hacia arriba.
En este ejemplo, podemos hacer afirmaciones m
as precisas sobre las orbitas resolviendo su ecuaci
on diferencial
x x3
dy
=
,
dx
y
que es exacta y se integra facilmente:
1 2 1 4 1 2
y + x x = c1 ,
2
4
2

c1 R ,

o, equivalentemente,
(x2 1)2 + 2y 2 = c ,

c0 .

(4.39)

De esta ecuaci
on se deduce que el mapa de fases es simetrico respecto de ambos ejes, y
todas las
orbitas son acotadas y cerradas. (La simetra respecto del eje y del mapa de
fases se podra haber deducido sin necesidad de hallar la ecuaci
on de las orbitas, ya que


CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO

112

g es impar y f par en x, resp.) Los puntos crticos, por ejemplo, se obtienen para c = 0.
Las separatrices son las dos
orbitas que pasan por el origen (en realidad, tienden al
origen para t . Sustituyendo por tanto x = y = 0 en la ecuaci
on anterior se
obtiene c = 1, por lo que las separatrices son las curvas
r
x2
2
2
2
.
(x 1) + 2y = 1 y = x 1
2

También podría gustarte