Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Edi Ag
Edi Ag
Artemio Gonz
alez L
opez
Indice general
1 Introducci
on
1.1 Preliminares . . . . . . . . . . . . . . . . . . . . .
1.2 Tecnicas elementales de integraci
on . . . . . . . .
1.2.1 y = f (x) . . . . . . . . . . . . . . . . . .
1.2.2 Ecuaciones con variables separadas . . . .
1.2.3 Ecuaciones homogeneas . . . . . . . . . .
1.2.4 Ecuaciones lineales . . . . . . . . . . . . .
1.2.5 Ecuacion de Bernoulli . . . . . . . . . . .
1.2.6 Ecuacion de Riccati . . . . . . . . . . . .
1.2.7 Ecuaciones exactas y factores integrantes
1.3 Existencia y unicidad de soluciones . . . . . . . .
1.3.1 Funciones lipschitzianas . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
6
7
9
10
12
16
19
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
28
30
32
33
34
37
41
45
46
52
54
57
62
.
.
.
.
.
.
65
65
66
71
78
85
93
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE GENERAL
4 Sistemas din
amicos en el plano
4.1 Resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Sistemas din
amicos lineales en R2 . . . . . . . . . . . . . . . . . . . . .
4.3 Sistemas din
amicos no lineales en R2 . . . . . . . . . . . . . . . . . . . .
ii
97
97
103
107
Captulo 1
Introducci
on
1.1
Preliminares
(1.1)
es una ecuaci
on diferencial. Las soluciones de la ecuaci
on anterior, es decir las funciones
u(x, y) para las cuales dicha ecuaci
on se verifica identicamente (en todos los puntos (x, y)
pertenecientes a un abierto D R2 ), son las funciones de la forma
u(x, y) = f (x y) ,
donde f es una funci
on derivable arbitraria.
Ejemplo 1.1. La ecuaci
on
u
u
(x, y) +
(y, x) = 0
x
y
no es una ecuaci
on diferencial, ya que las derivadas parciales de u no est
an evaluadas
en el mismo punto.
Una ecuaci
on como (1.1), en la que la funcion inc
ognita u depende de m
as de una
variable, se denomina ecuaci
on en derivadas parciales. Por el contrario, si u es una
funcion de una variable la ecuaci
on diferencial se dice ordinaria. Son estas ecuaciones las
que nos interesaran fundamentalmente en este curso, por lo que daremos a continuaci
on
una definicion m
as cuidadosa de ellas.
Definici
on 1.2. Un sistema de ecuaciones diferenciales ordinarias (EDOs) es un
sistema de ecuaciones del tipo
F x, y, y , . . . , y (n) = 0 ,
(1.2)
CAPITULO 1. INTRODUCCION
Notaci
on:
u(k) =
dk u
dxk
p = n
umero de ecuaciones del sistema (el sistema F = 0 es equivalente a las p ecuaciones F1 = = Fp = 0, donde Fi es la i-esima componente de F ).
m = n
umero de funciones inc
ognitas (la funcion inc
ognita vectorial y : R Rm es
equivalente a las m funciones inc
ognitas escalares y1 , . . . , ym : R R, donde yi es la
i-esima componente de y). Generalmente, p = m .
Fi
(n)
yj
no es identica-
1.2
T
ecnicas elementales de integraci
on
1.2.1
y = f (x)
f (s) ds + c ,
x0
Rx
x0
f (s) ds + y0 .
y(x0 ) = y0
CAPITULO 1. INTRODUCCION
1.2.2
f (x)
,
g(y)
(1.3)
x0
y(x)
g(t) dt =
y(x0 )
f (s) ds .
x0
x0
R y(x )
donde c = y0 0 g(s) ds es una constante arbitraria. Recprocamente, derivando (1.4)
(considerando a y como funci
on de x) se comprueba que toda funcion y(x) que verifique
(1.4) es soluci
on de (1.3). Se dice que la expresi
on (1.4) es la soluci
on general de (1.3).
Estudiemos m
as detenidamente la soluci
on general (1.4). Es de la forma
Z y
Z x
(x, y) = c ,
con (x, y) =
g(s) ds
f (s) ds .
y0
(1.5)
x0
La ecuaci
on (1.5) define implcitamente una familia a un par
ametro de curvas planas.
Cada curva de la familia (que se obtiene fijando el valor del par
ametro c) tiene la
propiedad de que su pendiente y en un punto cualquiera (x, y) de la curva satisface
la ecuaci
on (1.3), es decir y = f (x)/g(y). Este tipo de curvas se denominan curvas
integrales de la ecuaci
on (1.3). Notese que una soluci
on de (1.3) no es m
as que una
funcion cuya gr
afica est
a contenida en una curva integral.
Sea (a, b) U V un punto del plano, por el que pasa la curva de la familia (1.5)
con c = (a, b). Por el teorema de la funci
on implcita, la relaci
on (1.5) define en un
entorno del punto (a, b) una funci
on y(x) tal que y(a) = b si
(a, b) = g(b) 6= 0 ,
y
condici
on que se cumple por la hip
otesis hecha sobre g. (Notese que es de clase C 1 (U
V ), por lo que el teorema es aplicable.) Esta funcion es soluci
on de la ecuaci
on diferencial
(1.3) (ya que satisface la relaci
on implcita (1.5)) con la condici
on inicial y(a) = b. El
teorema de la funci
on implcita garantiza que esta soluci
on es u
nica localmente (en
un entorno de a), ya que dicho teorema garantiza la unicidad local de la funcion y(x)
que satisface la relaci
on implcita (1.5) junto con la condici
on y(a) = b. Por tanto, el
problema de valor inicial asociado a la ecuaci
on (1.3) tiene soluci
on u
nica local si los
datos iniciales est
an en el abierto U V .
CAPITULO 1. INTRODUCCION
3
2
y
1
x 2
1
2
3
(1.6)
que es del tipo anterior con f (x) = x, U = R, g(y) = y. Como g se anula en 0, como
intervalo V podemos tomar o bien V+ = R+ (n
umeros reales positivos) o bien V = R ,
pero no V = R. La integraci
on de esta ecuaci
on es inmediata, siendo la soluci
on general
y 2 + x2 = c ,
(1.7)
con c > 0 una constante arbitraria. Las curvas integrales son pues circunferencias de
radio c (fig. 1.4). Si hemos tomado V = R+ , entonces y > 0, y por tanto de (1.7) se
sigue que
p
(1.8)
y = c x2 ,
que est
a definida (y es derivable) en el intervalo abierto ( c, c). Por el contrario, si
tomamos V = R entonces y < 0, y la soluci
on general es entonces
p
c < x < c.
(1.9)
y = c x2 ,
As, en este caso cada curva integral (1.7) da lugar a dos soluciones (tiene dos ramas).
Utilizando las expresiones (1.8) y (1.9) es facil probar que el problema de valor inicial
y(x0 ) = y0 para la ecuaci
on (1.6) tiene soluci
on u
nica para todo (x0 , y0 ) con y0 6= 0.
La ecuaci
on diferencial (1.6) no tiene sentido en el eje horizontal, ya que ah se anula el
denominador del miembro derecho. En cuanto a las soluciones (1.8)(1.9), ambas tienen
(1.10)
CAPITULO 1. INTRODUCCION
4
y
2
10 8 6 4 2 0
4 x 6
8 10
(1.11)
k Z,
CAPITULO 1. INTRODUCCION
y0
1 + y0 (sen x0 sen x) .
1.2.3
Ecuaciones homog
eneas
(1.12)
en que la funci
on f es continua en un abierto U R2 y homogenea de grado cero, es
decir
f (tx, ty) = f (x, y) ,
x, y U , t R , t 6= 0 .
Este tipo de ecuaciones se resuelven transformandolas en una ecuaci
on de variables
separadas mediante el cambio
y = xz,
(1.13)
valido para x 6= 0. En efecto,
y = x z + z = f (x, xz) = f (1, z)
z =
f (1, z) z
.
x
(1.14)
La ecuaci
on anterior tiene soluciones constantes z = para toda raz de la ecuaci
on
= f (1, ) .
En la variable y estas son soluciones lineales y = x, mientras que las dem
as soluciones
se obtienen integrando (1.14), es decir son de la forma
log |x| + c =
y/x
dz
.
f (1, z) z
Ejemplo 1.6.
y =
3xy + 2y 2
.
x2 + xy
(1.15)
Es una ecuaci
on homogenea (tanto el numerador como el denominador son homogeneos
de grado 2), con
f (1, z) =
z(z + 2)
3z + 2z 2
= f (1, z) z =
.
1+z
z+1
de donde
z(z + 2) = Cx2
CAPITULO 1. INTRODUCCION
y = x x 1 + x2
y = x + x 1 + x2
4
2
y = x + x 1 x2
2
1
2
y = x x 1 x2
y = 2x
1 + Cx2 .
(1.16)
p
Esta soluci
on est
a definida para todo x si C > 0, y para |x| < 1/ |C| si C < 0
(cf. fig. 1.3). En este caso f es singular en las rectas x = 0 y x + y = 0, por lo que
el abierto U estar
a contenido en una de las cuatro regiones abiertas determinadas por
la intersecci
on de estas rectas. En cada una de estas regiones el signo del radical en la
formula anterior est
a bien determinado: por ejemplo, si x < 0 y x+y > 0 deber
a tomarse
el signo . Finalmente, n
otese que haciendo C = 0 en la formula (1.16) obtenemos
las dos soluciones lineales de la ecuaci
on (1.15).
1.2.4
Ecuaciones lineales
y = a(x) y + b(x) ,
(1.17)
x0
Rx
a(s) ds
,
a(s) ds + c0 = y = c e x0
CAPITULO 1. INTRODUCCION
Rx
a(s) ds
Rx
a(s) ds
+ c(x) a(x) e x0
a(x) c(x) e
Rx
a(s) ds
= 0 c (x) = b(x) e x0
,
x0
de donde se obtiene
c(x) = c +
Rt
x
0
b(t) e
x0
a(s) ds
x0
a(s) ds
b(x)
dt ,
x
x0
Rt
x
0
b(t) e
a(s) ds
dt ,
o, equivalentemente,
Z
Rx
a(s) ds
x
0
+
y = ce
x
x0
Rx
b(t) e t a(s) ds dt .
(1.20)
De nuevo, la soluci
on depende del par
ametro arbitrario c.
Notese que la expresi
on anterior tiene la estructura
Rx
a(s) ds
+ yp (x) ,
y = c e x0
CAPITULO 1. INTRODUCCION
Ejemplo 1.7.
y =
x + 2y
.
x
(1.21)
Esta ecuaci
on (que tiene sentido s
olo si x 6= 0, es decir si x pertenece a las semirrectas
R+ o R ) es lineal (inhomogenea), ya que se puede escribir
y =
2
y + 1.
x
La ecuaci
on anterior es homogenea, por lo que podra resolverse utilizando el procedimiento explicado en la Secci
on 1.2.3; sin embargo, en esta secci
on la resolveremos
trat
andola como una ecuaci
on lineal.
Soluci
on general de la homogenea:
2
y
= = log |y| = 2 log |x| + c0 = y = c x2 ,
y
x
c R.
Soluci
on particular de la completa:
yp (x) = x
dt
= x2 (x1 ) = x .
t2
1.2.5
Ecuaci
on de Bernoulli
y = a(x) y + b(x) y r ,
r R , r 6= 0, 1 ,
(1.22)
que es lineal si
1+
r1
= 0, 1 .
p
El u
ltimo caso hay que descartarlo (ya que r 6= 1), por lo que queda p = 1 r , y la
ecuaci
on anterior se convierte en la ecuaci
on lineal
1
z = (1 r) a(x) z + b(x)
(y = z 1r ) .
CAPITULO 1. INTRODUCCION
10
Ejemplo 1.8.
y =
2xy y 2
.
x2
(1.23)
2
1
y 2 y2 .
x
x
(1.24)
La soluci
on general de la ecuaci
on homogenea es
c
z= 2.
x
Una soluci
on particular de la ecuaci
on (1.24) es
Z x
1
1
dt = .
zp (x) = 2
x
x
Por tanto, la soluci
on general de (1.24) es
z=
x+c
,
x2
y=
x2
.
x+c
y la de la ecuaci
on propuesta (1.23)
1.2.6
Ecuaci
on de Riccati
y = a(x) + b(x) y + c(x) y 2 ,
(1.25)
= b(x) u c(x)
u =
2 =
2
y y0 (x)
y y0 (x)
y y0 (x)
= b(x) + 2c(x)y0 (x) u c(x) .
(1.26)
CAPITULO 1. INTRODUCCION
11
Ejemplo 1.9.
y = cos x y
sen x 2
y .
cos2 x
Es una ecuaci
on de Riccati, con soluci
on particular y0 (x) = cos x. Efectuando el cambio
de variable
1
u=
y cos x
obtenemos
h
sen x 2 i
y + sen x
2
sen
x
cos
x
+
y
+
y
=
u
(y cos x)2
cos2 x
sen x
2 cos x
1
1
= u2 sen x + +
+ cos2 x ,
+
2
2
u cos x u
u
u =
sen x
.
cos2 x
(1.27)
La soluci
on general de la ecuaci
on homogenea es
u=c
ex
,
cos2 x
ex (sen x + cos x) =
.
2
2
cos x
2 cos x
2 cos2 x
Por tanto la soluci
on de la ecuaci
on lineal (1.27) es
u=c
ex
sen x + cos x
,
2
cos x
2 cos2 x
y la de la ecuaci
on de partida
y = cos x +
2 cos2 x
,
Cex sen x cos x
c (x) z
1 z 2
1 z 2
b(x) z
1 z
+
+
+
=
a(x)
c(x) z
c(x)2 z
c(x) z 2
c(x) z
c(x) z 2
(1.28)
CAPITULO 1. INTRODUCCION
12
1 k1 z1 (x) + k2 z2 (x)
.
c(x) k1 z1 (x) + k2 z2 (x)
y2
y
+
.
x
x
es
y = x tan(x c) ,
c R.
(1.29)
1.2.7
Una ecuaci
on diferencial de primer orden de la forma
P (x, y) + Q(x, y) y = 0 ,
(1.31)
Q(x, y) = fy (x, y) ,
en U .
(x, y) U .
(1.32)
CAPITULO 1. INTRODUCCION
13
(x, y) U ,
(1.33)
ya que (lema de Schwarz) ambos miembros son iguales a fxy (x, y). Recprocamente, puede probarse que si se cumple la condici
on (1.33) en un abierto simplemente conexo
U entonces la ecuaci
on es exacta. (Un abierto de R2 es conexo si dos puntos cualesquiera de dicho abierto se pueden unir por una curva continua enteramente contenida
en el abierto. Un abierto conexo es simplemente conexo si toda curva cerrada continua
contenida en el abierto puede deformarse de forma continua a un punto sin salirse del
abierto. Intuitivamente, un abierto es simplemente conexo si es conexo (consta de una
s
ola pieza) y no tiene agujeros. Ejemplos de abiertos simplemente conexos son el conjunto R2 , un disco abierto, un rect
angulo abierto, un tri
angulo abierto, etc. Los abiertos
2
estrellados y, en particular, convexos de R son simplemente conexos. Un abierto no
simplemente conexo es, por ejemplo, R2 menos un punto, un disco abierto menos uno
de sus puntos,
o un anillo.)
Probemos que la condici
on (1.33) es suficiente para que la ecuaci
on (1.31) sea exacta
si U = (a, b) (c, d) es un rect
angulo abierto (en particular, si U = R2 ). En efecto, sea
(x0 , y0 ) un punto fijo de U . Integrando la ecuaci
on fx = P respecto de x obtenemos
Z x
f (x, y) =
P (s, y) ds + g(y) ,
x0
donde la funci
on g s
olo puede depender de y. (Notese que los puntos de la forma (s, y)
pertenecen a U si y (c, d) y s (a, b).) Imponiendo la segunda ecuaci
on fy = Q y
aplicando la relaci
on (1.33) obtenemos una ecuaci
on diferencial para g:
Z x
Z x
fy (x, y) = g (y) +
Py (s, y) ds = g (y) +
Qx (s, y) ds = g (y) + Q(x, y) Q(x0 , y)
x0
x0
Por tanto,
g(y) =
Q(x0 , s) ds + c ,
y0
y
f (x, y) =
x0
P (s, y) ds +
y0
Q(x0 , s) ds + c .
(1.34)
CAPITULO 1. INTRODUCCION
14
d
(x0 , y) 0
0
(x, y)
U
(x0 , y0 )
c
a
donde es cualquier curva contenida en U que una el punto fijo (x0 , y0 ) U con el
punto variable (x, y) U . Por ejemplo, si es el segmento que une (x0 , y0 ) con (x, y),
es decir
(t) = (x0 , y0 ) + t(x x0 , y y0 ) ,
t [0, 1] ,
entonces dx = (x x0 ) dt, dy = (y y0 ) dt, y por tanto
f (x, y) =
1
(x x0 )P x0 + t(x x0 ), y0 + t(y x0 )
+ (y y0 )Q x0 + t(x x0 ), y0 + t(y x0 ) dt .
Ejemplo 1.10.
Q = 5x + 2y 3
Py = Qx = 5 .
La funci
on f tal que f = (P, Q) se encuentra facilmente:
fx = 12x + 5y 9 = f = 6x2 + 5xy 9x + g(y) ;
fy = 5x + g (y) = 5x + 2y 3 g (y) = 2y 3
g(y) = y 2 3y + const.
(1.35)
CAPITULO 1. INTRODUCCION
15
A toda funci
on tal que la ecuaci
on anterior sea exacta se le llama un factor integrante
para la ecuaci
on de partida (1.31). La ecuaci
on que ha de cumplir el factor integrante
es por tanto (si U es, de nuevo, un abierto simplemente conexo del plano)
(P )y = ( Q)x ,
que se puede escribir como la siguiente ecuaci
on lineal en derivadas parciales de primer
orden para :
P (x, y) y Q(x, y) x + Py (x, y) Qx (x, y) = 0 .
(1.37)
Py Qx
h(y)
P
la ecuaci
on (1.31) posee el factor integrante funcion de y u
nicamente:
Ry
(y) = c e h(t) dt .
Ejercicio.
Probar que la ecuaci
on (1.31) posee un factor integrante (r) funcion de
p
2
2
r = x + y si y s
olo si
Py Qx
= g(r) ,
yP xQ
y que en tal caso puede calcularse por la formula
Rr
(r) = c e t g(t) dt .
CAPITULO 1. INTRODUCCION
16
(1.38)
Aqu
Py Qx
= 2y 2 = h(y) .
P
La ecuaci
on posee por tanto el factor integrante
Ry 2
2 3
(y) = e 2t dt = e 3 y .
Py = 0 ,
Qx = 2xy 2 ,
2 3
fy = x y e
+ g (y) = (x2 y 2 + y 5 ) e 3 y = g (y) = y 5 e 3 y .
2 3
y 5 e 3 y dy =
1
3
y3
t e 3 t dt =
2 3
1
2y 3 + 3 e 3 y ,
4
2 y3
1 2 1
3
f (x, y) = x +
2y + 3 e 3 .
2
4
La soluci
on general de la ecuaci
on de partida es pues
2 3
x2 + y 3 = c e 3 y
3
.
2
1.3
(1.39)
y(x0 ) = y0
(1.40)
asociado a la ecuaci
on diferencial de primer orden (1.39) tena soluci
on u
nica, salvo para
datos iniciales (1.40) en que la funcion f no era suficientemente regular. En esta secci
on
vamos a estudiar en detalle el problema de la existencia y unicidad de soluciones del
problema (1.39)(1.40), intentando precisar bajo que condiciones sobre la funcion f y
los datos iniciales (x0 , y0 ) la soluci
on es u
nica. Consideraremos el caso m
as general en
que la variable dependiente (funci
on inc
ognita) y toma valores en Rn :
y = (y1 , . . . , yn ) Rn ,
(1.41)
CAPITULO 1. INTRODUCCION
17
U abierto .
(1.42)
La ecuaci
on (1.39) es por tanto un sistema de n ecuaciones diferenciales de primer orden
en forma normal
y1 = f1 (x, y1 , . . . , yn )
..
.
yn = fn (x, y1 , . . . , yn ) ,
y el dato inicial (1.40) es equivalente a las n condiciones
(1.43)
1 i n,
(1.44)
(1.45)
0 i n 1.
0 i n 1.
(1.47)
CAPITULO 1. INTRODUCCION
18
(1.48)
(1.49)
funcion tambien definida en toda la recta real (fig. 1.5). (Se demuestra que la soluci
on
10
8
6
4
2
2
0
2
4
6
8
10
(1.50)
no tiene soluci
on u
nica, ni siquiera localmente. Por ejemplo, las funciones y(x) = 0 e
3
y(x) = (x x0 ) son dos soluciones de dicho problema que no coinciden en ning
un
intervalo abierto centrado en x0 .
CAPITULO 1. INTRODUCCION
1.3.1
19
Funciones lipschitzianas
Introduciremos a continuaci
on una condici
on sobre la funcion f m
as fuerte que la continuidad, que ser
a suficiente para que el problema de valor inicial (1.39)(1.40) tenga
soluci
on u
nica local. Comenzaremos con el caso sencillo de funciones de una variable.
Definici
on 1.12. Una funci
on f : I R (siendo I un intervalo) es lipschitziana si
existe una constante positiva L > 0 (constante de Lipschitz ) tal que
|f (x1 ) f (x2 )| L |x1 x2 | ,
x1 , x2 I .
(1.51)
|x1 + x2 | L ,
x1 6= x2 .
Proposici
on 1.13. Si f es derivable en un intervalo I y f est
a acotada en I, entonces
f es lipschitziana en I.
Demostraci
on. En efecto, si |f (x)| L para todo x I aplicando el teorema del valor
medio se obtiene
|f (x1 ) f (x2 )| = f () |x1 x2 | L |x1 x2 | ,
ya que min(x1 , x2 ), max(x1 , x2 ) I.
Q.E.D.
Corolario 1.14. f : I R de clase C 1 en un intervalo compacto I = f lipschitziana
en I.
Demostraci
on. Si f C 1 (I) con I intervalo compacto, f es continua en el intervalo
compacto I, por lo que f es necesariamente acotada en dicho conjunto (alcanza, de
hecho, sus valores m
aximo y mnimo en I). La proposici
on anterior implica entonces
que f es lipschitziana en I.
Q.E.D.
Pasemos a continuaci
on al caso que en realidad nos interesa, en el que f : R Rn
Rn .
CAPITULO 1. INTRODUCCION
20
Definici
on 1.15. Sea f : I D Rn , siendo I R un intervalo y D Rn (no
necesariamente abierto). Diremos que f es lipschitziana en la segunda variable (o
en el segundo argumento) en I D si existe L > 0 (de nuevo llamada constante de
Lipschitz ) tal que
f (x, y 1 ) f (x, y 2 )
L
y 1 y 2
,
x I , y 1 , y 2 D .
(1.52)
En la formula anterior, kk denota la norma euclidiana en Rn , es decir
q
n
v = (v1 , . . . , vn ) R = kvk = v12 + + vn2 .
La definicion 1.15 es an
aloga a la 1.12, considerando a la variable x como un par
ametro
y cambiando el valor absoluto por la norma.
Proposici
on 1.16. Sea f : I D Rn , con D abierto convexo. Si las derivadas
fi
an acotadas en I D, entonces f
parciales yj (1 i n) existen, son continuas y est
es lipschitziana en I D.
Demostraci
on. Sean (x, y 1 ), (x, y 2 ) I D. Aplicando el teorema del valor medio a
cada componente fi de f obtenemos
fi (x, y 1 ) fi (x, y 2 ) = fi (x, i ) (y 1 y 2 ) ,
para alg
un punto i del segmento que une y 1 con y 2 (contenido en D por ser dicho
conjunto convexo), donde el gradiente est
a tomado respecto de las variables (y1 , . . . , yn ).
Por la desigualdad de CauchySchwarz,
fi (x, y 1 ) fi (x, y 2 )
fi (x, i )
y 1 y 2
nM
y 1 y 2
siendo M una cota superior de los valores absolutos de las derivadas parciales
I D. De esta desigualdad se sigue que
f (x, y 1 ) f (x, y 2 )
nM
y 1 y 2
fi
yj
en
Q.E.D.
B r (y0 ) = {y Rn : ky y0 k r}
para todo x U .
CAPITULO 1. INTRODUCCION
21
Notese que N s
olo puede depender de , no del punto x U .
P
Analogamente, la serie de funciones
k=1 gk converge uniformemente en U si para
todo > 0 existe N N tal que
X
gk (x)
< ,
para todo x U .
k=N +1
k a
gk (t) dt =
Z b
a
lim gk (t) dt .
Un resultado an
alogo vale para series uniformemente convergentes de funciones integrables en un intervalo.
Teorema de PicardLindel
of. Sea f : A [x0 a, x0 +a]B b (y0 ) RRn Rn
(con a > 0, b > 0) continua y lipschitziana con respecto a la segunda variable en el
conjunto A. Entonces el problema de valor inicial (1.39)(1.40) tiene una soluci
on
u
nica y(x) definida en el intervalo [x0 , x0 + ], siendo
= min(a, b/M )
y M el supremo de kf k en A.
Demostraci
on. (Notese, antes de empezar, que la existencia de M est
a garantizada por
ser f continua en el conjunto compacto A.) La demostracion est
a basada en un argumento muy sencillo de aproximaciones sucesivas (de Picard) a la soluci
on del problema
(1.39)(1.40). Por sencillez, nos restringiremos al caso n = 1 (ecuaci
on escalar), en que
A es un rect
angulo cerrado
A = [x0 a, x0 + a] [y0 b, y0 + b]
y kf (x, y)k = |f (x, y)|.
CAPITULO 1. INTRODUCCION
22
ii) A continuaci
on construimos recursivamente una familia de funciones yk : [x0 , x0 +
] [y0 b, y0 + b] (k = 0, 1, . . . ) diferenciables en el intervalo [x0 , x0 + ] de la
forma siguiente. En primer lugar, definimos
y0 (x) = y0 ,
x [x0 , x0 + ] .
A continuaci
on definimos
y1 (x) = y0 +
x
x0
f t, y0 dt ,
x [x0 , x0 + ] .
La funci
on y1 est
a claramente definida y es diferenciable en [x0 , x0 + ] (por la
continuidad de f en A). Adem
as, se tiene
Z x
f t, y0 dt M |x x0 | M b , x [x0 , x0 + ] .
|y1 (x) y0 |
x0
(1.54)
Procediendo recursivamente, supongamos que hemos definido las funciones diferenciables
y0 , . . . , yk : [x0 , x0 + ] [y0 b, y0 + b]. Entonces se define
yk+1 (x) = y0 +
x
x0
f t, yk (t) dt ,
x [x0 , x0 + ] .
(1.55)
Por hip
otesis de induccion, yk es diferenciable en [x0 , x0 + ] e yk (t) [y0 b, y0 + b]
para t [x0 , x0 + ]. Esto implica que f t, yk (t) es continua si t [x0 , x0 + ],
y por tanto (teorema fundamental del C
alculo) yk+1 es diferenciable en [x0 , x0 + ].
Utilizando de nuevo la hip
otesis de induccion (yk (t) [y0 b, y0 + b]) se obtiene
Z x
|yk (x) y0 |
f t, yk (t) dt M |x x0 | M b , x [x0 , x0 + ] .
x0
M Lk |x x0 |k+1
,
(k + 1)!
x [x0 , x0 + ] , k = 0, 1, . . . ,
(1.56)
donde L > 0 es una constante de Lipschitz de f en A. En efecto, para k = 0 la desigualdad ya est
a probada (vease (1.54)). Supuesta la desigualdad anterior cierta para
k = 0, 1, . . . , m 1 con m 1, utilizando la hip
otesis de induccion y la lipschitzianidad
CAPITULO 1. INTRODUCCION
23
de f en la variable y obtenemos
Z x
|ym+1 (x) ym (x)| =
f t, ym (t) f t, ym1 (t) dt
x0
Z x
f t, ym (t) f t, ym1 (t) dt
x0
Z x
Z
M Lm1 x
m
L
|ym (t) ym1 (t)| dt L
|t
x
|
dt
0
m!
x0
x0
Z
M Lm |x x0 |m+1
M Lm x
m
=
(t
x
)
dt
=
0
m!
m!
(m + 1)
x0
|x x0 |m+1
.
(m + 1)!
Lm
X
y0 +
[yk+1 yk ] ,
(1.57)
k=0
X
(L)k+1
k=0
(k + 1)!
M (L)k+1
M Lk k+1
=
.
(k + 1)!
L (k + 1)!
= eL 1
x [x0 , x0 + ] .
(1.58)
es soluci
on del problema de valor inicial. En efecto, pasando al lmite cuando k en
la desigualdad |yk (x) y0 | b se obtiene |y(x) y0 | b, para todo x [x0 , x0 + ].
La convergencia uniforme de la sucesion yk (k N) a la funcion y en [x0 , x0 + ]
tambien garantiza que la sucesion de funciones gk : [x0 , x0 + ] R definida por
gk (t) = f t, yk (t)
converge uniformemente a la funci
on g(t) = f t, y(t) para t [x0 , x0 + ], ya que
(aplicando de nuevo la lipschitzianidad de f )
|g(t) gk (t)| = f t, y(t) f t, yk (t) L |y(t) yk (t)|
CAPITULO 1. INTRODUCCION
24
k x0
f t, yk (t) dt =
x0
f t, y(t) dt .
Tomando por tanto el lmite cuando k en la igualdad (1.55) vemos que y es soluci
on
de la ecuaci
on integral (1.53). Como y es continua en [x0 , x0 + ], esto implica que y
es soluci
on del problema de valor inicial (1.39)(1.40). (Notese que el teorema de Peano
garantizaba la existencia de por lo menos una soluci
on de dicho problema.)
vi) Probemos, por u
ltimo, la unicidad. A tal efecto, supongamos que z : [x0 , x0 +]
[y0 b, y0 + b] es soluci
on del problema de valor inicial (1.39)(1.40). Demostremos por
induccion que si yk (k N) es una de las funciones construidas anteriormente entonces
se tiene la importante desigualdad
|z(x) yk (x)|
M Lk |x x0 |k+1
,
(k + 1)!
x [x0 , x0 + ] , k = 0, 1, 2, . . . . (1.59)
Esto prueba por induccion las desigualdades (1.59). Finalmente, tomando el lmite cuando k en (1.59) se obtiene
M (L |x x0 |)k+1
= 0,
k L
(k + 1)!
x [x0 , x0 + ] ,
Comentarios
Las funciones yk (x) (k N) construidas en la demostracion del teorema de Picard
Lindelof, cuyo lmite es la soluci
on y(x) del problema de valor inicial (1.39)(1.40), se
denominan aproximantes de Picard de la soluci
on y(x). De (1.59) con z = y se obtiene
una estimaci
on del error cometido al aproximar y(x) por su k-esimo aproximante:
ky(x) yk (x)k
M Lk |x x0 |k+1
,
(k + 1)!
x [x0 , x0 + ] , k = 0, 1, 2, . . . . (1.60)
Notese que, aunque para x fijo el miembro derecho tiende a cero cuando k , para k
fijo la aproximacion (1.60) s
olo es buena si |x x0 | es suficientemente peque
no. Ademas,
el calculo del aproximante yk requiere calcular k integrales definidas. Esto hace que, en
CAPITULO 1. INTRODUCCION
25
la pr
actica, los aproximantes de Picard no tengan excesiva utilidad, aunque su valor
teorico es indudable.
Ni la continuidad ni la lipschitzianidad de f son condiciones necesarias para la existencia o la unicidad de soluciones del problema de valor inicial (1.39)(1.40). Por ejemplo,
la funcion
(
y
2 + 4 x , x 6= 0
x
f (x, y) =
0,
x=0
es discontinua en el eje vertical x = 0. La soluci
on general de la ecuaci
on lineal y =
f (x, y) se calcula facilmente, y es igual a
y(x) = x2 +
c
.
x2
Demostraci
on. Basta tomar a, b > 0 lo suficientemente peque
nos para que el compacto
A = [x0 a, x0 + a] B b (y0 ) este contenido en U . Al ser f continua y lipschitziana
respecto de la segunda variable A (por el comentario que sigue a la Proposici
on 1.16),
podemos aplicar el teorema de PicardLindelof a f en dicho conjunto.
Q.E.D.
Corolario 1.19. Si f : U RRn Rn es de clase C 1 en el abierto U , el problema de
valor inicial (1.39)(1.40) tiene soluci
on u
nica local para todo dato inicial (x0 , y0 ) U .
Ejemplo 1.20. Hallemos los aproximantes de Picard para el problema
y = x y ,
y(0) = 1 ,
cuya soluci
on exacta es
y(x) = ex
2 /2
(1.61)
(1.62)
CAPITULO 1. INTRODUCCION
26
est
an definidos (y convergen a la soluci
on) en todo R (ver los comentarios anteriores).
Como y0 = 1 se tiene
Z x
x2
t dt = 1 +
y1 (x) = 1 +
2
0
Z x
2
x2 x4
t
+
,
dt = 1 +
t 1+
y2 (x) = 1 +
2
2
8
0
y, en general,
k
X
x2n
yk (x) =
.
2n n!
(1.63)
n=0
m1
X
n=0
m1
m1
X
X
t2n
x2n+2
x2(n+1)
dt
=
1
+
=
1
+
,
2n n!
2n (2n + 2) n!
2n+1 (n + 1)!
n=0
n=0
Captulo 2
(2.1)
..
A(x) = ...
(2.2)
.
...
an1 (x) . . . ann (x)
es una matriz n n con coeficientes reales aij (x) (1 i, j n). Si b 0 diremos que el
sistema (2.1) es homog
eneo, e inhomog
eneo en caso contrario.
Nota: El conjunto Mn (R) es un espacio vectorial real de dimension n2 . Una base de
dicho espacio es la formada por las matrices Eij (1 i, j n) cuyo u
nico elemento de
matriz no nulo es un 1 en la posici
on ij. En el espacio vectorial Mn (R) se suele definir
la norma del supremo
kAk = max {kA vk : kvk = 1} ,
A Mn (R) ,
en terminos de la cual
kA wk kAk kwk ,
w Rn .
X
n
i,j=1
a2ij
1
2
Pn
2
i,j=1 aij ,
por lo que
n max {|aij | : 1 i, j n} .
28
Demostraci
on. Basta probar (por que?) la existencia y unicidad del problema planteado
en todo intervalo compacto J I. Por la Proposici
on 1.17, es suficiente probar que la
n
n
funcion f : J R R definida por
f (x, y) = A(x) y + b(x)
es continua y lipschitziana respecto de la segunda variable en J Rn . La continuidad
de f en J Rn es inmediata a partir de la de las funciones A y b en J I, ya que para
todo (x1 , y1 ) J Rn se tiene
f (x2 , y2 ) f (x1 , y1 ) = A(x2 )(y2 y1 ) + A(x2 ) A(x1 ) y1 + b(x2 ) b(x1 ) 0
2.1
Llamaremos espacio de soluciones del sistema lineal (2.1) al conjunto S formado por
todas sus soluciones, es decir
S = y : I R Rn y (x) = A(x) y + b(x) , x I C 1 (I) .
y Rn ,
(2.3)
En otras palabras:
29
(2.4)
Y i (x0 ) = ei ,
n
X
n
X
y0i ei .
i=1
y0i Y i (x)
i=1
es soluci
on del sistema (2.3) (por ser combinaci
on lineal de soluciones) y verifica la
condici
on inicial
n
X
y0i ei = y0 = y(x0 ) .
y(x0 ) =
i=1
n
X
y0i Y i
i=1
es decir
n
X
i=1
i Y i (x) = 0 ,
x I .
30
n
X
i=1
i ei = 1 = = n = 0 ,
2.2
Wronskiano
n
X
ci y i (x) ,
i=1
x I ,
n
X
yki (x) ci ,
i=1
1 k n,
(2.5)
con c = (c1 cn )t y
Y (x) = y 1 (x) y 2 (x) . . .
y11 (x) . . .
..
y n (x) ...
.
1
yn (x) . . .
y1n (x)
.. .
.
ynn (x)
31
A(x)n (x)
Escribiremos a partir de ahora W (x) cuando quede claro del contexto a que soluciones
i (1 i n) nos estamos refiriendo.
Si las soluciones k (1 k n) son
linealmente dependientes (como funciones)
entonces los vectores 1 (x), . . . , n (x) son linealmente dependientes en cada punto
x I, por lo que el determinante de la matriz (x) cuyas columnas son dichos vectores
es identicamente nulo. En otras palabras,
1
, . . . , n linealmente dependientes = W [1 , . . . , n ](x) = 0 , x I .
Recprocamente, si el wronskiano de las soluciones 1 , . . . , n se anula identicamente
entonces dichas soluciones son linealmente dependientes. De hecho, probaremos
que si
1
n
W (x0 ) = 0 para alg
un x0 I entonces las soluciones , . . . ,
son linealmente
independientes. En efecto, n
otese que la anulaci
on de W (x0 ) implica que los vectores
k (x0 ) ,
1 k n.
k k (x0 ) = 0 .
k=1
n
X
k k (x)
k=1
es soluci
on del sistema homogeneo (2.3) con dato inicial y(x0 ) = 0. Por la unicidad de
soluciones de (2.3), de esto se deduce
que y(x) =
0 para todo x I, lo cual prueba la
dependencia lineal de las soluciones 1 , . . . , n . Hemos pues demostrado el siguiente
resultado fundamental:
1
, . . . , n linealmente dependientes W [1 , . . . , n ](x) = 0 , x I . (2.7)
32
1 (x) = (1, x) ,
2 (x) = (x, 1 x2 )
soluci
on de alg
un sistema lineal homogeneo (con coeficientes continuos) en I = R?
Soluci
on. El wronskiano de las funciones 1 , 2 es igual a
1
x
W (x) =
= 1 2 x2 .
x 1 x2
as
Dicho wronskiano se anula en los puntos x = 1/ 2, y es distinto de cero en los dem
puntos. Como W ni es identicamente nulo ni tampoco es distinto de cero en R, las
funciones dadas no pueden ser soluci
on de ning
un sistema lineal homog
R.
eneo en
1
2
Elwronskiano de y no se anula en los intervalos (, 1/ 2), (1/ 2, 1/ 2)
y (1/ 2, ), por lo que no est
a descartado que dichas funciones puedan ser soluci
on de
alg
un sistema lineal homogeneo si nos restringimos a estos intervalos. De hecho, puede
probarse que en dichos intervalos 1 y 2 son soluciones (linealmente independientes)
del sistema homogeneo
1
x
1
y.
y =
1 2x2 1 + x2 3x
2.2.1
F
ormula de AbelLiouville
Dado que
ki (x) =
n
X
x I ,
j=1
33
1 i, k n ,
n
X
j=1
j6=i
(donde j denota la j-esima fila de ). De esto se sigue que el i-esimo determinante que
aparece en (2.8) es igual a
aii (x) W (x) ,
puesto que un determinante no vara al a
nadir a una fila cualquier combinaci
on lineal
de las restantes. Obtenemos as la igualdad
W (x) = W (x)
n
X
i=1
2.2.2
M
etodo de variaci
on de constantes de Lagrange
34
Y (t)
b(t) dt = Y (x) c +
x0
(2.10)
x0
2.3
A Mn (R) .
(2.11)
Formalmente, la soluci
on de este sistema con la condici
on inicial y(0) = y0 es
y = exA y0 .
Pero que sentido tiene la exponencial de la matriz xA en esta formula?
Para responder a esta pregunta, recuerdese que para todo t R se define et como
la suma de la serie de potencias
k
X
t
et =
.
k!
k=0
X
Bk
B
,
B Mn (R) ,
e =
(2.12)
k!
k=0
donde B 0 = 1 denota la matriz identidad. Para que la definicion tenga sentido, debemos
probar que la serie anterior converge en el espacio vectorial Mn (R) para toda matriz
B Mn (R). Para probar este resultado, n
otese primero que
k
k
k N ,
B
kBk ,
puesto que si v Rn con kvk = 1 por definicion de la norma del supremo se tiene
k
k
k
2
B v
kBk
B k1 v
kBk
B k2 v
kBk kvk = kBk .
35
0 ,
k!
k!
k! m,N
k=m+1
k=m+1
k=m+1
X
xk Ak
k=0
(2.13)
k!
M = max(|a| , |b|) ,
k!
k!
k!
X
(M kAk)k
k=0
k!
= eM kAk
X
X
X
X
xk1 Ak
xk Ak
xk Ak
k xk1 Ak
A.
=
=A
=
k!
(k 1)!
k!
k!
k=1
k=1
k=0
k=0
Esta u
ltima serie es uniformemente convergente en todo intervalo compacto, por lo visto
anteriormente. Por tanto, en todo intervalo compacto de la recta real la funcion matricial
exA es derivable, siendo su derivada la serie anterior. En definitiva, hemos probado la
formula
d xA
x R .
(2.14)
e = A exA = exA A ,
dx
Esta formula demuestra que las n columnas de la matriz exA son soluciones del
sistema (2.11). Estas soluciones son linealmente independientes, ya que su wronskiano
en x = 0 es igual a
det(e0 ) = det 1 = 1 6= 0 .
Teorema 2.7. La matriz exA es una matriz fundamental del sistema homogeneo con
coeficientes constantes y = A y.
En otras palabras, la soluci
on general del sistema (2.11) est
a dada por
y(x) = exA c ,
(2.15)
con c Rn un vector constante. (Notese que, como ya sabamos por uno de los corolarios
del teorema de PicardLindelof, las soluciones de (2.11) est
an definidas para todo x R.)
En particular, dado que e0 es la matriz identidad, la soluci
on del problema de valor inicial
y = A y ,
y(0) = y0
36
es simplemente
y(x) = exA y0 .
La funci
on exponencial matricial verifica las siguientes propiedades:
i) e(s+t)A = esA etA ,
s, t R
k
X
X
P Ak P 1 X (P AP 1 )k
A
1
P 1 =
=
= eP AP .
P eA P 1 = P
k!
k!
k!
k=0
k=0
k=0
En relaci
on con la propiedad i), n
otese que si A, B Mn (R) son dos matrices que
conmutan, es decir satisfacen la igualdad
[A, B] AB BA = 0 ,
entonces se puede probar que
eA+B = eA eB = eB eA .
Sin embargo, esta u
ltima igualdad no es cierta, en general, para matrices A y B arbitrarias
Por lo dicho en la secci
on anterior, la soluci
on general del problema de valor inicial
para el sistema homogeneo
y = A x + b(x)
(2.16)
es
xA
y=e
c+
e(xt)A b(t) dt ,
(2.17)
x0
e(xt)A b(t) dt .
x0
Ejercicio. Pruebese la formula det(eA ) = etr A , valida para toda matriz A Mn (R).
Soluci
on. Al ser las columnas de exA soluci
on del sistema lineal (2.11), det(exA ) es el
wronskiano de dichas soluciones. Aplicando la formula de AbelLiouville obtenemos
Rx
det(exA ) = det(e0 ) e
tr A dt
= ex tr A .
2.4
37
C
alculo de la exponencial de una matriz
J1
J2
J = P 1 A P =
,
.
.
.
Jm
Ji = i 1 + Ni ,
siendo Ni una matriz nilpotente del tipo
N [ni ]
N [ni ]
Ni =
..
.
(s 1)
(s 1)
N ni i
0
1 0
..
.
.
N [k] = 1
.. ..
.
.
1 0
De la igualdad
Nini = 0 ,
1 i m.
(2.18)
38
= P exJ P 1 .
(Notese que, aunque J y P pueden ser complejas, exA es real si A es real.) Para calcular
la exponencial de xJ, observese que de las igualdades
k
J1
J2k
Jk =
k N ,
,
..
.
k
Jm
se deduce que
xJ
exJ1
exJ2
..
.
exJm
El problema se reduce por tanto a calcular la exponencial de cada bloque xJi . Pero esto
es inmediato, ya que al conmutar las matrices i 1 y Ni se tiene
exJi = exi 1 exNi = ei x exNi .
Por u
ltimo, de la nilpotencia de Ni (ec. (2.18)) se deduce que la serie de exNi se reduce
a la suma finita
nX
i 1
xk k
exNi =
N .
k! i
k=0
Notese que
donde
exNi
xN [n ]
i
e
exN [ni ]
xNi
,
e
=
..
(s 1)
i
exN ni
exN [k]
1
x
2
x
2!
3
=
x3!
.
.
.
xk1
(k1)!
1
x
(2.19)
x2
2!
..
.
1
x
..
.
1
..
.
xk2
(k2)!
...
x2
2!
..
.
x 1
(2.20)
39
x xN
e 1 e 1
e2 x exN2
1
exA = P
,
P
..
.
em x exNm
se deduce que las columnas de P exJ son soluciones del sistema. Ademas, el wronskiano
de estas soluciones es no nulo, ya que
det P exJ = det P det exJ 6= 0 ,
al ser P y exJ matrices invertibles. Sin embargo (a diferencia de exA , que es siempre
real si A es real) la matriz P exJ puede ser compleja, por lo que para obtener a partir de
ella una matriz fundamental real habra que tomar, en general, combinaciones lineales
adecuadas de sus columnas.
Si es un autovalor de A y v un autovector correspondiente a este autovalor, ex v
es una soluci
on del sistema (2.11), ya que
d x
e v = ex (v) = ex (A v) = A ex v .
dx
Si R la soluci
on ex v es real (pues el autovector v se puede tomar real). Si = a+ i b
con b 6= 0, al ser la matriz A real posee tambien el autovalor con autovector v. Sumando
y restando
las dos soluciones
ex v y ex v ex v se obtienen las dos soluciones reales
Re ex v e Im ex v , dadas respectivamente por
eax cos(b x) Re v sen(b x) Im v ,
Si A es diagonalizable entonces
J =
eax cos(b x) Im v + sen(b x) Re v .
1
2
..
(2.21)
.
n
x
e 1
e2 x
P exJ = P1 P2 . . . Pn
= e1 x P1 e2 x P2 . . . en x Pn .
.
.
nx
e
40
1in ,
(2.22)
1
x
1
2
x
1
x xN [k]
2!
x
3
2
.
x
=e
v1 . . . vk x
v1 . . . vk e e
x
1
3!
2!
.
..
.. .. ..
.
.
.
.
.
.
xk2
x2
xk1
x 1
2!
(k1)!
(k2)! . . .
Por tanto las k funciones vectoriales
ex
j
X
xi
i=0
i!
vkj+i ,
0j k1 ,
(2.23)
son soluciones del sistema homogeneo (2.11). Estas soluciones son todas reales si el
autovalor R (ya que en una matriz real los autovectores propios generalizados
correspondientes a un autovalor real se pueden siempre escoger reales). Si el autovalor
es complejo, al ser la matriz A real el complejo conjugado de es tambien autovalor
eax
j
X
xi
i=0
j
X
i=0
i!
cos(b x) Re vkj+i sen(b x) Im vkj+i ,
xi
cos(b x) Im vkj+i + sen(b x) Re vkj+i ,
i!
(2.25)
0 j k 1.
41
2.4.1
(2.27)
(2.28)
ak tk ,
k=0
|t| < R ,
X
k=0
ak X k ,
X Mn (R) ,
es convergente si kXk < R. Para calcular f (A) para una matriz concreta A Mn (R)
con kAk < R, observese que la igualdad (2.27) permite expresar cualquier potencia de
la matriz A de exponente mayor o igual al grado
d(A) = n1 + + nm
del polinomio mnimo de A en terminos de potencias con exponentes menores que d(A).
Esto demuestra que existe un polinomio Pf,A (dependiente de f y de A) de grado menor
o igual que d(A) 1 tal que
f (A) = Pf,A (A) .
(2.29)
42
Tal polinomio es u
nico, ya que si f (A) = Q(A) con deg Q d(A) 1 entonces Pf,A Q
es un polinomio de grado menor
o igual al del polinomio mnimo de A que anula a la
matriz A, y por tanto Pf,A Q = 0. Al polinomio Pf,A de grado d(A) 1 definido por
(2.29) se le denomina el polinomio interpolador de Lagrange de la matriz A para la
funcion f . Para el c
alculo de Pf,A se suele utilizar en la pr
actica el siguiente resultado:
Proposici
on 2.9. El polinomio interpolador Pf,A est
a unvocamente determinado por
las d(A) ecuaciones lineales en los coeficientes de Pf,A
(k)
Pf,A (i ) = f (k) (i ) ,
0 k ni 1 ,
i = 1, . . . , m ,
(2.30)
0 j m 1;
(A i )m vk = 0
para alg
un n
umero natural m ni . Escribiendo
f (t) Pf,A (t) =
X
j=0
bj (t i )j
m1
X
X
bj vk+j ,
bj (A i )j vk =
f (A) Pf,A (A) vk =
j=0
j=0
que es cero si y s
olo si
bj =
1
(f Pf,A )(j) (i ) = 0 ,
j!
A = 4
4
0 j m 1.
9 7
9 6 .
8 5
El polinomio caracterstico de A es
3 t
9
7
pA (t) = 4
9t
6 = (t 1)2 (t + 1) .
4
8
5 t
1 0
J = 0 1
0
0
0 .
1
43
4 9 7
4 9 7
4
9 7
A 1 = 4 8 6
4 8 6
0 1
1
4 8 6
1 0 0
J = 0 1 0 .
0 1 1
x ex = + 2 .
La soluci
on de este sistema es
1
1
= (senh x + 2 cosh x x ex ) , = senh x , = (x ex senh x) .
2
2
Por tanto
1
1
exA = (senh x + 2 cosh x x ex ) 1 + senh x A + (x ex senh x)A2 =
2
2
x
x
x
x
x
2e e
5e + (5 x)e
4e + (x 4)ex
= 2ex 2ex 5ex + 2(3 x)ex 4ex + 2(x 2)ex .
2ex 2ex 5ex + (5 2x)ex 4ex + (2x 3)ex
44
La soluci
on general del sistema es una combinaci
on lineal arbitraria c1 y 1 + c2 y 2 + c3 y 3 de
estas soluciones fundamentales. Notese que, de acuerdo con el Teorema 2.8, las soluciones
del sistema y = A y son combinaciones lineales con coeficientes en R3 de las funciones
ex ,
ex ,
x ex .
y(0) = (0, 1, 1)
x
e + ex
0
y(x) = exA 1 = ex + 2 ex = ex (1, 1, 1) + ex (1, 2, 2) .
ex + 2 ex
1
x = x y
y = 2 x y
x(0) = 1 , y(0) = 2 .
Soluci
on. En este caso las variables dependientes son (x, y), por lo que la variable independiente ser
a denotada por t. El sistema de ecuaciones que hay que resolver es lineal
homogeneo con coeficientes constantes, ya que se puede escribir en la forma
x
x
=A
y
y
con
A=
1 1
.
2 1
1
1
pA () =
= (1 + )2 + 2 = 0 = 1 i 2 .
2
1
Por tanto en este caso la matriz A es diagonalizable, y
A () = pA () = (1 + )2 + 2 .
La matriz etA es igual al polinomio interpolador de primer grado P () = + para
la funcion f () = et , donde los coeficientes y se calculan a partir de las ecuaciones
f (1 i 2) = et ei 2 t = P (1 i 2) = + (1 i 2) .
La soluci
on de estas ecuaciones es
et
= et cos( 2t) + sen( 2 t) ,
2
45
et
= sen( 2 t) .
2
1
et
tA
t
e =e
cos( 2t) + sen( 2 t) 1 + sen( 2 t) A
2
2
!
1 sen( 2 t)
2
t)
cos(
2
= et
. (2.31)
2 sen( 2 t)
cos( 2 t)
Finalmente, la soluci
on del problema propuesto es
!
1 sen( 2 t)
2
t)
cos(
1
x(t)
cos( 2 t) 2 sen( 2 t)
t
t
2
.
=e
=e
2
y(t)
2 cos( 2 t) + 2 sen( 2 t)
2 sen( 2 t)
cos( 2 t)
2.5
Ecuaciones de orden n
f (x, y) = y2 , . . . , yn , F (x, y) .
(2.33)
0k n1 ,
(2.34)
2
2
y 1 y 2
+ F (x, y 1 ) F (x, y 2 ) .
46
si la funci
on F es lipschitziana respecto al segundo argumento en un conjunto tambien
lo ser
a f , pues de la ecuaci
on anterior y
F (x, y 1 ) F (x, y 2 ) M
y 1 y 2
se deduce que
p
f (x, y 1 ) f (x, y 2 )
M 2 + 1
y 1 y 2
.
Por tanto, son validos todos los teoremas de existencia y unicidad que dedujimos en el
Captulo 1 sin m
as que sustituir la funcion f por F y los datos iniciales y(x0 ) = y0 por
las condiciones (2.34) sobre las derivadas de u en x0 . Los resultados que aplicaremos
m
as a menudo son los siguientes:
Teorema 2.11. Si F : U R Rn R es continua en el abierto U , entonces
(n1)
para todo (x0 , u0 , . . . , u0
) U el problema de valor inicial (2.32)(2.34) tiene al
menos una soluci
on u(x) definida en un intervalo de la forma (x0 , x0 + ), con
(n1)
x0 , u0 , . . . , u0
> 0.
F
Teorema 2.12. Si F : U RRn R y sus derivadas parciales u
(i) , 0 i n1,
1
son continuas en el abierto U (en particular, si F es de clase C (U )), entonces para to(n1)
do (x0 , u0 , . . . , u0
) U el problema de valor inicial (2.32)(2.34) tiene una soluci
on
(n1)
u
nica en un intervalo de la forma (x0 , x0 + ), con x0 , u0 , . . . , u0
> 0.
2.5.1
Ecuaciones lineales
Consideraremos a continuaci
on el caso en que la funcion F es lineal (o, hablando con
m
as propiedad, afn) en u y sus derivadas. La ecuaci
on (2.32) se puede entonces escribir
como sigue:
u(n) + an1 (x) u(n1) + + a1 (x) u + a0 (x) u = b(x) ,
(2.35)
0
0
..
.
1
0
..
.
0
1
..
.
...
...
..
.
A(x) =
..
0
.
0
0
a0 (x) a1 (x) a2 (x) . . .
(2.36)
0
0
..
.
1
an1 (x)
(2.37)
47
x I .
(2.38)
Al ser continuos en el intervalo I los coeficientes del sistema lineal (2.36) (por la
hip
otesis hecha sobre las funciones ai y b), el problema de valor inicial asociado a dicho
sistema posee una u
nica soluci
on en I para todo dato inicial en I Rn . Por tanto:
Teorema 2.14. Si las funciones ai : I R (1 i n) y b : I R son continuas
en un intervalo I, el problema de valor inicial (2.34)(2.35) posee una u
nica soluci
on
en I para todo x0 I.
Es evidente que si u1 y u2 denotan dos soluciones de la ecuaci
on homogenea
u(n) + an1 (x) u(n1) + + a1 (x) u + a0 (x) u = 0 ,
(2.39)
y i = i , i , . . . , i
1 i m,
son obviamente linealmente independientes. Recprocamente, si las funciones y 1 , . . . , y m
son linealmente independientes tambien lo son las soluciones {1 , . . . , m }, ya que derivando n 1 veces la igualdad
1 1 + + m m = 0
(i R , 1 i m)
se deduce que
1 y 1 + + m y m = 0 ,
de donde se sigue que i = 0 para 1 i m por la independencia lineal de y 1 , . . . , y m .
Utilizando este hecho y las propiedades de los sistemas lineales de primer orden se
deducen facilmente los siguientes resultados:
El espacio S0 de las soluciones u(x) de la ecuaci
on lineal homogenea (2.39) es un
subespacio vectorial de dimensi
on n del espacio C n (I).
El espacio S de las soluciones u(x) de la ecuaci
on lineal completa (2.35) es un subespacio afn paralelo al subespacio vectorial S0 . En otras palabras, las soluciones de (2.35)
son de la forma
u(x) = u0 (x) + up (x) ,
donde up es una soluci
on particular arbitraria (pero fija) de (2.35), y u0 S0 es cualquier
soluci
on del sistema homogeneo asociado.
Ejemplo 2.15. Consideremos la ecuaci
on de segundo orden
u + 2 u = 0 ,
(2.40)
48
y Ay
y =
2 0
siendo y = (u, u ). Los autovalores de la matriz A son las soluciones de la ecuaci
on
1
2
2
2 = + = 0 = i .
Por lo visto anteriormente, dos soluciones reales linealmente independientes de la ecuacion est
an dadas por
y 1 = Re(eix v) , y 2 = Im(eix v) ,
siendo v un autovector correspondiente al autovalor i . Tomando v = (1, i ) se obtiene
y 1 = cos(x), sen(x) , y 2 = sen(x), cos(x) .
n
X
ci i (x)
i=1
x I .
49
De nuevo, n
otese que estas equivalencias s
olo son ciertas, en general, si {1 , . . . , n }
son soluciones de una ecuaci
on lineal homogenea de orden n (2.39).
Sean, como antes, {1 , . . . , n } soluciones (no necesariamente independientes) de la
ecuaci
on homogenea (2.39). Aplicando la formula de AbelLiouville y teniendo en cuenta
la formula (2.38) se obtiene la identidad
W (x) =
Rx
x
0
W (x0 ) e
an1 (t) dt
(2.42)
1 (x)
...
n (x)
1 (x)
...
n (x)
(x) =
. . . . . . . . . . . . . . . . . . . . . . . . . .
(n1)
(n1)
1
(x) . . . n
(x)
del sistema de primer orden asociado a la ecuaci
on homogenea (2.39). La soluci
on general
del sistema lineal (2.36) asociado a (2.35) es (por variaci
on de constantes)
Z x
y(x) = (x)c +
b(t) (x) (t)1 en dt .
(2.43)
x0
n
X
Mni (t)
i (x)(1)i+n
1i (x) (t)1 in =
W (t)
i=1
1 (t)
...
n (t)
(t)
...
n (t)
1 1
. . . . . . . . . . . . . . . . . . . . . . . . . ,
=
W (t) (n2)
(n2)
(t) . . . n
(t)
1
(x)
...
n (x)
1
donde Mni (t) denota el menor asociado al elemento de matriz ni de la matriz (t).
Sustituyendo esta formula en (2.43) se obtiene finalmente la siguiente expresi
on para la
soluci
on general de la ecuaci
on (2.35):
u(x) =
n
X
i=1
ci i (x) +
x
x0
1 (t) ...
1 (t) ...
..
..
.
.
(n2) (t) ...
1
1 (x)
...
b(t)
..
.
W (t) dt .
(n2)
n
(t)
n (t)
n (t)
(2.44)
n (x)
(2.45)
se tiene
u(x) = c1 1 (x) + c2 2 (x) +
x0
1 (t) 2 (t) b(t)
dt .
1 (x) 2 (x)
W (t)
b(t)
(t)
(t)
1
2
1 (x) 2 (x) W (t) dt
x0
50
(2.46)
(2.47)
es una soluci
on particular de la ecuaci
on inhomogenea (2.45). Notese que esta soluci
on
particular tiene como condiciones iniciales en x0
up (x0 ) = up (x0 ) = 0 .
Ejemplo 2.16. Consideremos la ecuaci
on de segundo orden
u + 2 u = F (x) ,
> 0,
(2.48)
2 (x) = sen(x)
cos(x)
sen(x)
W (x) =
= .
sen(x) cos(x)
la soluci
on general de (2.48) es
1
u(x) = c1 cos(x) + c2 sen(x) +
sen (x t) F (t) dt ,
sen(s) F (x s) ds .
> 0.
Entonces
Z x
Z x
sen(s) sen (x s) ds
sen(s) F (x s) ds = F0
0
0
Z
F0 x
cos ( + )s x cos ( )s + x ds
=
2 0
Z
F0 x
F0
sen(x) + sen(x)
cos ( )s + x ds .
=
2( + )
2 0
51
F0
sen(x) ,
2
F0
x cos(x) .
2
En particular, en este caso ninguna soluci
on est
a acotada cuando x , debido al
u
ltimo termino. Este es el conocido fenomeno de la resonancia.
u = C1 cos(x) + C2 sen(x)
0
(x)u (x) u = k e
siendo k = W [, u](x0 ). Integrando esta ecuaci
on diferencial de primer orden para u
obtenemos facilmente
Rt
Z x
1
x a1 (s) ds
0
e
dt .
u(x) = c (x) + k (x)
2
x0 (t)
Esta es la soluci
on general de la ecuaci
on homogenea asociada a (2.45). En particular,
n
otese que (x) y
Rt
Z x
1
x a1 (s) ds
0
e
dt
(x) = (x)
(2.49)
2
x0 (t)
forman un sistema fundamental de soluciones de dicha ecuaci
on, ya que (por construccion) W [, ](x0 ) = 1 6= 0.
En el caso de una ecuaci
on homogenea (2.39) de orden n > 2, el conocimiento de una
soluci
on particular (x) permite reducir la ecuaci
on a otra ecuaci
on lineal homogenea
de orden n 1 mediante el cambio de variable dependiente
u
.
z=
(x)
En este caso, tambien se puede probar que si se conocen n 1 soluciones linealmente
independientes de la ecuaci
on entonces se puede hallar la soluci
on general de la misma.
2.6
52
0
0
..
A=
.
0
a0
(2.50)
1
0
...
0
0
1
...
0
..
..
..
..
.
(2.51)
.
.
.
.
..
.
1
0
0
a1 a2 . . . an1
(2.52)
(2.53)
r1 + + rm = n .
Es facil ver que el ndice ni del autovalor i de la matriz A es igual en este caso a su
multiplicidad algebraica ri . En efecto, n
otese que la igualdad ni = ri es equivalente a
que el bloque de Jordan del autovalor i conste de un s
olo bloque de Jordan elemental
1 i
Ji =
Mri (C).
.
.
.
.
.
.
1 i
A su vez, esta u
ltima condici
on equivale a que dim ker(A i ) = 1. Pero esto es evidente dada la forma de la matriz A, puesto que la ecuaci
on (A i )v = 0 determina
completamente las componentes v2 , . . . , vn de v en terminos de v1 . En efecto,
ker(A i ) = R 1, i , . . . , in1 .
(2.54)
k
X
j=0
xj vri i k+j ,
0 k ri 1 ,
1 i m,
53
k
X
j=0
xj ciri k+j ,
0 k ri1 ,
1 i m.
(2.55)
donde la constante cil es la primera componente del vector vli . Notese que ninguna de
las constantes ciri puede anularse, en virtud de (2.54). Utilizando esta propiedad es facil
demostrar por induccion a partir de (2.55) que las n funciones
xk ei x ,
0 k ri1 ,
1im ,
(2.56)
xk eai x sen(bi x) ,
0 k ri 1 .
(2.57)
d
.
dx
(D ) f (x) e x = f (x) e x
(D )k f (x) e x = f (k) (x) e x .
54
1
1i 3 ,
2
de multiplicidad r2 = r3 = 1. La soluci
on general de la ecuaci
on (2.58) es por tanto
2,3 =
h
x
u(x) = ex (c1 + c2 x) + e 2 c3 cos
3
2
2.6.1
x + c4 sen
3
2
i
(2.59)
Soluci
on de la ecuaci
on inhomog
enea
Consideremos a continuaci
on la ecuaci
on inhomogenea con coeficientes constantes
u(n) + an1 u(n1) + + a1 u + a0 u = b(x) .
(2.60)
(2.61)
55
(2.62)
con
Q(x) = Q0 + Q1 x + + Qd xd ,
d = gr q
(2.63)
(2.64)
Por tanto
p(D) up = 3(2a + 6bx) 3 6b ex = x ex 3(2a + 6bx) 18b = x ,
6a 18b = 0 ,
18b = 1 .
La soluci
on particular buscada es por tanto
up (x) =
1 3
(x + 3 x2 ) ex .
18
(2.65)
La soluci
on general de la ecuaci
on (2.64) es la suma de esta soluci
on particular y la
soluci
on (2.59) de la ecuaci
on homogenea.
Ejemplo 2.19. Hallemos ahora una soluci
on particular de la ecuaci
on
u(IV ) + u + u + u = x + cos2 x .
(2.66)
1
1 + cos(2x) .
2
56
b = 1.
1
.
2
Para encontrar una soluci
on particular de (2.68), observese que si u(x) es una soluci
on
de
1
(2.69)
u(IV ) + u + u + u = e2ix .
2
entonces u2 = Re u es una soluci
on de (2.68). El miembro derecho de (2.69) es de nuevo
on posee por tanto una
de la forma (2.61), con = 2 i, r = 0 y q(x) = 21 . Esta ecuaci
soluci
on particular de la forma
u(x) = c e2ix .
u1 (x) = x
Sustituyendo en la ecuaci
on se obtiene
(16 8i + 2i + 1)c =
de donde
c=
Por tanto
1
,
2
1
17 + 6i
=
.
2(17 6i)
650
u(x) =
17 + 6i 2ix
e
650
1
17 cos(2x) 6 sen(2x) .
650
Una soluci
on particular de la ecuaci
on (2.66)es por tanto
u2 (x) = Re u(x) =
1
1
+
17 cos(2x) 6 sen(2x) .
2 650
N
X
i=1
qi (x) ei x + ri (x) eai x cos(bi x) + si (x) eci x sen(di x) ,
2.7
57
(2.70)
y(x0 ) =
y0 +
(2.71)
Y (x; y0 )
y0
y0
x0
(2.72)
58
y0 +
Y (x; y0 )
y0
y0
x0
(2.73)
Q.E.D.
Debido a este resultado, diremos que un sistema lineal es estable (resp. asintoticamente estable) si todas sus soluciones son estables (resp. asint
oticamente estables)
o, equivalentemente, si la soluci
on trivial del sistema homogeneo asociado es estable
(resp. asint
oticamente estable). Notese, en particular, que un sistema lineal tiene el mismo tipo de estabilidad que el sistema homogeneo asociado.
Proposici
on 2.21. El sistema lineal homogeneo
y = A(x) y
(2.74)
es estable si y s
olo si todas sus soluciones son acotadas en [x0 , ).
Demostraci
on.
=) Si el sistema es estable, la soluci
on trivial es estable, y por tanto existe > 0
tal que (por ejemplo)
kY0 (x; )k < 1 ,
x x0 ,
kk < .
59
1 + ky0 k
<
Y0 x; y0
.
1 + ky0 k
1 i n.
i=1
i=1
La Proposici
on 2.21 no es cierta para sistemas m
as generales, ni siquiera para sistemas lineales inhomogeneos (2.73). Las propiedades de estabilidad del sistema lineal
inhomogeneo (2.73) se pueden resumir en los siguientes enunciados:
(2.76)
m nX
i 1
X
vik xk ei x ,
(2.77)
i=1 k=0
60
m nX
i 1
X
i=1 k=0
(2.78)
n
X
i=1
|zi |2
1/2
i = 1, . . . , m ,
para alg
un i = 1, . . . , m .
si i R ,
y(x) = e(Re i )x v cos(Im i x) + w sen(Im i x) ,
si Im i 6= 0
Re i < 0 para i = j + 1, . . . , m .
Si
ni = 1 ,
i = 1, . . . , j ,
j
X
i=1
kvi0 k +
m nX
i 1
X
i=j+1 k=0
(2.79)
(v, w Rn , v 2 + w2 6= 0)
61
(esta soluci
on se reduce a una constante si Im i = 0), que no tienden a 0 si x .
Por el contrario, si
ni > 1
para alg
un i = 1, . . . , j
entonces el sistema (2.75) es inestable. En efecto, en este caso el sistema homogeneo
(2.76) posee alguna soluci
on no acotada de la forma
nX
i 1
k=0
xk
uik cos(Im i x) + wik sen(Im i x)
k!
2
(uik , wik Rn , u2ik + wik
6= 0)
2 6= 0 porque
(i {1, . . . , j}), en virtud de la ecuaci
on (2.25). (Notese que u2ik + wik
wik + i uik pertenece a la base de Jordan de A.)
Esto prueba por tanto el siguiente resultado:
y3 = y4
y4 = 2y1 + y3 .
(2.80)
0
1
A=
0
2
El polinomio caracterstico es
1
1
pA () =
0
0
2
0
por tanto los autovalores son
1
0
0
0
62
0 0
0 0
.
0 1
1 0
0
0
0
0 1 1
=
= (2 + 1)2 ,
1 1 1
1
1 = i ,
2 = i ,
i 1 0
0
i 1 0
0
i 1 0
0
1 i 0
0 0
0
0
0
Ai=
0 2i 1 i ,
0
0 i 1 0
0 i 1
0
0 i 1
2
0
1 i
0 2i 1 i
la matriz A i tiene rango 3, y por tanto el sistema (2.80) es inestable.
2.7.1
Criterio de RouthHurwitz
63
= (t + 1 ) (t + r )(t2 + 21 t + 21 + 12 ) (t2 + 2s t + 2s + s2 ) .
(2.81)
Es evidente de esta formula que todos los coeficientes de p son estrictamente positivos.
Por tanto, una condici
on necesaria para que el polinomio
p(t) = tn + an1 tn1 + + a1 t + a0
(2.82)
i = 0, 1, . . . , n 1 .
Esta condici
on no es, en general, suficiente (excepto para polinomios de grado 2). El criterio que formularemos a continuaci
on proporciona una condici
on necesaria y suficiente
para la estabilidad del polinomio (2.82):
Criterio de RouthHurwitz. Una condici
on necesaria y suficiente para que el polinomio (2.82) sea estable es que todos los menores principales del siguiente determinante
sean positivos:
an1
1
0
0
. . . 0 0
an3 an2 an1
1
. . . 0 0
an5 an4 an3 an2 . . . 0 0
(2.83)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0
0
0
0
. . . a1 a2
0
0
0
0
. . . 0 a0
Adem
as, si alguno de dichos menores es negativo el polinomio (2.82) tiene alguna raz
con parte real positiva.
a0 > 0 ,
a1 > 0 .
a1 a2 a0 > 0 ,
a0 (a1 a2 a0 ) > 0 ,
o bien
a0 > 0 ,
a2 > 0 ,
a1 a2 a0 > 0 .
(2.84)
64
a2 a3 a1 > 0 ,
a0 H > 0
o bien
a0 > 0 ,
a3 > 0 ,
a2 a3 a1 > 0 ,
(2.85)
z = a x 5z ,
1 = 3 72 10 a .
a
0 5
Para determinar la estabilidad del sistema (2.85), debemos por tanto estudiar el polinomio
p() = 3 + 72 + 10 + a .
(2.86)
Una condici
on necesaria para que haya estabilidad asintotica es por tanto que el par
ametro a sea positivo. Las condiciones de RouthHurwitz (2.84), necesarias y suficientes para
la estabilidad asint
otica del sistema, son en este caso
0 < a < 70 .
(2.87)
La regi
on de estabilidad (asint
otica) en el espacio de par
ametros (la recta real) es por
tanto el intervalo (0, 70). Del criterio de RouthHurwitz tambien se sigue que si a < 0
o a > 70 el sistema es inestable. Si a = 0 el polinomio (2.86) tiene una raz simple
igual a 0 y 2 races reales negativas, y por tanto el sistema (2.85) es estable (pero
no asint
oticamente estable). Si a = 70, ha de haber alguna raz de p con parte real
nula. En efecto, si no fuera este el caso habra alguna raz con parte real positiva, ya
que el sistema no puede ser asint
oticamente estable para a = 70 por no cumplirse las
condiciones necesarias y suficientes de estabilidad asint
otica (2.87). Dicha raz tendra
entonces parte real negativa para a < 70 y positiva para a = 70, por lo que sera una
funcion discontinua de a para a = 70, lo cual es imposible. En efecto, se demuestra que
las races de un polinomio son funciones continuas de los coeficientes de dicho polinomio
para todos los valores de dichos coeficientes para los cuales las races son simples (teorema
de la funci
on implcita). (Notese que para a = 70 las races de p son todas simples, ya
que p y p no tienen races comunes para dicho valor de a.) Como 0 no es raz de p para
a = 70, en este caso p tiene dos races complejas conjugadas i y una raz real < 0
( no puede ser positiva por el razonamiento anterior). Por tanto, para a = 70 el sistema
(2.85) es estable (pero no asint
oticamente estable).
Captulo 3
Puntos regulares
~2
(s) + V (s) E (s) = 0 ,
2m
(3.2)
2mE
2m
,
U (s) = 2 V (s) .
(3.4)
2
~
~
Supongamos, en primer lugar, que la partcula se mueve en un campo de fuerzas constante F > 0. Entonces V (s) = F s, y por tanto
=
U (s) = U0 s ,
U0 =
2mF
> 0.
~2
x = U0
( + U0 s) ,
65
u(x) = (s)
66
(3.5)
Esta ecuaci
on no se puede resolver en terminos de funciones elementales. De hecho, su
soluci
on general se expresa en terminos de funciones de Airy (que a su vez se pueden
escribir en terminos de funciones de Bessel).
Consideremos ahora el oscilador arm
onico cu
antico, para el cual el potencial es
1
V (s) = m 2 s2 .
2
La ecuaci
on de Schr
odinger reducida es por tanto
m 2
+
s2 = 0 .
~
Efectuando el cambio
x=
m
s,
~
u(x) = (s)
se obtiene la ecuaci
on de Weber
u + ( x2 )u = 0 ,
(3.6)
siendo
~
2E
=
.
m
~
De nuevo, para valores arbitrarios de la soluci
on general de la ecuaci
on anterior no es
expresable en terminos de funciones elementales, sino a traves de funciones cilndricas
parabolicas. Sin embargo, si = 2m + 1 con m = 0, 1, 2, . . . entonces la ecuaci
on (3.6)
tiene una soluci
on particular de la forma
=
u(x) = e
x2
2
Pm (x) ,
3.1.1
Funciones analticas
X
i=0
ci (x x0 )i ,
(3.7)
siendo el radio de convergencia R de la serie anterior positivo. En lo que sigue utilizaremos las siguientes propiedades bien conocidas de las series de potencias:
67
X
i=0
ak,i (x x0 )i ,
k = 0, 1 ,
(3.9)
68
sen x
x2
u + x
u = 0.
1
e 1
ex
sen x
,
ex 1
a1 (x) =
x2
.
ex 1
2x
= 0,
x0 ex
a0 (x) =
X
x2i+1
(1)i
(2i + 1)!
i=0
X
xi
i=1
(1)i
i=0
i!
i=0
x2i
(2i + 1)!
xi
(i + 1)!
siendo tanto el numerador como el denominador funciones analticas en R (series convergentes de potencias de x con radio de convergencia infinito; aplquese, por ejemplo, el
criterio del cociente). Como la serie en el denominador no se anula (vale 1) para x = 0,
el cociente a0 (x) es analtico en x = 0. Analogamente,
a1 (x) =
x
x2
=
,
X xi
X xi
i!
(i + 1)!
i=1
i=0
sen z
,
ez 1
a1 (z) =
z2
,
ez 1
z C,
69
a0 (0) y a1 (0) definidos como antes) son analticas en todo el plano complejo excepto en
los puntos
zk = 2ki ,
k Z {0} ,
pues en estos puntos se anula el denominador en las expresiones que definen a0 y a1 ,
mientras que el numerador es distinto de cero. El radio de convergencia del desarrollo
de ai (z) en serie de potencias de z z0 (i = 0, 1, z0 C) es la distancia de z0 a la
singularidad m
as pr
oxima de la funcion ai , ya que ak no est
a acotada en un entorno de
dicha singularidad. Aplicando este resultado a un punto x0 R obtenemos facilmente
las formulas
q
R0 = R1 = 4 2 + x20 ,
ya que las singularidades m
as pr
oximas de las funciones a0 o a1 a un punto del eje real
son los puntos 2i. Por tanto en este caso R = min(R0 , R1 ) est
a dado por la formula
anterior. En particular, para x0 = 0 obtenemos R = 2.
Teorema 3.7. Si x0 es un punto regular de la ecuaci
on (3.1), toda soluci
on de dicha
ecuaci
on es una funci
on analtica en el punto x0 , siendo el radio de convergencia de
su serie de Taylor centrada en el punto x0 mayor o igual que el mnimo de los radios
de convergencia de las series de Taylor centradas en x0 para a0 y a1 .
En otras palabras, si x0 es un punto regular para la ecuaci
on (3.1) y R es el mnimo
de los radios de convergencia de las series de Taylor centradas en x0 de los coeficientes
de dicha ecuaci
on, toda soluci
on u(x) admite un desarrollo en serie de potencias
u(x) =
X
i=0
ci (x x0 )i
(3.10)
ci xi
i=0
(3.11)
X
i=2
X
i=0
ci xi =
X
[(i + 2)(i + 1)ci+2 ci ] xi = 0 .
i=0
70
i = 0, 1, 2, . . . .
(3.12)
La relaci
on anterior determina los coeficientes pares en terminos de c0 y los impares
en terminos de c1 , ya que relaciona ci con ci+2 (n
otese que el coeficiente de ci+2 en
(3.12) no se anula para ning
un i = 0, 1, . . . ). Los coeficientes c0 = u(0) y c1 = u (0)
quedan completamente indeterminados por la relaci
on de recurrencia (3.12), lo cual es
razonable, dado que la ecuaci
on (3.11) debe tener una soluci
on para todo valor de las
X
X
x2k+1
x2k
+ c1
= c0 cosh x + c1 senh x .
u(x) = c0
(2k)!
(2k + 1)!
k=0
k=0
X
i=2
ci xi+1 = 2c2 +
i=0
X
[(i + 2)(i + 1)ci+2 ci1 ] xi = 0 .
i=1
(3.13)
i = 1, 2, . . . .
(3.14)
k = 0, 1, 2, . . . .
(3.15)
71
Si c0 6= 0 se tiene
32
32
c3k
c3
c3k c3k3
32
...
=
=
c0
c3k3 c3k6
c0
k k 31 (k 1) k 43
1 23
= c3k =
32k c0
,
k! 23 35 k 13
relaci
on valida tambien para c0 = 0. Analogamente, de (3.14) se sigue que
1
32 k k +
c3k+1 = c3k2 ,
3
32
32
c3k+1
c4
c3k+1 c3k2
32
...
=
=
c1
c3k2 c3k5
c1
k k + 31 (k 1) k 23
1 43
= c3k+1 =
32k c1
.
k! 43 37 k + 13
X
k=0
X
x3k
x3k
.
+
c
x
1
3k k! 2 5 (3k 1)
3k k! 4 7 (3k + 1)
(3.16)
k=0
3.1.2
La ecuaci
on de Hermite
Si en la ecuaci
on de Weber
+ ( x2 ) = 0
efectuamos el cambio de variable dependiente
(x) = e
x2
2
u(x)
obtenemos la ecuaci
on de Hermite
u 2x u + 2 u = 0 ,
(3.17)
donde 2 = 1 es un par
ametro real. Como los coeficientes de esta ecuaci
on son
polinomios, todo punto es regular, y el radio de convergencia de la serie de Taylor
72
X
ci xi
u(x) =
i=0
y sustituyendo en la ecuaci
on obtenemos la identidad
X
i=2
i2
i(i 1)ci x
i ci x + 2
i=1
ci xi = 0
i=0
X
i=0
De esta ecuaci
on se obtiene la relaci
on de recurrencia
(i + 2)(i + 1) ci+2 = 2(i ) ci ,
i = 0, 1, . . . .
(3.18)
k = 1, 2, . . . .
(3.19)
Por tanto (suponiendo que c0 6= 0, ya que si c0 = 0 todos los coeficientes pares se anulan)
2
c2n c2n2
c2
2( 2n + 2) 2( 2n + 4)
c2n
=
c0
c2n2 c2n4
c0
2n(2n 1) (2n 2)(2n 3)
21
(2)n
( 2) . . . ( 2n + 2)
=
(2n)!
y
c2n =
(2)n
( 2) . . . ( 2n + 2) c0 ,
(2n)!
n = 0, 1, . . . .
(3.20)
k = 1, 2, . . . ,
=
c1
c2n1 c2n3
c1
(2n + 1)(2n) (2n 1)(2n 2)
32
n
(2)
( 1)( 3) . . . ( 2n + 1) .
=
(2n + 1)!
Por tanto
c2n+1 =
(2)n
( 1)( 3) . . . ( 2n + 1) c1 ,
(2n + 1)!
n = 0, 1, . . . ,
(3.21)
73
expresi
on obviamente valida tambien si c1 = 0. Por tanto la soluci
on general de la
ecuaci
on de Hermite (3.17) es
u(x) = c0 u0 (x) + c1 u1 (x) ,
donde
u0 (x) =
n=0
y
u1 (x) =
( 2) . . . ( 2n + 2)
( 1)( 3) . . . ( 2n + 1)
n=0
(2)n 2n
x
(2n)!
(3.22)
(2)n
x2n+1 ,
(2n + 1)!
(3.23)
siendo estas series convergentes para todo x R. Las funciones uk (x) (k = 0, 1) son
ambas soluciones de la ecuaci
on de Hermite (3.17), siendo u0 una funcion par y u1 impar,
es decir
uk (x) = (1)k uk (x) ,
k = 0, 1 .
(3.24)
Las condiciones iniciales satisfechas por las funciones uk (x) son
u0 (0) = 1,
u (0) = 0 ;
u1 (0) = 0,
u1 (0) = 1 .
(3.25)
Las funciones u0 y u1 , que como hemos visto anteriormente forman un sistema fundamental de soluciones de la ecuaci
on de Hermite, se reducen a polinomios para ciertos
valores del par
ametro que aparece en la ecuaci
on. En efecto, la soluci
on par u0 (x) se
reduce a un polinomio si se anula el coeficiente c2n para alg
un valor de n = 1, 2, . . . , es
decir si
( 2) . . . ( 2n + 2) = 0
para alg
un n. Esto s
olo es posible si = 2N (N = 0, 1, . . . ) es igual a un entero par no
negativo. En tal caso c2N +2 es proporcional a
( 2) . . . ( 2N ) = 0
y todos los coeficientes pares c2k con k N + 1 se anulan, ya que contienen el factor
2N . Por tanto si = 2N (con N = 0, 1, . . . ) la soluci
on u0 se reduce al polinomio
de grado 2N
N
X
(2x)2n
N!
( = 2N ) .
(1)n
P2N (x) =
(N n)! (2n)!
n=0
Notese que ninguno de los coeficientes en este desarrollo se anula. Por el contrario, si
= 2N la soluci
on impar u1 no es polin
omica, ya que
(2N 1)(2N 3) . . . (2N 2n + 1) 6= 0 ,
n = 1, 2, . . . .
La soluci
on u1 ser
a sin embargo polin
omica si = 2N + 1 (N = 0, 1, . . . ) es igual a un
entero impar ya que entonces
c2N +3 ( 1)( 3) . . . ( 2N 1) = 0 ,
lo cual implica (por la relaci
on de recurrencia) que c2k+3 = 0 para k N . En este caso
la soluci
on u1 se reduce al polinomio de grado 2N + 1
P2N +1 (x) =
N
(2x)2n+1
N!
1 X
(1)n
2 n=0
(N n)! (2n + 1)!
( = 2N + 1) .
74
,
ci i i
mientras que
2
ex =
X
x2i
i=0
i!
b2j x2j
j=0
cumple
1
2
1
bi+2 i=2j 1/(j + 1)!
=
=
= .
bi
1/j!
j + 1 j j
i
Esto implica (teniendo en cuenta la paridad de uk ) que si no es un entero no negativo
se tiene
2
2
u1 (x) A1 sig x ex ,
u0 (x) A0 ex ,
|x|
|x|
x2
2
75
X
(2m)!
(2m)!
(1)n+m
P2m (x) =
(2x)2n
m!
(2n)! (m n)!
n=0
m
X
(1)i
=
i=0
(2m)!
(2x)2m2i
i! (2m 2i)!
m
X
(2m + 1)!
+ 1)!
(1)n+m
P2m+1 (x) =
(2x)2n+1
m!
(2n
+
1)!
(m
n)!
n=0
m (2m
m
X
(1)i
=
i=0
(2m + 1)!
(2x)2m+12i .
i! (2m + 1 2i)!
Hk (x) =
X
i=0
(1)i k!
(2x)k2i ,
i! (k 2i)!
k = 0, 1, . . . ,
(3.27)
donde [x] denota la parte entera de x (mayor entero menor o igual que x). Al ser Hk
proporcional a Pk para todo k = 0, 1, . . . , Hk es soluci
on de la ecuaci
on de Hermite con
= k, es decir
Hk 2x Hk + 2k Hk = 0 ,
k = 0, 1, . . . .
(3.28)
Los primeros polinomios de Hermite son:
H0 (x) = 1
H1 (x) = 2 x
H2 (x) = 4 x2 2
H3 (x) = 8 x3 12 x
H4 (x) = 16 x4 48 x2 + 12 .
Se define la funci
on generatriz de los polinomios de Hermite como la funcion
F (x, z) =
X
Hk (x)
k=0
k!
zk .
(3.29)
[k/2]
X
X
k=0 i=0
X
j=0
j=0 i=0
(2xz)j X
j!
X X (1)i
(1)i
(2x)k2i z k =
(2x)j z j+2i
i! (k 2i)!
i! j!
i=0
2
(z 2 )i
2
= e2xz ez = e2xzz .
i!
(3.30)
76
es decir
Hk (x) = (1)k ex
dk x2
.
e
dxk
(3.31)
k=0
k=0
X 2x Hk (x)
X 2 Hk (x)
2
2xzz 2
e
= 2(x z) e2xzz =
zk
z k+1
z
k!
k!
=
X
j=0
zj
2x Hj (x) 2j Hj1 (x)
,
j!
X
Hk (x) k1 X
zj
Hj+1 (x) .
z
=
(k 1)!
j!
j=0
k=1
j = 0, 1, . . . ,
(3.32)
que puede ser utilizada para calcular recursivamente los polinomios de Hermite a partir
de H0 (x) = 1. Analogamente, derivando la funcion generatriz respecto de x se obtiene
X 2 Hk (x)
X
X
2xzz 2
zj
2
zj
Hj (x) ,
e
= 2z e2xzz =
z k+1 =
2 jHj1 (x)
=
x
k!
j!
j!
k=0
j=0
j=0
j = 0, 1, . . . .
(3.33)
Notese que combinando las relaciones (3.32) y (3.33) se deduce facilmente que el polinomio Hj es soluci
on de la ecuaci
on de Hermite con = j, ya que
d
Hj (x) = 2jHj1
(x) =
77
x2
2
verifican
k = 0, 1, . . . .
De esta ecuaci
on se deduce que
0 = n m +(2m+1x2 )m m n +(2n+1x2 )n = n m
m n 2(nm)n m ,
es decir
d
n m
m n = 2(n m)n m .
dx
Integrando esta igualdad entre y + se obtiene (3.34), ya que
2
En Mecanica Cu
antica es tambien de gran interes el calculo de la integral (3.34) para
2
m = n. Para evaluar dicha integral, multipliquemos (3.32) por Hj+1 ex e integremos
entre y +. Aplicando las relaciones de ortogonalidad (3.34) se obtiene
Z
Z
d x2
2
x2
Hj (x) Hj+1 (x) dx
e
Hj+1 (x) e dx =
dx
Z
2
2 d
ex
= ex Hj (x) Hj+1 (x) +
Hj (x) Hj+1 (x) dx .
dx
2
x2
(x) dx
ex Hj (x) Hj+1 (x) + Hj (x) Hj+1
Hj+1 (x) e dx =
Z
2
=
2j Hj1 (x) Hj+1 (x) + 2(j + 1) Hj2 (x) ex dx
Z
2
j = 0, 1, . . . .
Hj2 (x) ex dx ,
= 2(j + 1)
ex dx .
Como la u
ltima integral es igual a , se tiene finalmente
Z
2
Hn2 (x) ex dx = 2n n! .
(3.35)
Ejercicio.
i) Probar que si a0 es una funci
on par y a1 es impar (y ambas son continuas), entonces
u(x) es soluci
on de la ecuaci
on (3.1) si u(x) es soluci
on.
ii) Deducir que las soluciones uk (x) de la ecuaci
on (3.1) definidas por las condiciones
iniciales (3.25) tienen la paridad de (1)k , es decir satisfacen (3.24).
iii) Concluir que, si el punto x = 0 es regular y u(x) es soluci
on de la ecuaci
on (3.1)
X
i=0
i x2i + c1
X
i=0
i x2i+1 .
3.2
78
(3.36)
p(x)
,
x x0
a0 (x) =
q(x)
,
(x x0 )2
x 6= x0 ,
(3.38)
q(x) = (x x0 )2 a0 (x)
(3.39)
79
para x 6= x0 y
p(x0 ) = lim (x x0 )a1 (x) ,
q(x0 ) = lim (x x0 )2 a0 (x)
xx0
xx0
(3.40)
X (1)k
1
1
1
1
(x x0 )k ,
=
=
=
k+1
0
x
(x x0 ) + x0
x0 1 + xx
x
x0
0
k=0
|x x0 | < |x0 | .
k+1
X
(1)
= log |x0 | +
(x x0 )k , |x x0 | < |x0 | .
k
k
x
0
k=1
El punto x0 = 0 es una singularidad aislada de la ecuaci
on (3.40), ya que es singularidad
aislada de ambos coeficientes de la ecuaci
on. Para que dicho punto sea un punto singular
regular de la ecuaci
on, las funciones
p(x) = x a1 (x) = 1 ,
han de ser analticas en 0. Pero esto es falso, ya que aunque p es analtica (constante)
en R, y existe
lim q(x) = 0 ,
x0
x 6= 0.
(3.41)
80
En efecto, si hacemos
y(t) = u(x)
entonces
dx
= x para todo t, por lo que
dt
dy
dx
= u (x)
= x u (x) ,
dt
dt
d2 y
= x2 u (x) + x u (x) ,
dt2
(3.42)
(3.43)
r1 t
r2 t
si r1 6= r2 , r1 , r2 R
c1 e + c2 e ,
y(t) = (c1 + c2 t) ert ,
si r1 = r2 r R
t
r1
r2
si r1 6= r2 , r1 , r2 R
c1 |x| + c2 |x| ,
r
u(x) = (c1 + c2 log |x|) |x| ,
si r1 = r2 r R
(3.44)
Observese que para ciertos valores de las races r1 y r2 (o, lo que es lo mismo, de los
coeficientes p0 y q0 ), algunas o incluso todas las soluciones de la ecuaci
on de Euler (3.41)
pueden ser analticas en x = 0, aunque los coeficientes de la ecuaci
on no lo sean. Mas
concretamente, si r1 6= r2 son enteros no negativos entonces todas las soluciones son
analticas en x = 0, mientras que si r1 = r2 r es un entero no negativo entonces hay
una s
ola soluci
on linealmente independiente que es analtica en x = 0, a saber u(x) = xr .
(Por que se puede sustituir |x|ri por xri en (3.44) si ri es un entero?) En cualquier caso,
cualquiera que sean r1 y r2 es evidente que existe una constante M suficientemente
grande tal que
lim xM u(x) = 0
x0
q0 = q(x0 ) = lim (x x0 )2 a0 (x) . (3.45)
xx0
(3.46)
81
pi xi ,
q(x) =
qi xi ,
i=0
i=0
|x| < R .
(3.48)
(3.49)
Entonces se tiene:
i) Si r1 6= r2 y r1 r2
/ N, la ecuaci
on (3.47) tiene un sistema fundamental de
soluciones de la forma
ui (x) = |x|ri vi (x) ,
i = 1, 2 ,
(3.50)
(3.51)
(3.52)
82
Demostraci
on. Nos limitaremos a dar a continuaci
on una justificaci
on heurstica del
teorema de Frobenius, evitando entrar en detalles tecnicos (como, por ejemplo, la verificacion de la convergencia de las series que utilizaremos). La idea de la prueba es ensayar
una soluci
on del tipo
X
ci xi ,
con c0 6= 0
(3.54)
u(x) = |x|r
i=0
X
X
X
X
X
j
i+r
i+r
j
ci xi+r
+
qj x
(i+r) ci x
(i+r)(i+r 1) ci x +
pj x
i=0
i=0
i=0
j=0
i=0
j=0
h
X
(i + r)(i + r 1) ci +
i
X
k=0
i i+r
= 0.
(k + r)pik + qik ck x
i
X
k=0
(k + r)pik + qik ck = 0 ,
i = 0, 1, . . . .
(3.55)
F (r) = 0 .
(3.56)
La ecuaci
on (3.56) implica que r s
olo puede ser igual a una de las dos races r1,2 del
polinomio indicial. Si i = 1, 2, . . . reescribimos (3.55) como
i1
X
(k + r)pik + qik ck ,
(i + r)(i + r 1) + (i + r) p0 + q0 ci =
i = 1, 2, . . . .
k=0
i1
X
k=0
(k + r)pik + qik ck ,
i = 1, 2, . . . .
(3.57)
i = 1, 2, . . . .
(x > 0)
(3.58)
con
v1 (x) =
83
ci xi ,
i=0
i = 1, 2, . . . .
(x > 0)
con n = 0, 1, . . . .
Utilizando la soluci
on (3.58) podemos construir una segunda soluci
on linealmente independiente de la ecuaci
on aplicando la formula (2.49), es decir
Z x 2r1
R
t
t a1 (s) ds
e
dt .
(3.59)
u2 (x) = u1 (x)
v12 (t)
Al ser el origen un punto singular regular de la ecuaci
on (3.47) se tiene
Z
a1 (s) ds =
siendo
(t) =
Z tX
p(s)
ds = p0 log t + (t)
s
pi si1 ds =
X
pi
i=1
i=1
ti
una funci
on analtica en el origen con (0) = 0. Sustituyendo en la formula (3.59) se
obtiene
Z x
Z x
(t)
p0 2r1 e
tp0 2r1 (t) dt ,
(3.60)
dt u1 (x)
t
u2 (x) = u1 (x)
2
v1 (t)
con
(t) =
e(t) X i
bi t
v12 (t)
i=0
84
n1
(t) dt = u1 (x)
xX
bi tin1 dt
i=0
X
bi
xin bn u1 (x) log x + xr2 w(x) ,
= bn u1 (x) log x + u1 (x)
in
(3.61)
i=0
i6=n
con
X
bi
w(x) = v1 (x)
xi
in
i=0
i6=n
una funci
on analtica en el origen, y
0,
n=0
w(0) =
1
b
0 = 6= 0 , n = 1, 2, . . . .
n
n
ci xi
(x > 0)
(3.62)
i=0
(k + r)pnk + qnk ck = 0 .
(3.63)
85
un m
ultiplo adecuado de la primera soluci
on (3.58). Por tanto, si se cumple la condicion (3.63) hay una segunda soluci
on del tipo (3.62), es decir sin termino logartmico.
Esto prueba que (3.63) es la condici
on necesaria y suficiente para que no haya termino
logartmico en la segunda soluci
on de (3.47).
Supongamos a continuaci
on que r1 = r2 r , por lo que la presencia del termino
logartmico est
a garantizada. Para calcular la segunda soluci
on en este caso, sean ci (s)
(i = 1, 2, . . . ) los coeficientes determinados por la relaci
on de recurrencia
F (s + i) ci (s) =
i1
X
(k + s)pik + qik ck (s) ,
i = 1, 2, . . . .
(3.64)
k=0
ci (s) xi
(x > 0)
i=0
no es soluci
on de la ecuaci
on (3.47). En efecto, teniendo en cuenta la forma en que se
obtuvo la relaci
on de recurrencia (3.57) es facil ver que
L u(x, s) x2 u + xp(x) u + q(x) u = F (s) xs .
X
X
i
r
r
ci (r) x u1 (x) log x + x
u(x, s) = u(x, r) log x + x
ci (r) xi
s s=r
i=0
i=0
es soluci
on de la ecuaci
on lineal homogenea (3.47).
3.2.1
La ecuaci
on de Bessel
La ecuaci
on
x2 u + x u + (x2 2 ) u = 0 ,
x > 0,
(3.65)
donde 0 es un par
ametro real, recibe el nombre de ecuaci
on de Bessel. El origen
es un punto singular regular de esta ecuaci
on, ya que es de la forma (3.47) con
p(x) = 1 ,
q(x) = x2 2
(3.66)
q0 = 2 ,
(3.67)
(3.68)
86
r2 =
(3.69)
(recuerdese que r1 siempre designa a la raz de parte real mayor), siendo su diferencia
r1 r2 = 2 .
(3.70)
X
ci xi+
(x > 0) .
u1 (x) =
i=0
Sustituyendo en la ecuaci
on de Bessel se obtiene
X
i=0
X
ci xi++2
(i + )(i + 1) + (i + ) 2 ) ci xi+ +
i=0
= (1 + 2)c1 x+1 +
X
i=2
i(i + 2)ci + ci2 xi+ = 0 .
(3.71)
i = 2, 3, . . . .
(3.72)
Como (3.72) relaciona el coeficiente ci con ci2 , los coeficientes pares (impares) son
proporcionales a c0 (c1 ), de donde se deduce que
c2k+1 = 0 ,
k = 0, 1, . . . .
(3.73)
Llamando
c2k = bk ,
k = 0, 1, . . . ,
la relaci
on de recurrencia (3.72) se transforma en
4k(k + ) bk = bk1 ,
k = 1, 2, . . . .
(3.74)
(1)k
b0 ,
22k k! ( + k)( + k 1) ( + 1)
k = 1, 2, . . . .
(3.75)
x 2n+
(1)n
.
n!(
+
n)
(
+
2)(
+
1)
2
n=0
(3.76)
87
Por el teorema de Frobenius, la serie que define esta funcion es convergente para todo
x R, ya que los coeficientes p y q son polinomios. (Esto tambien se puede comprobar
directamente en este caso utilizando el criterio del cociente.)
Para simplificar los coeficientes en la formula anterior utilizaremos la funci
on gamma de Euler, definida por
Z
tz1 et dt .
(z) =
(3.77)
0
(3.78)
et dt = 1 ,
de la relaci
on funcional se deduce inmediatamente que
(n + 1) = n!
n = 0, 1, . . . .
(z + 1)
.
z
De esta forma se obtiene una funcion analtica en todo el plano complejo, excepto en
los puntos z = 0, 1, 2, . . . , donde se prueba que tiene polos simples (es decir,
diverge como (z + k)1 cuando z k, con k = 0, 1, . . . ). Por u
ltimo, se demuestra
que la funci
on no tiene ceros en el plano complejo. Por tanto, la funcion 1/ es entera
(analtica en todo el plano complejo), y se anula s
olo en los enteros negativos y en el
origen.
Utilizando la relaci
on funcional (3.78) repetidamente se obtiene
( + n + 1) = ( + n) ( + 2)( + 1)( + 1) .
Multiplicando la soluci
on u1 (x; ) por la constante no nula (ya que 0) 1/( + 1)
se llega a la soluci
on
J (x) =
n=0
x 2n+
(1)n
,
n! ( + n + 1) 2
(3.79)
(3.80)
n=0
x 2n
(1)n
.
n! (n + 1) 2
(3.81)
88
(x)
15
10
-4
-2
2
-5
-10
-15
Figura 3.1: Gr
afica de la funcion (x).
Por tanto, si 2 6= 0, 1, . . . la soluci
on general de la ecuaci
on de Bessel est
a dada por
u(x) = C1 J (x) + C2 J (x) ,
con C1 y C2 constantes arbitrarias. Notese que J0 (0) = 1, mientras que para > 0 la
funcion J (x) se anula en el origen:
J (0) = 0 ,
>0 .
Sin embargo, si 0 J s
olo es analtica en x = 0 si = 0, 1, . . . , ya que x s
olo
es analtica en el origen para estos valores de . Ademas, si 6= 1, 2, . . . entonces
1/(1 ) 6= 0, y por tanto J (x) diverge cuando x 0 si 6= 0, 1, . . . :
J (x)
x0
J0 (x)
2
x
(1 )
( 6= 0, 1, . . . ) .
(3.82)
J2 (x)
J2 (x)
0.4
0.8
0.2
0.4
0.6
5
0.2
0.4
0.2
5
-0.2
10
15
20
25
30
10
15
20
25
30
-0.2
10
15
20
25
30
-0.4
-0.6
-0.2
-0.8
-0.4
Figura 3.2: Gr
afica de las funciones J0 y J2 .
Si
2 = 0, 1, . . . ,
es necesario calcular la segunda soluci
on linealmente independiente u2 (x) de la ecuaci
on
de Bessel. En particular, si 2 = 1, 2, . . . debemos determinar si aparece o no un termino
89
1 3
, ,...
2 2
(es decir, si es semientero), no hay termino logartmico. Esto se puede ver estudiando la
relaci
on de recurrencia para la segunda raz () de la ecuaci
on indicial, o m
as facilmente
observando que en este caso J sigue siendo soluci
on de la ecuaci
on de Bessel (ya que
dicha ecuaci
on no cambia si se sustituye por ), y no es proporcional a J (x). En
efecto, ya hemos visto que J se anula en el origen para > 0, mientras que, al ser
1/(1 ) 6= 0 para = 1/2, 3/2, . . . , la soluci
on J diverge en 0 como x (vease la
ec. (3.82)). De hecho, se puede probar que si m Z entonces
1
1
Jm+ 1 (x) = Am
cos x + Bm
sen x ,
(3.83)
2
x
x
con Am y Bm polinomios. Por ejemplo,
r
2
sen x ,
J 1 (x) =
2
x
J 1 (x) =
2
2
cos x .
x
(3.84)
Por el contrario, si
= 1, 2, . . .
entonces la segunda soluci
on contiene un termino logartmico. Una indicaci
on de este
hecho es que si N la funci
on J es proporcional a J . En efecto, en este caso
1
= 0,
(n + 1)
n = 0, 1, . . . , 1 .
Por tanto
J (x) =
=
n=
X
k=0
x 2n X
x 2k+
(1)k+
(1)n
=
n! (n + 1) 2
(k + )! (k + 1) 2
k=0
(1)k+
(k + + 1) k!
x 2k+
2
= (1) J (x) ,
= 1, 2, . . . .
ci xi
i=0
i = 2, 3, . . . .
De nuevo, todos los coeficientes impares son cero, y los coeficientes pares bk = c2k se
determinan por
4k(k ) bk = bk1 ,
k = 1, 2, . . . .
Esta relaci
on determina b1 , . . . , b1 en terminos de b0 , siendo todos estos coeficientes
no nulos si b0 6= 0. Sin embargo, en este caso la relaci
on que debera determinar b se
reduce a
0 = b1 ,
90
ci xi
i=1
(n
otese que podemos tomar c0 = 0) y sustituimos esta expresi
on en la ecuaci
on de Bessel
para = 0, obteniendo
(x J0 + J0 + x J0 ) log x + 2 J0 + x v2 + v2 + x v2 = 0 ,
o bien, ya que J0 es soluci
on de la ecuaci
on de Bessel para = 0,
x v2 + v2 + x v2 + 2 J0 = 0 .
(3.85)
X
X
X
(1)n n x 2n1
i+2
i
ci x
+ 2x
= 0,
i(i 1) + i]ci x +
n!2
2
n=1
i=0
i=0
es decir
c1 x +
i ci + ci2 ) x + 4
X
(1)n n x 2n
n=1
i=2
n!2
= 0.
(3.86)
De esta relaci
on se deduce en primer lugar que c1 = 0. Como la u
ltima serie no contiene
m
as que potencias pares, la relaci
on de recurrencia para las potencias impares
(2k + 1)2 c2k+1 + c2k1 = 0 ,
k = 1, 2, . . .
k = 0, 1, . . . .
(3.87)
(1)n n
1
bn1 + n 2 ,
4
4 n!
n = 1, 2, . . . .
(3.88)
1
,
n
n = 1, 2, . . . .
La soluci
on de esta relaci
on de recurrencia es inmediata:
n =
1
1
+
+ + 1 + 0 ,
n n1
n = 1, 2, . . . .
91
n = 1, 2, . . . .
X
(1)n
n=1
n!2
1
1
1 + + +
2
n
x 2n
.
2
(3.89)
La funci
on N0 se denomina funci
on de Neumann de orden cero. Notese que la funcion
N0 , a diferencia de la otra soluci
on J0 , no es analtica en el origen, donde se comporta
como log x:
N0 (x) log x .
x0
En la pr
actica, en lugar de la funcion de Neumann N0 se suele escoger como segunda
soluci
on linealmente independiente la combinaci
on lineal de J0 y N0 dada por
Y0 (x) =
donde
= lim
2
N0 (x) (log 2 )J0 (x) ,
1
1
1 + + + log n
2
n
0,577216
es la llamada constante de EulerMascheroni. La funcion Y0 (que tambien diverge logartmicamente en el origen) se suele denominar funci
on de Bessel de segunda especie
de orden 0. La soluci
on general de la ecuaci
on de Bessel de orden 0 es por tanto
u(x) = C1 J0 (x) + C2 Y0 (x) ,
con C1 y C2 constantes reales.
Para m = 1, 2, . . . , un c
alculo parecido al anterior pero algo m
as complicado
demuestra que una segunda soluci
on de la ecuaci
on de Bessel de orden m linealmente
independiente de Jm est
a dada por la funcion de Neumann de orden m
m1
1 X (m n 1)! x 2nm
2 n=0
n!
2
1 X (1)n
x 2n+m
1
1
1
1
(3.90)
1 + + + + 1 + + +
2
n!(n + m)!
2
n
2
n+m
2
n=0
2
Nm (x) (log 2 )Jm (x) ,
92
Nota: Si se define
Y (x) =
6= 0, 1, . . . ,
m = 0, 1, . . . .
x
x
2
4
r
2
.
Y (x)
sen x
x
x
2
4
J ) = x
J+1 .
(3.91)
(3.92)
Para probar la primera de estas identidades basta utilizar el desarrollo en serie (3.79)
de J , que proporciona
(x J ) =
x 2(n+) X
(1)n 2 (n + ) x 2n+21
(1)n 2
d X
=
dx
n! (n + + 1) 2
n! (n + + 1) 2
n=0
n=0
= x J1 .
(3.93)
(3.94)
La segunda de estas identidades se puede utilizar para calcular de forma recursiva las
funciones de Bessel de ndice + k (k = 1, 2, . . . ) a partir de J y J1 . Por ejemplo, las
funciones de Bessel de ndice entero positivo se pueden expresar en terminos de J0 y J1 .
Del mismo modo, la expresi
on (3.83) para las funciones de Bessel de orden semientero se
deduce facilmente de la relaci
on (3.94) y la ecuaci
on (3.84). Notese, por u
ltimo, que las
funciones de Bessel de segunda especie tambien satisfacen las relaciones (3.93)(3.94),
ya que estas son consecuencia de (3.91)(3.92).
3.2.2
93
1
y (1/x) ,
x2
u (x) =
1
2
y (1/x) + 3 y (1/x) ,
4
x
x
sustituyendo en la ecuaci
on diferencial (3.36) se obtiene la ecuaci
on lineal homogenea
de segundo orden
y + A1 (t) y + A0 (t) y = 0 ,
(3.95)
donde los coeficientes Ai (t) est
an dados por
A1 (t) =
1
2
2 a1 (1/t),
t
t
A0 (t) =
1
a0 (1/t) .
t4
(3.96)
Definici
on 3.13. Diremos que el punto del infinito es regular (resp. singular regular)
para la ecuaci
on original (3.36) si el origen es un punto regular (resp. singular regular)
para la ecuaci
on (3.95)
Supongamos, por ejemplo, que el punto del infinito es un punto regular para la
ecuaci
on (3.36). Esto significa que las funciones Ai (t) (i = 0, 1) son analticas en el
origen con series de Maclaurin convergentes para |t| < r, y por tanto (teorema de
Fuchs) toda soluci
on y(t) de (3.95) admite el desarrollo
y(t) =
bi t i ,
i=0
|t| < r .
X
bi
,
xi
i=0
|x| >
1
.
r
(3.97)
94
(3.99)
donde 21 es un par
ametro real. En este caso
a1 (x) =
2x
,
x2 1
a0 (x) =
2
t
2
1
2
t
t
1
t2
2t
,
t2 1
( + 1)
,
1 x2
( + 1)
.
t2 (t2 1)
A0 (t) =
2t2
,
t2 1
q(t) t2 A0 (t) =
( + 1)
t2 1
son analticas en t = 0, siendo sus series de Maclaurin convergentes para |t| < 1 (distancia
a la singularidad m
as pr
oxima en el plano complejo). Por tanto, el origen es un punto
singular regular para la ecuaci
on de Legendre para 6= 0. (Claramente, el origen es un
punto regular de (3.99) si = 0.) Para estudiar el comportamiento de las soluciones de
esta ecuaci
on para |x| , estudiamos la ecuaci
on (3.95), que en este caso se escribe
t2 (t2 1)y + 2t3 y + ( + 1)y = 0 ,
(3.100)
q0 = ( + 1) ,
r2 = .
1 X ck
,
|x|+1 k=0 xk
u2 (x) = |x|
X
dk
,
xk
(3.101)
k=0
con c0 = d0 = 1, siendo las series anteriores convergentes para |x| > 1. Analogamente,
si = 12 un sistema fundamental de soluciones de la ecuaci
on de Legendre es de la
forma
1 X ck
,
u1 (x) = p
|x| k=0 xk
1 X dk
u2 (x) = u1 (x) log |x| + p
,
|x| k=1 xk
(3.102)
95
1 X ck
u1 (x) =
,
|x|+1 k=0 xk
X
dk
u2 (x) = c u1 (x) log |x| + |x|
,
xk
k=0
con c0 = d0 = 1 y c 6= 0.
Soluci
on.
Sea 2 + 1 = n + 1 con n = 1, 2, . . . , de modo que las races de la ecuaci
on indicial
son r1 = n2 + 1 y r2 = n2 . El teorema de Frobenius garantiza entonces la existencia de
una soluci
on de la forma
X
n
ci ti ,
y1 (t) = t 2 +1
i=0
donde hemos supuesto, por sencillez, que t > 0. Debemos ahora determinar si la ecuaci
on
(3.100) posee una soluci
on de la forma
y2 (t) =
di ti 2
i=0
t (t 1)
X
i=0
n n n
X
n n
X
n
i 2 +2 n n
i 2 2
di i
i 1 t
+1
di ti 2
di i t
+2
+
2
2
2
2 2
i=0
i=0
= nd1 t1 2 +
h
X
i=2
i
n
n
n
i(n i + 1)di + i 1 i 2 di2 ti 2 = 0 .
2
2
(3.103)
i = 2, 3, . . . .
(3.104)
96
la relaci
on de recurrencia en funci
on de d0 , ya que 2m + 1 i no se anula para ning
un
entero par i. Ahora d1 = 0, y por tanto la relaci
on de recurrencia implica que
d3 = = d2m1 = 0 .
Haciendo i = 2m + 1 en la relaci
on de recurrencia se obtiene
0 d2m+1 = 0 ,
lo cual implica que d2m+1 no est
a determinado. (Esto es razonable, ya que si a
nadimos a
y2 (t) un m
ultiplo cualquiera de y1 (t) seguimos teniendo una soluci
on.) Sin embargo, dado
que 2m + 1 i no se anula para i = 2m + 3, 2m + 5, . . . , todos los coeficientes impares
a partir de d2m+1 est
an determinados por este (en particular, se anulan si tomamos
d2m+1 = 0).
Veamos ahora que ocurre si n = 2m 1 con m = 1, 2, . . . . En este caso todos los
coeficientes impares son nulos, ya que d1 = 0 y 2m i no es cero para i impar. Como
2m i tampoco se anula para i = 2, . . . , 2m 2, los coeficientes pares d2 , . . . , d2m2
est
an determinados por la relaci
on de recurrencia en funcion de d0 . Ninguno
de dichos
coeficientes se puede anular si d0 6= 0, ya que el factor i m 12 i m 23 no
se anula para ning
un entero i. Sin embargo, la relaci
on de recurrencia para i = 2m
proporciona la ecuaci
on
1
3
0= m
m
d2m2 ,
2
2
que es contradictoria. Por tanto, la segunda soluci
on contiene en este caso un termino
logartmico.
Captulo 4
Sistemas din
amicos en el plano
4.1
Resultados generales
Un sistema din
amico en Rn es un sistema aut
onomo de n ecuaciones diferenciales
de primer orden
x = f (x) .
(4.1)
Notese que la funci
on vectorial f : Rn Rn no depende del tiempo (variable independiente) t. La notaci
on que utilizaremos en este captulo es la siguiente:
x = (x1 , . . . , xn ) ,
x =
dx
.
dt
(4.2)
97
i = 1, 2, . . . , N ,
(4.3)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
98
siendo Fi = F1 , F2 , F3 la fuerza por unidad de masa que act
ua sobre la i-esima partcula. Introduciendo la velocidad Pi = X i y llamando
x = X1 , . . . , XN , P1 , . . . , PN R6N ,
(4.4)
x 2 = x1 .
(4.5)
tA
x(t) = e x0 =
= cos t + sen t, sen t + cos t ,
sen t cos t
con (, ) R2 . Las trayectorias del sistema son por tanto las helices
t 7 (t, cos t + sen t, sen t + cos t R3 ,
t R.
Notese que las trayectorias son curvas en R3 . Las orbitas del sistema son las proyecciones
de las helices anteriores sobre las dos u
ltimas coordenadas, es decir las curvas planas
parametrizadas por
t 7 cos t + sen t, sen t + cos t .
Las ecuaciones parametricas de las orbitas son por tanto
x1 = cos t + sen t ,
x2 = sen t + cos t .
Eliminando el par
ametro t obtenemos la ecuaci
on implcita de las orbitas
x21 + x22 = 2 + 2 .
Se trata, por tanto, de circunferencias de centro el origen y radio
a2 + 2 .
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
99
Q.E.D.
(4.6)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
100
siendo r =
2 + 2 y
= r cos t0 ,
= r sen t0 .
Otra parametrizacion de la misma orbita es x(t) = r(cos t, sen t). Las orbitas son por
tanto circunferencias centradas en el origen y orientadas en sentido horario. En este caso,
todas las
orbitas del sistema son cerradas y tienen el mismo perodo (2). En general, sin
embargo, dos
orbitas cerradas distintas de un sistema din
amico tienen distinto perodo.
Es posible encontrar la ecuaci
on cartesiana (o implcita) de las orbitas de un sistema
sin hallar antes sus soluciones. Para ello parametrizamos la orbita utilizando como
par
ametro una de las coordenadas, por ejemplo la primera. Por el teorema de la funcion
inversa, esto podremos hacerlo localmente en un entorno de cualquier punto en que
x 1 6= 0, es decir en que f1 (x) 6= 0. La orbita vendra por tanto descrita
localmente con
una parametrizacion de la forma x1 7 x1 , x2 (x1 ), . . . , xn (x1 ) . Para determinar las
funciones xi (x1 ) (2 i n), observese que
x i
fi (x1 , x2 , . . . , xn )
dxi
=
=
,
dx1
x 1
f1 (x1 , x2 , . . . , xn )
i = 2, 3, . . . , n .
La ecuaci
on diferencial de las
orbitas en esta parametrizacion es por tanto el siguiente
sistema no aut
onomo de orden n 1:
fi (x1 , x2 , . . . , xn )
dxi
=
,
dx1
f1 (x1 , x2 , . . . , xn )
i = 2, 3, . . . , n .
(4.7)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
101
si f (x, y) 6= 0
(4.9)
f (x, y)
dx
=
,
dy
g(x, y)
si g(x, y) 6= 0 .
(4.10)
x = y
y = x
c 0 R.
En un sistema din
amico, los equilibrios son los puntos m
as interesantes. En efecto,
si x0 Rn no es un equilibrio (f (x0 ) 6= 0) se puede probar que es posible realizar un
cambio de variables local y = Y (x) de forma que en la variable y el sistema din
amico
(4.1) se escriba
y1 = 1 ,
y2 = = yn = 0 .
En las nuevas coordenadas y1 , . . . , yn , las orbitas del sistema en las proximidades del
punto y0 = Y (x0 ) son simplemente rectas paralelas al eje y1 .
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
102
Definici
on 4.7. Sea x0 un punto crtico del sistema din
amico (4.1).
i) x0 es un punto crtico aislado si el sistema no tiene ning
un punto crtico en el
entorno perforado 0 < kx x0 k < , con > 0 suficientemente peque
no.
ii) x0 es un punto crtico elemental (simple, no degenerado) si det Df (x0 ) 6= 0 .
iii) x0 es un punto crtico hiperb
olico si todos los autovalores de Df (x0 ) tienen parte
real distinta de cero.
Proposici
on 4.8. x0 punto crtico hiperb
olico = x0 punto crtico elemental = x0
punto crtico aislado.
Demostraci
on. La primera implicaci
on es trivial, ya que si det Df (x0 ) = 0 alg
un autovalor de Df (x0 ) es igual a cero, y por tanto x0 no es un punto crtico hiperb
olico. En cuanto
a la segunda, por el teorema de la funcion inversa existe un entorno V = B (x0 ) de x0
en que f es invertible. Por tanto, si x V y f (x) = 0 = f (x0 ) entonces x = x0 . Q.E.D.
Ejemplo 4.9. Estudiemos c
omo son los puntos crticos del sistema din
amico lineal
x = A x
(4.11)
xx0
k(x)k
= 0.
kx x0 k
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
103
x0 y el de su aproximacion lineal (4.12) en un entorno del origen deberan ser cualitativamente semejantes. En general, sin embargo, esto s
olo es cierto si el punto crtico x0 es
1
hiperb
olico . Por ejemplo, si x0 es un punto crtico hiperb
olico de (4.1) su estabilidad
puede determinarse estudiando la estabilidad de la aproximacion lineal en x0 :
Teorema 4.10. Si x0 es un punto crtico hiperb
olico del sistema din
amico (4.1),
entonces x0 tiene el mismo tipo de estabilidad para (4.1) que la aproximaci
on lineal
de (4.1) en x0 .
En otras palabras, x0 es asint
oticamente estable si todos los autovalores de Df (x0 )
tienen parte real negativa, e inestable si alg
un autovalor de Df (x0 ) tiene parte real
positiva.
4.2
Sistemas din
amicos lineales en R2
A=
a b
.
c d
(4.13)
Llamaremos
= tr A a + d ,
d = det A ad bc .
(4.14)
(4.16)
Z = P 1 AP Z .
(4.17)
Si los autovalores de la matriz A son ambos reales, se puede escoger P de modo que sus
columnas de P formen una base de Jordan de A, en cuyo caso
1 0
1
P AP = J =
,
(4.18)
2
siendo 1 2 los dos autovalores de A, y {0, 1}, con = 0 si 1 =
6 2 o si A
es proporcional a la identidad. Notese que los mapas de fases de (4.13) y (4.17) son
1
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
104
d = 1 2 .
(4.19)
(4.20)
d<0
Notese que d < 0 = 2 4d > 0. En este caso los dos autovalores tienen signos
opuestos, es decir
1 < 0 < 2 .
Si Z = (z1 , z2 ), la soluci
on general del sistema en Z es
z1 = c1 e1 t ,
z2 = c2 e2 t ,
(4.21)
z2 = c |z1 | 1 ,
c R,
(4.22)
junto con z1 = 0 (en realidad, se trata de las dos orbitas {z1 = 0, z2 > 0} y {z1 = 0, z2 < 0}).
Notese que las dos soluciones
Z(t) = (1, 0)e1 t
parametrizan el eje z1 (menos el origen) y entran en el punto crtico (el origen), al ser
1 negativo, mientras que las soluciones
Z(t) = (0, 1)e2 t
parametrizan el eje z2 y salen del origen (2 > 0). Si efectuamos la transformacion
lineal X = P Z para pasar a las variables originales X = (x, y), el mapa de fases es
semejante. En particular, los ejes z1 y z2 se transforman en dos rectas, dirigidas en la
direcci
on de los dos autovectores linealmente independientes de la matriz A. En este
caso se dice que el origen es un punto de silla del sistema (4.13).
I.b)
d>0
2 4d > 0 ,
d>0
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
105
2 4d = 0
( d > 0) ,
A = 1
0
J=
,
= .
1
2
Notese que en este caso la matriz A tiene un s
olo autovector linealmente independiente,
que est
a dado por la segunda columna de P . La soluci
on del sistema (4.17) es ahora
z1 = c1 et ,
z2 = (c1 t + c2 ) et
(c1 , c2 R) .
La ecuaci
on de las
orbitas es
z2 = z1
1
log |z1 | + c ,
c R,
junto con z1 = 0. De nuevo, todas las orbitas entran en el origen (resp. salen del origen)
si < 0 (resp. > 0). Adem
as, si c1 6= 0
z2 (t)
c2
c1 t + (c1 + c2 )
1
=
=t+
+
,
z1 (t)
c1
c1 t
por lo que todas las
orbitas entran o salen del origen tangentes al eje z2 . En las coordenadas de partida x, las
orbitas entran o salen del origen (seg
un sea < 0 o > 0)
tangentes a la recta paralela al autovector de la matriz A. Se dir
a que el origen es un
nodo de una tangente (estable si < 0, inestable si > 0).
II)
2 4d < 0
En este caso hay dos autovalores complejos conjugados 1,2 = i , con > 0.
Existe por tanto un vector v C2 tal que
A v = ( + i )v .
Tomando la parte real e imaginaria de esta igualdad compleja obtenemos las dos igualdades reales
A Re v = Re v Im v ,
A Im v = Im v + Re v .
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
Por tanto, si P = Re v Im v se tiene
P 1 A P =
106
= 2 ,
(4.23)
z1 + z2
(4.24)
z2 = z1 + z2 .
Pasando a coordenadas polares
z1 = r cos ,
z2 = r sen
obtenemos:
r 2 = z12 + z22 = r r = z1 z1 + z2 z2 = r 2
z1 = z1 + z2 = r cos (r sen ) = z1 z2 = = .
El sistema en coordenadas polares es
= ,
r = r ,
(4.25)
con soluci
on general
r = r0 et ,
= 0 t ;
r0 , 0 R .
(4.26)
La ecuaci
on de las
orbitas es por tanto
r = r0 e (0 ) .
(4.27)
Se trata de una familia de espirales logartmicas, si 6= 0 (es decir, 6= 0), o circunferencias centradas en el origen, si = 0 ( = 0). En el plano (x, y), las orbitas siguen
siendo espirales para 6= 0, y son elipses centradas en el origen para = 0. En el
primer caso ( 6= 0) se dice que el origen es un foco, estable para < 0 e inestable para
> 0, mientras que si = 0 el origen es un centro. Si > 0, las espirales tienden
al origen para t , mientras que si < 0 esto ocurre para t . El sentido de
giro alrededor del origen de las espirales o las circunferencias se determina facilmente
observando cu
al es la direcci
on del vector velocidad A X cuando la orbita cruza uno de
los ejes. Por ejemplo, la componente x del vector velocidad para x = 0 es f (0, y) = b y.
Por tanto, el sentido de giro es horario (antihorario) si b > 0 (b < 0). Del mismo modo,
como g(x, 0) = c x el sentido de giro es horario si c < 0, y antihorario si c > 0. Notese
que
2 4d = (a + d)2 4(ad bc) = (a d)2 + 4bc < 0 = bc < 0 .
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
d
FOCO EST.
NODO EST.
FOCO INEST.
2 4d = 0
NODO INEST.
CENTRO
NODO EST.
107
NODO INEST.
PTO. DE SILLA
PTO. DE SILLA
4.3
Sistemas din
amicos no lineales en R2
Consideremos a continuaci
on el sistema din
amico plano
(
x = f (x, y)
y = g(x, y) ,
(4.28)
(4.29)
(4.30)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
108
Teorema 4.11. Sea (x0 , y0 ) un punto crtico elemental del sistema (4.28), es decir
fx (x0 , y0 ) fy (x0 , y0 )
6= 0 .
f (x0 , y0 ) = g(x0 , y0 ) = 0 ,
det D(f, g)(x0 , y0 ) =
gx (x0 , y0 ) gy (x0 , y0 )
Entonces se verifica:
i) Si (f, g) C 1 y la aproximaci
on lineal (4.29) tiene un foco o un punto de silla
en el origen, entonces el sistema (4.28) tiene resp. un foco del mismo tipo (es
decir, estable o inestable) o un punto de silla en (x0 , y0 ).
ii) Si (f, g) C 2 y la aproximaci
on lineal (4.29) tiene un nodo en el origen, entonces el sistema (4.28) tiene un nodo del mismo tipo (estable o inestable, de
una tangente) en (x0 , y0 ).
iii) Si f y g son analticas en (x0 , y0 ) y la aproximaci
on lineal (4.29) tiene un centro
en el origen, entonces el sistema (4.28) puede tener un centro o un foco en
(x0 , y0 ).
Nota. Si la aproximacion lineal tiene un nodo en el origen y (f, g) s
olo es de clase C 1 ,
el sistema no lineal (4.28) puede tener un foco en (x0 , y0 ). Por ejemplo, esto es lo que
ocurre para el sistema
x = x
log r
x
y = y +
log r
x + y r k+1 sen(1/r)
en el origen.
Seg
un el teorema anterior, si la aproximacion lineal (4.29) tiene un centro en el
origen el sistema original puede tener en dicho punto un centro o un foco (a
un cuando
las funciones f y g sean analticas en el punto crtico). Para determinar en este caso
que tipo de punto crtico tiene el sistema (4.28) en (x0 , y0 ) se pueden usar muchas veces
consideraciones elementales de simetra. En efecto, si probamos que el mapa de fases del
sistema (4.28) en un entorno de (x0 , y0 ) es simetrico respecto de alguna recta que pase
por dicho punto entonces (x0 , y0 ) ha de ser forzosamente un centro, ya que una curva de
tipo espiral no es simetrica respecto de ninguna recta.
La simetra m
as facil de caracterizar es la simetra respecto de los ejes coordenados.
Por ejemplo, determinemos una condici
on suficiente para que las orbitas sean simetricas
respecto del eje x, suponiendo que (x0 , y0 ) = (x0 , 0) y que el origen es un centro de la
aproximacion lineal en este punto. En primer lugar, para que el campo de vectores (f, g)
sea continuo en el eje x las
orbitas deben cortar dicho eje con tangente vertical, es decir
f (x, 0) = 0
(4.31)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
109
g(x, y)
f (x, y)
tambien lo ser
a la funci
on y(x). Imponiendo esta condici
on se obtiene
g x, y(x)
g x, y(x)
d
=
y(x) = y (x) =
dx
f x, y(x)
f x, y(x)
para todo x. Esto se cumplira si
g(x, y)
g(x, y)
=
.
f (x, y)
f (x, y)
Por tanto, una condici
on suficiente para que las orbitas de (4.28) sean simetricas respecto
del eje horizontal es
g(x, y)
g(x, y)
=
,
f (x, y)
f (x, y)
f (x, 0) = 0 .
(4.32)
g(x, y) = g(x, y) ,
(4.33)
g(0, y) = 0
(4.34)
o, en particular, si
f (x, y) = f (x, y) ,
g(x, y) = g(x, y) .
(4.35)
(4.36)
f (x, y) = y ,
son analticas en todo R2 . Los puntos crticos del sistema son las soluciones de las
ecuaciones
y = x x3 = 0 ,
es decir
(0, 0),
(1, 0),
(1, 0) .
0
1
.
1 3x2 0
(4.37)
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
110
4
2
x
6
2
4
6
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
111
este caso el mapa de fases es simetrico respecto del eje horizontal, ya que f (x, y) = y es
impar en y, y g(x, y) = x x3 es par en dicha variable (al ser independiente de y). Como
ambos puntos crticos (1, 0) est
an sobre el eje horizontal, dichos puntos son centros del
sistema (4.36).
0.4
1.6
0.4 0
x
0.4
1.6
0.4
1
c1 R ,
o, equivalentemente,
(x2 1)2 + 2y 2 = c ,
c0 .
(4.39)
De esta ecuaci
on se deduce que el mapa de fases es simetrico respecto de ambos ejes, y
todas las
orbitas son acotadas y cerradas. (La simetra respecto del eje y del mapa de
fases se podra haber deducido sin necesidad de hallar la ecuaci
on de las orbitas, ya que
CAPITULO 4. SISTEMAS DINAMICOS
EN EL PLANO
112
g es impar y f par en x, resp.) Los puntos crticos, por ejemplo, se obtienen para c = 0.
Las separatrices son las dos
orbitas que pasan por el origen (en realidad, tienden al
origen para t . Sustituyendo por tanto x = y = 0 en la ecuaci
on anterior se
obtiene c = 1, por lo que las separatrices son las curvas
r
x2
2
2
2
.
(x 1) + 2y = 1 y = x 1
2