Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes EDO
Apuntes EDO
DE CHILE
INGENIERIA
Universidad de Chile
Escuela de Ingeniera
Departamento de Ingeniera Matematica
ECUACIONES DIFERENCIALES
ORDINARIAS
MA26A
Felipe Alvarez, Axel Osses, Leonardo S
anchez
Prefacio
Este apunte tiene como base la experiencia de varios cursos consecutivos de Ecuaciones Diferenciales
Ordinarias que se han dictado en el segundo a
no de Ingeniera de la Facultad de Ciencias Fsicas
y Matematicas de la Universidad de Chile en el perodo 2000-2004. A nuestro juicio, el principal
atractivo del apunte es que incluye numerosos ejemplos de aplicacion al modelamiento sin descuidar
los fundamentos matematicos de la teora de Ecuaciones Diferenciales Ordinarias.
Los Capitulos del 1 al 5 fueron concebidos a partir de los apuntes del curso del Profesor Axel Osses
con la valiosa cooperacion de los alumnos de la carrera de Ingeniera Civil Matematica Oscar Peredo
(Captulos 1 al 3) y Andre de Laire (Captulos 4 y 5). El material docente del Captulo 6 proviene
de dos fuentes: la Seccion 1 fue adaptada de un apunte del curso del Profesor Leonardo Sanchez por
el alumno de la carrera de Ingeniera Civil Matematica Ricardo Menares (actualmente doctorandose
en Francia) y la Seccion 2 fue adaptada de un apunte del curso del Profesor Felipe Alvarez, tambien
por Ricardo Menares.
Agradecemos a todos los que han participado en la confeccion de este apunte as como los comentarios de alumnos que han ayudado a mejorarlo. Esperamos ademas contar proximamente con una
version del apunte que incluira et tema de Calculo de Variaciones as como el desarrollo de mas
ejemplos de aplicacion.
F.Alvarez, A. Osses, L. Sanchez
Santiago, 21 de diciembre del 2004
Indice general
1. Ecuaciones Diferenciales Ordinarias Elementales
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2.1. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
15
17
18
19
23
23
1.6.2. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
1.6.3. Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
26
27
1.7. Poblaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
27
29
31
33
34
35
35
41
41
43
45
48
50
51
. . . . . . . . . . . . . . . . . . . . .
52
53
2.2.3. Espacios S y H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
59
62
64
3. Transformada de Laplace
72
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
3.2. El espacio C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
78
78
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
81
83
3.6. Traslaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
84
85
85
3.9.1. Diferenciabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
3.9.2. Integrabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
3.10. Convolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
88
3.12. Antitransformadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
96
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Sistemas Lineales en R
96
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
98
98
135
176
Indice de figuras
1.1. Osmosis por una membrana semipermeable. . . . . . . . . . . . . . . . . . . . . . .
10
14
],
2
w
.
k 2 +w 2
. . . . . . . . . . . . . . . . . . . .
22
22
24
28
29
30
31
38
1.14. Sistema mecanico de una cadena bajo el efecto de g con un extremo cayendo. . . . .
38
44
2.2. Regimen Sobreamortiguado (arriba), Criticamente Amotiguado (centro) y Subamortiguado (abajo), con C1 = C2 = 10. . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
45
46
y cos =
21
59
75
1
.
5
75
. . . . .
77
78
79
80
97
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.17. Diagrama de fase del sistema (5.12). A la izquierda < 0, > 0, y a la derecha
> 0, < 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.18. Diagrama de fase del sistema (5.12). A la izquierda < 0, < 0, y a la derecha
> 0, > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.19. Diagrama de fase del sistema (5.12) para = 0. A la izquierda > 0, y a la derecha
< 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7
. . . . . . . . . . 163
Captulo 1
Ecuaciones Diferenciales Ordinarias
Elementales
1.1.
Introducci
on
CA0
CB0
CA(t)
CB(t)
CA0 + CB0
.
2
(1.1)
CB
M
CA
t
t > 0.
(1.2)
(1.3)
K = M CA0 =
CB0 CA0
.
2
(1.4)
Esto nos provee de una formula explcita para la concentracion en A en funcion del tiempo, que
finalmente no es mas que un modelo simplificado de la realidad.
10
No completamente satisfechos con esta formula, desearamos comprender mas sobre el proceso o ley
que rige fenomeno fsico de la Osmosis. La idea clave1 consiste en estudiar si existe una relaci
on
(1.5)
Tenemos entonces una relacion diferencial simple que podemos interpretar como la ley fsica de
la Osmosis: el aumento de concentracion en A es proporcional en cada instante a la diferencia de
concentracion entre el promedio asintotico de concentraciones y la concentracion en A. La constante
de proporcionalidad es cuyo valor numerico cuantifica la permeabilidad de la membrana.
El conocimiento de la ley (1.5) provee una interpretacion mas intuitiva de la solucion (1.3), ley
que puede por analoga servir para modelar otros problemas similares. Actualmente, se sabe que
la mayora de los sistemas naturales pueden modelarse a traves de relaciones entre cantidades y
sus variaciones y variaciones de sus variaciones2 . En terminos matematicos, estamos hablando de
identidades o ecuaciones que hacen intervenir una funcion y sus derivadas.
Notemos que, por un lado, del punto de vista experimental, es mucho mas facil medir una variable
fsica que medir directamente las relaciones con sus derivadas. Sin embrago, del punto de vista del
intelecto humano, es a menudo mas facil adivinar u obtener las relaciones entre las derivadas de
una magnitud que apreciar la magnitud directamente. Si podemos resolver o simplemente describir
las ecuaciones diferenciales, habremos aumentado la comprension del mundo que observamos.
Ejercicio Propuesto 1.1.1. Si en el grafico del experimento de la figura 1.2, el aumento de la
concentracion en A hubiese resultado con una forma sigmoide (esto es estrictamente creciente hacia
la asntota pero con un punto de inflexion) Que modelo diferencial propondra usted para este
fenomeno?
Definici
on 1.1.1. Una Ecuaci
on Diferencial Ordinaria (abreviada EDO) es una identidad
de la forma
F (x, y (x), y (x), . . . , y (n) (x)) = 0
donde x es la variable independiente e y es la funcion incognita. La funcion F representa la relaci
on
3
que liga las derivadas de y. Se dice que la ecuacion es ordinaria pues se deriva con respecto a una
sola variable4
1
Idea revolucionaria para la ciencia introducida en el siglo XVII entre otros por Fermat, Newton y Leibniz
fluxiones en la terminologa original de Newton que da ademas la idea de continuo.
3
En lo sucesivo las primas ( , , , etc.) indicaran derivadas as como los superndices entre parentesis.
4
Si se deriva con respecto a varias variables, se habla de Ecuaci
on Diferencial Parcial (EDP).
11
El orden de una ecuacion diferencial es el grado de derivacion maximo que aparece en la ecuaci
on
que en este caso es el n
umero n natural5 .
El grado de una ecuacion diferencial es el exponente de la derivaci
on de mayor orden.
Una EDO lineal de orden n es de la forma
an (x)y (n) + an1 y (n1) + + a1 (x)y + a0 y = Q(x),
con ai (x) R, i {1, . . . , n} llamados coeficientes.
Si Q(x) = 0, la EDO lineal se dice homog
enea. Si Q(x) 6= 0, la EDO lineal se dice no homog
enea.
Si los coeficientes ai (x) no dependen de x, se dice que la EDO lineal es a coeficientes constantes.
De lo contrario se dice que ella es a coeficientes variables.
Si an (x) = 1, la EDO lineal se dice normalizada6 .
Ejemplo 1.1.1. xy + c sen(x)y = tan(x). EDO lineal, de orden 1, grado 1, a coeficientes variables,
no homogena.
Ejemplo 1.1.2. y 2y = 0. EDO lineal, de orden 2, grado 1, a coeficientes constantes, homogenea.
Ejemplo 1.1.3. 2gy(1 + (y )2 ) = 0. EDO no lineal, de orden 1, grado 2, a coeficientes constantes.
En este captulo se estudiaran cuatro tipos de EDO elementales:
Integracion directa (y = f (x)).
Variables separables (y = f (x)g(y)).
EDO lineal de orden 1 homogenea (y + a0 (x)y = 0).
EDO lineal de orden 1 no homogenea (y + a0 (x)y = Q(x)).
1.2.
Integraci
on Directa
Para la EDO
y = f (x)
se obtiene que
y=
5
6
f (x)dx + C
Existen ecuaciones en las que esto no se cumple! se llaman Ecuaciones Pseudo Diferenciales (ED)
Si an (x) = 0 para valores discretos de x, se puede normalizar por intervalos.
12
con C R constante.
Ejemplo 1.2.1. y = sen(x) :
y =
sen(x)dx + C
= cos(x) + C
Ejemplo 1.2.2. y = x :
y =
=
Ejemplo 1.2.3. y =
xdx + C
x2
+C
2
1
, x 6= 0 :
x
Z
dx
+C
x
= ln(|x|) + C
= ln(|x|) + ln(k), (k > 0)
= ln(k|x|)
y =
y (x)dx =
x0
x0
f (x)dx, x I
x0
Ejemplo 1.2.4. y =
1
, x 6= 0 : x0 = 1, x > 0 :
x
Z x
Z
y (x)dx =
dx
x
1
1
x
y(x) y(1) = ln(x)
1
Si x0 = 1, 1 < x < 0 :
Z
dx
x
1
x
x
y(x) y(1) = ln(|x|)
y (x)dx =
1.2.1.
Unicidad
1.5
1.5
0.5
0.5
0.5
0.5
Figura 1.3: Dos soluciones de la EDO y = 0 iguales salvo constante en cada intervalo abierto.
y = 0, lo que implica que son soluciones de la EDO y = 0 en cada intervalo abierto (i, i + 1), i N.
14
1.3.
Variables Separables
con C R constante.
y
= f (x)
g(y)
1 dy
= f (x)
g(y) dx
Z
Z
dy
=
f (x)dx + C
g(y)
Cuando se considera g(y) 6= 0, se estan eliminando posibles soluciones constantes de la EDO que
no hay que despreciar.
+ k.
2
y(x)
y(x0 )
Si G(s) es primitiva de
ds
=
g(s)
f (x)dx
x0
1
y F (x) es primitiva de f (x), se tiene que
g(s)
G(y(x)) = F (x) F (x0 ) + G(y(x0 ))
= F (x) + C
con C = F (x0 ) + G(y(x0 )) constante. Las condiciones para que (1.6) son que
respecto a y y que f (x) sea integrable con respecto a x.
1
g(y)
Ejemplo 1.3.3 (Braquistocrona). Se denomina asi a la curva que describe un cuerpo que se desplaza
desde un punto a otro de menor altura (no en la misma vertical), bajo la accion de la gravedad
terrestre, en el menor tiempo posible.
La EDO que describe el movimiento es (con k R):
y(1 + (y )2 ) = k 2
utilizando el metodo de separacion de variables, se tiene
y
1
k2 y 2
|{z}
1
=
y
|
{z
} f (x)
g(y)
1
2
y dy
p
=
k2 y
16
dx + C
2k
2
4
sen 2
2
x = 2k
C
2
4
por lo tanto, se tiene que x = x() e y = y() :
k2
(2 sen 2) C
2
k2
(1 cos 2)
y =
2
x =
si = 2, R,
k2
( sen ) C
2
k2
y =
(1 cos )
2
x =
1.4.
a0 (x)
, a1 (x) 6= 0 :
a1 (x)
y = a0 (x)y
17
0.2
0.4
0.6
0.8
0.5
1.5
1.5.
1
y = 0 : x 6=
cos x
1
y
y +
cos2 x
y + y sec2 x
y
Z
dy
y
ln(|y|)
y
+ k
2
= 0
= 0
= y sec2 x
Z
= sec2 xdx + C
= tan x + C
= k exp(tan x), k R
a0 (x)
Q(x)
, Q(x) =
, a1 (x) 6= 0):
a1 (x)
a1 (x)
y + a0 (x)y = Q(x)
y exp
Z
Z
Z
a0 (x)dx + ya0 (x) exp
a0 (x)dx
= Q(x) exp
a0 (x)dx
Z
Z
y exp
a0 (x)dx
a0 (x)dx
= Q(x) exp
Z
Z
Z
a0 (x)dx
=
Q(x) exp
a0 (s)ds dx + C
y exp
Z
Multiplicando por exp a0 (x)dx , la solucion queda de la forma:
Z
Z
Z
Z
Q(x) exp
a0 (s)ds dx
y = C exp a0 (x)dx + exp a0 (x)dx
|
{z
} |
{z
}
yh
yp
1.5.1.
Existencia y Unicidad
Para demostrar la existencia y unicidad de la solucion de una EDO lineal de primer orden no
homogenea con condiciones iniciales dadas, se puede ver la demostracion realizada en la seccion
(2.2.2) para el caso n = 1.
Ejemplo 1.5.1 (Ley de Osmosis). Estudiamos basicamente el movimiento de agua desde una
solucion con baja concentracion de soluto (solucion A) a traves de una membrana semipermeable
hacia una solucion con alta concentracion de soluto (solucion B). Si CA (t) es la concentracion de
soluto que hay en la solucion A en funcion del tiempo, CA0 es la concentracion inicial de soluto en
A y si CB0 es la concentracion inicial de soluto en B, una EDO que modela este fenomeno es:
0
CA + CB0
CA (t) , > 0
CA (t) =
2
19
CA exp
Z
CA0 + CB0
= M, se tiene
2
CA + CA = M
Z
Z
dt + CA exp
dt
= M exp
dt
CA et + CA et = Met
CA et
= Met
Z
t
CA e
=
Met dt + C
t
CA = Ce
como
et dt =
+ Me
1 t
e , se tiene que
et dt
CA (t) = Cet + M
con C R. El resultado es una familia uniparametrica de curvas ( parametro C ). Si evaluamos en
el tiempo inicial t = 0, se puede encontrar el valor de la constante C, es decir, CA (0) = C + M y
C 0 CB0
CA (0) = CA0 , luego C = CA0 M = A
. Por lo tanto, la solucion es
2
0
C 0 + CB0
CA CB0
et + A
CA (t) =
2
2
Ejemplo 1.5.2 (Ley de enfriamiento de Newton). Cuando la diferencia de temperaturas entre
un cuerpo y el medio ambiente es peque
na, el calor transferido en una unidad de tiempo hacia el
cuerpo o desde el cuerpo es proporcional a la diferencia de temperatura entre el cuerpo (T ) y el
medio ambiente (TA ). La EDO que modela la variacion de temperatura de un cuerpo en funcion
del tiempo es (suponiendo TA constante)
T (t) = k(TA T (t))
donde k es una constante que depende del area, calor especfico y masa del cuerpo. Si T (0) = T0 es
la temperatura inicial del cuerpo, y suponindo que T0 > TA , se tiene
T + kT = kTA
T ekt + kT ekt = kTA ekt
T ekt
= kTA ekt
Z
kt
Te
= k TA ekt dt + C
T = Cekt + TA
10
10
15
20
25
30
Figura 1.5: Comportamiento de la temperatura de un cuerpo T (t) frente a una temperatura ambiente
constante TA (t) = 0 (k = 1, w = 1) y constante C = 10.
T (t) = (T0 TA )ekt + TA
Si TA esta en funcion del tiempo de la forma TA (t) = TA0 + A sen(wt) (oscilante) la solucion se
obtiene de la forma
Z
kt
0
kt
A sen(wt)ekt dt
(1.6)
T (t) = Ce + TA + ke
Z
Desarrollando A sen(wt)ekt dt se obtiene
Z
Z
kt
A sen(wt)e dt = A sen(wt)ekt dt
Z
1
1
kt
kt
w cos(wt)e dt + sen(wt)e
= A
k
k
2 Z
w
1
w
kt
kt
kt
sen(wt)e dt 2 cos(wt)e + sen(wt)e
= A
k2
k
k
lo que implica que
luego,
Z
w
w2
ekt
sen(wt) cos(wt)
1+ 2
sen(wt)ekt dt =
k
k
k
w
Ak
kt
sen(wt)
e
cos(wt)
. Por lo tanto (1.6) queda de la forma
k2 + w2
k
w
Ak 2
kt
0
sen(wt) cos(wt)
T (t) = Ce + TA + 2
k + w2
k
Ak
w
k
kt
0
T (t) = Ce + TA +
sen(wt)
cos(wt)
k2 + w2
k2 + w2
k2 + w2
A sen(wt)ekt dt =
21
Si consideramos sen =
k2
k
w
y cos =
, se tiene
2
2
k + w2
+w
k
w
k
k 2 +w 2
y cos =
w
.
k 2 +w 2
Ak
(sen() sen(wt) cos() cos(wt))
{z
}
+ w2 |
k2
cos(wt+)
Ak
0
kt
Finalmente, T (t) = Ce
| {z } + TA k 2 + w 2 cos(wt + )
yh
{z
}
|
yp
10
10
20
30
40
50
60
70
80
90
100
Figura 1.7: Comportamiento de la temperatura de un cuerpo T (t) frente a una temperatura ambiente
oscilante TA (t) = 0 + 10 sen(t) (k = 1, w = 1) y constante C = 10.
22
1.6.
1.6.1.
f (x, y)
g(x, y)
donde f (x, y) = k f (x, y) y g(x, y) = k g(x, y). Se dice que f y g son homogeneas de grado
k.
Para resolverlas, se procede de la siguiente manera:
y =
=
=
=
Haciendo el cambio de variable z =
f (x, y)
g(x, y)
y
f x 1, x
x
y
g x 1, x
y x
k
x f 1,
yx
xk g 1,
y x
f 1,
yx
g 1,
y x
h
x
y
y = xz y = xz + z, se tiene que
x
xz + z
xz
z
h(z) z
Z
dz
h(z) z
= h(z)
= h(z) z
1
=
x
Z
dx
=
+C
x
Ejemplo 1.6.1. Sobre un ro, en la posicion P = (c, 0), un bote trata de alcanzar la orilla situada
en la posicion O = (0, 0) como se muestra en la figura. Se quiere caracterizar la posicion en el eje
OY con respecto a la posicion en el eje OX. La rapidez de la corriente del ro es a en direccion
(0, 1). La rapidez del bote es b en direccion ( cos , sen ) apuntando hacia O. Si las coordenadas
23
del bote en un tiempo dado son B = (x, y), la rapidez en cada eje esta dada por
dx
= b cos
dt
dy
= b sen a
dt
Figura 1.8: Bote con rapidez b cruzando un ro cuya corriente tiene rapidez a.
Aplicando regla de la cadena a
tiene que
dy
x
y
, y recordando que cos = p
y sen = p
, se
2
2
dx
y +x
y 2 + x2
dy
dy dx
=
dx dt
dt
dy
dy
= dt
dx
dx
dt
=
b cos
b sen a
a + b
b
y
p
y 2 + x2
!
x
p
y 2 + x2
p
a x2 + y 2 by
=
bx
24
esta u
ltima ecuacion es homogenea de grado 1, por lo tanto ( recordando el cambio de variable
z = xy xz + z = y )
y
xz + z =
z
1 + z2
Z
dz
1 + z2
ln(z + 1 + z 2 )
ln(z + 1 + z 2 )
z + 1 + z2
=
=
=
=
=
a 1 + z 2 bz
b
a
1 + z2 + z
b
a
bx
a
ln x + C
b
a
a
ln x + ln k, k > 0
b
b
a
ln(kx) b
a
(kx) b
2a
1 + z 2 = (kx) b 2z(kx) b + z 2
i
a
a
1h
(kx) b (kx) b
z =
2
i
a
a
y
1h
(kx) b (kx) b
=
x
2
i
a
a
xh
y =
(kx) b (kx) b
2
1.6.2.
1
c
Bernoulli
25
1.6.3.
Riccati
(1.7)
1
con p, q, r funciones de x. Se realiza el cambio de variable y = y1 + , donde y1 es solucion trivial de
z
z
(1.7) (y1 = p(x)y12 + q(x)y1 + r(x)). Derivando con respecto a x se tiene y = y1 2 y reemplazando
z
en (1.7),
z
2
z
z
y1 2
z
z
y1 2
z
z
z + (2p(x)y1 + q(x))z
y1
2
1
z
= p(x) y1 +
+ q(x) y1 2 + r(x)
z
z
q(x)
y1 p(x)
= p(x)y12 + 2p(x) + 2 + q(x)y1 +
+ r(x)
z
z
z
y1 p(x) q(x)
= [p(x)y12 + q(x)y1 + r(x)] + 2p(x) + 2 +
z
z
z
= 2p(x)y1 z p(x) q(x)z
= p(x)
que resulta ser una EDO lineal de primer orden no homogenea en la variable z.
1.6.4.
En la ecuacion
G(x, y , y ) = 0
no aparece la variable y explicitamente. En estos casos se realiza el cambio de variable p = y , con
lo cual la ecuacion se transforma en
G(x, p, p ) = 0
que es una EDO de primer orden. Por lo tanto, la transformacion es la siguiente:
G(x, y , y ) = 0
26
G(x, p, p ) = 0
y = p
1.6.5.
En la ecuacion
H(y, y , y ) = 0
dp
dy d2 y
e 2 =
=
no aparece la variable x explicitamente. Se realiza el cambio de variable p = y =
dx dx
dx
dp dy
dp
=
p, con lo cual la ecuacion se transforma en
dy dx
dy
dp
= 0
H y, p, p
dy
que es una EDO de primer orden en la variable p con variable independiente y. Por lo tanto, la
transformacion es :
1.7.
dp
H y, p, p
=0
H(y, y , y ) = 0
dy
y =p
Poblaciones
El objetivo de esta seccion es hacer un recorrido por la resolucion de ecuaciones diferenciales ordinarias a traves de un tema apasionante e interdisciplinario como es el tema de la dinamica de
poblaciones. La idea es mostrar diversas situaciones descritas por modelos de ecuaciones diferenciales (o ecuaciones de diferencias) y motivar la modelacion por parte del propio alumno.
La mayora de las veces los modelos parten de consideraciones simples e intuitivas de la realidad y, sin
embargo, nos llevan a analizar y cuantificar situaciones complejas que estan lejos de la comprension
inmediata, lo que nos permite reinterpretar con profundidad la realidad que los origino.
1.7.1.
Modelo de Malthus
1. 1010
9. 109
8. 109
7. 109
6. 109
5. 109
4. 109
3. 109
2. 109
1. 109
0
1500
1600
1700
1800
1900
2000
2100
P = (t)P
(1.8)
Z
(s)ds
t0
(1.9)
28
1.7.2.
Modelo malthusiano m
as realista
En el caso particular de un pas como Chile, debemos considerar ademas la evolucion de la inmigracion neta (inmigracion menos emigracion) representada por una funcion Q. El modelo es una EDO
lineal de primer orden no homogenea:
P = (t)P + Q(t).
(1.10)
Z
t0
(s)ds +
29
t0
exp
Z
(s)ds Q(s)ds.
s
(1.11)
Con este modelo, analicemos el impacto en el periodo 2000 2040 que tendra en la poblacion
chilena una inmigracion que crece a
no a a
no en Q0 y que comenzo el a
no digamos 2000, esto es,
Q(t) = Q0 (t 2000).
Poblacion chilena 19502050
x 10
1.5
0.5
1950
1960
1970
1980
1990
2000
2010
2020
2030
2040
2050
2040
2050
1960
1970
1980
1990
2000
2010
2020
2030
Los calculos se dejan al lector. Note que gracias a la forma que se asumio para Q(t), la integral que
involucra a exp(s2 ) se puede calcular explcitamente.
Ejercicio Propuesto 1.7.1. India aporta casi un 1/6 de la poblacion mundial actualmente, y su
poblacion continuara creciendo, aunque a una tasa cada vez menor. Modele cual sera el impacto
de una epidemia de SIDA en India conociendo los datos de la poblacion de Zimbadwe que comenzo
a sufrir esa epidemia en la decada de los 90.
30
x 10
1.5
1
0.5
0
1950
1960
1970
1980
1990
2000
2010
2020
2030
2040
2050
2030
2040
2050
2030
2040
2050
2040
2050
1960
1970
1980
1990
2000
2010
2020
x 10
1.5
1
0.5
0
1950
1960
1970
1980
1990
2000
2010
2020
1960
1970
1980
1990
2000
2010
2020
2030
Figura 1.12: Poblacion y tasa de crecimiento de India y Zimbabwe entre 1950 y 2050
1.7.3.
Modelo logstico
(1.12)
31
P (t0 )M
P (t0 ) + (M P (t0 )) exp(M(t t0 ))
(1.13)
una copia del programa cientfico scilab y una copia de este programa la puede obtener en la p
agina del curso
http://www.dim.uchile.cl/ axosses/edo.html
32
Observamos que aparecen sucesivamente 1,2,4,8,16,... puntos de equilibrio hasta un regimen aparentemente alternado entre orden y desorden, o mas precisamente, entre periodico y caotico. En
realidad, se puede demostrar que la aparicion de periodos sigue un orden predeterminado:
1, 2, 4, 8, 16, 32, ..., 44, 36, 28, 20, 12, ..., 22, 18, 14, 10, 6, ..., 11, 9, 7, 5, 3, esto es, potencias crecientes de
2 primero y finalmente m
ultiplos impares de potencias decrecientes de 2.
Ejercicio Propuesto 1.7.2. Tomando el modelo logstico simplificado Pi+1 = Pi (1 Pi ), estudie
numericamente el comportamiento de este sistema discreto para = 2, = 3,2, = 3, 5, = 3,56,
etc. El grafico de Pi+1 en funcion de Pi resulta una parabola. Grafquela. Ahora dibuje segmentos
entre los sucesivos puntos (Pi , Pi+1 )(Pi+1 , Pi+1 )(Pi+1 , Pi+2 ) para un valor de dado. El diagrama
resultante se conoce como el mapeo logstico 9 .
1.7.4.
Modelo cazador-presa
Si queremos modelar el equilibrio ecologico entre peces (x) y tiburones (y) en una region del mar
donde no hay pesca podemos introducir el siguiente modelo de Lotka-Volterra que corresponde a
un sistema de dos EDO acopladas10 :
x = ax bx2 cxy
y = ky + xy
donde a, b, c, k y son constantes positivas. Los terminos que aparecen en las ecuaciones se
explican as: en ausencia de tiburones (y = 0), los peces se alimentan de plancton limitado con una
9
10
33
poblacion maxima a/b, lo que hace aparecer un modelo logstico. Los tiburones mueren a una tasa k
en ausencia de peces (x = 0). La interdependencia es clara: la tasa de decrecimiento de la poblacion
de peces es proporcional (c) a la cantidad de tiburones y, recprocamente, la tasa de crecimiento de
la poblacion de tiburones es proporcional () a la poblacion de peces.
Por el momento no tenemos las herramientas para resolver este complejo sistema no-lineal, pero
podemos encontrar una relacion para asegurar la coexistencia de ambas poblaciones en un equilibrio
simple (x0 > 0, y0 > 0). En efecto, la condicion de equilibrio es x = 0 e y = 0. Si x = 0, entonces
x0 = (a cy0 )/b. Por otro lado, si y = 0, tenemos que x0 = k/, de donde despejando, se obtiene
y0 = a/c(bk)/(c). Si queremos que haya tiburones, esto es y0 > 0 obtenemos la condicion a > bk
o bien a/b > k/, esto es la poblacion crtica de peces que debe soportar el plancton es k/ para
que existan tiburones.
1.7.5.
Modelo epidemiol
ogico
El siguiente es un modelo epidemiologico introducido por Kermack & McKendrick en 192711 . Modela
la composicion de una poblacion constante N = x+y+z ante una enfermedad, donde x(t) representa
el n
umero de personas suceptibles de contagiarse, y(t) el n
umero de infectados y z(t) el n
umero de
inmunes a la enfermedad para cada t 0:
x
y
z
x(0)
=
=
=
=
xy
xy y
y
x0 > 0, y(0) = y0 > 0, z(0) = 0, x0 + y0 = N,
donde > 0 es un parametro de infeccion y > 0 la tasa de inmunizacion. Todo esto suponiendo
que las soluciones x, y, z existen, son u
nicas, no negativas, continuas y con derivada continua para
t 0. Se pueden observar los siguientes hechos a partir del modelo:
La epidemia crece inicialmente en el n
umero de infectados si el n
umero inicial de suceptibles
contribution to the theory of epidemics, Proc. Roy. Soc. (A) 115 (1927), 700721, 139 (1932), 5583
34
1.7.6.
Modelo de alelos
Este es un modelo de frecuencias genotpicas y tiene que ver con el llamado equilibrio de HardyWeinberg12 . Considere el sistema lineal
p
x = qx + y
2
1
y = qx y + pz
2
q
y pz,
z =
2
donde p, q son constantes no negativas con p + q = 1. El sistema anterior modela las poblaciones x
de aa, y de ab y z de bb, donde a y b son dos alelos de un mismo gen que aparecen con
frecuencias p y q en una poblacion T .
1.8.
Ecuaciones Exactas
f
= x
f
y
M
N
Hardy, G. H, Mendelian proportions in a mixed population. Science 28 (1908), 4950. Weinberg, W. Uber
den
Nachweis der Vererbung beim Menchen. Jahresh. Verein f. vaterl. Naturk. in Wruttemberg 64 (1908), 368382.
12
35
,donde M y N son tales que existe una funcion f (x, y) C 2 (f y sus derivadas parciales son de
clase C 1 , es decir, que las derivadas parciales de segundo orden de f existen y son continuas, al igual
f
f
que f ) tal que M =
yN=
. Si la ecuacion es exacta, la solucion es la familia f (x, y) = c.
x
y
Propiedad 1.8.1. La ecuacion y =
M
es exacta si y solo si
N
M
y
N
,
x
con M =
f
f
yN=
.
x
y
M
f
f
es exacta, existe f (x, y) tal que M =
yN =
, por lo tanto,
N
x
y
2f
N
2f
2f
2f
M
2
=
y
=
. Como f C , se tiene que
=
.
y
yx
x
xy
yx
xy
Demostracion. Si y =
= ey
= xey + 2y
= ey
= ey
Mdx + C(y)
= xey + C(y)
= xey + C (y)
=
=
=
=
xey + C (y)
xey + C (y)
2y
y2
36
= y
= x2 y x
= 1
= 2xy 1
1
, se tiene que
x2
x2 y x
y
+
y = 0
x2
x2
con lo cual
y
x2
x2 y x
N =
x2
1
(M)
= 2
y
x
(N)
1
= 2
x
x
(M)
M
(N)
Como
=
M +
y
=
N +
, y ademas
= 0, por lo tanto se tiene
y
y
y
x
x
x
y
que
M =
N
M
=
N +
y
x
x
M
N
N +
= 0
y
x
N
M
y
x
=
N
Z
1 M
N
ln(||) =
dx + C
N y
x
Z
N
1 M
dx
(x) = k exp
N y
x
(y) = k exp
M y
x
37
k
m
y
Figura 1.13: Sistema mecanico de un resorte y una masa.
Ejemplo 1.8.3 (Ley de Hooke). Se tiene el sistema indicado en la primera figura , con k > 0
constante de elasticidad del resorte y m la masa del cuerpo. La ley de Hooke dice que
my = ky
Es decir,
y +
k
y = 0
m
k
dz
, se tiene la EDO y + w 2y = 0. Si z = y z =
y y reemplazando en la
m
dy
ecuacion se obtiene
definiendo w =
Figura 1.14: Sistema mecanico de una cadena bajo el efecto de g con un extremo cayendo.
38
dz
z + w2y = 0
dy
dz
z = w 2 y
dy
Z
Z
2
ydy + C
zdz = w
z2
y2
= w 2 + C
2
2
(y )2 = w 2 y 2 + 2C
p
2C w 2 y 2
y =
Z
Z
dy
p
=
dt +
2C w 2y 2
Z
Z
dy
q
2Cdt +
=
w2 2
1 2C
y
wy
=
arc sen
2Ct +
2C
wy
= sen( 2Ct + )
2C
2C
sen( 2C + )
y =
w
con C, R constantes.
Para el sistema de la segunda figura, el largo de la cadena es L y su densidad es [masa / largo],
por lo tanto la EDO que lo describe es
Ly = gy
g
y y = 0
L
definiendo =
g
se tiene la EDO y 2 y = 0. Utilizando el mismo cambio de variable, se
L
39
obtiene que
z
dz
2 y
dy
dz
z
dy
z2
2
z
y
dy
p
y 2 + a2
= 0
= 2y
y2
= 2 + C
p2
=
2 y 2 + 2C
p
2C
= y 2 + a2 con a = 2
Z
= dt
40
Captulo 2
Ecuaciones Diferenciales Ordinarias de
orden superior
2.1.
Definici
on 2.1.1. Una EDO lineal de segundo orden es de la forma
y + a1 (x)y + a0 (x)y = 0 (H)
o bien
y + a1 (x)y + a0 (x)y = Q (S)
A coeficientes constantes se tiene que a1 (x) = a1 y a0 = a0 en R.
Definici
on 2.1.2. Un operador diferencial es un operador lineal definido como funcion del operador
d
. Se definen los operadores diferenciales (con a1 , . . . , ak R constantes, k N)
dx
1. D 0 = I (identidad)
2. D = D 1 =
3. D k =
d
dx
dk
(k 0)
dxk
4. ak D k + ak1 D k1 + + a1 D 1 + a0 D 0 = ak
dk1
d
dk
+
a
+ + a1
+ a0
k1
k
k1
dx
dx
dx
veces diferenciable.
(D 1 )z = Q
(D 2 )y = z
z = C1 exp(1 x) + exp(1 x)
y = C2 exp(2 x) + exp(2 x)
Es decir
y = C2 exp(2 x) + C1 exp(2 x)
{z
|
exp(1 s)Q(s)ds
exp(2 s)z(s)ds
exp((1 2 )s)ds
}
Soluci
on Homog
enea yh
Z
Z
+ exp(2 x) exp((1 2 )s)
exp(1 t)Q(t)dt ds
|
{z
}
Soluci
on Particular yp
42
2.1.1.
Solucion Homog
enea a coeficientes constantes
1
exp((1 2 )x)
1 2
1
exp(2iwx)
2iw
( = 4m
= 0, y sus soluciones son =
2 m ). Hay
2
2m
4m
m
3 situaciones:
43
F(t)
+
m
b
E(t)
q
-
b2
> k, entonces las soluciones son reales y distintas.
4m2
b2
2.
= k, las soluciones son reales e iguales
4m2
3.
b2
< k, las soluciones son complejos conjugados.
4m2
b p
b p
+ t + C2 exp
t (Regimen Sobreamortiguado)
1. yh = C1 exp
|2m {z }
|2m {z }
<0
<0
b
t + C2 t exp
t (Regimen Criticamente Amortiguado)
2. yh = C1 exp
2m
b
b
3. yh = C1 sen t exp
t + C2 cos t exp
t o equivalentemente
2m
2m
b
yh = C3 exp
t (sen t +C4 ), pues sen(a+b) = sen a cos b+sen b cos a (Regimen
2m
Subamortiguado).
b
2m
En la figura (2.3) se tienen los posibles valores de las raices. En la figura (2.4) se grafica la dependencia con respecto a b, con b 0 (es decir , 1 (b) y 2 (b)), y se obtiene su diagrama de bifurcacion.
La solucion homogenea de esta EDO se representa como la combinacion lineal de dos funciones y1
e y2 que varian en cada caso.
44
20
15
10
5
10
20
30
40
50
60
70
80
90
100
10
20
30
40
50
60
70
80
90
100
10
30
20
10
0
10
0
10
Figura 2.2: Regimen Sobreamortiguado (arriba), Criticamente Amotiguado (centro) y Subamortiguado (abajo), con C1 = C2 = 10.
Im
Re
Sobreamortiguado
Criticamente amortiguado
Subamotiguado
2.1.2.
Im
b
m
Re
b
m
y1 + a1 y1 + a0 y1 = 0
y2 + a1 y2 + a0 y2 = 0
Multiplicando por C1 R la primera ecuacion, por C2 R la segunda y sumando ambas, se obtiene
(C1 y1 + C2 y2 ) + a1 (C1 y1 + C2 y2 ) + a0 (C1 y1 + C2 y2 ) = 0
Luego, cualquier combinacion lineal de y1 e y2 es tambien solucion de la ecuacion homogenea.
Se busca una solucion particular de la forma yp = C1 (x)y1 + C2 (x)y2 , donde C1 (x) y C2 (x) son
incognitas. Reemplazando yp en (S),
Q = yp + a1 yp + a0 yp
Q = (C1 (x)y1 + C2 (x)y2 ) + a1 (C1 (x)y1 + C2 (x)y2 ) + a0 (C1 (x)y1 + C2 (x)y2 )
Q = (C1 (x)y1 + C2 (x)y2 + C1 (x)y1 + C2 (x)y2 ) + a1 (C1 (x)y1 + C2 (x)y2 + C1 (x)y1 + C2 (x)y2 )
+a0 (C1 (x)y1 + C2 (x)y2 )
Q = (C1 (x)y1 + C2 (x)y2 ) + C1 (x)y1 + C2 (x)y2 + C1 (x)y1 + C2 (x)y2
+a1 (C1 (x)y1 + C2 (x)y2 + C1 (x)y1 + C2 (x)y2 ) + a0 (C1 (x)y1 + C2 (x)y2 )
Como se tiene (2.1), C1 (x)(y1 + a1 y1 + a0 y1 ) = 0 y C2 (x)(y2 + a1 y2 + a0 y2 ) = 0, por lo tanto
(C1 (x)y1 + C2 (x)y2 ) + a1 (C1 (x)y1 + C2 (x)y2 ) + C1 (x)y1 + C2 (x)y2 = Q
Imponiendo C1 (x)y1 + C2 (x)y2 = 0, se tiene el sistema
C1 (x)y1 + C2 (x)y2 = 0
C1 (x)y1 + C2 (x)y2 = Q
46
Matricialmente,
y1 (x) y2 (x)
y1 (x) y2 (x)
C1 (x)
C2 (x)
0
Q
Si el determinante de esta matriz es no nulo para cualquier valor de x, el sistema tiene solucion
u
nica.
Definici
on 2.1.4 (Wronskiano). Dada la solucion homogenea yh = C1 y1 + C2 y2 y x R, el
Wronskiano de esa solucion se define como
y1 (x) y2 (x)
W (x, y1 , y2 ) =
y1 (x) y2 (x)
= y1 (x)y2 (x) y2 (x)y1 (x)
En otras palabras, si x R, W (x, y1, y2 ) 6= 0, el sistema tendra solucion u
nica de la forma
0 y2 (x)
1
C1 (x) =
W (x, y1 , y2 ) Q y2 (x)
Qy2
W (x, y1 , y2 )
y1 (x) 0
1
C2 (x) =
W (x, y1 , y2 ) y1 (x) Q
=
Qy1
W (x, y1 , y2 )
Qy2
dx + K1
W (x, y1 , y2)
Qy1
dx + K2
W (x, y1, y2 )
Qy2
dx + y2
W (x, y1 , y2 )
Qy1
dx + K1 y1 + K2 y2
W (x, y1, y2 )
Veamos que para cualquier valor de las races del polinomio caracterstico el Wronskiano es distinto
de cero:
47
1. 1 , 2 R, 1 6= 2 : yh = C1 e1 x + C2 e2 x y1 = e1 x , y2 = e2 x
1 x
W (x, e
2 x
,e
x
e 1
e2 x
) =
1 x
1 e
2 e2 x
+2 )x
= e|(1{z
1 )
} |(2 {z
}
>0
6=0
2. 1 = 2 = R : yh = C1 ex + C2 xex y1 = ex , y2 = xex
x
e
xex
W (x, e , xe ) = x
e
xex + ex
x
= e2x (x + 1 x)
= |{z}
e2x
6=0
= |{z}
w |{z}
e2x
6=0
2.1.3.
6=0
Soluci
on a coeficientes variables
En las secciones anteriores se vio que para una EDO de la forma (H) o (S) a coeficientes constantes,la
solucion homogenea es de la forma yh = C1 y1 + C2 y2 y la solucion particular es yp = C1 (x)y1 +
C2 (x)y2 . En el caso de coeficientes variables, el metodo de los valores caractersticos no se puede
aplicar, por lo tanto, encontrar los valores de y1 e y2 es un problema.
F
ormulas de Abel y Liouville
Estas formulas estan ligadas al metodo: Conociendo una solucion y1 , encontrar y2 en una EDO
a coeficientes variables. Sean y1 , y2 soluciones de la EDO y + a1 (x)y + a0 (x)y = 0. El Wronskiano
para esas soluciones es
y1 y2
W (x, y1 , y2) =
y1 y2
= y1 y2 y1 y2
48
W (x, y1 , y2 ) =
W (x,y1 ,y2 )
+ a1 (x)W (x, y1 , y2 ) = 0
Z
W (x, y1 , y2 ) = C exp a1 (x)dx
y2 y1 y1 y2 = C exp a1 (x)dx
Z
y1
C
y2 y2 =
exp a1 (x)dx
y1
y1
Z
Z
Z
Z
y1
y1
C
y1
y1
y2 exp
dx y2 exp
dx
=
exp a1 (x)dx
dx
y1
y1
y1
y1
y1
{z
}
|
1
,y 6=0
y1 1
y2
y1
y2
Z
C
= 2 exp a1 (x)dx
y1
Z
Z
1
= y1 C + y1 C
exp a1 (x)dx du
y12
xy2 y2 = C exp
x
y
C
2
y2
= 2
x
x
y
C
2
= 3
x
x
y2
C
=
+ C
x
2x2 |{z}
=0
y2
C C
,C =
=
x
2
2.1.4.
2 2
x
x3
1
x
x2
1
x
=0
Independencia Lineal
Definici
on 2.1.5. Sea I un intervalo real (abierto, cerrado, semiabierto, semicerrado). Se define
0
C (I) como el conjunto de funciones f : I R\C con f continua en el intervalo I. Se define C n (I)
como el conjunto de funciones f : I R\C con f, f , f , . . . , f (n) continuas en el intervalo I.
Este tipo de conjuntos tiene estructura de espacio vectorial ya que para todo par de funciones
f, g C n (I) y todo real , se cumple que (f + g)(x) = f (x) + g(x) y (f )(x) = f (x).
Definici
on 2.1.6. Las funciones y1 , . . . , yk en C n (I) son linealmente independientes (l.i.) si se
cumple que ,
x I, C1 y1 (x) + + Ck yk (x) 0 (funcion nula)
entonces
C1 = = Ck = 0 (escalar nulo)
Ejemplo 2.1.3. Veamos que y1 = sen x, y2 = cos x son l.i. Si se tiene la igualdad C1 sen x +
C2 cos x = 0, derivandola con respecto a x se obtiene C1 cos x C2 sen x = 0, luego si el sistema de
estas dos igualdades tiene solucion u
nica, las funciones son l.i. :
sen x cos x
C1
0
=
cos x sen x
C2
0
Como el determinante de la matriz vale sen2 x cos2 x = 1 6= 0 para todo x I, el sistema tiene
solucion u
nica, por lo tanto C1 = C2 = 0 (notar que el Wronskiano de ambas funciones coincide
con el determinante de la matriz).
En general, para cualquier par de funciones y1 , y2 C n (I), se tiene la siguiente propiedad:
50
Propiedad 2.1.1. Dadas dos funciones y1 , y2 C n (I), si W (x0 , y1 , y2) 6= 0 para alg
un x0 I,
entonces y1 e y2 son linealmente independientes.
Observacion. Existen puntos donde la combinacion lineal se anula sin que se anulen los coeficientes.
En el ejemplo (2.1.3), basta con evaluar en x0 = 4 + 2k.
Definici
on 2.1.7. Las funciones y1 , . . . , yk en C n (I) son linealmente dependientes (l.d.) si existen
constantes C1 , . . . , Ck R no todos nulos tales que x I, C1y1 (x) + + Ck yk (x) 0.
En el caso de la dependencia lineal, no se puede utilizar el Wronskiano como metodo de prueba, es
decir, la implicancia x I, W (x0 , y1 , y2 ) = 0 y1 e y2 son l.d.. Veamos el siguiente ejemplo:
3
x
x0
3
Ejemplo 2.1.4. Sean y1 (x) = x e y2 (x) =
. Para ver que son l.i. basta con evaluar
3
x x < 0
la expresion C1 y1 + C2 y2 = 0 en x = 1 y x = 1 y se tendran las ecuaciones C1 + C2 = 0
y C1 + C2 = 0, con lo cual C1 = C2 = 0. Ahora, veamos
que x I, W (x, y1, y2) = 0. El
x3 x3
x3 x3
2
=
0,
o
si
x
<
0,
Wronskiano tiene 2 posibles valores, si x 0, 2
3x 3x2 = 0. Con
3x 3x2
esto se prueba que la implicancia no se tiene.
2.2.
f1
f1
Z
..
.
. = ..
R
fm
fm
R
f1,1 . . .
f1,k
f1,1 . . . f1,k
Z
..
.
..
.. =
..
..
.
. R ..
.
.
R .
fm,1 . . .
fm,k
fm,1 . . . fm,k
La derivacion es analoga.
51
Definici
on 2.2.2. Una EDO lineal de orden n es de la forma
y (n) + an1 (x)y (n1) + + a0 (x)y = 0 (H)
o bien
y (n) + an1 (x)y (n1) + + a0 (x)y = Q (S)
A coeficientes constantes se tiene que i {0, . . . n 1}, ai (x) = ai en R.
Nos interesa encontrar la solucion general, es decir, las condiciones de existencia, unicidad (bajo
condiciones iniciales) y los metodos para encontrarla. Para la existencia y unicidad, se estudiara el problema de Cauchy, el cual consiste en encontrar la solucion de una EDO lineal de orden n en un intervalo I no reducido a un punto, dado que para un cierto x0 I, se conocen
y(x0 ), y (x0 ), . . . , y (n1)(x0 ), es decir, se conocen las condiciones iniciales del problema. La idea es
demostrar que para cualquier elemento de I y para cualquier eleccion de las condiciones iniciales,
existe una u
nica solucion que satisface la EDO.
2.2.1.
Transformaci
on a un sistema vectorial
= y (x) =
= y (x) =
..
.
(n)
zn (x) = y (x) =
=
z2 (x)
z3 (x)
an1 (x)y (n1) (x) a0 (x)y(x) + Q
an1 (x)zn (x) a0 (x)z1 (x) + Q
z1
0
1
0
z2
0
0
1
.. =
..
..
..
.
.
.
.
a0 (x) a1 (x) a3 (x)
zn
| {z }
|
{z
~
z (x)
A(x)
52
...
...
..
.
0
0
..
.
. . . an1 (x)
z1
z2
..
.
zn
} | {z }
~
z (x)
0
0
..
.
Q
| {z }
~b(x)
(2.1)
Si se tienen las condiciones iniciales, es decir, y(x0 ), . . . , y (n1) (x0 ) equivale a tener las condiciones
iniciales en el sistema z1 (x0 ), . . . , zn (x0 ) y el problema se escribe
~z (x) = A(x)~z (x) + ~b(x)
~z (x0 )
(condiciones iniciales)
con x I intervalo no reducido a un punto.
2.2.2.
Existencia y Unicidad
i=1
sup
x[x0 ,x0 +T ]
53
|f (x)|),
Demostracion. Analoga al caso en R. Tomando la sucesion (fk ) que cumple con fk+1 = (fk ), se
tiene que (fk ) es sucesion de Cauchy. Observemos primero las siguientes desigualdades:
kf3 f2 k = k(f2 ) (f1 )k Kkf2 f1 k
kf4 f3 k = k(f3 ) (f3 )k Kkf3 f2 k K 2 kf2 f1 k
..
.
kfk+1 fk k = k(fk ) (fk1 )k K k1 kf2 f1 k
Y por lo tanto para m, n N, n m, se tiene que:
K i kf2 f1 k
i=m1
n2
X
K m1
K n1 K m1
1
1
K
i=m1
!
n2
X
tiene que 0 kfn fm k
K i kf2 f1 k 0, por lo tanto, (fk ) es una sucesion de
como
Ki =
i=m1
Cauchy. Por el teorema (2.2.2), la sucesion (fk ) converge a un limite que llamaremos f y por lo
tanto f = lm fk = lm (fk1 ) = (lm fk1 ) = (f ). Las ultimas desigualdades se tienen ya que
como es contractante, implica que es continua en el conjunto donde es contractante. El hecho de
que el conjunto C donde es contractante la funcion garantiza que el lmite esta dentro del conjunto
y que puede ser alcanzado por .
Con lo anterior se tiene que:
|(x, y(x)) (x, z(x))| = |y(x0) +
como (x, y(x)) = y(x0 ) +
x
x0
f (s, z(s))ds|
x0
f (s, y(s))ds, la constante y(x0 ) debe ser fija (dato inicial y0 ) para
x0
m
0
todas las funciones
laR norma pasa al interior de la integral por la propiedad
R
R en C (I)
R y ademas,
R
f |f | f |f | | f | | |f || = |f |, con lo que queda
Z x
|(x, y(x)) (x, z(x))|
|f (s, y(s)) f (s, z(s))ds|
x0
Z x
L
|y(s) z(s)|ds
x0
Z x
L
exp(2L(s x0 )) (exp(2L(s x0 ))|y(s) z(s)|) ds
x0
54
x0
exp(2L(s x0 ))ds
1
(exp(2L(x x0 )) exp(2L))
2L
1
ky zk,L exp(2L(x x0 ))
2
1
ky zk,L
2
1
ky zk,L
2
por lo tanto (, y()) es contractante. Por el corolario (2.2.1), existe un unico putno fijo para
(, y()), llamado y, con lo cual x I, (x, y(x)) = y(x).
Observacion.
(2.2)
(2.3)
x0
P P
2
P
2
y por Cauchy-Schwarz, j aij yj = | < ai , y > |2
Como |Ay| =
aij yj
P
P i Pj
2
2
2
2
a
y
=
a
j ij
j j
j ij |y| , por lo tanto:
sup
x[x0 ,x0 +T ]
sX X
i
{z
L
L|y(x) z(x)|
, donde I es un intervalo real no reducido a un punto, las funciones ai (x), Q(x) son continuas en I
(respectivamente continuas por pedazos en I), para cada x0 I y para cada vector de condiciones
iniciales, se tiene una solucion u
nica y(x) con x I tal que y, y , . . . , y (n1) son continuas en I e
(n)
y es continua en I (respectivamente continuas por pedazos en I).
Observacion.
2. Si y, z son soluciones de (S) y y(x0 ) = z(x0 ), . . . , y (n1) (x0 ) = z (n1) (x0 ), entonces y = z.
56
2.2.3.
Espacios S y H
Vamos a estudiar la estructura de la solucion general de (S). Para ello comenzamos con la homogenea:
y (n) + an1 (x)y (n1) + + a0 (x)y = 0
Definici
on 2.2.3. S = {y C n (I) : y es solucion de (S) }
Definici
on 2.2.4. H = {y C n (I) : y es solucion de (H) }
Teorema 2.2.4. H es un subespacio vectorial de C n (I) de dimension n.
(n1)
(n)
+ + a0 (x)y1 = 0,
Demostracion. Claramente 0 H. Sean y1 , y2 H. Como y1 + an1 (x)y1
(n1)
(n)
ponderando por R, se tiene que (y1 ) +an1 (x)(y1 )
+ +a0 (x)(y1 ) = 0, luego y1 H.
(n)
(n)
(n1)
(n1)
Al sumar las evaluaciones de (H) en y1 e y2 se tiene que (y1 + y2 ) + an1 (x)(y1
+ y2
) + +
(n)
(n1)
a0 (x)(y1 + y2 ) = 0, lo que equivale a (y1 + y2 ) + an1 (x)(y1 + y2 )
+ + a0 (x)(y1 + y2 ) = 0,
por lo tanto y1 + y2 H y H es un subespacio vectorial de C n (I).
Vamos a construir una base de H, llamda base canonica, es decir, n funciones l.i. y1 , . . . , yn y que
generan H. Sea yi una solucion de (H) con condiciones iniciales ei = (0, . . . , 0, 1, 0, . . . , 0)t (solo 0 y
un 1 en la posicion i-esima), es decir,
yi (x0 )
yi (x0 )
..
.
(i1)
yi
(x0 )
..
.
(n1)
yi
(x0 )
= 0
= 0
= 1
= 0
Probemos que {y1 , . . . , yn } es l.i. : para todo x I se tienen las siguientes igualdades
1 y1 (x) + + n yn (x) = 0
1 y1 (x) + + n yn (x) = 0
..
..
.
.
(n1)
(n1)
1 y1
(x) + + n yn
(x) = 0
Matricialmente:
y1 (x)
y1 (x)
..
.
(n1)
y1
y2 (x)
y2 (x)
..
.
(n1)
(x) y2
...
...
..
.
yn (x)
yn (x)
..
.
(n1)
(x) . . . yn
(x)
57
1
2
..
.
n
0
0
..
.
0
, x I
1
..
.
1
1
2
..
.
n
0
0
..
.
0
y1 (x)
y2 (x)
y1 (x)
y2 (x)
..
..
.
.
(n1)
(n1)
y1
(x) y2
(x)
Evaluando en x = x0 :
(i1)
yh (x)
...
yn (x)
1
2
y (x)
...
yn (x)
h
..
.. =
..
..
.
.
.
.
(n1)
(n1)
n
yh
(x)
(x)
. . . yn
1
..
.
1
1
2
..
.
n
yh (x0 )
yh (x0 )
..
.
(n1)
yh
(x0 )
, x I
Entonces i = yh (x0 ). En principio los i dependen de x0 , hay que demostrar que no dependen.
Sea zh H tal que zh (x) = 1 y1 (x) + 2 y2 (x) + + n yn (x), x I. Como yh , zh son soluciones
de (H) se tiene que
yh (x0 ) = 1 =
yh (x0 ) = 2 =
..
.
(n1)
yh
(x0 ) = n =
zh (x0 )
zh (x0 )
..
.
(n1)
zh
(x0 )
S
Y
H
Y
se tiene el resultado.
2.2.4.
Wronskiano de dimension n
Definici
on 2.2.5. Dadas las funciones y1 , . . . , yn C n (I), el Wronskiano asociado a esas funciones
se define como
y1 (x)
.
.
.
y
(x)
n
y1 (x)
...
yn (x)
W (x, y1 , . . . , yn ) =
..
..
..
.
.
.
(n1)
(n1)
y1
(x) . . . yn
(x)
59
Por lo tanto,
y1 (x)
y1 (x)
d
W (x, y1 , . . . , yn ) =
..
dx
.
(n1)
y1
(x)
...
...
..
.
...
+...
y1 (x)
y1 (x)
y1
..
+
.
(n1)
y1
(n1) (x)
y
(x)
1
y1 (x)
y1(x)
y1(x)
..
+
..
.
.
(n1)
yn
(x)
y1(n1) (x)
yn (x)
yn (x)
...
...
...
..
.
...
y1 (x)
y1 (x)
..
.
+
(n2)
y
(x)
(n1)
. . . yn
(x) 1 (n)
y1 (x)
(n1)
. . . yn
(x)
...
...
...
..
.
yn (x)
yn (x)
yn
..
.
(n1)
yn
(x)
yn (x)
yn (x)
yn (x)
..
.
(n2)
. . . yn
(x)
(n)
. . . yn (x)
...
...
..
.
yn (x)
yn (x)
..
.
y1 (x)
...
yn (x)
..
..
..
.
W =
.
.
(n2)
(n2)
y1
(n) (x) . . . yn (n) (x)
y (x) . . . yn (x)
1
y1 (x)
...
yn (x)
(x)
.
.
.
yn (x)
y
1
..
..
..
.
=
.
.
(n2)
(n2)
y1
(x)
...
yn
(x)
(a0 (x)y1 a1 (x)y an1 y (n1) ) . . . (a0 (x)yn a1 (x)y an1 yn(n1) )
1
1
n
Por ejemplo, si det(A) = det(F1 , F2 , . . . , Fn ), con Fi la fila i-esima de A, se tendria que det(F1 , . . . , a+
b, . . . , Fn ) = det(F1 , . . . , a, . . . , Fn ) + det(F1 , . . . , b, . . . , Fn ).
Con este lema, la derivada del Wronskiano queda de la forma:
y1 (x) . . . yn (x)
y1 (x) . . . yn (x)
y (x) . . . y (x)
y (x) . . . y (x)
n
n
1
1
W = a0 (x) ..
.. a1 (x) ..
.. . . .
.
.
.
.
.
.
.
.
.
.
y1 (x) . . . yn (x)
y1 (x) . . . yn (x)
|
|
{z
}
{z
}
=0
=0
y1 (x)
...
yn (x)
y1 (x)
...
yn (x)
an1 (x)
..
..
..
.
.
.
(n1)
(n1)
y1
(x) . . . yn
(x)
= an1 (x)W
Teorema 2.2.6 (Formula de Abel). Si W (x, y1 , . . . , yn ) esta formado por y1 , . . . , yn soluciones de
(H), entonces
Z
W (x, y1 , . . . , yn ) = C exp an1 (x)dx
con C R.
Corolario 2.2.3. El Wronskiano formado por n soluciones de (H) o bien se anula siempre o bien
nunca (mayor o menor a cero).
Teorema 2.2.7. Sean y1 , . . . , yn C n (I). Se tiene que:
1. Si W (x0 , y1 , . . . , yn ) 6= 0 para alg
un xo I entonces y1 , . . . , yn son l.i. en C n (I).
2. Si W (x, y1 , . . . , yn ) = 0 para todo x I, no implica que y1 , . . . , yn sean l.d. en C n (I).
3. Si y1 . . . , yn son soluciones de (H), las siguientes proposiciones son equivalentes:
a) W (x0 , y1 , . . . , yn ) 6= 0 para alg
un xo I.
Demostracion.
1. Propuesto.
2. Un contraejemplo es y1 = x3 e y2 = |y 3 |.
61
y1 (x0 )
y1 (x0 )
..
.
(n1)
y1
...
...
..
.
yn (x0 )
yn (x0 )
..
.
(n1)
(x0 ) . . . yn
(x0 )
1
2
..
.
n
0
0
..
.
0
= 1 y1 (x0 ) + + n yn (x0 ) =
0
= 1 y1 (x0 ) + + n yn (x0 ) =
0
..
.
(n1)
(n1)
(n1)
z
(x0 ) = 1 y1
(x0 ) + + n yn
(x0 ) = 0
Como z H, por el teorema de existencia y unicidad, se tiene que z(x) = 0 para todo x I,
luego existen 1 . . . , n R no todos nulos tales que 1 y1 (x) + + n yn (x) = 0 para todo
x I.
2.2.5.
Coeficientes Variables
Soluciones Homogeneas:
Deben ser n soluciones l.i. . No hay un metodo general para encontrarlas. Lo u
nico que
podemos decir es que conociendo n 1 de ellas l.i. , se puede calcular una mas l.i. usando la
formula de Abel (si n = 2 formula de Liouville).
Soluciones Particulares:
Pn
Si conocemos a priori y1 , . . . , yn n soluciones l.i. de (H) , yp =
on de
i=1 Ci (x)yi (variaci
parametros). Para simplificar definimos el operador lineal:
Ly = y (n) + an1 (x)y (n1) + + a0 (x)y
Con esta notacion se tiene
Lyi = 0 (H)
Lyp = Q (S)
62
Si imponemos
Pn
i=1 Ci (x)yi
Pn
i=1
yp =
Ci (x)yi = =
n
X
Ci(x)yi
Pn
(n2)
i=1
Ci (x)yi
= 0, obtenemos
i=1
yp
n
X
Ci(x)yi
n
X
i=1
yp
n
X
Ci(x)yi
i=1
..
.
yp(n1)
n
X
Ci (x)yi
|i=1 {z
|i=1 {z
n
X
(n1)
Ci(x)yi
i=1
yp(n)
n
X
(n)
Ci(x)yi
i=1
=0
Ci (x)yi
=0
n
X
(n2)
Ci (x)yi
|i=1
n
X
{z
=0
(n1)
Ci (x)yi
i=1
n
X
Pn
Ci yi
C1
C2
..
.
Ci (x)Lyi +
|i=1 {z
=0(Lyi =0)
y1 (x)
...
yn (x)
y1 (x)
...
yn (x)
..
..
..
.
.
.
(n2)
(n2)
y1
(x) . . . yn
(x)
(n1)
(n1)
y1
(x) . . . yn
(x)
i=1
(n1)
Cn1
Cn
= Q
0
0
..
.
Wi (x, y1 , . . . , yn )
, donde Wi corresponde a W con
W (x, y1 , . . . , yn )
la i-esima columna cambiada por (0, . . . , 0, Q)t , por lo tanto
Z
Wi (s, y1, . . . , yn )
Ci (x) =
ds
W (s, y1 , . . . , yn )
De la regla de Cramer, se sabe que Ci (x) =
Formula de Green
yp =
n
X
yi (x)Ci (x)
i=1
n
X
i=1
yi (x)
Wi (s, y1 , . . . , yn )
ds
W (s, y1, . . . , yn )
n
X
1
yi (x)Wi (s, y1 , . . . , yn )ds
W (s, y1, . . . , yn ) i=1
yp
X
Q(s)
i (s, y1 , . . . , yn )ds
yi (x)(1)n+i W
=
W (s, y1, . . . , yn ) i=1
y1 (s)
...
yn (s)
y1 (s)
...
yn (s)
Z
Q(s)
..
..
..
=
.
.
.
W (s, y1, . . . , yn ) (n2)
(n2)
y1
(s)
.
.
.
y
(s)
n
y1 (x)
...
yn (x)
{z
}
|
=R(x,s)
2.2.6.
R(x, s)
, se tiene que
W (s, y1 , . . . , yn )
G(x, s)Q(s)ds
Coeficientes Constantes
Soluci
on Homog
enea
La EDO y (n) + an1 y (n1) + + a0 y = 0 se escribira de la forma
PnP (D)yi = 0, donde P (D) es el
n
n1
operador diferencial P (D) = D + an1 D
+ + a1 D + a0 = i=1 ai D , con an = 1.
64
P
con n = li=1 mi .
Es facil probar que la factorizacion de p() induce una analoga en P (D), donde el producto corresponde a una composicion:
P (D) = (D 1 ) (D 1 ) (D 2 ) (D 2 ) (D l ) (D l )
{z
} |
{z
}
{z
}
|
|
m1 veces
m2 veces
ml veces
En principio es un metodo valido para resolver la EDO (incluso la no-homogenea) pero es solo u
til
como concepto.
Propiedades 2.2.1. (Traslacion)
65
1. P (D + )1 = p()
2. P (D)ex = ex P (D + ) = ex p()
3. P (D)(f (x)ex ) = ex P (D + )f (x)
Demostracion.
Pk
i=0
k
i
f (i) (x)ki ,
= 0
Lo que quiere decir que e1 x , e2 x , . . . , el x son soluciones de (H). Veamos que son l.i.:
e1 x
...
el x
1 e1 x . . . l el x
W (x, e1 x , . . . , el x ) =
..
..
..
.
l1. x .
l1
x
1 e 1 . . . l e l
1 ...
1
!
l
1 . . . l
X
= exp
i x ..
..
..
.
.
i=1
l1 .
l1
1
. . . l
!
l
X
Y
= exp
i x C
(i j )
i=1
66
i6=j
Pl
i=1 (mi 1)
Ejemplo 2.2.1.
(D 1)2 (D + 3)5 D 3 y = 0
En este caso n = 10.Veamos todas las soluciones que se encuentran con este metodo:
1 = 1, m1 = 2 {ex , xex }
2 = 3, m2 = 5 {e3x , xe3x , x2 e3x , x3 e3x , x4 e3x }
3 = 0, m3 = 3 {1, x, x2 }
Veamos si son l.i. Para todo x I se debe cumplir:
1,1 ex + 1,2 xex +
2,1 e3x + 2,2 xe3x + 3,1 x2 e3x + 4,1 x3 e3x + 5,1 x4 e3x +
3,1 + 3,2 x + 3,3 x2 = 0
Aplicando (D 1)3 (D + 3)5 D 2 a esta expresion, se transforma en
23,3 = 0
Aplicndo (D 1)3 (D + 3)5 D, se obtiene
3,2 = 0
Y sucesivamente, se obtiene que i,ji = 0 para todo i {1, 2, 3}, j {1, 2, 3, 4, 5}, por lo tanto, son
l.i.
67
p(i )
i x
Se verifica que p(i ) 6= 0 y (mi 1)! 6= 0, por lo tanto i,mi 1 = 0. Repitiendo la aplicacion
progresivamente, se verifica que todos los i,mi 1 son iguales a cero, con lo cual las n funciones son
l.i..
Ejemplo 2.2.2.
(D (1 + i))3 (D (1 i))3 y = 0
n = 6:
Este ultimo ejemplo permite generalizar la nocion de la base obtenida. El siguiente teorema engloba
lo estudiado en esta parte:
Teorema 2.2.8. La ecuacion homogenea
(D 1 )m1 . . . (D l )ml y = 0
[
{ej x sen wj x, . . . , xmj 1 ej x sen wj x}
68
Soluci
on Particular
Si se tiene la EDO
P (D)y = qk0 (x)e0 x
con 0 C y qk0 e0 x una funcion que puede ser un polinomio por una exponencial, un polinomio por
seno o coseno por una exponencial o cualquier combinacion lineal de estos, donde gr(qk0 ) k0 en
caso de ser un polinomio. Estas formas especiales se deben a los tipos de forzamientos que aparecen
en la naturaleza.
El operador diferencial que anula el lado derecho es (D 0 )k0 +1 , pues
(D 0 )k0 +1 P (D)y = (D 0 )k0 +1 qk0 (x)e0 x
= e0 x D k0 +1 qk0 (x)
= 0
Si 0 R, la ecuacion se transforma una homogenea de orden n + k0 + 1 que sabemos resolver.
Si 0 C, se aplica ademas el operador (D 0 )k0 +1 a ambos lados de la ecuacion, con lo que se
obtiene (D 0 )k0 +1 (D 0 )k0 +1 P (D)y = 0, que es una homogenea de orden n + 2(k0 + 1). Hay 2
casos que se estudiaran:
1. 0 6= j para todo j {1, . . . , l} (caso no resonante):
a) 0 R:
P (D)y = qk0 (x)e0 x y = yh + yp
(D 0 )k0 +1 P (D)
y = 0 y = yh
La idea es obtener yp comparando yh e yh , mas precisamente, como combinacion lineal
de aquellas funciones que aparezcan en yh y que sean l.i. con las que aparezcan en yh .
Se sabe que yh es combinacion linel de funciones pertenecientes a
[
M =
{ei x , xei x , . . . , xmi 1 ei x }
i R
j =j iwj
(6A1 + 9A0 + 9A1 x 3A1 9A0 9A1 x + 2A0 + 2A1 x)e3x = xe3x
3A1 + 2A0 + 2A1 x = x
3
1
1 3
Lo que implica que A0 =
y A1 = y por lo tanto yp = ( x)e3x .
4
2
2 4
b) 0 C:
P (D)y = qk0 (x)e0 x y = yh + yp
(D 0 )k0 +1 (D 0 )k0 +1 P (D)
y = 0 y = yh
Comparando yh con yh , se tiene que
yp = (A0 + A1 x + + Ak0 xk0 )ex cos w0 x + (B0 + B1 x + + Bk0 xk0 )ex sen w0 x
Al reemplazar yp en la EDO se obtienen 2k0 + 2 ecuaciones.
Ejemplo 2.2.4.
(D 1)(D 2)y = xe3x cos x
En este caso 0 = 3 i, y la solucion homogenea es yh = C1 ex + C2 e2x , luego
yp = (A0 + A1 x)e3x cos x + (B0 + B1 x)e3x sen x
0 + B
1 x)e3x sen x (verificar)
yp = (A0 + A1 x)e3x cos x + (B
+ B
x)e3x sen x (verificar)
yp = (A0 + A1 x)e3x cos x + (B
0
1
70
estan en funcion de A , B , A , B .
0 , A1 , B
1 , A0 , B
0 , A1 , B
donde A0 , B
1
0
0
1
1
Reemplazando yp en la EDO, se tiene que
+ B
x)e3x sen x = xe3x cos x
(A0 + A1 x)e3x cos x + (B
0
1
= 0 y B
= 0, lo que permite encontrar
De donde se deduce que A0 = 0, A1 = 1, B
0
1
A0 , B0 , A1 y B1 .
2. 0 = j para algun j {1, . . . , l} (caso resonante):
a) 0 R:
P (D)y = qk0 (x)e0 x y = yh + yp
(D 0 )k0 +1 P (D)
y = 0 y = yh
La segunda ecuacion se puede escribir de la forma
(D 1 )m1 . . . (D 0 )m0 +k0 +1 . . . (D l )ml y = 0
Es decir, 0 aumento su multiplicidad, luego, comparando yh e yh , se tiene que yp es
combinacion lineal de elementos de {xm0 e0 x , xm0 +1 e0 x , . . . , xm0 +k0 e0 x }, es decir,
yp = xm0 (A0 + A1 x + + Ak0 xk0 )e0 x
Al factor xm0 se le llama factor de resonancia.
b) 0 C:
Repitiendo el proceso, se observa que yp es de la forma
yp = xm0 (A0 + A1 x + + Ak0 xk0 )e0 x cos w0 x + xm0 (B0 + B1 x + + Bk0 xk0 )e0 x sen w0 x
71
Captulo 3
Transformada de Laplace
3.1.
Introducci
on
Definici
on 3.1.1. Dada f : [0, +) R se llama transformada de Laplace de f a la funci
on
Z +
L[f ](s) =
est f (t)dt
(3.1)
0
que asocia a s R el valor L[f ](s) cuando la integral converge. Si la transformada de Laplace de
una funcion existe para s > c, a la mnima cota c se le llama asntota de la transformada.
Veamos algunos ejemplos para funciones conocidas:
Z +
Ejemplo 3.1.1. f (t) = 1, L[1](s) =
est 1dt. Veamos para que valores de s la transformada
existe:
L[1](s) =
=
+
0
est dt
+
1 st
s 6= 0
e
s+ 0
t
s=0
0
1
s>0
s
=
+ s = 0
s < 0
1
existe si s > 0 (la asntota de convergencia es c = 0).
s
72
at
at
est eat dt :
est eat dt
Z0 +
e(sa)t dt
0
t
s=a
+
1 (sa)t
s 6= a
e
sa
0
1
s>a
sa
+ s = a
s < a
1
existe si s > a (la asntota de convergencia es c = a).
sa
Z +
Ejemplo 3.1.3. f (t) = cos wt, L[cos wt](s) =
est cos wtdt (recordemos que cos wt+i sen wt =
eiwt y que (eiwt ) = cos wt, (eiwt ) = sen wt son la parte real e imaginaria de eiwt respectivamente)
:
Z +
L[cos wt](s) =
est cos wtdt
0
Z +
(s+iw)t
=
e
dt
0
+ !
1
=
e(s+iw)t
s + iw
0
+
cos wt + i sen wt
st
= e
s + iw
0
+
(cos
wt
+
i
sen
wt)(s
iw)
st
= e
s2 + w 2
0
+
1
est (s cos wt + w sen wt)
= 2
0
s + w2
s
= 2
, s > 0
s + w2
s
por lo tanto, L[cos wt](s) = 2
existe si s > 0.
s + w2
Propiedad 3.1.1. L es lineal, es decir, f, g funciones de [0, +) en R tales que L[f ](s) y L[g](s)
existen y R se tiene que:
73
et + et
= cosh(t), tenemos que:
2
et + et
](s)
2
et
et
L[ ](s) + L[
](2)
2
2
1
L[et ](s) + L[et ](s)
2
1
1
1
+
2 s1 s+1
2s
1
2 s2 1
s
2
s 1
L[cosh(t)](s) = L[
=
=
=
=
=
como L[et ](s) existe para s > 1 y L[et ](s) existe para s > 1, se tiene que L[cosh(t)](s) existe
para s > 1 (asntota de convergencia c = 1).
3.2.
El espacio C
Definici
on 3.2.1. Una funcion f tiene una discontinuidad de salto en a Dom(f ) si los lmites
laterales lmxa+ f (x) y lmxa f (x) existen (distintos de o ) y son distintos.
Definici
on 3.2.2. Una funcion f : [0, +) R se dice continua por pedazos si tiene un n
umero
finito o numerable de discontinuidades de salto en [0, +), pero sobre cada subintervalo acotado de
[0, +) tiene a lo mas un n
umero finito de discontinuidades de salto.
Veamos algunos ejemplos:
Ejemplo 3.2.1. La funcion f (t) = (1)[t] o f (t) =
onda cuadrada es continua por pedazos.
74
1
0 tt< 1
con perodo 2, llamada
1 1 t t < 2
f(t)
-1
f(t)
75
Ejemplo 3.2.2. La funcion f (t) = t [t] o f (t) = t, 0 t < 1 con perodo 1, llamada onda de
dientes de sierra es continua por pedazos.
Ejemplo 3.2.3. La funcion f (t) = tan(t) no es continua por pedazos pues lm
tan(t) = y
+
t 2
lm tan(t) = +.
t 2
t0
1
1
t 6= 0
no es continua por pedazos pues lm+ = + y
t
t0 t
0 t=0
1
= 0.
t
Definici
on 3.2.3. Una funcion f : [0, +) R es de orden exponencial si , C R, |f (t)|
C
, s >
s
76
100
f(t)
-100
Figura 3.3: Region donde las funciones son de orden exponencial con C = 100 y = 51 .
Demostracion. Recordemos que si la integral converge absolutamente, entonces converge. Con esto
se tiene que:
Z +
st
|L[f (t)](s)| =
e f (t)dt
Z 0
|est f (t)|dt
Z0
=
est |f (t)|dt
0
Z
C
est et dt
Z0
C
e(s)t dt
0
1
(s+)t
e
C
s +
0
C
s
Ejercicio Propuesto 3.2.1. Demostrar que tk , k N, tiene transformada de Laplace y que
k!
L[tk ](s) = k+1 , s > 0.
s
77
3.3.
3.3.1.
Funciones especiales
Escal
on de Heaviside
0 t<a
1 ta
f*(t)
0.5
-6
-4
-2
3.3.2.
Pulso entre a y b
t<a
0
1 a t < b , con a < b. Notar que Pab (t) = Ha (t) Hb (t). Luego, su
Se define como Pab (t) =
0
tb
transformada de Laplace para 0 a < b sera L[Pab (t)](s) = L[Ha (t) Hb (t)](s) = L[Ha (t)](s)
1
L[Hb (t)](s) (por linealidad del operador) por lo tanto L[Pa b(t)](s) = (eas ebs ), para s > 0.
s
78
f*(t)
0.5
3.3.3.
Delta de Dirac
Definici
on 3.3.1. Para n N, se define la funcion fn (t) = nP0 1 (t) , con nP0 1 (t) = n(H0 (t)
n
n
0
t<0
1
n 0t<
H 1 (t)), es decir, fn (t) =
n .
n
0
t
n
Las funciones fn cumplen con las siguientes propiedades:
fn (x)dx = 1
2. lm
3. lm
4. lm
Z
Z
Z
79
12
10
0.2
0.4
0.6
0.8
1.2
1.4
1.6
1.8
(t)f (t)dt = lm
fn (x)f (x)dx
(t)dt = 1.
0 t 6= a
. De esta forma,
t=a
En estricto rigor, el Delta de Dirac no es una funcion, pues no esta definida cuando t = 0. Se dice
que es una distribucion.
Para entender la utilidad de (t), basta considerar el ejemplo de un martillazo o chispazo, es decir,
que en un brevisimo perodo de tiempo, se le esta aplicando una fuerza muy grande a alg
un objeto,
por esto es llamada tambien impulso unitario.
Si se tienen dos funciones f y g, con g derivable en R, tales que lmx f (x)g(x) = 0, la integracion por partes de f (x)g (x) es una forma debil o variacional de identificar la derivada de
80
f , a
un si f no es derivable. Denotando por f a la derivada obtenida de esta forma (que coincide
con la derivada usual si f es derivable), obtenemos
Z
Z
f (x)g(x)dx
f (x)g (x)dx = f (x)g(x)
f (x)g (x)dx =
f (x)g(x)dx.
Ha (x)g (x)dx =
Ha (x)g(x)dx
pero
Ha (x)g (x)dx =
g (x)dx , se tiene
integral de la derivada del escalon en a por una funcion g que cumple con la restriccion de lmite
equivale a evaluar aquella funcion en el valor a, es decir
Z
Z
Z
se comporta como la derivada del escalon de Heaviside centrado en a, es decir, Ha (t) = (t a).
Cabe destacar que las funciones fn no son las u
nicas que dan origen a , pues basta con que cumplan
las propiedades enunciadas. Algunos ejemplos de familias de funciones que dan origen a y cumplen
con las propiedades son:
n
2 2
fn (t) = en t .
sen(2nt)
.
t
n
1
.
fn (t) =
n2 t2 + 1
fn (t) =
3.4.
L[f (t)](s) =
est f (t)dt, s >
0
Z
st
st
= s
e f (t)dt + e f (t)
0
81
t0
como f es de orden exponencial , se tiene que lmt |est f (t)| lmt |est et | = lmt e(s)t =
0, pues s > . Llamando f (0+ ) = lmt0+ est f (t). Con esto se obtiene
L[f (t)](s) = sL[f (t)](s) f (0+ ), s >
Veamos ahora la transformada de Laplace de la segunda derivada de f :
L[f (t)](s) = sL[f (t)](s) f (0+ ), s >
= s(sL[f (t)](s) f (0+ )) f (0+ )
= s2 L[f (t)](s) sf (0+ ) f (0+ )
Repitiendo el proceso, se obtiene la formula para la transformada de la n-esima derivada de f :
L[f (n) (t)](s) = sn L[f (t)](s) sn1 f (0+ ) sn2 f (0+ ) f (n1) (0+ ), s >
Ejemplo 3.4.1. Un cohete despega con velocidad inicial v0 desde la Tierra en forma vertical. Luego de algunos segundos, se activan los motores de emergencia, por lo que adquiere una aceleracion
a > 0 durante un intervalo de tiempo breve. Si la gravedad de la Tierra es g, encuentre la ecuacion
de movimiento del cohete suponiendo que tiene masa m y t2 t1 es el intervalo en el que funcionan
los motores de emergencia, con t2 > t1 .
De la sumatoria de fuerzas obtenemos
m
d2
y(t) = mg + ma(Pt1 t2 (t))
dy 2
,donde y(t) es la posicion del cohete con respecto a la Tierra. Las condiciones iniciales del cohete
son y(0) = 0 y y (0) = v0 . Eliminando m a ambos lados y aplicando L se obtiene la ecuacion
L[y (t)](s) = aL[Pt1 t2 (t)](s) gL[1](s)
recordando las expresiones para L[y (t)](s), L[Pt1 t2 (t)](s) y L[1](s), la expresion queda
g
a
s2 L[y](s) sy(0+ ) y (0+ ) = (et1 t et2 t )
s
s
Los valores y(0+ ) y y (0+ ) equivalen a las condiciones iniciales del problema, es decir, y(0+ ) = 0 y
y (0+ ) = v0 ,
L[y](s) =
v0
a
a
g
+ 3 et1 t 3 et2 t 3
2
s
s
s
s
En este punto, se necesita comprender como opera un antitransformada, por lo cual, se continuara
en el ejemplo (3.12.1).
82
3.5.
(F (t) = f (t)):
f (u)du
Z tZ
a
sion es
Z
1
1
f (u)du (s) = L[f (t)](s)
s
s
Z t Z
a
Z t Z
a
f (u)du, s >
0
Z t
Z Z
1 a t
1
L
f (u)du (s)
f (u)du, s >
f (u)du (s) =
s
s 0 a
a
Z
Z Z
1 1
1 a
1 a t
=
L[f (t)](s)
f (u)du
f (u)du
s s
s 0
s 0 a
Z Z
Z
1 a
1 a t
1
f (u)du
f (u)du
= 2 L[f (t)](s) 2
s
s 0
s 0 a
Z Z
Z
Z t
Z
Z t
t
1
1 a
1 a t
n 1 veces
83
3.6.
Traslaciones
u=t-a
sa
L[f (t)](s)
= L[eat f (t)](s)
3.7.
Igualdad de transformadas
84
3.8.
Convergencia Uniforme de L
Sean (s) =
st
f (t)dt y n (s) =
Z
|n (s) (s)| =
e f (t)dt
n
C (s)t
e
s
st
C (s)n
e
s
por lo tanto lmn n (s) = (s), es decir, n converge puntualmente a para todo s I.
Veamos la convergencia uniforme:
C (s)n
e
sup |n (s) (s)| sup
s> s
s[0 ,M ]
C
=
e(0 )n
0
0
|{z}
3.9.
3.9.1.
Diferenciabilidad e integrabilidad de L
Diferenciabilidad
L[tf (t)](s)
3.9.2.
Integrabilidad
=
=
s
1 ut
e f (t) dt
t
0
0
Z
Z
f (t) st
f (t)
e dt +
dt
t
t
0
0
Z
f (t)
f (t)
L
(s) +
dt
t
t
0
Z
d
f (t)
f (t)
=
, se obtiene
L
si en la formula de la derivada de la transformada, se toma g(t) =
ds
t
Z t
f (t)
f (t)
f (t)
L[f (t)](s), por lo tanto lms L
(s) L
(s) =
L[f (t)](u)du. Si
C se
t
t
t
s
f (t)
(s) = 0, por lo cual
tiene lms L
t
Z
f (t)
L
(s) =
L[f (t)](u)du
t
s
f (t)
f (t)
La u
nica condicion para que
C con f (t) C es que lmt0+
exista (6= ). Entonces,
t
t
la formula que se obtiene es
Z s
Z
Z
f (t)
dt
L[f (t)](u)du =
L[f (t)](u)du +
t
0
s
0
que equivale a integrar desde 0 a , es decir,
Z
Z
L[f (t)](u)du =
0
3.10.
f (t)
dt
t
Convoluci
on
Definici
on 3.10.1 (Producto de Convolucion).Z Sean f y g funciones en C . El producto de convot
luci
on entre f y g de define como (f g)(t) =
f (s)g(t s)ds
0
86
como 0 < t < y 0 < u < t, podemos hacer un cambio en los lmites de integracion, ya que los
conjuntos {(t, s) : 0 < t < 0 < u < t} y {(t, s) : u < t < 0 < u < } son iguales, por lo
tanto
Z Z t
Z Z
st
e f (u)g(t u)dudt
=
est f (u)g(t u)dtdu
0
0
Z0 Zu
=
es(w+u) f (u)g(w)dwdu
|{z}
w=tu
su
f (u)du
esw g(w)dw
L[f (t)](s)L[g(t)](s)
Observaci
on: Como consecuencia se obtiene que 0 es el neutro para , es decir, para f C ,
L[f 0 ] = L[f ] L[0 ] y como L[0 ] = 1, L[f 0 ] = L[f ]. Por el teorema de Lerch, f 0 = f
0 f = f (no riguroso).
87
3.11.
Fracciones Parciales
p(x)
con p y q polinomios a coeficientes reales tales que
q(x)
sus grados cumplen con gr(p) < gr(q). Si se quiere obtener expresiones mas simples a partir de
p(x)
, se puede descomponer esa expresion en fracciones parciales, las que al ser sumadas dan como
q(x)
resultado la expresion original. Los casos mas frecuentes de descomposicion son los siguientes:
Supongamos se tiene la expresion racional
1. Si q(x) tiene n raices reales distintas cada una de multiplicidad algebraica (m. a.) 1, es decir,
q(x) = (x a1 ) . . . (x an ), con ai R y i 6= j, ai 6= aj :
p(x)
An
A1
++
=
q(x)
x a1
x an
2. Si q(x) tiene una raz real de m. a. n, es decir, q(x) = (x a)n , con a R:
A1
A2
An
p(x)
=
+
+
+
q(x)
x a (x a)2
(x a)n
3. Si q(x) tiene m + 1 raices reales distintas, m con m. a. 1 y una con m. a. n, es decir,
q(x) = (x a)n (x b1 ) . . . (x bm ), con a, bi R y i 6= j, bi 6= bj bi 6= a:
A1
A2
An
B1
Bm
p(x)
=
+
++
+
++
2
n
q(x)
x a (x a)
(x a)
x b1
x bm
4. Si q(x) tiene 2 raices complejas distintas de m. a. 1, es decir, q(x) = ax2 +bx+c, con a, b, c R
o bien q(x) = (x z)(x z), con z, z C, (z) 6= 0 (parte imaginaria distinta de 0) soluciones
de la ecuacion cuadratica ax2 + bx + c = 0:
Ax + B
p(x)
= 2
q(x)
ax + bx + c
5. Si q(x) tiene 2 raices complejas distintas de m. a. n, es decir, q(x) = (ax2 + bx + c)n , con
a, b, c R o bien q(x) = (x z)n (x z)n , con z, z C, (z) 6= 0 soluciones de la ecuacion
cuadratica ax2 + bx + c = 0:
p(x)
A1 x + B1
A2 x + B2
An x + Bn
= 2
+
++
2
2
q(x)
ax + bx + c (ax + bx + c)
(ax2 + bx + c)n
6. Cualquier combinacion de estos casos.
88
Una vez descompuesta la expresion original, se deben encontrar los valores de los coeficinetes de la
parte derecha. Existen varias formas de encontrarlos, veremos 2 metodos:
Metodo 1: Multiplicar por q(x) a ambos lados y evaluar raz por raz.
Metodo 2: Desarrollar la suma de la parte derecha e igualar coeficientes.
Ejemplo 3.11.1. Se desea descomponer la expresion
s2 ((s
1
a)2 + b2 )
1
A B
C + Ds
= + 2+
2
2
a) + b )
s
s
(s a)2 + b2
(3.2)
Utilizando el metodo 1, es decir, multiplicando por s2 ((s a)2 + b2 ) a ambos lados de (3.2), se
obtiene
1 = As((s a)2 + b2 ) + B((s a)2 + b2 ) + (C + sD)s2
Evaluando en z y z, se obtienen las igualdades
1 = Cz 2 + z 3 D
1 = Cz 2 + z 3 D
multiplicando la primera igualdad por z 2 y la segunda por z 2 , se tiene
z 2 = Cz 2 z 2 + z z 2 z 2 D
z 2 = Cz 2 z 2 + z z 2 z 2 D
como z z = |z|2 , se deduce que
z 2 = C|z|4 + z |z|4 D
z 2 = C|z|4 + z |z|4 D
multiplicando por 1 la primera igualdad y sumando, se obtiene D
(z z)(z + z)
|z|4 (z z)
2(z)
D=
|z|4
D=
89
=
=
=
=
A+D
2aA + B + C
A(a2 + b2 ) 2aB
Ba2 + Bb2
o equivalentemente,
1
0
2a
1
2
(a + b2 )
2a
0
(a2 + b2 )
0
1
0
0
A
1
B
0
0 C
D
0
3.12.
Antitransformadas
90
= 0
0
con P (D) un operador diferencial de orden n normalizado (an = 1)y Q(t) es combinacion lineal de
funciones en C . Aplicando L a ambos lados de la EDO, se obtiene:
" n
#
X
L
aj D j y(t) (s) = L[Q(t)](s)
j=1
n
X
j=1
aj L D j y(t) (s) = L[Q(t)](s)
pero se sabe que L [D j y(t)] (s) = sj L[y(t)](s) sj1 y(0+ ) y j1(0+ ), lo cual es un polinomio
de grado menor o igual a j 1 en la variable s, cuyos coeficientes dependen de las condiciones
iniciales. Con esto la ecuacion queda (R(s) tiene grado a lo mas n 1):
!
n
n
X
X
j
aj s L[y(t)](s)
aj (sj1y(0+ ) + + y j1(0+ )) = L[Q(t)](s)
j=1
{z
P (s)
j=1
{z
R(s)
R(s)
L[Q(t)](s)
Llamando yh (t) e yp (t) a la funciones tales que L[yh (t)](s) =
y L[yp (t)] =
, se tiene
P (s)
P (s)
que :
L[y(t)](s) = L[yh (t)](s) + L[yp (t)](s)
Definici
on 3.12.1. Una funcion f (en el dominio temporal) es antitransformada de una funci
on
1
(en el dominio de Laplace) si se cumple que L[f (t)] = (s). Se denota como f (t) = L [(s)](t).
R(s)
1 L[Q(t)](s)
(t) e yp (t) = L
(t).
En el ejemplo inicial, se tendria que yh (t) = L
P (s)
P (s)
1
(t), por lo tanto
Para encontrar yp (t), consideremos H(t) = L1
P (s)
yp (t) = L1 L[H(t)](s)L[Q(t)](s) (t)
= L1 L[(H Q)(t)](s) (t)
1
= (H Q)(t)
Z t
=
H(t )Q()d
0
91
R(s)
.
Para encontrar yh (t) se utiliza la descomposicion en fracciones parciales de la funcion racional
P (s)
R(s)
Se tendra que yh (t) = L1
, con gr(P ) = n y gr(R) n 1, considerando al polinomio P (s)
P (s)
de la forma
P (s) = (s 1 )m1 . . . (s l )ml
con 1 , . . . , l raices de P y m1 , . . . , ml son las multiplicidades algebaicas respectivas. Si alguna raz
cumple con () 6= 0 (parte imaginaria distinta de cero), entonces ella y su conjugado son raices del
polinomio, y se tiene que = + iw, = iw tales que (s iw)(s + iw) = (s )2 + w 2 .
Con esto, podemos escribir la descomposicion de P de la forma
P (s) = (s 1 )m1 . . . (s k )mk ((s k+1 )2 + wk+1 )mk+1 . . . ((s l )2 + wl )ml
donde las raices 1 , . . . k cumplen con () = 0, y las raices k+1, . . . , l cumplen con () 6= 0.
1
, utilizando una descomposicion en fracciones parciales, sera
Por lo tanto, la expresion para
P (s)
de la forma:
1
A1,1
Am1 ,1
=
++
P (s)
s 1
(s 1 )m1
+...
A1,k
Amk ,k
+
++
s k
(s k )mk
Bmk+1 ,k+1 + sCmk+1 ,k+1
B1,k+1 + sC1,k+1
++
+
2
(s k+1 ) + wk+1
((s k+1 )2 + wk+1)mk+1
+...
B1,l + sC1,l
Bml ,l + sCml ,l
+
++
2
(s l ) + wl
((s l )2 + wl )ml
Considerando las siguientes transformadas de Laplace
L[H(t)](s )
k1
t
(s )
L
(k 1)!
1
L
sen(wt) (s )
w
i
h
sen(wt) (s )
L [cos(wt)] (s ) + L
w
92
1
s
1
=
(s )k
1
=
(s )2 + w 2
s
=
+
(s )2 + w 2 (s )2 + w 2
=
y recordando que
L[H(t)](s )
tk1
L
(s )
(k 1)!
1
L
sen(wt) (s )
w
i
h
sen(wt) (s )
L [cos(wt)] (s ) + L
w
= L[et H(t)](s)
k1
t t
= L e
(s)
(k 1)!
t
e
= L
sen(wt) (s)
w
et
t
= L e cos(wt) +
sen(wt) (s)
w
e H(t) =
et
tk1
=
(k 1)!
et
sen(wt) =
w
et
et cos(wt) +
sen(wt) =
w
1
(t)
L
s
1
1
L
(t)
(s )k
1
1
L
(t)
(s )2 + w 2
s
1
(t)
L
(s )2 + w 2
1
1
= L[f (t)](s),
P (s)
con lo que se tendria el resultado, sin embargo, a
un falta encontrar las antitransformadas de los
siguientes tipos:
1.
2.
3.
4.
s
(t)
L
(s2 + a2 )2
1
1
L
(t)
(s2 + a2 )2
s
1
L
(t)
(s2 + a2 )n
1
1
L
(t)
(s2 + a2 )n
1
93
1. Basta considerar
1
2s
d
= 2
, por lo tanto:
2
2
ds s + a
(s + a2 )2
s
1 1 d
1
1
L
(t) =
L
(s2 + a2 )2
2
ds s2 + a2
1 1 d
=
L
L[sen(at)]
2a
ds
1
t sen(at)
=
2a
Z
1
L[f ], se tiene:
s
0
1
s
1
1 1
L
(t) = L
(t)
(s2 + a2 )2
s (s2 + a2 )2
1
1 1
L
t sen(at) (s) (t)
= L
s
2a
Z t
1
1
L
= L
t sen(at) (s) (t)
0 2a
Z t
1
t sen(at)
=
0 2a
1
1
=
sen(at) t cos(at)
2a2 a
2. Recordando que L
f =
(verificar)
1
(n 1)(s2 + a2 )n2 2s
2s(n 1)
d
=
=
, y la
2
2
n1
2
2
2n2
ds (s + a )
(s + a )
(s2 + a2 )n
antitransformada sera de la forma:
d
1
s
1
1
1
(t) =
L
(t)
L
(s2 + a2 )n
2(n 1)
ds (s2 + a2 )n1
1
1
1
=
(t)
tL
2(n 1)
(s2 + a2 )n1
4. Propuesto.
Ejemplo 3.12.1. Continuando el ejemplo (3.4.1), hay que encontrar las funciones que al ser transformadas por L, equivalen a cada uno de los sumandos del miembro derecho de la ecuacion
L[y](s) =
a
a
g
v0
+ 3 et1 t 3 et2 t 3
2
s
s
s
s
94
a
gt2
a
No es difcil darse cuenta de que L[v0 t], L[ (t t1 )2 H(t t1 )], L[ (t t2 )2 H(t t2 )] y L[ ]
2
2
2
equivalen a cada sumando respectivo. Reemplazando obtenemos
a
a
gt2
L[y](s) = L[v0 t] + L[ (t t1 )2 H(t t1 )] + L[ (t t2 )2 H(t t2 )] + L[ ]
2
2
2
a
a
gt2
2
2
L[y](s) = L[v0 t + (t t1 ) H(t t1 ) (t t2 ) H(t t2 ) +
]
2
2
2
por lo tanto, la ecuacion de movimiento del cohete es
a
gt2
a
y(t) = v0 t + (t t1 )2 H(t t1 ) (t t2 )2 H(t t2 ) +
2
2
2
Ejemplo 3.12.2. Resolver la EDO y + 2y + 2y = 0.
Aplicando L a ambos lados, se obtiene:
L[y + 2y + 2y](s)
L[y ] + 2L[y ] + 2L[y]
s2 L[y](s) sy(0+ ) y (0+ ) + 2(sL[y](s) y(0+ )) + 2L[y](s)
(s2 + 2s + 2)L[y](s)
=
=
=
=
L[0](s)
0
0
s+3
s+3
L[y](s) = 2
s + 2s + 2
Como las raices de s2 + 2s + 2 = 0 son complejas, se escribe ese polinomio de la forma (s + 1)2 + 1,
con lo que se obtiene
s+3
(s + 1)2 + 1
s+1
2
L[y](s) =
+
(s + 1)2 + 1 (s + 1)2 + 1
L[y](s) =
1
s+1
y L [ex sen x] (s) =
, se tiene que
2
(s + 1) + 1
(s + 1)2 + 1
1
L[y](s) = L ex cos x (s) + 2L ex sen x (s) =
(s + 1)2 + 1
x
L[y](s) = L e cos x + 2ex sen x (s)
y = ex (cos x + 2 sen x)
La transformada de Laplace tambien se puede utilizar para resolver sistemas lineales de ecuaciones
diferenciales. Esto se vera en el proximo capitulo.
95
Captulo 4
Sistemas Lineales de EDO
4.1.
Introducci
on
Hasta aqu se han estudiado ecuaciones lineales con una sola funcion incognita. Estudiaremos ahora
sistemas de ecuaciones diferenciales lineales, tanto porque permiten modelar problemas fsicos que
involucran la interaccion de varias funciones incognita, como tambien porque a ellos pueden reducirse
ecuaciones lineales de grado superior.
Definici
on 4.1.1. Un sistema lineal de EDO en Kn (con K = R o K = C) es un sistema de n
ecuaciones escrito de la forma
X (t) = A(t)X(t) + B(t),
t I,
X(t0 ) = X0 ,
(4.1)
donde A(t) Mnn (K), B(t) Kn para cada t en I R, I intervalo abierto no vaco y X0 Kn
son condiciones iniciales en t = t0 I. En el caso B 0 se dice que el sistema es homogeneo. En
el caso que A es una matriz constante, se dice que el sistema es de coeficientes constantes.
4.2.
Sistemas Lineales en R2
Ejemplo 4.2.1 (Polucion en dos estanques). Dos estanques 1 y 2, que contienen V [m3 ] de agua,
se encuentran interconectados por medio de un canal, por el cual fluye agua desde 1 a 2 a razon
3
3
de b[ ms ]. El sistema es alimentado a traves del estanque 1 a razon de b[ ms ], con un poluente de
kg
concentracion [ m
3 ], que contamina el agua. El agua sale del sistema por un canal del estanque
3
2, con un caudal de b[ ms ]. En esta situacion se produce una contaminacion del agua en ambos
estanques. Para tratar de disminuir este efecto negativo, se propone a
nadir otro canal que conecte
m3
a los dos estanques, para que devuelva flujo de 2 a 1, a razon de b[ s ], donde > 0. Sin embargo,
3
para evitar el rebalse del sistema, se debe aumentar el flujo del canal ya existente a b(1 + )[ ms ].
Cuanto ayuda esta solucion a disminuir la polucion del agua en los estanques?
96
b (1+)
Para el estanque 1, tenemos que la variacion de la cantidad de poluente por unidad de tiempo es la
diferencia de las concentraciones que entran y las que salen por unidad de tiempo, es decir:
3
3
3
kg
1 1
1 1
m
kg
m
m
x1
=b
x2 [kg]
x1 [kg]
+ b
b(1 + )
.
s
s
m3
s
V m3
s
V m3
Repitiendo el razonamiento para el estanque 2, resulta el sistema:
b(1 + )
b
x2 (t)
x1 (t)
V
V
b(1 + )
b
b
x2 (t) =
x1 (t) x2 (t) x2 (t).
V
V
V
x1 (t) = b +
b(1+)
V1
b(1+)
V1
b
V2
b(1+)
V2
B=
b
0
(4.2)
esto es, un sistema lineal de dos ecuaciones de primer orden no homogeneo a coeficientes constantes.
2
Veamos en generalcomo podr
a resolverse un sistema lineal en
distintos metodos.
R , utilizando
a11 a12
b1 (t)
Supongamos A =
(matriz constante) y B(t) =
.
a21 a22
b2 (t)
97
4.2.1.
M
etodo de sustituci
on
= a11 x1 + a12 x2 + b1
= a21 x1 + a22 x2 + b2
(4.3)
(4.4)
con las condiciones iniciales x1 (0) = x01 y x2 (0) = x02 , despejamos x1 de (4.4), suponiendo a21 6= 0,
esto es
x1 =
x2 a22 x2 b2
a21
(4.5)
x1 =
x2 a22 x2 b2
a21
(4.6)
y luego derivamos:
det(A)
que no es mas que una ecuacion de segundo orden, con condiciones iniciales
x2 (0) = x02
x2 (0) = a21 x01 + a22 x02 + b2 (0)
4.2.2.
M
etodo de Transformada de Laplace
Si al sistema formado por (4.3) y (4.4) lo consideramos definido para t > 0, le aplicamos transformada de Laplace, resulta:
sLx1 x01 = a11 Lx1 + a12 Lx2 + Lb1
sLx2 x02 = a21 Lx1 + a22 Lx2 + Lb2 .
As tenemos el sistema:
(s a11 )Lx1 a12 Lx2 = Lb1 + x01
a21 Lx1 + (s a22 )Lx2 = Lb2 + x02
/(s a22 )
/a12 ,
Simplificando:
(s2 (a11 + a22 )s + a11 a22 a12 a21 )Lx1 = (s)
P (s)L(x1 ) = (s),
donde (s) = (s a22 )(L1 + x01 ) + a12 (L2 + x02 ) y P (s) = s2 (a11 + a22 )s + a11 a22 a12 a21 .
De esta forma la solucion general del sistema sera:
Lx1 =
Lx2 =
Ejemplo 4.2.2 (continuacion polucion en dos estanques). Volviendo al ejemplo de los estanques,
si reemplazamos los valores que tenamos en ese sistema, se obtiene:
b
1
1
b2 (1 + )
b(1 + )
bx02
0
2
Lx
=
s
+
+
x
+
.
s + b(1 + )( + )s +
1
1
V
V
V2
V
s
V
Resolvamos la ecuacion cuadratica del lado izquierdo:
b(1 + ) b(1 + )
s=
V
V
1
1
,
1+
|
{z
}
b(1 + )
(1 + ) < 0 si 0
V
b(1 + )
(1 ) < 0 si 0.
s2 =
V
s1 =
b(1 + )
b
, = ,
V
V
se tiene:
Lx1 =
b + x01 + x02
sx01
b
+
+
(s + (1 + ))(s + (1 )) (s + (1 + ))(s + (1 )) s(s + (1 + ))(s + (1 ))
Lx2 =
(x01 + x02 )
sx02
b
+
+
.
(s + (1 + ))(s + (1 )) (s + (1 + ))(s + (1 )) s(s + (1 + ))(s + (1 ))
99
Los tres sumandos de cada ecuacion anterior tienen una antitransformada conocida:
1
eat ebt
1
L
=
(s a)(s b)
ab
aeat bebt
s
=
L1
(s a)(s b)
ab
1
(c b)eat + (a c)ebt + (b a)ect
L1
=
.
(s a)(s b)(s c)
(a b)(b c)(c a)
Por lo tanto las soluciones son:
(1 + )e(1+)t (1 )e(1)t
e(1+)t e(1)t
+ x01
+
2
2
(1 )e(1+)t (1 + )e(1)t + 2
b
22(1 2 )
e(1+)t e(1)t
(1 + )e(1+)t (1 )e(1)t
= (x01 + x02 )
+ x02
+
2
2
(1 )e(1+)t (1 + )e(1)t + 2
.
b
22(1 2 )
x1 = (b + x01 + x02 )
x2
Luego
x1 = C1 es1 t + C2 es1 t + C3 ,
donde C1 , C2, C3 son constantes dadas de la agrupacion de terminos semejantes en la expresion
anterior, que por tanto dependen solo de las condiciones iniciales y de la geometra del sistema.
Para x2 se obtiene analogamente:
x2 = C1 es1 t + C2 es1 t + C3 ,
con C1 , C2 , C3 constantes. Es importante notar que estas soluciones son estables, es decir, que cuando
t las soluciones convergen a una solucion determinada, y puesto que s1 , s2 < 0, entonces :
b
= V
t
(1 2 )
b
lm x2 (t) = C3 =
= V,
t
(1 2 )
lm x1 (t) = C3 =
por lo que concluimos que despues de un tiempo suficientemente largo, la cantidad de poluente
en cada estanque sera muy cercana a V , independientemente del valor de , es decir, tenemos la
misma solucion que si = 0, que era como inicialmente estaba el sistema de estanques. En realidad
la situacion es mas compleja, ya que graficando las soluciones para > 0 y = 0 se aprecia que
la polucion es menor en el caso > 0 para un intervalo de t considerable (aunque el lmite es el
mismo). Ver figura (4.2).
100
=0
>0
10
20
30
40
50
60
B, X Rn , A Mnn (R)
X0 R n
n
X
aij xj + bi ,
xi (0) = x0i .
j=1
n
X
j=1
x0i
n
X
j=1
i = 1, ..., n.
O bien, matricialmente:
sLX ALX = LB + X0
sILX ALX = LB + X0 ,
101
i = 1, ..., n
esto es:
(sI A)L(X) = L(B) + X0 .
De esta forma, si (sI A) Mnn (R) es invertible (en realidad basta tomar s > max (A), donde
(A) son la parte real de los valores propios de A), podemos despejar L(X):
L(X) = (sI A)1 (L(B) + X0 )
que es la generalizacion de la transformada de Laplace a sistemas donde A es una matriz a coeficientes constantes. De lo anterior se deduce que:
Teorema 4.2.1. La solucion del sistema lineal (4.1), donde A Mnn (R) tiene coeficientes constantes, esta dada por L(X) = (sI A)1 (L(B) + X0 ), s > max (A).
Ejemplo 4.2.3 (Masas atmosfericas). El siguiente es un modelo para la evolucion de las masas
atmosfericas en kilotoneladas [kton] de un contaminante en el hemisferio norte (c1 ) y el hemisferio
sur (c2 ) de la Tierra (ver figura 4.2.3):
c1 = f1 (c1 c2 ) c1
c2 = f2 (c2 c1 ) c2 .
(4.7)
(4.8)
c1
ecuador
c2
Introduzcamos la masa media entre los dos hemisferios como c(t) = 12 (c1 (t) + c2 (t)) y la emision
media como f = 21 (f1 + f2 ). Si derivamos la expresion de la masa media con respecto al tiempo
obtenemos:
1
c (t) = (c1 (t) + c2 (t)).
2
Luego, si sumamos las EDO que tenemos para c1 y c2 , nos queda:
c1 + c2 = 2c = (f1 + f2 ) (c1 c2 + c2 c1 ) (c1 + c2 )
c = f c
102
A constante a determinar.
f
,
f
(1 et ).
Si se estima que el lmite de c(t) cuando t + es de 100 [kton], podemos encontrar una estimacion para 1 , esto es, para los a
nos de vida del contaminante:
c(t) = 72et +
f
f
(1 et )] = ,
pero f = 20 [kton/a
no]. Luego,
1 =
100[kton]
= 5 [a
nos].
20[kton/a
no]
f1
A=
y B=
,
f2
entonces, usando el Teorema 4.2.1
1 f1
0
+
c
s++
1
1
s
(sI A) (LB + X0 ) =
f2
s++
+ c02
s
,
0
0
0
0
(f2 + c1 + c2 + c2 )1 (s) + c2 2 (s) + (f2 + f2 + f1 )3 (s)
103
donde
1 (s) =
1
s
1
, 2 (s) =
, 3 (s) =
.
(s + )(s + 2 + )
(s + )(s + 2 + )
s(s + )(s + 2 + )
Para terminar, solo falta encontrar las antitransformadas de cada componente del vector, lo que se
reduce a encontrar las antitransformadas de 1 , 2 y 3 . Para esto usaremos una buena receta: si
(s) =
B
C
A
+
+
,
sa sb sc
Como 1 (s) =
sc
sb
1
(s+)(s+2+)
A1
s+
B1
,
s+2+
hallamos A1 :
s+
s (s+)(s+2+)
lm 1 (s)(s + ) = A1 = lm
1
s s+2+
= lm
1
.
2
1
De la misma manera, B1 = 2
, luego,
1 (s) =
1
1
.
2(s + ) 2(s + 2 + )
Para 2 ,
2 (s) =
s
(s+)(s+2+)
Por u
ltimo,
3 (s) =
A2
= s[ s+
+
B2
]
s+2+
1
[ s
2 s+
s
].
s+2+
B3
C3
A3
+
+
,
s
s + s + 2 +
y utilizando la receta,
1
s
=
s(s + )(s + 2 + )
(2 + )
s+
1
= lm
=
s s(s + )(s + 2 + )
2
1
s + 2 +
=
.
=
lm
s(2+) s(s + )(s + 2 + )
2(2 + )
A3 = lm
s0
B3
C3
104
1
s
Aplicando ahora antitransformada a estas funciones, recordando que L1 [ s+a
] = eat , y L1 [ s+a
]=
at
(t) ae , tenemos que
1 1
1 1
1
1
1
1
1
1
=
L [1 (s)] = L
L
L
2(s + ) 2(s + 2 + )
2
s+
2
s + 2 +
1 (2+)t
1 t
e
e
=
2
2
1 1
s
1
s
1
1
L [2 (s)] =
L
)=
(L
((t) et (t) + (2 + )e(2+)t )
2
s+
s + 2 +
2
1
((2 + )e(2+)t et )
=
2
1 1
1
1
1
1
1 1
1
1
+
L
L
L
L [3 (s)] =
(2 + )
s
2
s+
2(2 + )
s + 2 +
1
1 t
1
=
e
+
e(2+)t .
(2 + ) 2
2(2 + )
( + )f1 + f2
(2 + )
lm c2 = r2 =
f1 + ( + )f2
.
(2 + )
4.3.
Existencia y Unicidad
Dado que los sistemas lineales se pueden escribir de forma tan similar a las ecuaciones lineales de
primer orden escalares, y ademas todava sirven metodos como Laplace (extendido a matrices),
queremos tener otras buenas propiedades, en particular un Teorema de Existencia y Unicidad. Para
ello partamos suponiendo que resolveremos el sistema en un subintervalo I0 cerrado y acotado de I
y t0 I0 . Introduzcamos algunos espacios:
105
Definici
on 4.3.1. C(I0 , Rn ) ={f : I Rn | las componentes fi de f son funciones continuas en
I0 , i = 1, . . . , n }.
Definici
on 4.3.2. C(I0 , Rnn ) ={f : I Rnn | las componentes fij de f son funciones continuas
en I0 , i, j = 1, . . . , n }.
Teorema 4.3.1 (Existencia y Unicidad). Si A C(I0 , Rnn ) y B C(I0 , Rn ), entonces dado
X0 Rn y t0 I0 , existe una u
nica solucion X C(I0 , Rn ) del sistema lineal:
X (t) = A(t)X(t) + B(t),
X(t0 ) = X0
t I0
t0
xi (s)ds =
t0
n
X
j=1
t0
n
X
j=1
..
aij (s)yj
kA(s)Y (s)k2
=
=
Pn .
i=1
j=1
j=1 anj (s)yj
!
n
n
n
X
X
X
2
yk2
aij (s)
|{z}
i=1
j=1
k=1
CauchySchwartz
!
!
n X
n
n
X
X
=
a2ij (s)
yk2
=
i=1 j=1
kA(s)k2F kY
107
k=1
k .
Pero kA(s)kF
v
uX
n
u n X
t
=
a2ij (s) es una funcion continua de s en un intervalo cerrado y
i=1 j=1
acotado, por lo que alcanza su maximo, que llamaremos M, de donde se tiene la propiedad
(b).
Veamos ahora que es contractante para la nueva norma kkM , ( el M escogido al crear la
norma es justamente el M de la propiedad (b)). Sean Y, Z C(I0 , Rn ), calculemos para t I0
Z t
Z t
(A(s)Z(s) + B(s))ds
k(Y )(t) (Z)(t)k
=
(A(s)Y (s) + B(s))ds
Zt0t
t0
A(s)(Y (s) Z(s))ds
=
t
Z t0
|{z}
por (b)
=
=
t0
kY (s) Z(s)k ds
2M
2M
1
e2M (tt0 )
kY ZkM kY ZkM
2
| 2 {z
}
M
e2M (tt0 )
kY ZkM .
2
Luego tenemos t I0 :
e2M (tt0 ) k(Y )(t) (Z)(t)k
1
kY ZkM .
2
Tomando supremo
1
kY ZkM / sup
2
tI0
1
kY ZkM .
2
Notar que lo anterior define puntualmente la solucion. Para ver que el lmite esta bien definido,
tomemos t I, se tiene entonces que n0 : t [t0 , t0 + T n1 ], n n0 . Ademas, Xn (t) es
constante, n n0 , pues de lo contrario se tendran por lo menos dos soluciones de la misma
ecuacion diferencial definidas en un intervalo cerrado y acotado que difieren en t, lo que contradice el
Teo. de Existencia y Unicidad demostrado. As, la sucesion Xn (t) tiene garantizada la convergencia.
Tambien hay que considerar que la solucion no tiene que ser necesariamente acotada, y puede
diverger en T , por ejemplo en el caso en que A y B sean funciones no acotadas en el intervalo
estudiado.
En el caso en que I no fuese acotado, por ejemplo I = [t0 , [, se construye una solucion Xn I =
[t0 , n], y se considera la solucion
X(t) = lm Xn (t) t [t0 , [.
n
Las mismas notas sobre la correcta definicion de este lmite puntual anteriormente hechas, siguen
siendo validas.
Corolarios 4.3.1. (a) Si un sistema lineal homogeneo tiene una condicion inicial nula, entonces
la u
nica solucion del sistema es la funcion nula.
X = AX
X(t) = 0, t I
X(t0 ) = 0
(b) Si tenemos un sistema lineal con dos trayectorias que coinciden en un punto, entonces son la
misma; interpretado de otra forma, dos trayectorias X(t) e Y (t) Rn distintas no se cruzan
(determinismo).
X = A(t)X + B(t)
Y = A(t)Y + B(t)
X(t) = Y (t), t I
X(t0 ) = Y (t0 )
109
4.4.
Sistemas Homog
eneos
110
Matricialmente tenemos:
m1
m2
..
mn1
c1
c2
..
.
cn1
x1
x2
..
.
xn1
xn
mn
x1
2 1
x2
1 2 1
..
.. .. ..
. k
.
.
.
xn1
1 2 1
xn
cn
1 2
x1
x2
..
.
xn1
xn
MX + CX + KX = 0,
con X Rn . Para transformarlo en un sistema lineal, hacemos el cambio de variables:
X
X
,
Z =
Z=
X
X
pero
X = M 1 KX M 1 CX .
Por lo tanto, se puede escribir el sistema lineal:
0
I
Z.
Z =
M 1 K M 1 C
Para determinar el conjunto de soluciones fundamentales asociadas, por ejemplo, al origen, bastara resolver el sistema anterior con condiciones iniciales en cada vector canonico de R2n
Z(0) = ek .
(En total son 2n sistemas con condiciones iniciales a resolver).
Demostracion del Teorema 4.4.1. Partamos probando que efectivamente es generador, es decir,
< {k }nk=1 >= H.
Sea Xh H la solucion del sistema homogeneo
Xh = AXh ,
Xh (t0 ) = X0 .
111
t I
x10 , . . . , xn0 R.
n
X
k=1
k k (t) = 0
. .
1 2 .. .. n
|
{z
1
..
. =
}
n
0
..
.
0
W (t0 ) = det
0 0 0
1 0 0
.. . . .. .. = det(In ) = 1
.
.
. .
0 0 0 1
1
0
..
.
t I
est
a dada por
Xh = x10 1 + xn0 n ,
o equivalentemente
Xh = (t)X0 .
Corolario 4.4.2 (Propiedades de la matriz canonica fundamental asociada a t0 ).
(a) (t0 ) = In
(b) (t) = A(t)
(c) es u
nica.
(d) es invertible,
t I
(c) Se concluye por Teo. de Existencia y Unicidad aplicado al sistema formado por (b) , con las
condiciones iniciales de (a).
(d) Se probo en la demostracion del teorema anterior que si:
t0 det((t0 )) 6= 0 t I det((t)) 6= 0
Lo que prueba lo pedido, pues det((t0 )) = 1.
113
c1
..
donde el vector C = . queda dado por las condiciones iniciales, entonces
cn
X(t0 ) = M(t0 )C C = M(t0 )1 X0 X(t) = M(t)M 1 (t0 )X0
4.5.
Soluciones Particulares
Teniendo bien estudiadas las soluciones del sistema homogeneo, solo falta encontrar las soluciones
particulares, gracias a que se tiene el siguiente teorema.
Teorema 4.5.1. Dada una solucion particular Xp de X = AX + B, toda solucion del sistema se
escribe como suma de Xp y alguna solucion del sistema homogeneo.
XG = Xp + Xh .
Demostracion. Sea XG una solucion general del sistema, y Xp una particular, entonces:
XG
Xp
= AXG + B
= AXp + B,
114
Xh = XG Xp XG = Xp + Xh .
j=1
n
X
j=1
j=1
n
X
j=1
(ii) Analogo.
Luego, volviendo al problema de variacion de parametros, podemos reemplazar Xp = (t)C(t) y
derivar:
Xp (t)
((t)C(t))
t0
=
=
=
=
=
est
a dado por :
X(t) = (t)X0 + (t)
1 (s)B(s)ds,
t0
4.6.
X
Mk
M2
Mn
eM =
=I +M +
++
+
k!
2!
n!
k=0
Como estamos tratando en general con series de funciones en cada componente, es u
til tener presente
el siguiente lema:
Lema 4.6.1 (Criterio M de Weierstrass). Sean fk : S R R k N funciones. Si existe una
sucesion (Mk )kN de reales positivos tales que
y la serie
en S.
Demostracion. Como |f
(x)| Mk , n > n0 , x S, por criterio de comparacion de series tenemos
Pk
que para cada x
S,
k=1 fk (x) converge (convergencia puntual). Definamos entonces g : S R
P
tal que g(x) = k=1 fk (x).
Sean m > n > n0 , hagamos la diferencia
n
m
m
m
m
n
m
X
X
X
X
X
X
X
Mk .
Mk
Mk =
|fk (x)|
fk (x)
fk (x) =
fk (x)
k=1
k=1
Como la serie
k=1
k=n+1
k=n+1
k=n+1
n
X
X
X
Mk .
Mk
fk (x)
g(x)
k=1
k=1
k=1
k=1
k=1
Teorema 4.6.1. Si las componentes de la matriz M(t) estan uniformemente acotadas en un intervalo I, entonces cada componente de eM (t) converge uniformemente en I.
Demostracion. P.d.q. (eM (t) )ij converge uniformemente en I.
Tenemos por definicion que
X
(M k (t))ij
(eM (t) )ij =
.
k!
k=0
Esto es una serie de funciones, por lo que para demostrar la convergencia uniforme usaremos el
criterio M de Weierstrass. Veamos que, como cada componente esta uniformemente acotada en I,
se tiene:
R : i, j |(M(t))ij | , t I.
Luego,
n
n
X
2 X
|(M)ik ||(M)kj | 2 n
i, j (M )ij (M)ik (M)kj
k=1
k=1
k > 0 i, j (M k )ij k nk1 , t I.
De esta forma encontramos una cota para los terminos de la serie independiente de t
(M k (t))ij
k nk1 , t I.
k > 0 i, j
k!
p
X
k nk1
k!
k!
k=0
1
n
1 X k nk
1
=
.
n k=0 k!
n
X
k nk1
k=1
k!
en
1
n
n
X
(M k (t))ij
k=1
k!
X
(M k (t))ij
k=0
k!
117
d At
e
dt
= AeAt
X
(Ak )ij tk1
, t (b, b),
h (t) =
k
k!
k=1
pero
En conclusion,
X
X
(Ak )ij tk
(Ak )ij tk1 X (Ak+1 )ij tk
k
=
= (A )ij
.
k
k!
k!
k!
k=0
k=0
k=1
d At
(e )ij = Aij (eAt )ij t (b, b),
dt
y dado que b era arbitrario, se tiene el resultado para todo t R.
4) Para cada s fijo, tomamos la funcion
(t) = eA(t+s) eAt eAs ,
de este modo
(0) = 0
y
(t) = AeA(t+s) AeAt eAs = A(t)
118
=
=
=
=
BAk / A
ABAk pero AB = BA
BAAk
BAk+1 .
X
Ak tk
k=0
k!
X
BAk tk
k=0
k!
X
Ak tk
k=0
k!
B = eAt B.
Bt
(A+B)t
AeAt eBt + |eAt
{zB} e (A + B)e
por 6)
es decir, tenemos:
(t) = (A + B)(t)
(0) = 0.
Concluimos por Teo. de Existencia y Unicidad, que
t R (t) = 0.
119
Las propiedades anteriores entregan mucha informacion sobre las soluciones de sistema lineales a
coeficientes constantes.
De 2) y 3) vemos que eA(tt0 ) cumple el mismo sistema que la matriz fundamental canonica asociada
a t0 , entonces, por Teo. de Existencia y Unicidad:
(t) = eA(tt0 ) ,
t I
Luego, recordando que en un sistema lineal cualquiera, la solucion esta dada por:
Z t
X(t) = (t)X0 + (t)
1 (s)B(s)ds,
t0
X(t) = e
X0 +
eA(ts) B(s)ds.
t0
El problema ahora se reduce solo al calculo de la matriz exponencial, para esto nos ayudaran las
propiedades anteriores, y la forma de la matriz A, en el sentido de si es o no diagonalizable.
4.6.1.
Caso diagonalizable
En el caso de que A sea diagonalizable, por ejemplo, en los casos en que A es simetrica (At = A),
antisimetrica (At = A), o normal (AAt = At A), A se que puede escribir de la forma A = P DP 1,
con D, matriz diagonal formada por los valores propios de A, y P una matriz que tiene en sus
columnas los vectores propios respectivos. De esta forma tenemos, que si 1 , . . . , n son los valores
propios de A, y v1 , . . . , vn sus respectivos vectores propios:
1 0
.. P = v | v | | v ,
D = ... . . .
1
2
n
.
0 n
entonces
P DP 1 t
eAt = e
X
(P DP 1)k tk
k=0
k!
=P
X
D k tk
k=0
k!
donde
eDt
e1 t
..
= ...
.
0
120
0
..
.
en t
P 1 = P eDt P 1 ,
c1
donde C = ... es un vector constante que depende de las condiciones iniciales. O bien, desacn
rrollando las matrices, tenemos:
e1 t v1 | e2 t v2 | | en t vn C
Xh (t) =
= c1 e1 t v1 + c2 e2 t v2 + + cn en t vn .
donde las constantes k1 , k2 , L1 y L2 son respectivamente las rigideces y las distancias de los amortiguadores traseros y delanteros al centro de masas G del auto. En un instante t > 0, x(t) representa
la posicion vertical de G y (t) el giro del auto en torno a G.
k1
L2
k2
x(t)
(t)
L1
x
0
0
1 0
x
0
0
0 1
.
=
(k1 + k2 )
x
x
k1 L1 k2 L2
0 0
0 b
x
0
1
0 x
1
0
0
0
0 0 1
0 0 0
A=
a 0 0
0 b 0
luego, elevando a k:
A2k
y si multiplicamos por A, queda:
, donde a = (1 + )k y b = (1 + )kL2 .
a 0
0
0 b
1
A2 =
0 0
0
0 0
0
0
0
a
0
0
1
;
0
b
ak 0 0 0
0 bk 0 1
=
0 0 ak 0 ,
0 0 0 bk
0
0
0
0
0
A2k+1 =
ak+1
0
bk+1
ak 0
0 bk
.
0 0
0 0
X
(At)k
k=0
k!
X
(At)2k
k=0
k
2k
X
t
0
=
(2k)! 0
k=0
0
(2k)!
0 0
bk 0
0 ak
0 0
Si tomamos a = 2 y b = 2 , resulta:
X
ak t2k
k=0
(2k)!
X
(At)2k+1
+
(2k + 1)!
k=0
0
0
0 ak 0
X
t2k+1
1
0
0
0 bk
.
+
k+1
a
0
0 0
0
(2k
+
1)!
k=0
0
bk+1 0 0
bk
X
(1)k (t)2k
k=0
(2k)!
= cos(t)
X
X
(1)k (t)2k
bk t2k
=
= cos(t),
(2k)!
(2k)!
k=0
k=0
122
y de la mima manera:
X
ak t2k+1
1 X (1)k (t)2k+1
1
=
= sin(t)
(2k + 1)!
k=0 (2k + 1)!
k=0
X
1 X (1)k (t)2k+1
1
bk t2k+1
=
= sin(t).
(2k + 1)!
(2k + 1)!
k=0
k=0
Por lo tanto:
cos(t)
0
0
0
0
cos(t)
0
1
eAt =
0
0
cos(t)
0
0
0
0
cos(t)
0
0
0
0
+
sin(t)
0
0
sin(t)
sin(t)
0
0
0
Si ponemos alguna condicion inicial, como por ejemplo una frenada, representada por:
x(0) = 0,
x (0) = 1,
(0) = 0,
0
sin(t)
.
0
0
(0) = 1,
y reemplazamos en la form
ula obtenida para sistema a coeficientes constantes, se tiene:
sin(t)
x
sin(t)
=
x cos(t)
cos(t)
sin(t)
,
(t) =
sin(t)
,
p
p
con = (1 + )k y = L (1 + )k, que fsicamente representan la frecuencia de cada modo.
Otro metodo para solucionar este problema es analizar los valores y vectores propios del sistema.
Calculemos los valores propios de A
0
1
0
0 0
1
= (2 a)(2 b).
det(A I) = det
a
0 0
0
b
0
En terminos de las variables antes definidas quedan los valores propios imaginarios puros:
1 = i,
2 = i,
3 = i,
123
4 = i,
0
i/
i/
i/
0
0
v1 =
1 , v2 = 1 , v3 = 0
1
0
0
Luego la solucion general sera:
i/
x
= c1 eit 0 + c2 eit
1
x
o bien,
x(t)
(t)
0
i/
v4
0 .
1
0
i/
0
+ c3 eit i/ + c4 eit
0
1
1
0
0
i/
,
0
1
0
0
it
+ c4 e
+ c3 e
+ c2 e
= c1 e
i/
i/
0
1/
.
+ (ic4 eit ic3 eit )
= (ic2 eit ic1 eit )
1/
0
it
i/
0
it
i/
0
it
Aqu se ve que el movimiento del sistema se expresa fundamentalmente solo como el movimiento
vertical de G (representado en el vector (1/, 0) y separadamente la rotacion del eje que une los
resortes, en torno a G, representado en el vector (0, 1/), y por tanto la solucion general del sistema
no es mas que la combinacion lineal de estos dos movimientos fundamentales llamados modos
propios. Los valores propios cuando son imaginarios puros, representan la frecuencia natural de
cada modo propio, en este caso al modo de movimiento vertical (1/, 0) tiene asociado la frecuencia
propia w = . Una aplicacion del conocimiento de este valor es que si se deseara tener un fenomeno
de resonancia, bastara aplicar una fuerza externa sinusoidal sobre el auto con esta misma frecuencia
(F = F0 sin(t), F0 constante). La misma interpretacion se tiene para la frecuencia en el modo
(0, 1/). Para comprobar que este metodo entrega la misma solucion que la exponencial de la matriz,
impongamos las mismas condiciones iniciales, para determinar las constantes:
c1 + c2
c3 + c4
i
c + c2 i
1
i
i
c + c4
3
=0
=0
= 1
= 1 ,
4.6.2.
Caso no diagonalizable
Si A es una matriz cuadrada cualquiera (en particular no diagonalizable) siempre existe una descomposicion dada denominada Forma canonica de Jordan que estudiaremos a continuacion, aunque solo
se enunciaran los resultados, puesto que estas propiedades forman parte de los resultados clasicos del
algebra lineal, y su demostracion es bastante extensa. La demostracion de estas se pueden consultar
en el libro The Theory of Matrices, de Peter Lancaster.
Definici
on 4.6.2. Se llama Bloque de Jordan de tama
no
B Mkk (C) dada por:
1
0
0
1
.
..
B = .. 0
.
. .
.. . . . . . . . .
0 ... ... 0
0
..
.
0
.
8 0
0 0 0
0
0 0 0
0
8
0 0
0 0
3
0
.
0 0
0
0
3 1
0 0
0
0
0
3
0 0
0 0 0
125
Proposici
on 4.6.1. Sea valor propio de A Mnn (C) de multiplicidad algebraica m. Sea Es =
ker(A I)s , s N, entonces existe p, 1 p m, tal que:
{0} = E0 ( E1 ( E2 ( Ep = Ep+1 = Ep+2 = .
Definici
on 4.6.3. Los espacios Es , 1 s p, de la Proposicion (4.6.1) se denominan espacios
propios generalizados de A de orden s asociados al valor propio .
Un elemento no nulo v tal que v Es y v
/ Es1 se dice vector propio generalizado de A de orden
s.
Observaci
on: Con la definicion anterior, los vectores propios usuales son vectores propios generalizados de orden 1.
Proposici
on 4.6.2. vs es un vector propio generalizado de A de orden s (s 2) asociado a si y
s
olo si vs1 = (A I)vs es un vector propio generalizado de A de orden s 1 asociado a .
De la proposicion (4.6.2) tenemos que si tomamos vs (vector propio generalizado de orden s),
entonces vs1 dado por
vs1 = (A I)vs Avs = vs + vs1
es un vector propio generalizado de orden s 1, y as recursivamente tenemos definidos:
Av1 = v1
Av2 = v2 + v1
Av3 = v3 + v2
..
.
Avs = vs + vs1 ,
donde v1 es el vector propio usual.
Una cadena v1 , v2 , . . . , vs as construida, se denomina cadena de Jordan de largo s, cuando es maximal, es decir, s = p o si s < p, entonces el problema
(A I)v = vs
no tiene solucion con v vector propio generalizado de orden s + 1.
La cadena tambien se denomina como cadena asociada al vector propio v1 .
Proposici
on 4.6.3. Los elementos de una cadena de Jordan son linealmente independientes.
Proposici
on 4.6.4. El n
umero ks de cadenas de Jordan de largo s es
ks = 2ls ls1 ls+1 ,
donde ls = dim ker(A I)s .
126
Teorema 4.6.2 (Descomposicion de Jordan). Para toda matriz A Mnn (C), existe una Forma
de Jordan J asociada, y una matriz P invertible tal que:
A = P JP 1 .
Ademas, la matriz J es u
nica, salvo permutaciones de sus bloques.
Observaci
on: Para construir la descomposicion se puede proceder de la siguiente manera:
Se calculan los valores propios de A.
Se toma un valor propio de multiplicidad algebraica m, y se determina la dimension de los
espacios ker(A I)s , aumentando s hasta m.
Se calculan los ks , de donde se obtiene un bloque de Jordan de tama
no ks asociado a cada
cadena, y los respectivos valores propios generalizados asociados determinan la matriz P .
Ejemplo 4.6.3. Sea
A=
1 0
0
1 1
0 1 2 3 3
0 0 1 2 2
.
1 1 1
0
1
1 1 1 1
2
=
=
=
=
dim ker(A I) = 2
dim ker(A I)2 = 4
dim ker(A I)3 = 4
dim ker(A I)s = 4, s > 3.
Como l0 = 0, tenemos que k1 = 0 y k2 = 2, por lo que no hay cadenas de largo 1, pero hay 2 cadenas
de largo 2. Cada cadena de largo 2 determina un bloque de 22, por lo que tenemos completamente
determinada la matriz J
1 1 0 0
0
0 1 0 0
0
0
J = 0 0 1 1
0 0 0 1
0
0 0 0 0 1
127
Para 2 tenemos:
(A I)v1 = 0 v1 = (, , 0, , )
(A I)v2 = v1 v2 = ( + , , , + , ).
Si = 0, = 1 v1 = (0, 0, 0, 1, 1) v2 = (1 + , , 0, , ). Si = = 0 v2 = (1, 0, 0, 0, 0).
Si = 1, = 0 v1 = (1, 1, 0, 0, 0) v2 = (, , 1, 1 + , ). Si = = 0 v2 = (0, 0, 1, 1, 0).
De esta forma
0 1 1 0 0
0 0 1 0 1
.
0
0
0
1
1
P =
1 0 0 1 0
1 0 0 0 0
Para el calculo de eAt en el caso general veamos la siguiente propiedad:
Proposici
on 4.6.5. Sea M Mnn (C) diagonal por bloques de la forma
Mi bloque de M, entonces
M =
M1
0
..
.
0
eM1
0
eM = .
..
0
0
.
.
M2 . . ..
.. ..
.
. 0
0 Mn
0
eM2
..
.
..
.
..
.
0
0
..
.
.
0
eMn
Demostracion. Recordemos que las matrices por bloques se pueden multiplicar como si los bloques
fueran
escalares
2
M1 0 0
M1 0 0
M1 0 0
..
..
..
.
.
.
. 0 M22 . .
. 0 M2 . .
.
0 M2 . .
2
M = .
= .
.
.
.
.
.
.
.
.
..
. . 0 ..
..
. . 0 ..
..
.. 0
..
0 0 Mn
0 0 Mn
0 0 Mn2
128
M1k
0
Luego, por induccion, M k = .
..
0
M
M1k
0
M2k
..
.
..
.
..
.
0
0
..
.
, aplicando esto a la matriz exponencial:
0
Mnk
0
.. X
0
k=0
0 Mnk
0
..
.
.
0
..
.
..
.
X
1
0 M2k
=
..
k! ...
.
k=0
0
M1
e
0
.
0 eM2 . .
= .
..
..
..
.
.
0 0 eMn
valor propio i ).
Claramente i Im y N conmutan, entonces
ei t
M1k
k!
0
..
.
0
k
..
M2
.
k!
..
..
.
.
0
0
..
.
Mnk
k!
0 1
0 0
.. . .
. . ..
.
. .
.
( m es la multiplicidad del
.. . .
..
.
. 1
.
0 0
eJi t = ei Im t+N t = ei Im t eN t .
0
.. , pero falta conocer propiedades sobre N; para esto vea..
.
.
ei t
129
N0 = I
N1 = N
N
= N N =
..
.
m1
0 1
0 0
0 1
0 0
0 0
1
.. . .
. . .. .. . .
. . .. .. . .
..
.
. . .
.
. . .
.
.
.
. .
= . .
.. . .
..
.
.
. . 1 .. . .
..
.
. 1 .. . .
.
0 0
0 0
0
0 0
0
.. . . . . . .
.
= . .
.. . . . . .
0
= 0m .
X
N k tk
k=0
k!
m1
X
k=0
N k tk X tk k
+
N
k!
k! |{z}
k=m
=0
t2 2
tm1
= I + tN + N + +
N m1
2!
(m 1)!
tm1
t2
(m1)!
1 t
2!
.. . .
..
..
..
.
.
.
.
.
.
2
.
..
..
.
t
=
.
.
.. . .
2!
. .
.
.
.. . .
..
..
t
0
1
En conclusion, eN t es una matriz triangular superior de la forma
tk
si j i = k > 0
Nt
k!
[e ]ij =
.
0 si j i < 0
130
0
0
Finalmente,
eJi t
ei t
..
.
..
.
..
.
0
0 0
..
..
..
..
.
.
.
.
..
..
..
..
.
.
.
.
..
..
..
..
.
.
.
.
i t
e
ei t tei t
..
..
.
.
..
..
.
.
..
..
.
.
0
t2 i t
e
2!
..
..
..
..
.
..
.
..
.
1 t
.. . .
.
.
.. . .
.
.
. .
.. . .
0
m1
t
ei t
(m1)!
..
2
.
t i t
e
2!
tei t
ei t
t2
2!
..
..
..
..
.
..
.
..
.
tm1
(m1)!
..
.
t2
2!
t
1
eJ1 t . . . 0
.. P 1 .
eAt = P ... . . .
.
Jn t
0 ... e
Ejemplo 4.6.4. Consideremos el sistema:
X = AX,
con condicion inicial X(0) = X0 , donde la matriz A esta dada en el ejemplo (4.6.3). Luego como ya
habamos calculado su descomposicion canonica de Jordan , se tendra en virtud de la proposicion
anterior que la solucion es:
t
e tet 0 0
0
0 et 0 0
0
1
t
t
0
X(t) = P 0 0 e te
P X0 ,
0 0 0 et
0
t
0 0 0 0 e
Ejemplo 4.6.5 (Equilibrio Marino). Suponga que la poblacion de ballenas b, plancton p y temperatura del mar T estan regidas por el siguiente sistema discreto, donde n designa el a
no y > 0 es
131
un parametro de crecimiento:
bn+1 = bn + pn
pn+1 = pn + Tn
Tn+1 = Tn ,
con condiciones iniciales b0 , p0 , T0 constantes positivas.
Se quiere saber como evoluciona este sistema en el tiempo, dependiendo del parametro . Para esto,
escribamos el sistema anterior se puede escribir como:
bn+1
1 0
bn
b0
pn+1 = 0 1 pn , con condicion inicial p0 .
Tn+1
0 0
Tn
T0
n 0,
Probemos por induccion que efectivamente la solucion del sistema esta dada por:
n
Xn = A X0 +
n
X
Anj Bj1 ,
j=1
n1
Para n = 1, resulta
X1 = AX0 + B0 ,
que es solucion del sistema. Suponemos ahora que Xn = An X0 +
propuesto, entonces hay que probar que
n+1
Xn+1 = A
X0 +
n+1
X
j=1
132
Pn
nj
Bj1
j=1 A
An+1j Bj1
satisface el sistema
Xn+1 = A
X0 +
= An+1 X0 +
n+1
X
j=1
n
X
An+1j Bj1
An+1j Bj1 + An+1(n+1) B(n+1)1
j=1
n+1
= A
X0 + A
n
X
j=1
= A An X0 +
n
X
Anj Bj1
j=1
= AXn + Bn .
1 0
n1 0
Xn = P ... . . . ... P 1 X0 .
0
nd
De esta forma si queremos que nuestro problema tenga solucion, es decir que exista lm Xn , debemos
n
Luego:
n
A = (Id + N) =
n
X
n
k=0
k k
I N
nk
n
X
n k nk
N
,
=
k
k=0
n
X
n k nk
N
=
k
k=n2
n n
n
n
n1
n2 2
N+
N +
=
n
n1
n2
n(n 1) n2 2
=
N + nn1 N + n .
2
N + n N +
A =
n
2
0 1
0 0 1
n(n 1) n2
n1
0 0 0
0 0
+ n
=
2
0 0 0
0 0
n nn1 n(n1)
n2
2
= 0
n
nn1 .
0
0
n
0
1 + n
0
De esta forma vemos que se repite la solucion que tenamos para el caso diagonalizable: independiente
de la condiciones iniciales, nuestro modelo indica que cuando n , si || > 1, el sistema
diverge, es decir las poblaciones de ballenas y plancton se expanden indefinidamente, al igual que
la temperatura, mientras que si || < 1, las poblaciones se extinguen y la temperatura del mar
desciende a 0. En el caso crtico || = 1 se tiene que las poblaciones animales divergen, pero con
temperatura constante del mar T0 .
134
Captulo 5
Ecuaciones Diferenciales No Lineales
5.1.
Introducci
on
Muchos fenomenos de la naturaleza se comportan de forma un poco mas complicada que un sistema
de ecuaciones lineales. Por ejemplo, se suele utilizar la aproximacion de la Ley de Hooke F = kx
para modelar resortes, aunque en realidad esta fuerza suele tener otras componentes de orden no
lineal, pero que habitualmente son despreciables. En general estas ecuaciones presentan grandes
desafos, pues es bastante complicado encontrarles soluciones explcitas; sin embargo, muchas veces
se puede hacer un estudio cualitativo de las soluciones, que nos indique sobre el comportamiento
general del sistema no lineal.
Definici
on 5.1.1. Dado I un intervalo abierto no vaco, y una funcion F : I Rn Rn , se define
un sistema de ecuaciones diferenciable de primer orden con condicion inicial X0 Rn en t0 I,
por:
X = F (t, X), t I
X(t0 ) = X0 .
Si la funcion F es no lineal con respecto a la varible X, se dira que es un sistema no lineal (SNL). Si
ademas F no depende explcitamente de la variable t, se dira que es un sistema no lineal autonomo
(SNLA).
Se llama vector de estado a X(t) Rn , que es la solucion del sistema en un punto t I.
Observacion. Dada una funcion h : I R R R R, toda ecuacion de orden superior de la
forma:
y (n) = h(t, y, y , . . . , y (n1))
y(t0 ) = y0 , y (t0 ) = y1 , . . . , y (n1) (t0 ) = yn1 ,
se puede llevar mediante un cambio de variables a la forma (SNL). Asimismo si h no depende
explcitamente de t, se puede llevar a la forma (SNLA).
135
c
g
y sin(x) + f (t).
m
L
La no linealidad se aprecia claramente en el termino no lineal sin():
y =
c
g
y sin(x).
m
L
Ejemplo 5.1.2 (Atractor de Lorenz). El siguiente sistema de ecuaciones diferenciales fue un modelo desarrollado por Lorenz, que en principio se propona tratar de comprender los fenomenos
meteorologicos. El modelo atmosferico que utilizo Lorenz consiste en una atmosfera bidimensional
rectangular, cuyo extremo inferior esta a una temperatura mayor que el superior. De esta manera
el aire caliente subira y el aire fro bajara creandose corrientes que haran un intercambio de calor
por conveccion. Las ecuaciones que describen este proceso son:
x (t) = s(y x)
y (t) = rx y xz
z (t) = xy bz,
donde las variables son: x que representa el flujo convectivo; y, la distribucion horizontal de temperaturas; y z la distribucion vertical de temperaturas. Ademas, tenemos tres parametros que intervienen
en las ecuaciones: s es el cuociente entre la viscosidad y la conductividad termica; r, la diferencia
de temperaturas entre la capas inferior y superior; y b el cuociente entre la altura y el ancho del
rectangulo. Este es un modelo muy importante que tiene muchas cosas interesantes, pero por ahora
solo notamos que es un sistema autonomo, pero no lineal, pues aparece el termino xy.
136
5.2.
Existencia y Unicidad
Al igual que todo tipo de ecuaciones diferenciales, siempre es interesante saber cuando existen las
soluciones de los problemas analizados. En el caso de ecuaciones no lineales tenemos el siguiente
teorema:
Teorema 5.2.1 (Existencia y unicidad local en tiempo). Dado un (SNL), si existe > 0 tal que
I0 = {t R | |t t0 | } I, y existe r > 0 tal que F (, X) es continua (en t) |t t0 | ,
|X X0 | r. Si ademas existe una constante real L > 0 (constante de Lipshitz) tal que:
|F (t, X) F (t, Y )| L |X Y | , |X X0 | r, |Y X0 | r, |t t0 | .
Entonces existen M > 0 y = mn{, r/M}, tal que existe una u
nica solucion del (SNL) X() :
n
t0 + [.
|tt0 |
|XX0 |r
por lo que nuestro problema se vuelve a plantear como encontrar un punto fijo de la aplicacion:
t0 + ],
Rn ) C([t0 ,
t0 + ],
Rn )
: C([t0 ,
X (X),
Rt
t0 + ].
Consideremos el espacio:
t0 + ],
Rn ) | sup |X(t) X0 | r}.
B = {X C([t0 ,
|tt0 |
137
entonces
sup |(X)(t) X0 | r,
|tt0 |
es decir, (X) B.
Ahora veamos que la aplicacion restricta a este espacio : B B es contractante, considerando
el espacio B con la norma || ||L . En efecto, sean X1 , X2 B
Z t
2L|tt0 |
2L|tt0 |
|F
(s,
X
(s))
F
(s,
X
(s))|ds
e
|(X1 )(t) (X2 )(t)| e
1
2
tZ0 t
e2L|tt0 | L |X1 (s) X2 (s)|ds
Zt0t
2L|st0 | 2L|st0 |
2L|tt0 |
e
ds
= e
L |X1 (t) X2 (t)|e
t0
Z t
2L|st
|
2L|tt0 |
0
e
L||X1 X2 ||L e
= L||X1 X2 ||Le2L|tt0 |
1
||X1 X2 ||L.
t0
2L|tt0 |
2L
Como el espacio B con la norma || ||L es un Banach, concluimos por el teorema de punto fijo
de Banach, que existe un u
nico punto fijo de la aplicacion estudiada, o equivalente existe una
t0 + ],
Rn ), que resulta ser continuamente
u
nica solucion del problema (SNL) X() C([t0 ,
diferenciable sobre el intervalo abierto.
Muchas veces se tiene una condicion mas fuerte que la de Lipshitz, se tiene diferenciabilidad, por
lo que resulta de utilidad el siguiente corolario.
Corolario 5.2.1. Dado un (SNL), si existe > 0 tal que I0 = {t R | |t t0 | } I, y
existe r > 0 tal que F (, X) es continua (en t) |t t0 | , |X X0 | r. Si ademas para cada
|t t0 | , la funcion es continuamente diferenciable con respecto a la variable X, |X X0 | r.
Entonces existen M > 0 y = mn{, r/M}, tal que existe una u
nica solucion del (SNL) X() :
t0 + ]
Rn , que resulta ser continuamente derivable en ]t0 ,
t0 + [.
[t0 ,
Demostracion. Basta notar que por teorema del valor medio (o de los incrementos finitos), se tiene
que si definimos para cada t:
Ft : Rn Rn
x F (t, x),
138
entonces:
|Ft (Z) Ft (Y )|
sup
|XX0 |r
||JFt (X)|||Z Y |.
Pero
sup
|XX0 |r
||JFt (X)|||Z Y |
sup
|XX0 |r|tt0 |
||JFt (X)|||Z Y |,
y como ademas JFt () es una funcon continua de X, y como F era continua en t, entonces JFt (X)
es continua en t y X sobre un compacto, por lo tanto se alcanza el maximo, que denotamos por L.
Por lo tanto:
|F (t, Z) F (t, Y )| L|Z Y |, |t t0 | , |Z X0 | r, |Y X0 | r.
Concluimos que F satisface la condicion de Lipshtiz, y por tanto se puede aplicar el teorema
anterior.
Observacion. El teorema anterior asegura solamente la existencia de una solucion local, en una
vecindad centrada de t0 , que no depende del valor de la constante de Lipshitz.
Ejemplo 5.2.1. Veamos la siguiente ecuacion no lineal definida en todo R:
y = y 2
y(t0 ) = y0
Claramente cumple todas las hipotesis del teorema en todo subconjunto de R R, pues si tomamos
la bola B(y0 , r) R, para alg
un r > 0:
| y12 + y22 | = |y2 y1 ||y2 + y1 | L|y2 y1 |,
con L = 2|y0 | + 2r, y
|yy0 |r
r
r
y(t) =
1
t t0 +
1
y0
donde vemos que el intervalo maximal (i.e. el mayor de los intervalos con el orden de la inclusion de
conjuntos) donde es posible definir la solucion es (t0 y10 , ), si y0 > 0, y (, t0 y10 ), si y0 < 0.
Pese a esto, tenemos que aunque el problema esta bien definido en todo R R, es imposible tener
una u
nica solucion definida en todo R.
139
5.3.
Sistemas Cuasilineales
Definici
on 5.3.1. Se llama punto crtico (o punto de equilibrio) de un sistema al punto (
x, y)
cuando cumple que:
F (
x, y) = 0
G(
x, y) = 0.
El conjunto de puntos crticos del sistema se denota por
C = {(
x, y) R2 | F (
x, y) = G(
x, y) = 0}.
Un punto crtico (
x, y) se dice aislado si existe > 0 tal no existe otro punto crtico en la bola
{(x, y) R2 | (x x)2 + (y y)2 < 2 },
de lo contrario se dice que los puntos crticos son densos en torno a (
x, y).
Si hacemos una expansion de Taylor en el (SNLA) en torno a un punto crtico (
x, y), resulta:
F
(
x, y)(x x) +
x
G
G(x, y) = G(
x, y) +
(
x, y)(x x) +
x
F (x, y) = F (
x, y) +
F
(
x, y)(y y) + fF (r)
y
G
(
x, y)(y y) + hG (r),
y
donde r = (x, y) (
x, y), y
hF (r)
=0
r0 krk
hG (r)
lm
= 0.
r0 krk
Como ademas (
x, y) es un punto crtico, entonces F (
x, y) = G(
x, y) = 0. Tambien hay que notar
que las derivadas parciales estan evaluadas en el punto crtico, por lo que representan contantes,
que denotaremos por:
lm
a=
F
G
G
F
(
x, y), b =
(
x, y), c =
(
x, y), d =
(
x, y).
x
y
x
y
140
F
(
x, y)
x
G
(
x, y)
x
F
(
x, y)
y
G
(
x, y)
y
= J(
x, y),
R2
F (x, y)
(x, y)
G(x, y)
evaluada en el punto crtico asociado (
x, y). La linealizacion del (SNLA) corresponde al sistema
linealizado (SL):
x = a(x x) + b(y y)
(SL)
y = c(x x) + d(y y)
Si repetimos este procedimiento para cada punto crtico aislado (
xi , yi ), i = 1, . . . , m, tenemos:
x = ai (x xi ) + bi (y yi )
(SL)i
,
y = ci (x xi ) + di(y yi )
donde:
ai bi
ci d i
F
(
xi , yi)
x
G
(
xi , yi)
x
F
(
xi , yi)
y
G
(
xi , yi)
y
= J(
xi , yi ).
Definici
on 5.3.2. Un sistema (SNLA) se dira cuasilineal en torno a (
x, y) si |J(
x, y)| =
6 0.
Propiedades 5.3.1. Dado un (SNLA), y (
x, y) un punto crtico de este sistema:
(i) Si |J(
x, y)| =
6 0, entonces (
x, y) es el u
nico punto crtico del (SL), donde resulta ser aislado.
(ii) Si |J(
x, y)| = 0, entonces los puntos crticos del (SL) son densos. Mas a
un, su lugar geometrico
es una recta (que contiene a (
x, y)) si alg
un coeficiente del Jacobiano es distinto de cero, y es
todo el plano en caso de que el Jacobiano tenga todo sus terminos nulos.
(iii) Si |J(
x, y)| =
6 0, entonces (
x, y) es un punto crtico aislado del (SNLA).
141
Demostracion.
(i) Para encontrar los puntos crticos del (SL) basta resolver:
a(x x) + b(y y) = 0
c(x x) + d(y y) = 0,
(5.1)
(5.2)
de donde:
a b
c d
x
y
a b
c d
x
y
143
y
(0,14)
(12,6)
(20,0)
x
(0,0)
60 0
0 42
que es invertible: ad bc = 60 42 6= 0, y
(SL)1
(ii) J(20, 0) =
60 80
0
2
que es invertible: ad bc = 60 2 6= 0, y
(SL)2
4
0
28 42
que es invertible: ad bc = 42 4 6= 0, y
(SL)3
(iv) J(12, 6) =
36 48
12 18
x = 4x
y = 28x 42(y 14)
(SL)4
Finalmente concluimos que el modelo de conejos y ovejas es cuasilineal en torno a todos sus puntos
crticos.
144
Ejemplo 5.3.2. Habamos visto que las ecuaciones de un pendulo sin forzamiento estan dadas por
:
x = y
y =
c
g
y sin(x),
m
L
g
c
y sin(
x),
m
L
entonces
y = 0, sin(
x) = 0 x = k, k Z.
As:
C = {(k, 0) | k Z}.
0
1
Lg cos(x) mc
J(
x, y) =
0
1
Lg (1)k mc
que es invertible.
En el caso del pendulo linealizado en torno a cero:
x = y
y =
c
g
y x,
m
L
su u
nico punto crtico es (0, 0), es decir
C = {(0, 0)}.
145
(0,0)
4
y 2
4
2
4
Figura 5.4: Interseccion de Conicas
Para ver que en (0, 0) la dos curvas efectivamente son tangentes como lo sugiere el grafico, calculemos
la derivada en dicho punto
3 + 2x
3
3 + 2x + 2y + 2yy = 0 y =
y (0) =
2(1 + y)
2
x3
3
6 2x + 4y + 2yy = 0 y =
y (0) = .
2+y
2
La matriz jacobiana esta dada por:
3 2
3 + 2x 2 + 2y
det(J(0, 0)) = 0,
J(0, 0) =
J(x, y) =
6 4
6 2x 4 + 2y
por lo que no es cuasilineal, y el (SL) en torno a (0, 0) es:
x = 3x + 2y
y = 6x + 4y,
cuyos puntos crticos estaran dados por:
3
x + 2
y=0
.
6
x + 4
y=0
5.4.
Diagramas de Fase
Para el estudio de las ecuaciones diferenciales de dos variables x, y resulta de mucho interes lo que
ocurre en el plano XY , llamado plano de fase.
147
Definici
on 5.4.1. Dado el sistema (lineal o no lineal) autonomo, t I:
x (t) = F (x, y)
y (t) = G(x, y),
dada una condicion inicial (x(t0 ), y(t0)) = (x0 , y0 ), t0 I, se llama trayectoria que parte de (x0 , y0 ),
a la funcion T :
T : I0 R2
t (x(t), y(t)) ,
donde I0 es un intervalo de existencia que contiene al que entrega el teorema de existencia y unicidad.
Se llama recorrido R de esta trayectoria al conjunto imagen o recorrido de la funcion T , es decir:
R = (x(t), y(t)) R2 | t I0 .
Se denomina diagrama de fases de este sistema autonomo a una coleccion de recorridos de las
trayectorias para un n
umero representativo de condiciones iniciales.
Se define como nullclina de x al conjunto {(x, y) | F (x, y) = 0}, y nullclina de y al conjunto
{(x, y) | G(x, y) = 0}.
Definici
on 5.4.2. El diagrama de flujo se construye al graficar en una coleccion de puntos (x, y)
representativos el vector (F (x, y), G(x, y))
Con respecto al diagrama de flujo, notemos que por regla de la cadena:
dy
dy dx
=
,
dt
dx dt
entonces:
y
G(x, y)
dy
= =
.
dx
x
F (x, y)
Un punto crtico (
x, y) que no es estable se dice inestable.
148
La estabilidad de un punto crtico quiere decir que la evolucion del sistema se mantiene arbitrariamente cerca del punto crtico, si las condiciones iniciales se toman suficientemente cerca del punto.
Observacion. Un punto astoticamente estable es estable, pero un punto estable no es necesariamente
asintoticamente estable.
Ejemplo 5.4.1. Consideremos el sistema:
x = x
y = ky,
(5.3)
(5.4)
donde k es una constante no nula, con condiciones iniciales: x(0) = x0 , y(0) = y0 , que tiene como
solucion:
x(t) = x0 et
y(t) = y0 ekt ,
(5.5)
(5.6)
xo
x
t
yo
y
t
Figura 5.5: Soluciones (5.5) y (5.6) para k > 0
As tenemos una solucion (x(t), y(t)) que depende de (x0 , y0 ). Consideramos x0 6= 0 , y0 6= 0, pues
en el caso que alguna de las condiciones iniciales es nula, esto conduce a la solucion ideticamente
nula en esa variable, por Teo. de Existencia y Unicidad. Para distintos valores de k, esta solucion
tiene distintas formas. Si tomamos k = 1, resultan las soluciones:
x(t) = x0 et
y(t) = yo et
149
x(t)
y0
x0
y(t) = x(t),
=
y(t)
y0
x0
y0
que representan rectas de pendiente x0 , cuyo grafico en el plano XY queda ilustrado en la figura
5.6, donde las flechas indican el sentido positivo del tiempo, es decir, tenemos:
x0
.
t
y0
t=0
yo
y
t=1
t=2
xo
Figura 5.6: Solucion del sistema para una condicion inicial en el plano de fases XY
La idea de un diagrama de fases es dar una representacion de trayectorias dirigidas en el sentido
positivo del tiempo en el plano de fases para distintas condiciones iniciales, que se puede obtener al
eliminar el tiempo de las ecuaciones.
Entonces tratemos ahora de considerar un rango mas amplio de condiciones iniciales, con valores
positivos y negativos de x0 y de y0 . Finalmente resulta el diagrama de fase de la figura 5.7, donde
se aprecia claramente que el punto (0, 0) tiene la particularidad de que sin importar la condicion
inicial que se tome, siempre se termina en en origen. Esta caracterstica hace que este puntos crico
sea asintoticamente estable.
Ahora, si cambiamos el parametro a k = 2, resulta:
x(t) = x0 et
y(t) = yo e2t ,
dividiendo las ecuaciones:
x(t)
x0
= et ,
y(t)
y0
150
yo
xo
x0
,
x(t)
reemplazando:
y0 2
x (t).
x20
Ademas se mantiene el comportamiento para tiempos positivos:
x0
.
t
y0
y(t) =
El grafico en el plano XY queda se ilustra en la figura 5.8, donde se ve claramente que el origen
todava es asintoticamente estable.
y
x(t) = x0 et
y(t) = yo et .
151
x0 y0
,
x
+ si y0 > 0
si y0 < 0
En este caso el origen deja de ser asintticamente estable, puesto que siempre las trayectorias divergen
en su componente en el eje Y , por lo que ahora es un punto inestable.
Hay que notar que permanentemente estamos usando el resultado de Existencia y Unicidad en los
diagramas de fase: dado un punto (x0 , y0 ), entonces la solucion del sistema:
x (t) = F (x, y)
y (t) = G(x, y)
es u
nica, bajo las hipotesis del Teo. de Existencia y Unicidad para F y G. De esta forma existe una
u
nica trayectoria (x(t), y(t)) para cada (x0 , y0 ), esto es, existe una u
nica funcion para la aplicacion:
t (x(t), y(t)).
152
(5.7)
en el que si suponemos dos condiciones iniciales distintas (x0 , y0 ) y (x1 , y1), que para simplificar
tomaremos 0 < x0 < x1 y 0 < y0 < y1 , resultando las soluciones:
x(t) = x0 et
(5.8)
y(t) = y0 et
x(t) = x1 et
y(t) = y1 et
(5.9)
Si observamos el plano de fase de (5.7) para estas dos condiciones, aparentemente se tiene la misma
solucion (ver figura 5.10), pero al graficar separadamente x(t) e y(t) en las figura 5.11, para ambas
condiciones iniciales se aprecia la diferencia de las soluciones.
(xo,yo)
(x1,y1)
x
Figura 5.10: Diagramas de fase de (5.7) para dos condiciones iniciales
La explicacion es el Teo. de Existencia y Unicidad que dice que las trayectorias son u
nicas, sin
embargo, en el diagrama de fase lo que se grafica es el recorrido de las trayectorias y lo que sucedio en
el caso anterior es que dos trayectoras distintas tienen igual recorrido.
Si queremos ver la unicidad de las trayetoras en diagrama de fase, es decir la unicidad de la
aplicacion que a cada t le asocia un punto (x(t), y(t)), tomemos por ejemplo t = 0 y t = 1.
En la figura 5.12 se aprecia claramente que para dos valores distintos de t, le corresponden distintos
puntos en el diagrama de fases.
153
yo
xo
y y1
x x1
t
Figura 5.11: Soluciones de (5.7) para dos condiciones iniciales
t=0
(xo,yo)
t=0
(x1,y1)
t=1
(xo/e,yo/e)
t=1
(x1/e,y1/e)
x
Y que es el punto (0, 0)? Si tomamos la condicion inicial (x0 , y0 ) = (0, 0), por Teo. de Existencia
y Unicidad, deducimos la solucion es la funcion nula: x(t) 0, y(t) 0, t, es decir, tenemos una
trayectoria constante, que a cada t se le asocia el origen:
t (x(t), y(t)) = (0, 0),
por tanto su recorrido es el singleton {(0, 0)}. En este caso se da la particularidad de que al tomar
esta condicon inicial el sistema no cambia al cambiar t, es decir, es un punto de equilibrio del
sistema ( o punto crtico).
Para completar el analisis general de recorridos y trayectorias, nos preguntamos si se puede dar el
caso de que se intersecten dos recorridos de dos trayectorias distintas, como por ejemplo en la figura
5.13.
Lo anterior quiere decir que el punto de interseccion (x0 , y0) se puede tomar como una condicion
inicial de un mismo sistema, y resultan dos trayectorias distintas, lo que contradice el teo. de
Existencia y Unicidad local. Por tanto, tenemos que en general, en el diagrama de fases a puntos
en recorridos distintos de trayectorias diferentes corresponden recorridos que no se intersectan en
tiempo finito. Lo que s se puede dar para dos trayectorias distintas, es que sus recorridos se
154
(xo,yo)
(5.10)
(5.11)
Para despejar de estas ecuaciones el tiempo, basta elevar al cuadrado y sumar, y as se tiene que
tanto (5.10) como (5.11) cumplen que x2 + y 2 = 1 es decir su recorrido es el mismo conjunto de
puntos, pero estan orientados en sentidos opuestos, como se ilustra en la figura 5.14.
Propiedades 5.4.1.
ella.
(ii) En un diagrama de fases los recorridos no pueden intersectarse en tiempo finito, o de hacerlo
se confunden en un u
nico recorrido (sin orientacion).
Definici
on 5.4.4. Se dice que una trayectoria t x(t), y(t) converge (o tiende) al punto crtico
(
x, y) cuando t si:
lm x(t) = x
lm y(t) = y.
An
alogamente se dice que la trayectoria converge al punto crtico (
x, y) cuando t si:
lm x(t) = x
lm y(t) = y.
Pero puede tenerse casos de trayectorias convergiendo cuando t de distintas formas, como se
muestra en la figura 5.15.
y
yo
y
x
xo
Definici
on 5.4.6. Un punto crtco aislado (
x, y) se llama nodo si todas las trayectorias vecinas, o
bien entran al punto (
x, y), o bien salen de el.
Por ejemplo, para el sistema:
x = x
y = y,
ya sabemos que las trayectorias convergen a (0, 0), y ademas, cualquier trayectoria vecina que tenga
una condicion inicial (x0 , y0 ), tendremos que:
y0 et 0
y0
=
t x0 et 0
x0
lm
Un punto crtico es llamado centro si todas las trayectorias en una vecindad del punto son cerradas
y existen trayectorias arbitrariamente cerca del punto.
Ejemplo 5.4.2. Consideremos el sistema:
x = x + y
y = x + y,
157
(5.12)
con condiciones iniciales (x(0), y(0)) = (x0 , y0 ) dadas, que tiene claramente el u
nico punto crtico
(0, 0). Este es un sistema lineal de matriz
A=
,
cuyos valores propios son = i, y los vectores propios asociados son:
1
(A ( + i)I)v1 = 0 v1 =
i
i
(A ( i)I)v2 = 0 v2 =
.
1
Luego A es diagonalizable, de la forma A = P DP 1, donde:
1
1 i
1 i
1
.
P =
P =
i 1
2 i 1
As,
At
Dt
= Pe P
it
=
(Observar que
1 i
i 1
it
it
et et
0
t t
0
e e
!
it
et e +e
et e e
2
2
it
it
t eit +eit
e
et e e
2
2
=e
cos(t) sin(t)
sin(t) cos(t)
158
1
2
1 i
i 1
cos(t) sin(t)
sin(t) cos(t)
Figura 5.17: Diagrama de fase del sistema (5.12). A la izquierda < 0, > 0, y a la derecha > 0,
< 0.
De esta forma, vemos que la solucion esta formada por una ponderacion del vector (x0 , y0 ) por et ,
seguida de una rotacion en un angulo t. Luego, para bosquejar los diagramas de fase del sistema,
solo es necesario considerar los signos de y , pues nos diran si las trayectoras se alejan o se
acercan del origen, cuando > 0 o < 0, respectivamente; y el sentido de las trayectoras, siendo
antihorario u horario, si < 0 o > 0, respectivamente (ver Figuras 5.17, 5.18, 5.19).
y
Figura 5.18: Diagrama de fase del sistema (5.12). A la izquierda < 0, < 0, y a la derecha > 0,
> 0.
159
Figura 5.19: Diagrama de fase del sistema (5.12) para = 0. A la izquierda > 0, y a la derecha
< 0.
Finalmente de las Figuras 5.17, 5.18, 5.19, concluimos las caractersticas del punto crtico (0, 0): si
< 0 es un punto espiral asintoticamente estable; si > 0 es un punto espiral inestable; si = 0
es un centro estable.
5.4.1.
Sistemas Lineales
Nos interesa estudiar ahora con profundidad los sistemas linealizados, puesto que Henri Poincare demostro que bajo las hipotesis adecuadas, si se logra clasificar cualitativamente un punto crtico, por
ejemplo en terminos de nodo, espiral, etc., entonces estas mismas caractersticas se mantendran
en el sistema original no lineal. Y por otra parte, Alexander Liapunov demostro que bajo ciertas
hipotesis, se conservaba la estabilidad asintotica de los puntos crticos al linealizar. Por esta razn,
ahora nos concentraremos en los sistemas lineales y pospondremos un momento el enunciado exacto
de estos teoremas.
Sin perdida de generalidad, podemos suponer como punto crtico (
x, y) = (0, 0) (si este no fuera el
caso, basta efectuar una traslacion), y entonces consideramos el sistema lineal:
x = ax + by
y = cx + dy,
(5.13)
con condiciones iniciales x(t0 ) = x0 , y(t0 ) = y0 , y con ad bc 6= 0, para que de esta forma el punto
(0, 0) sea el u
nico
puntocrtico del sistema ( y sea aislado).
a b
Tomamos A =
con valores propios 1 , 2 , esto es, las soluciones de:
c d
a
b
= 0 2 (a + d) + (ad bc) = 0,
det(A I) = 0
c
d
| {z }
| {z }
traza(A)
160
det(A)
de donde
det(A) = ad bc = 1 2 .
De esta forma, el problema se desacopla en estas nuevas coordenadas xy, introducidas por la
direccion de los vectores propios, resultando simplemente:
x = e1 t x0
y = e2 t y0 .
161
(5.14)
(5.15)
y0
/1
x
0 2
es una constante.
|1 | < |2 |
|2 | < |1 |
2
1
2
1
Vimos que este sistema era casi lineal entorno a estos cuatro puntos crticos, por lo que le
podemos analizar los sistemas linealizados, y por las propiedades de Poincare y Liapunov,
sabremos que se mantiene su naturaleza para el (SNLA).
El Jacobiano era:
F F
(
x
,
y
)
60
6x
4y
4x
x
y
J(
x, y) =
.
=
G
G
2y
42 6y 2x
(
x, y)
x
y
Luego en cada punto crtico tenemos:
60 0
a) J(0, 0) =
que tiene los valores propios: 1 = 60 , 2 = 42, por lo que el
0 42
punto crtico (0, 0) es un nodo inestable.
Los vectores propios asociados son
0
1
,
v2 =
v1 =
1
0
respectivamente, por lo que los recorridos de las trayectorias son tangentes a la direccion
v2 .
60 80
que tiene los valores propios: 1 = 60 , 2 = 2, por lo que
b) J(20, 0) =
0
2
el punto crtico (20, 0) es un punto silla inestable.
Los vectores propios asociados son
1
80
v1 =
v2 =
,
0
62
respectivamente, por lo que el eje de las recorridos de las trayectorias convergentes es la
direccion v1 .
4
0
c) J(0, 14) =
que tiene los valores propios: 1 = 4 , 2 = 42, por lo que
28 42
el punto crtico (0, 14) es un punto silla inestable.
Los vectores propios asociados son
0
46
,
v2 =
v1 =
1
28
respectivamente, por lo que el eje de los recorridos de las trayectorias convergentes es la
direccion v2 .
164
36 48
d ) J(12, 6) =
que tiene los valores propios: 1 = 27 3 73 52,6 ,
12 18
16
14
12
10
y 8
6
4
2
0
10
15
20
x
Figura 5.23: Diagramas de fase del modelo de conejos y ovejas
En conclusion tenemos que en el punto (0, 0) donde ambas especies desaparecen es inestable,
al igual que cuando una sola especie sobrevive en los puntos (20, 0) y (0, 14). El punto (12, 6)
es un punto de equilibrio asintoticamente estable, por lo que si tomamos cualquier condicion
inicial que no sean los otros puntos crticos, tendremos que en un tiempo suficientemente
extenso se dara la coexistencia de conejos y ovejas en las vecindades del punto (12, 6). El
diagrama de fase queda esbozado en la figura 5.23.
(iii) 1 , 2 complejos conjugados, con parte real no nula, esto es:
1 = + i
165
1 = i,
con 6= 0 y 6= 0.
Esto es equivalente (con un cambio de base) al sistema:
x =
x + y
y = x +
y,
+ i
0
, tienen igual polinimio caracy
notando que las matrices
0
i
terstico. Sin embargo, ya habamos analizado este caso en el ejemplo (5.4.2), y conclumos
que si 6= 0, siempre el punto crtico corresponda a un punto espiral, siendo un punto espiral
asintoticamente estable cuando < 0, y espiral inestable si > 0.
Ejemplo 5.4.4. Pendulo no lineal Ahora que tenemos mas herramientas, seguiremos con el
ejemplo del pendulo no lineal.
El sistema:
x = y
y =
c
g
y sin(x)
m
L
+ .
2
m L
2m
4m
L
Puesto que todas las contantes fsicas del pendulo son positivas, estamos en el caso de
valores propios reales de distintos signo, por lo que los puntos crticos resultan ser puntos
sillas inestables.
k par:
r
c2
c
g
c
g
2 +
+ =0=
.
2
m L
2m
4m
L
Ahora es necesario volver a analizar por casos el signo del radicando:
2
g
c
a) Sobre amortiguado: El caso 4m
2 > L nos entrega dos valores propios reales distintos,
ambos negativos, por lo que los puntos crticos (k, 0) resultan nodos asintoticamente
estables.
166
g
c
b) Sub amortiguado: El caso 4m
2 < L nos entrega dos valores propios complejos conjugados, por lo que los puntos crticos (k, 0) resultan puntos espirales, y como
c
< 0, tenemos que ademas son asintoticamente estables.
= 2m
Este caso corresponde al mas com
un, que ocurre cuando el coeficiente de roce
g
c2
es peque
no (notar que 4m
<
4
y
3 2
00
2
2
x
4
Figura 5.24: Diagramas de fase del pendulo subamortuguado.
2
g
c
c) Crticamente amortiguado: El caso 4m
olo valor propio real
2 = L nos entrega un s
negativo. Este caso a
un no lo hemos analizado, por lo que lo pospondremos momentaneamente.
(II) Casos Frontera
(i) 1 , 2 reales, 1 = 2 .
Tenemos el sistema
x = ax + by
y = cx + dy,
a b
con la matriz A =
no es necesariamente diagonalizable (pues tiene el valor
c d
propio repetido), pero en este caso siempre se puede llevar a una descomposicion A =
167
P JP 1 , con J una Forma Canonica de Jordan, que puede tener uno o dos bloques. En
el caso de tener dos bloques es el caso trivial en que resulta la matriz:
0
,
J=
0
t
e
0
Jt
.
y de aqu e =
0 et
Luego, la ecuacion en las nuevas coordenadas dadas por los vectores propios generalizados
v1 , v2 es:
t
x0
x = et x0
x
e
0
=
.
t
y0
y = et y0
y
0 e
El diagrama de fase de este caso ya es bien conocido del comienzo del captulo (ver Figura
5.7 para caso < 0). Es claro que el punto crtico sera un nodo asintoticamente estable
si el valor propio es negativo, y un nodo inestable si es positivo.
En el caso que resulte un solo bloque de Jordan, tenemos:
1
J=
,
0
y entonces
Jt
et tet
0 et .
De esta forma el sistema en las nuevas coordenadas dadas por los vectores propios generalizados v1 , v2 , es:
t
x = et x0 + tet y0
x0
e
tet
x
.
=
t
y = et y0
y0
0 e
y
De aqu se tiene que si < 0 resulta un nodo asintoticamente estable, y si > 0, es un
nodo inestable.
De la segunda ecuacion del sistema anterior se puede despejar
1
y
t = ln
,
y0
y0
x
De esta forma, resulta claro que d
cuando t , de modo que todas las trayecd
y
toras son tangentes a una recta paralela al eje x.
168
a b
c d
con races
p
tr(A)2 4 det(A)
=
.
2
Seg
un vimos, lo primero que habra que distinguir son las races reales de las complejas, es decir,
estudiar el discriminante
tr(A)2 4 det(A).
tr(A)
170
5.5.
En ramos fsicos se suele utilizar mucho la energa de un sistema para determinar los puntos de
equilibrio de un sistema. Basicamente las funciones de Liapunov generalizan este principio en sistemas conservativos: un punto de equilibrio es estable si es un mnimo local de la energa potecial
efectiva.
Veamos nuevamente el ejemplo del pendulo, pero primero supongamos c = 0 ( sin disipacion de
roce),
x = y
y =
g
sin(x)
L
Si derivamos esta funcion con respecto al tiempo, puesto que x = x(t), y = y(t) usando la regla de
la cadena, tenemos:
dV
V dx V dy
=
+
= mgl sin(x)x + mL2 y
dt
x dt
y dt
Pero reemplazando x , y de las ecuaciones del sistema no lineal, tenemos que
dV
= 0, t V (t) = V0 , t
dt
Lo que indica que la energa se mantiene constante, y los puntos de mnimo de V son efectivamente
los puntos crticos del sistema {(2k, 0) | k Z}. Si ahora consideramos el pendulo con roce:
x = y
y =
c
g
y sin(x)
m
L
Las ecuaciones para la energa son exactamente las mismas, por lo que todava V (x, y) = K +
U = 21 mL2 y 2 + mgL(1 cos(x)), pero si derivamos y luego reemplazamos x , y de este sistema
amortiguado, tenemos:
dV
= cLy 2 0
dt
Encontramos que la energa disminuye con el paso del tiempo, por efecto del roce, y es natural
pensar que entonces debe tener mas posibilidad de que se le acabela energa y encuentre un
punto de equilibrio estable. Es mas, antes ya vimos que la posicion vertical hacia abajo es punto de
equilibrio asintoticamente estable. Esta intucion queda concretizada en el teorema de Liapunov.
Teorema 5.5.1 (Liapunov). Sea (
x, y) un punto crtico aislado de una (SNLA)
V :
R2 R
(x, y) V (x, y)
V
F
x
V
y
G 0, (x, y) D, entonces (
x, y) es estable.
2. Si
V
F
x
V
y
3. Si
V
F
x
V
y
Nota.
(i) Las funciones F y G del enunciado del teorema son las tpicas del (SNLA).
(ii) La funcion del Teorema anterior se conoce como funcion de Liapunov de un sistema.
172
dV
(x(t), y(t)) 0, t 0,
dt
de donde
dV
(x(t), y(t)) V (x0 , y0 ) < m/2, t 0,
dt
por lo tanto, como (x(t), y(t)) es una funcion continua, la curva que describe no intersecta a
B((
x, y), ) para ning
un t. Por lo tanto se tiene la estabilidad de (
x, y).
Para ver (ii) supongamos que (
x, y) no es asintoticamente estable, pero como de lo anterior sabemos que es estable, tomamos > 0 tal que B((
x, y), ) (D (
x, y)). Luego existe > 0 tal que
(x(t), y(t)) B((
x, y), )/B((
x, y), ), t t0 . Por otro lado:
Z t
dV
V (x(t), y(t)) = V (x0 , y0 ) +
(x(s), y(s))ds,
t0 dt
pero por hipotesis
dV
V
V
(x(s), y(s)) =
F (x(s), y(s)) +
G(x(s), y(s)) < 0,
dt
x
y
luego tomamos
max{
dV
(x(s), y(s)) : (x(s), y(s)) B((
x, y), )/B((
x, y), )} = k,
dt
173
cos() 3
x
3
donde esta entre 0 y x. Como para usar el teorema basta encontrar una vecindad del oringen,
consideremos 2 < x < 2 , con lo que 0 < cos() < 1. Reeplazando esto:
V
cos() 3
V
F+
G = (x2 + y 2) +
x (x + 2y)
x
y
3
Para esta expresion todava es difcil establecer si cambia de signo o no, pero notando la simetra
radial, hagamos el cambio a coordenadas polares: x = r cos(), y = r sin()
V
cos() 4
V
F+
G = r 2 +
r cos()4 + 2 cos()3 sin()
x
y
3
y entonces:
1
cos()
<
cos()4 + 2 cos()3 sin() < 1
3
3
Luego, tomando r < 1, se tiene
2 cos()
4
3
r
cos() + 2 cos() sin() < 1
3
de donde se concluye
V
V
cos()
4
3
2
2
<0
cos() + 2 cos() sin()
F+
G = r 1 + r
x
y
3
175
Captulo 6
Series de potencias y funci
on de Bessel
6.1.
6.1.1.
Series de potencias
X
k=0
ak (x x0 )k
()
Definici
on 6.1.1. Una funcion f : R R se dice analtica en x0 si existe > 0 tal que f se puede
representar de la forma (*), para cualquier x ]x0 , x0 + [. Ademas se requiere que la serie sea
absolutamente convergente.
Al supremo de los n
umeros > 0 que cumplen la condicion anterior se le llama radio de convergencia
de la serie.
P
Observaci
on: Una condicion suficiente para que una serie
k=0 bk converja absolutamente es
|bk+1 |
|bk+1 |
lmk |bk | < 1. Si lmk |bk | > 1, la serie diverge. Aplicando esto a bk = ak (xx0 )k , y notando
|b
|a
|a
= |ak+1
|x x0 | se tiene que (*) converge absolutamente en x si lmk |ak+1
|x x0 | < 1, y
que |bk+1
k|
k|
k|
diverge si este lmite es > 1. De aqu, si es el radio de convergencia de la serie, se tiene la formula
|ak+1|
< 1}
k |ak |
176
1
lmk
|ak+1 |
|ak |
|
lmk |a|ak+1
k|
2k
lmk k+1
1
2
Por lo tanto la serie converge absolutamente si |x| < 12 y diverge si |x| > 21 .
P
xk
Ejemplo 6.1.2.
k=0 k! , serie de potencias en torno a x0 = 0.
=
lmk
1
(k+1)!
1
k!
= lm (k + 1) =
k
X d
X
d X
|x x0 | <
ak (x x0 )k =
ak (x x0 )k =
kak (x x0 )k1
dx k=0
dx
k=0
k=1
X
X
ak
k
k
ak (x x0 ) dx + C =
ak (x x0 ) dx =
|x x0 | <
(x x0 )k+1 + C
k+1
k=0
k=0
k=0
Observaci
on:
f (x) =
X
k=0
ak (x x0 )k
f (x0 ) = a0
f (x0 ) = 1 a1
177
f (x0 ) = 2 1 a2
En general,
f (n) (x0 ) = n!an
de donde
an =
f (n) (x0 )
n!
X
f (k) (x0 )
|x x0 | < f (x) =
k!
k=0
(x x0 )k
Esta u
ltima expresion se conoce como serie de Taylor de f en torno a x0 .
Observaci
on: Hemos visto que toda funcion analtica es infinitas veces derivable, sin embargo la
recproca no es cierta, como lo muestra el siguiente ejemplo:
f (x) =
e x2
0
x>0
x0
X
f (k) (0)
k=0
k!
xk = 0
y esto u
ltimo es claramente falso.
A continuacion, algunos ejemplos de desarrollo en serie de Taylor para funciones analticas conocidas.
Ejemplo 6.1.3.
x
e =
X
xk
k=0
Ejemplo 6.1.4.
k!
x0 = 0,
X
(1)k1 2k1
sen(x) =
x
(2k 1)!
k=0
Ejemplo 6.1.5.
cos(x) =
X
(1)k
k=0
(2k)!
x2k
178
x0 = 0,
x0 = 0,
Ejemplo 6.1.6.
ln(x) =
X
(1)k1
k=0
(x 1)k
= 1
x0 = 1,
Ejemplo 6.1.7.
X
1
=
xk = 1 + x + x2 + x3 + . . .
1x
k=0
x0 = 0,
= 1, ak = 1, k N
Ejemplo 6.1.8.
X
X
1
1
2 k
=
=
(x
)
=
(1)k x2k
1 + x2
1 (x2 ) k=0
k=0
Como
1
dx =
1 + x2
x0 = 0,
= 1
Z X
Z
X
X
(1)k 2k+1
2k
k 2k
k
x dx + C =
x
+C
(1) x dx =
(1)
2k + 1
k=0
k=0
k=0
d
1
arctg(x) =
dx
1 + x2
X
(1)k 2k+1
x
arctg(x) =
2k
+
1
k=0
(1)k
= arctg(1) = 4
4
2k + 1
k=0
6.1.2.
El m
etodo de la serie de potencias
k=0 ak (x
x0 )k , alg
un x0 , y el problema
y (x) =
k1
kak x
X
k=2
(k + 1)ak+1 xk
k=0
k=1
y (x) =
X
k=0
(k + 2)(k + 1)ak+2 xk
y y =0
X
k=0
(k + 2)(k + 1)ak+2x
X
k=0
ak x = 0 |{z}
() k=0
Como esta igualdad es funcional, todos los coeficientes deben ser 0, de donde se obtiene la recurrencia:
ak
(k + 2)(k + 1)
ak+2 =
a0
2
a3 =
a0
a2
=
3,4
1234
a0
a6 =
6!
Luego el patron es
a2k =
a1
3,2
a3
a1
=
45
12345
a1
a7 =
7!
a5 =
a0
(2k)!
a2k+1 =
a1
(2k + 1)!
2k
a2k x +
2k+1
a2k+1 x
k=0
k=0
k=0
X
X
x2k
x2k+1
= a0
+ a1
(2k)!
(2k + 1)!
k=0
La primera de estas series corresponde a cosh(x), y la segunda a senh(x). Luego, reconociendo las
series, llegamos a la solucion general esperada. Por supuesto, como a priori no se conoce la serie,
pasos del tipo (**) no estan bien justificados. Tampoco se sabe si la convergencia es absoluta,
luego no se puede asegurar la derivacion bajo el signo sumatoria. Sin embargo, hay que asumir que
todo esto se puede hacer, y a posteriori, cuando se ha encontrado la serie, se calcula el radio de
convergencia (que en este caso es infinito) y se verifica que lo obtenido realmente es solucion.
Ejemplo 6.1.10. 2y + xy + y = 0
P
P
k
x0 = 0. Notemos que xy (x) =
Igual que antes,
suponemos y(x) =
k=0 (k +
k=0 ak x ,
P
k
k+1
1)ak+1 x
= k=1 kak x . Reemplazando en la ecuacion se obtiene:
2
(k + 2)(k + 1)ak+2 x +
k=1
k=0
kak x +
ak xk = 0
k=0
k=1
180
Se obtiene la recurrencia
ak+2 =
ak
2(k + 2)
a0
221
a2
a0
a4 =
=
24
2224
a0
a6 =
222246
a2 =
a1
23
a3
a1
a5 =
=
25
2235
a1
a7 =
222357
a3 =
Luego el patron es
a2k = (1)k
a0
22k+1 k!
a2k+1 = (1)k
a1
2k 3 5 7 . . . (2k + 1)
k x2k
k=0 (1) 22k+1 k!
e y1 (x) =
Es facil reconocer y0 :
x2k+1
k
k=0 (1) 2k 356...(2k+1) .
x2
1 X 1 x2 k
1
1
1 X 1 x2 k
(
) =1+ (
(
) ) = (1 + e 2 )
y0 (x) = 1 +
2 k=1 k! 4
2 k=0 k! 4
2
2
6.1.3.
Justificaci
on del m
etodo
Por ahora, no se ve claro bajo que condiciones el metodo funciona. Se introducira el concepto de
punto ordinario y se establecera un teorema que asegure la efectividad del metodo.
Consideremos la ecuacion
a0 (x)y + a1 (x)y + a2 (x)y = 0 en I =]a, b[ ()
Definici
on 6.1.2. x0 I se dice punto ordinario de (*) si a0 (x0 ) 6= 0 y las funciones P1 (x) =
y P2 (x) =
a2 (x)
a0 (x)
a1 (x)
a0 (x)
son analticas en x0 .
Teorema 6.1.1. Si x0 es un punto ordinario de (*), entonces aquella ecuacion posee dos soluciones
l.i., series de potencias en torno a x0 . Mas a
un, el radio de convergencia de estas series es a lo
menos tan grande como el menor radio de convergencia entre P1 y P2 .
181
x
1
Definici
on 6.1.3. Un punto que no es ordinario se dice singular.
Cuando estamos en presencia de puntos singulares, es difcil decir algo sobre existencia de soluciones.
Sin embargo, en algunos casos algo se puede hacer.
Ejemplo 6.1.14. La ecuacion (x x0 )2 y + a(x x0 )y + by = 0, con a, b R, se conoce como
ecuacion de Euler. x0 es un punto singular. Tratar de obtener una solucion en serie de potencias
en torno a otro punto se hara muy complicado (hacer la prueba). Sin embargo, hay otra manera
se resolverla, mas rapida, que se ilustrara con el caso x0 = 0. Se postula una solucion de la forma
y(x) = xr , y el problema se reduce a encontrar r. Reemplazando en la ecuacion:
x2 r(r 1)xr2 + axrxr1 + bxr = 0, (r 2 + r(a 1) + b)xr = 0
r 2 + r(a 1) + b = 0
Esta u
ltima ecuacion se conoce como ecuacion indicial. Sean r1 , r2 las raices correspondientes. Hay
tres casos:
(1) r1 , r2 reales y distintas. En este caso, xr1 , xr2 son soluciones l.i.
(2) r1 = r2 . En este caso, xr1 es solucion y se puede chequear que xlnx es otra solucion, l.i. con
la primera.
182
(P +1)
2x
Aqu, P (x) = 1x
Q(x) = P1x
2,
2 . Los puntos singulares son 1 y -1. Se tiene (x 1)P (x) =
2x
,
que
es
anal
tica
en
1.
Adem
a
s,
(x
1)2 Q(x) = x1
P (P + 1), que es analtica en 1. Luego 1 es
x+1
x+1
un punto singular regular. Analogamente se verifica que -1 tambien es un punto singular regular.
Aqu, P (x) = x1 , Q(x) = 1 Px2 . 0 es punto singular. Se tiene xP (x) 1, que es analtica en 0.
Ademas, x2 Q(x) = x2 P 2 , que es analtica en 0. Luego 0 es un punto singular regular.
1
Ejemplo 6.1.17. y + y (1x)
2 + xy = 0. 1 es un punto singular. Sin embargo, no es regular porque
1
1
P (x) = (1x)2 y (x 1)P (x) = 1x
, que no es analtica en 1.
6.1.4.
M
etodo de Frobenius
Consideremos la ecuacion
y + P (x)y + Q(x)y = 0 ()
y sea x0 un punto singular regular.
Las funciones b(x) = (x x0 )P (x) y c(x) = (x x0 )2 Q(x) son analticas en x0 , digamos b(x) =
b0 + b1 (x x0 ) + b2 (x x0 )2 + . . . , c(x) = c0 + c1 (x x0 ) + c2 (x x0 )2 + . . .. Con esto, (*) se
escribe
y +
y +
c(x)
b(x)
y +
y=0
x x0
(x x0 )2
b0 + b1 (x x0 ) + b2 (x x0 )2 + . . . c0 + c1 (x x0 ) + c2 (x x0 )2 + . . .
y +
y=0
x x0
(x x0 )2
Cuando x x0 es chico, la u
ltima ecuacion se parece a
y +
b0
c0
y +
y=0
x x0
(x x0 )2
una ecuacion de Euler. Una solucion es y(x) = (x x0 )r , donde r es solucion de la ecuacion indicial
183
r 2 + r(b0 1) + c0 = 0
Entonces la idea para resolver (*) es corregir el error cometido al despreciar las potencias de x x0
mediante una serie de potencias. Esto es el metodo de Frobenius. Se postula
y(x) = (x x0 )
ak (x x0 ) =
(k + r)ak (x x0 )k+r1
k=0
X
k=0
ak (x x0 )k+r
k=0
y (x) =
X
k=0
X
X
X
k
k1
ak xk+1
(k + 1)ak x + (1 x)
(k + 1)kak x
x
0 = x y xy + (1 x)y = x
2
k+1
(k + 1)kak x
k=0
X
k=0
k=0
k=0
k=0
k+1
(k + 1)ak x
k+1
ak x
k=0
|k=0
P
k=1
Luego la recurrencia es
ak =
ak1
k2
184
k+2
ak x
{z
ak1 xk+1
X
k=1
ak =
a0
(k!)2
1
k+1
.
k=0 (k!)2 x
X
X
X
k+r2
k+r1
0 = xy + 4y xy = x
(k + r)(k + r 1)ak x
+4
(k + r)ak x
x
ak xk+r
k=0
k=0
k+r1
(k + r)(k + r + 3)ak x
k=0
k+r+1
ak x
Para r = 0, ak =
par:
ak2
.
k(k+3)
a2 =
k+r1
(k + r)(k + r + 3)ak x
k=0
k=0
de donde a1 = 0 y ak =
k=0
X
k=2
ak2 xk+r1
k=2
ak2
.
(k+r)(k+r+3)
a0
25
a4 =
a2
a0
=
47
2457
a6 =
a4
a0
=
69
245679
a0
a0
= k
(2 4 6 . . . (2k))(5,7,9 . . . (2k + 3))
2 k!(5 7 9 . . . (2k + 3))
P
x2k
Luego obtenemos una solucion, a0 y0 (x) = a0 (1 +
k=1 2k k!(579...(2k+3)) )
a2k =
Para r = 3, ak =
ak2
,
k(k3)
a2 =
k 6= 0
k 6= 3
a0
2
a4 =
a2
a0
=
1,4
1,2,4
a2k =
a6 =
a0
(2k 2)!2k
a4
a0
=
36
12346
k 6= 0
r1
k=2
de donde a1 = 0 y ak =
Para r = 0, ak =
par:
ak2
.
k(k+2)
ak2
.
(k+r)(k+r+2)
a0
24
a0
2446
a4 =
a2k =
ak2
,
k(k2)
k 6= 2, luego a1 = 0
a0
244668
a6 =
a0
2k1
2
(k!)2 (2k
+ 2)
x2k
k=1 22k1 (k!)2 (2k+2) )
a2k+1 = 0 k R
a2
24
a6 =
a2
2446
a2k =
a0 = 0 y a2 queda libre.
a2
2k1
2
(k!)2 (2k
+ 2)
Finalmente
2
a2 y1 (x) = x
X
k=1
2k
a2k x
=x
2k+2
a2k+2 x
= a2 x
X
k=1
k=0
X
x2k
x2k+2
=
a
2
22k1 (k!)2 (2k + 2)
22k1 (k!)2 (2k + 2)
k=1
Notemos que y1 no es l.i. con y0 . Sin embargo, en el ejemplo anterior, el metodo fue exitoso en
encontrar la solucion general. En lo que sigue veremos cuando fuciona y cuando es necesario hacer
alguna modificacion.
x0 punto singular regular, r1 , r2 raices de la ecuacion indicial. Se distinguen los siguientes casos:
186
(a) r1 6= r2 y r1 r2 no es un n
umero entero. Entonces existen dos soluciones l.i. de la forma
y1 (x) = (x x0 )
r1
ak (x x0 )k
bk (x x0 )k
k=0
y2 (x) = (x x0 )
r2
k=0
X
k=0
ak (x x0 )k
y2 (x) = y1 (x)ln(x x0 ) + (x x0 )
r1
X
k=0
bk (x x0 )k
(c) r1 r2 es un n
umero entero y r1 > r2 . Entonces existen dos soluciones l.i. de la forma
y1 (x) = (x x0 )
r1
X
k=0
ak (x x0 )k
r2
X
k=0
bk (x x0 )k
y (x) =
y1 X
+C +
(k 2)bk xk3
x
k=0
y (x) =
Cy1 lnx
Cy1 lnx
y1 X
y
(k 2)(k 3)bk xk4
+ 2C 1 C 2 +
x
x
k=0
Reemplazando
0 = xy + 3y xy = C
(xy1
3y1
{z
0
xy1 ) lnx +
}
187
2Cy1
y1 X
(k 2)(k 3)bk xk3
C +
x
k=0
X
X
X
X
y1
y1
k1
k3
k3
bk x
= 2C(y1 + ) +
bk2 xk3
(k 2)bk x
(k 2)bk x
+3C + 3
x
x
k=0
k=2
k=0
k=0
Pero y1 (x) =
k
k=0 ak x ,
()
ak conocido.
X
X
b1
k1
(k + 1)ak x
() = 2C
(bk (k 2)k bk2 )xk3 + 2
+
x
k=2
|k=0
{z
}
P
k3
k=2 (k1)ak2 x
b1 X
= 2 +
(2C(k 1)ak2 + bk (k 2)k bk2 )xk3
x
k=2
b1 = 0,
b0
y la recurrencia es bk =
Con lo anterior es posible resolver bk y encontrar C, en el peor caso con ayuda de un computador.
6.2.
La ecuaci
on de Bessel en una aplicaci
on
La ec. de Bessel surge en muchas aplicaciones de la fsica y la ingeniera. Para motivar su estudio se
considera el siguiente ejemplo: Las vibraciones de una membrana circular (cama elastica) de radio
unitario se pueden describir mediante la funcion u(r, , t), que representa el desplazamiento vertical
de la membrana en la posicion (r, , t) -coord. polares- en el instante t.
Los fsicos encuentran que u satisface la ec. diferencial a derivadas parciales (E.D.P.) que sigue:
a2 (
1 2u
2u
2 u 1 u
+
+
)
=
r 2
r r r 2 2
t2
(6.1)
de lugar. Supondremos que u se puede descomponer como producto de funciones u(r, t) = R(r)T (t),
donde R depende solo de r y T solo de t. Por otra parte, esperamos que la membrana oscile, es decir,
que u sea periodoca en el tiempo. As, supondremos T (t) = eiwt , w una constante (frecuencia). Por
u
ltimo, la membrana inicialmente esta quieta. El problema queda as planteado:
188
2 u 1 u
2u
+
=
r 2
r r
t2
(6.2)
-cond. iniciales
u(r, 0) = f (r)
u
(r, 0) = 0
t
configuracion inicial
(6.3)
(6.4)
-cond. de borde
u(1, t) = 0
(6.5)
u
r
=0
2u
r 2
= R eiwt
2u
t2
= R eiwt
Reemplazando en (6.2) :
= w 2 Reiwt
(6.6)
dR
dr
dR dx
dx dr
= w dR
dx
R =
d2 R
dr 2
= w 2 ddxR2
en (6.6) : w 2 ddxR2 + wx w dR
+ w 2 R = 0 finalmente:
dx
1
R (x) + R (x) + R(x) = 0
x
donde ahora () =
d
dx
/L
s
= 1+s
2 LR
189
(6.7)
R s
1
2
1
ln(LR) = 1+s
) donde se omite la cte. de integracion porque
2 ds = 2 ln(1 + s ) = ln(
1+s2
nos basta encontrar una solucion solamente.
LR =
1
1+s2
LR =
1
1
1 1
1X
= (1 + 2 ) 2 =
s | {z
s
1 + s2
} s p=0
B 1 (
2
1 1
(2
2
1) . . . ( 1
(p 1)) 1 p
2
( 2)
p!
s
1
)
s2
1X
1,3,5 . . . (2p 1) 2 4 6 . . . (2p)) X (1)p (2p)!
=
(1)p
=
s p=0
p!2p s2p
2 4 6 . . . (2p)
(p!)2 22p s|2p+1
{z }
{z
} p=0
|
2p (123...p)=2p .p!
()
Llegamos a una expresion en serie para LR, pero la gracia es que (*) tiene una antitransformada
conocida. Dada la convergencia absoluta de la serie (se puede verificar por el test de la razon), se
puede integrar termino a termino:
X
X
(1)p 2p X (1)p x 2p
(1)p 1 (2p)!
L ( 2p+1 ) =
x =
( )
R=
(p!)2 22p
s
(p!)2 22p
(p!)2 2
p=0
p=0
p=0
X
x2
x4
x6
(1)p x 2p
(
)
=
1
+ ...
2 2
2
2
(p!)
4
(2
4)
(2
6)
p=0
Notemos que J0 (0) = 1 y J0 (0) = 0. Puede sonar raro que la solucion encontrada no sea una combinacion de funciones conocidas (sin, cos, exp, log) sino una serie de potencias. Esto suele suceder al
resolver ecuaciones que modelan fenomenos (la naturaleza no tiene por que comportarse de maneras
que nosotros entendamos). Esta funcion de bessel se puede entender como la u
nica solucion de (6.7)
que satisface las C.I. J0 (0) = 1 y J0 (0) = 0 (Notar el parecido con cos(.)). En general, aprovechando
la unicidad, todas las funciones usuales del calculo pueden definirse de manera analoga. Pero (6.7)
es una EDO de orden 2, as que debe haber otra solucion l.i. La buscamos mediante la formula de
Abel (se eliminan todas las constantes de integracion porque solo interesa encontrar una solucion,
no la sol. general):
det
y J0
y J0
= e
dx
x
J0 y J0 y =
190
J
1
1
y 0 y =
x
J0
xJ0
y=e
J0
dx
J0
J0
dx
J0
1
dx = J0
xJ0
dx
xJ02
dx
= J0
xJ02
1 2
J dx = J0
x 0
x2
x4
1
(1
+
. . .)2 dx
x
4
(2 4)2
|
{z
}
2
B2 ( x4 +
x4
(24)2
...)
1
2 x2
2 3 x2
(1 ( + . . .) +
( + . . .)2 + . . .)dx
x
1!
4
2!
4
Z
2
1 6 x
1 x
I0 (x) = J0 (( + + . . .) + ( + . . .)2 + . . .)dx
x 2
x 2!
4
I0 (x) = J0
I0 (x) = J0 (ln x +
x2
+ . . .)
4
Se ve que
lm I0 (x) =
x0
Como estamos modelando una membrana que no oscila con amplitud infinita en el origen, no
podemos usar I0 . Luego, la solucion es:
R( wx ) = J0 (x)K,
K = cte.
iwt
u(r, t) = J0 (wr)Ke
La parte real y la imaginaria son soluciones l.i. As, la solucion mas general es:
u(r, t) = J0 (wr)(A cos(wt) + B sin(wt))
Debemos verificar la condicion de borde (6.5)
0 = u(1, t) = J0 (w)(Acos(wt) + Bsen(wt)) J0 (w) = 0
Aqu surge el interes por conocer los ceros de J0 . Se sabe que son infinitos y que forman un conjunto
discreto, digamos w1 , w2 , . . . , wn , . . . positivos y en orden creciente. Ademas, la diferencia entre ceros
consecutivos tiende a .
lm wn+1 wn =
Para probar rigurosamente estos hechos hacen falta algunas herramientas teoricas, como el teorema
de comparacion de Sturm. Aqu veremos una explicacion razonable de porque esto es cierto. En la
ec. (6.7) se puede hacer el cambio:
J0 (x) =
v(x)
.
x
1
)v = 0
4x2
(6.8)
que se parece a
v + v = 0
(6.9)
que sabemos que tiene soluciones sin, cos, que tienen infinitos ceros. As, es de esperar cierto
parecido entre J0 y aquellas. Ademas, para valores grandes de x casi no hay diferencia entre (6.8)
y (6.9), as que se justifica que la diferencia wn+1 wn sea casi . Como J0 (w) = 0 tiene infinitas
soluciones, no tenemos una solcion para (6.2), sino infinitas.
un (r, t) = J0 (wn r)(An cos(wn t) + Bn sin(wn t))
nN
Como (6.2) es lineal, podemos aplicar el principio de superposicion para obtener la solucion general.
u(r, t) =
An J0 (wn r) cos(wn t) +
Bn J0 (wn r) sin(wn t)
n=0
n=0
(!Otra
vez una serie!)
Falta determinar las sucesiones An , Bn . ). Para esto se necesita el siguniente lema, que da una
relacion de ortigonalidad entre las funciones {J0 (wk r)}kN
[Ortogonalidad]
si i 6= j
192
yj (r) =
()
()
()() : (wi2 wj2 )ryiyj = yi(ryj ) yj (ryi ) = yi(ryj ) +yi (ryj )(yj (ryi ) +yj (ryi )) = (yi (ryj )) (yj (ryi ))
= (r(yi yj yj yi ))
Z
Z 1
1
2
2
2
2
1
=[r(J0 (wi r)J0 (wj r)J0 (wj r)J0 (wi r))] = J0 (wi )J0 (wj )J0 (wj )J0 (wi) = 0 como se quera demostrar
0
f (r) = u(r, 0) =
An J0 (wn r)
n=0
rf (r)J0 (wk r) =
rf (r)J0(wk r) =
An
|0
n=0
Ak =
R1
0
si
0=
|0
n=0
0 = Bk
n6=k
dr
rf (r)J0(wk r)dr
, k N
R1 2
rJ0 (wk r)dr
0
X
u
(r, 0) =
Bn J0 (wn r)
0=
t
n=0
n=0
193
dr
(6.10)
Esto da una relacion de independencia lineal entre las funciones {J0 (wk r)}kN . Finalmente, la solucion a nuestro problema es:
u(r, t) =
An J0 (wn r) cos(wn t)
n=0
194