Está en la página 1de 59

ALGUNOS METODOS DE RESOLUCION PARA

ECUACIONES NO LINEALES DE SEGUNDO ORDEN.

César Augusto López Castro

Dirigido por el profesor


José Francisco Caycedo C.

Diciembre del 2005

Tabla de Contenido
Resumen 2

0. PRELIMINARES 3
0.1. Un breve recuento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.2. El operador adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.3. Un teorema de oscilación . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.4. El problema regular de Sturm-Liouville . . . . . . . . . . . . . . . . . 9
0.5. El problema del inverso, las funciones de Green . . . . . . . . . . . . 10

1. EL METODO DE CUADRATURA. 19
1.1. Soluciones positivas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2. Soluciones oscilatorias. . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2. PLANO DE FASE, ENERGIA Y . . . 33


2.1. El principio de contracciones. . . . . . . . . . . . . . . . . . . . . . . 33
2.2. La fórmula de variación de parámetros . . . . . . . . . . . . . . . . . 35

1
2.3. Alternativa de Fredholm para casos semilineales. . . . . . . . . . . . . 37
2.4. Plano de fase aplicado a una ecuación superlineal . . . . . . . . . . . 41
2.5. El Teorema del Valor Intermedio Generalizado y . . . . . . . . . . . . . 47
2.6. El método de lı́neas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3. APLICACIONES 52

Resumen

El trabajo presentado a continuación es una introducción a las ecuaciones


diferenciales no lineales de segundo orden. Para comprender su contenido se
necesitan conocimientos básicos de Algebra Lineal, Ecuaciones diferenciales,
Topologı́a, Análisis y Análisis Funcional.
Este escrito se divide en dos capı́tulos, en los cuales se considerarán problemas
de contorno de la forma

u + f (λ, u(t)) = p(t), t ∈ [0, π], λ ∈ R

u(0) = 0, u(π) = 0,

donde f es una función continua no necesariamente lineal, a quien en algunas


f (λ,u)
ocasiones se le impone la condición de superlinealidad lı́m|u|→∞ u = ∞.
A lo largo de las dos secciones que conforman el primer capı́tulo p(t) se to-
ma como una constante, y se utiliza el método de cuadratura para resolver
ecuaciones diferenciales ordinarias autónomas. A grandes rasgos tal método
consiste en convertir una ecuación diferencial de segundo orden en una de
primer orden por medio de la conservación de energı́a.
En el segundo capı́tulo se pasa al caso no autónomo, allı́ p(t) es una función
continua en el intervalo [0, π], se utilizan los problemas de valor inicial para
hallar información sobre problemas de contorno. En el transcurso de sus seis
secciones el principio de las contracciones y el teorema del valor intermedio
son herramientas importantes para probar algunos resultados cuando f es se-
f (u)
milineal (lı́m|u|→∞ u = λ, λ > 0), o superlineal, ası́ como en el caso del
“acoplamiento débil”.
Lo que se ha hecho a lo largo de este trabajo es, en algunos casos comprender

2
y tratar de explicar de la mejor manera posible la naturaleza y las propieda-
des de las soluciones del problema ya enunciado, en otros casos determinar la
cantidad de soluciones que tal problema puede tener, esto según el comporta-
miento de f y de p.

0. PRELIMINARES
En estos preliminares se estudiarán operadores diferenciales se segundo orden, te-
ma fuertemente relacionado con el cuerpo del trabajo presentado a lo largo de las
siguientes secciones.
La presente sección comienza con algunos resultados clásicos de ecuaciones diferen-
ciales de segundo orden, cuyo único propósito es refrescar la memoria y preparar el
camino para lo que viene.
Posteriormente se introducen los conceptos de operador adjunto y autoadjunto, se
muestra la fórmula de Green y ella nos conducirá a un resultado decisivo de allı́ en
adelante: los operadores diferenciales reales de segundo orden se pueden modificar
de tal manera que se conviertan en operadores autoadjuntos.
De allı́ en adelante se trabajará con operadores autoadjuntos. Haciendo uso de ellos
se prueba el teorema de oscilación, utilizado al final de la sección llamada “soluciones
positivas”para probar el teorema (1.3).
Después de esto se hablará un poco acerca de autovalores y autofunciones, ello se
hace para explicar en que consiste el problema regular de Sturm-Liouville, se darán
algunos ejemplos para facilitar la comprensión de aquellas definiciones.
Si se llama A a un operador autoadjunto, ¿es A invertible?, en otras palabras,
¿cuándo se puede resolver la ecuación Ax = f ? (obviamente A y f sujetos a con-
diciones mencionadas en su momento). Al intentar resolver este problema aparecen
las funciones de Green, tal vez la razón de estos preliminares, se enunciará su defini-
ción y se mostrará cuando un operador autoadjunto posee una función de Green, se
acompañará esta teorı́a con ejemplos sencillos que hagan más agradable la lectura.
Teniendo claros los resultados de estos preliminares finalmente se verá por qué preci-
samente la función G(s, t) mencionada en la ecuación (1.6) fue elegida para estar en
el integrando de la función u definida en (1.7), y ası́ ver que el problema (1.1)-(1.2)

3
es equivalente a la ya mencionada función u.
Es sorprendente ver que la función G de la ecuación (1.6) es una función de Green
y que las condiciones del lema (1.2) hacen posible su aplicación.

0.1. Un breve recuento


Definición 0.1. Sean a0 , a1 y a2 funciones continuas definidas en el intervalo I =
[α, β] y cuyas imágenes pertenecen a los complejos (C), y sea a0 > 0 en I. Se define
el operador diferencial lineal L, como aquel cuyo dominio DL consiste en todas las
funciones x = x(t) en C 2 (I), tal que para cada x en DL ,

Lx = a0 (t)x + a1 (t)x + a2 (t)x

El teorema de existencia y unicidad de Picard asegura que el problema Lx = b, con


valores iniciales x(τ ) = ξ1 , x (τ ) = ξ2 tiene una única solución en C 2 (I) para cada
τ en I, cada par de números complejos ξ1 , ξ2 , y b en C(I).

Definición 0.2. Una integral particular de Lx = b es cualquier función x0 en C 2 (I)


tal que Lx0 = b. La solución general de Lx = b es una familia de dos parámetros
de soluciones de Lx = b, tal que cualquier solución particular se puede obtener por
medio de una adecuada elección de parámetros.

Teorema 0.3. Sea x0 una integral particular de Lx = b, y sean x1 y x2 soluciones


linealmente independientes de Lx = 0. La solución general de Lx = b tiene la forma
x = c1 x1 + c2 x2 + x0 , donde c1 y c2 son constantes arbitrarias.

Ejemplo 0.4. La solución general de x + x = t es x = c1 sin(t) + c2 cos(t) + t


Cuando x1 y x2 son soluciones de Lx = 0, el wronskiano de x1 y x2 , W (x1 , x2 ) =
x1 x2 − x1 x2 satisface
 t
a1 (s)
W (x1 , x2 )(t) = W (x1 , x2 )(τ ) exp[− ds], para todo t, τ ∈ I
τ a0 (s)
si x1 es una solución conocida de Lx = 0 que es diferente de cero en I, entonces una
solución adicional x2 está dada por
 t  s
−2 a1 (ξ)
x2 (t) = x1 x exp[− dξ]ds.
τ τ a2 (ξ)

4
0.2. El operador adjunto
Con cada operador diferencial existe otro asociado, el operador adjunto, original-
mente introducido para proveer de factores integrantes a las ecuaciones diferenciales
relacionadas, los adjuntos poseen ciertas propiedades importantes.

Definición 0.5. Sea I = [α, β], a0 ∈ C 2 (I), a1 ∈ C 1 (I), a2 ∈ C(I) y sea


Lx = a0 (t)x + a1 (t)x + a2 (t)x un operador diferencial lineal definido para todas las
funciones x en C 2 (I). El operador adjunto formal de Lagrange de L, denotado L+ ,
se define como aquel que tiene por dominio DL+ = C 2 (I) y tal que

L+ x = (a0 (t)x) − (a1 (t)x) + (a2 (t)x),

extendiendo esto por medio de la derivación usual se tiene que

L+ x = a0 (t)x + (2a 0 (t) − a1 )x + (a 0 (t) − a 1 (t) + a2 (t))x.

Teorema 0.6. (Identidad de Lagrange) Sea I = [α, β], a0 ∈ C 2 (I), a1 ∈ C 1 (I), a2 ∈


C(I), para todo x, y en C 2 (I) se tiene que Lx · y − x · L+ y = d
dt
[x, y], donde

[x, y] = a0 [x y − xy  ] − (a1 − a0 )xy.

En esta fórmula se puede apreciar el original uso del autoadjunto.


Si y satisface L+ y = 0, en la anterior ecuación, entonces Lx · y es la derivada exacta
de alguna función y una integración se puede efectuar. Conociendo y se puede dar
un paso más y encontrar la desconocida x.

Corolario 0.7. (Fórmula de Green) Sean I, a0 , a1 , a2 , L y [x, y] como en el teorema


anterior. Para todo x, y en C 2 (I) y todo t1 , t2 en I se tiene que
 t2
[Lx · y − x · L+ y] = [x, y](t2 ) − [x, y](t1 )
t1

Definición 0.8. L es un operador formalmente autoadjunto si Lx = L+ x para todo


x en C 2 (I).
L es un operador real cuando a0 , a1 , a2 son funciones que que envı́an sus imágenes
en los números reales, es decir, ai : I → R, para i = 0, 1, 2.

5
Teorema 0.9. Sea L un operador real, entonces

i. L es formalmente autoadjunto si y solo si a0 = a1 ,

ii. Si L es autoadjunto entonces L tiene la forma

(a0 (t)x ) + a2 (t)x, a0 ∈ C 2 (I) y a2 ∈ C(I).

iii. si L es autoadjunto, real y tiene la forma expresada en la parte ii. entonces para
todo t1 , t2 en I y x, y en C 2 (I), la fórmula de Green es
 t2
[Lx·y−x·Ly]dt = [x, y](t2 )−[x, y](t1 ), donde [x, y] = a0 [x y−xy  ] = −a0 W (x, y).
t1

Demostración. i. Si x ∈ C 2 (I), y L es real, entonces

Lx = a0 (t)x + a1 (t)x + a2 (t)x

L+ x = a0 (t)x + (2a0 (t) − a1 )x + (a0 (t) − a1 (t) + a2 (t))x,

Si L = L+ se ha de tener que a1 = 2a0 − a1 y a2 = a0 − a1 + a2 , la primera


ecuación implica que a1 = a0 , y la segunda se obtiene al derivar la primera.

ii. utilizando la primera parte, si L es autoadjunto entonces a1 = a0 , ası́

Lx =a0 x + a0 x + a2 x


=(a0 x ) + a2 x.

iii. Esta parte es consecuencia directa del corolario (0.2) haciendo a0 = a1

Con la simplificación sobre los operadores reales autoadjuntos suministrada por el


teorema anterior surge la siguiente inquietud, ¿puede un operador diferencial ser
modificado de tal manera que pueda convertirse en un operador autoadjunto? a
continuación se responderá parcialmente esta pregunta.

6
Teorema 0.10. Cualquier operador real, diferencial lineal de segundo orden L de-
finido por Lx = a0 (t)x + a1 (t)x + a2 (t)x, con a0 ∈ C 2 (I), a1 ∈ C 1 (I) y a2 ∈ C(I),
puede convertirse en un operador formalmente autoadjunto multiplicando L por
 t a (s)−a (s)
µ = exp[− τ 0 a0 (s)1 ds]

Demostración. µLx = µa0 (t)x + µa1 (t)x + µa2 (t)x, y se necesita que este operador
sea igual a su adjunto. Por la primera parte del teorema anterior se debe tener que
a0 −a1
(µa0 ) = µa1 , o lo que es lo equivalente a0 µ = − a0
µ, resolviendo esta ecuación
de primer orden para µ se obtiene lo requerido

De ahora en adelante los operadores formalmente autoadjuntos se expresarán en la


forma Lx = (px ) + qx.
Ejemplo 0.11. El operador de Legendre es Lx = (1 − t2 )x − 2tx = ((1 − t2 )x ) , por
tanto es un operador formalmente autoadjunto.
Ejemplo 0.12. El operador de Laguerre es Lx = tx + (1 − t)x , el factor µ =
t
exp[− 0 1−(1−s)
s
ds] = exp−t . Ası́ µLx = exp−t Lx = (t exp−t x ) , de lo cual también
se observa que es un operador autoadjunto.
Ejemplo 0.13. El operador de Hermite es Lx = x − 2tx . En este caso µ =
t
exp[− 0 0−(−2s)
2 2 2
1
ds] = exp−t , luego µLx = exp−t Lx = (exp−t x ) . Salta a la vista
que este operador es autoadjunto.

0.3. Un teorema de oscilación


A continuación se presentará una versión muy útil por su generalidad de el teorema
de comparación de Sturm, en el cual se trabaja con operadores autoadjuntos. Este
teorema se utiliza para culminar la prueba del teorema (1.3).

Teorema 0.14. Sea I = [α, β], sean p1 > 0, p2 > 0 en C 2 (I), y q1 , q2 en C(I).
Además supóngase que x es no trivial, de valor real y satisface

(p1 x ) + q1 x = 0,

también y es de valor real y satisface

(p2 y  ) + q2 y = 0.

7
Supóngase además que se presenta uno de los siguientes casos:

i. p1 > p2 , q2 ≥ q1 ,

ii. p1 ≥ p2 , q2 > q1 ,

iii. p1 ≥ p2 , q2 ≥ q1 ,

donde x, y son linealmente independientes en I, entonces si t1 , t2 son ceros sucesivos


de x, hay un cero de y en algún punto τ en [t1 , t2 ]

Demostración. Los ceros de x son aislados, pues si (tn )∞


n=1 son ceros de x y lı́mn→∞ tn =
τ , entonces x(τ ) = 0 y
x(tn ) − x(τ )
x (τ ) = lı́m = 0,
n→∞ tn − τ
esto es imposible cuando x es no trivial.
La prueba se basa en una identidad debida a Picone:
x   yx − xy  
(p1 yx − p2 xy  ) = (q2 − q1 )x2 + p2 .
y y
Si y no se anula en el intervalo [t1 , t2 ], ambos lados son integrables en la anterior
ecuación. La integral del lado izquierdo es cero, pues x se anula en t1 y t2 , pero la
integral del lado derecho es mayor que cero, luego y se ha de anular por lo menos
una vez entre t1 y t2 .

Ejemplo 0.15. Considérense las ecuaciones

4x + x = 0

4y  + y = 0,
entonces x = c1 sin( 2t + θ), y = c2 sin(t + φ) donde c1 , θ, c2 y φ son constantes
arbitrarias. Entre cada par de ceros de x existe por lo menos uno de y.
Ejemplo 0.16. Ahora se considerarán las ecuaciones

x + 4x = 0

y  + 4y = 0,
sus respectivas soluciones son x = cos(2t) y y = sin(2t). En este caso los ceros
aparecen intercalados. También se verifica el teorema.

8
0.4. El problema regular de Sturm-Liouville
Sea I = [α, β], −∞ < α < β < ∞, y sean p, q y w funciones de valor real, p en
C 1 (I), q y w en C(I) y sea p > 0, w < 0 en I.

Definición 0.17. Se define el operador A : DA → C(I), donde DA se compone de


aquellas funciones x que satisfacen:

i. x esta en C 2 (I).

ii.
α1 x(α) + α2 x (α) = 0

β1 x(β) + β2 x (β) = 0,

donde α1 , α2 , β1 , β2 son números reales que satisfacen α12 + α22 = 0, β12 + β22 = 0.
Para todo x en DA sea
(px ) + qx
Ax = .
w
Por el problema regular de Sturm-Liouville se entiende el problema de hallar los
valores propios y las funciones propias de A, ası́ como el problema de representar
ciertas funciones como series de esas funciones propias.

Definición 0.18. Sea x una función no trivial en DA que también satisface la


ecuación Ax = λx para algún número complejo λ. Se dice que x es una función
propia de A y que λ es su valor propio asociado. Luego x es una función propia con
valor propio λ, si x satisface la ecuación diferencial (px ) + qx = λwx, ası́ como
las condiciones de frontera en α y β. La palabra regular significa que el intervalo
I = [α, β] es finito y que p y w son distintas de cero en I.

Ejemplo 0.19. Si el operador A es definido por Ax = −x y las condiciones de


frontera son x(0) = 0 y x(π) = 0, entonces las funciones propias satisfacen −x =
λx, x(0) = 0, x(π) = 0.
Un cálculo sencillo muestra que los valores propios son λn = n2 , n = 1, 2, . . . y las
funciones propias son xn = sin(nt), n = 1, 2, . . . .

9
 
Ejemplo 0.20. Consideremos el operador definido por Ax = − (exp(2t)x ) +exp(2t)x
exp(2t)
, don-
de x satisface las condiciones de frontera x(0) = 0, x(π) = 0.
En este caso los valores propios son λn = n2 , n = 1, 2, . . . y las funciones propias
son xn = exp(−t) sin(nt), n = 1, 2, . . . .

0.5. El problema del inverso, las funciones de Green


El problema de los valores propios ya discutido surgió al resolver la ecuación Ax =
λx, ya se afirmó que los valores de λ que hacen posible la anterior igualdad se llaman
valores propios.
Hay otro problema a considerar: ¿Es el operador A invertible?, esto es, ¿cuando
es posible resolver la ecuación Ax = f ? (donde f ∈ C(I) y además satisface las
condiciones de frontera). Esto es posible solamente cuando cero no es un valor propio.
Las funciones de Green se convertirán en la herramienta para demostrar tal aserción.

Definición 0.21. La función de Green para el problema regular de Sturm-Liouville


es una función G(·, ·), continua en el cuadrado I × I y que cumple las siguientes
propiedades

i. G(·, ·) es C 2 (I × I − {(t, t)|t ∈ I}).

ii. para s fijo en I, G(·, s) satisface las condiciones de frontera para el problema
regular de Sturm-Liouville.
 
iii. p(t) ∂G(t,s)

∂t ∂t
+ q(t)G(t, s) = 0
 
∂G(t,s)  ∂G(t,s)  1
iv. ∂t  − ∂t  = p(s) , para todo s en I.
t=s+ t=s−
 
Ejemplo 0.22. Considérese el operador Ax = − (exp(2t)x ) +exp(2t)x
exp(2t)
, definido para aque-
llas funciones x en C 2 [0, π] que satisfacen las condiciones de frontera x(0) = 0, x(π) =
0.
Para invertir A hay que resolver la ecuación

(exp(2t)x ) + exp(2t)x
− = f, x(0) = 0, x(π) = 0.
exp(2t)

10
Expandiendo y simplificando la ecuación diferencial, se nota que ésta se reduce a
x + 2x + x = −f .
Haciendo el cambio de variable x = exp(−t)y, la anterior ecuación se reduce a
exp(−t)y  = −f , y despejando, y  = −f exp(t), la cual tiene como solución general
 t
y(t) = − (t − s) exp(s)f (s)ds + c1 t + c2 ,
0

volviendo a la variable original


 t
x(t) = − (t − s) exp −(t − s)f (s)ds + c1 t exp(−t) + c2 exp(−t).
0

Haciendo uso de las condiciones de frontera se puede apreciar que c2 = 0 y c1 =



1 t
π 0
(π − s) exp(s)f (s)ds.
Inssertando estos valores en la solución se tiene que
 
1 t 1 π
x(t) = (π−s)s exp −(s+t) exp(2s)f (s)ds+ (π−s)t exp −(s+t) exp(2s)f (s)ds
π 0 π t
t
o de forma equivalente x(t) = π1 0 G(t, s) exp(2s)f (s)ds, donde

 π−t s exp −(s + t), si 0 ≤ s ≤ t ≤ π,
π
(0.1) G(s, t) =
 π−s t exp −(s + t), si 0 ≤ t ≤ s ≤ π.
π

Al cambiar s por t y t por s, la función G no varı́a. G satisface los requerimientos


de la definición (0.21), es decir, G es una función de Green.
El siguiente teorema es muy importante por que suministra una condición suficiente
para que exista una función de Green.

Teorema 0.23. Supóngase que cero no es un valor propio para el problema regular
de Sturm-Liouville. Entonces A tiene una única función de Green G(t, s), la cual
posee las siguientes propiedades adicionales

i. G es simétrica, es decir, G(t, s) = G(s, t) para todo t y s en I.

ii. G es de valor real.

11
iii. Si x1 y x2 son soluciones linealmente independientes de (px ) + qx = 0, las
cuales satisfacen

α1 x1 (α) + α2 x1 (α) = 0 y β1 x2 (β) + β2 x2 (β) = 0,

entonces

 x1 (t)x2 (s) , si α ≤ t ≤ s ≤ β,
c
(0.2) G(t, s) =
 x1 (s)x2 (t) , si α ≤ s ≤ t ≤ β,
c

donde c = p(t)W (x1 , x2 )(t) = 0 y constante.

Demostración. Nótese que x1 y x2 han de ser linealmente independientes, pues de


lo contrario cero serı́a un valor propio de A.
A continuación se construirá G. De los requerimientos ii. y iii. de la definición (0.21),

c1 (s)x1 (t), si α ≤ t < s ≤ β,
(0.3) G(t, s) =
c (s)x (t), si α ≤ s < t ≤ β.
2 2

G es continua, por tanto cuando s = t

c2 (s)x2 (s) − c1 (s)x1 (s) = 0.

Por la condición iv. de la definición (0.21)


1
c2 (s)x2 (s) − c1 (s)x1 (s) = .
p(s)

Resolviendo simultáneamente las dos últimas ecuaciones, se obtiene


   
 0 −x2 (s) x (s) 0 
  1
 1    
− −x2 (s) x1 (s) − 1 
p(s) p(s)
c1 (s) =   y c2 (s) =  ,
x (s) −x2 (s) x (s) −x (s)
 1  1 2 
     
x1 (s) 
−x2 (s)   x1 (s) −x2 (s)


x2 (s) x1 (s)
de lo cual se sigue que c1 (s) = c
y c2 (s) = c
.

12
Ya se posee la información necesaria para desarrollar el propósito de estos prelimi-
nares: entender por qué aparece la función G(s, t) en la ecuación (1.6).
El anterior teorema dice que si cero no es un valor propio para el problema regular
de Sturm-Liouville, entonces A posee una función de Green.
En la primera sección (soluciones positivas) al hacer u = x, el problema (1.1)-(1.2)
se convierte en
x = −f

x(0) = 0, x(π) = 0

por tanto es natural definir el operador autoadjunto Ax = −x , para funciones en


C 2 [0, π] que satisfagan las condiciones de frontera x(0) = 0, x(π) = 0. Resolver el
problema (1.1)-(1.2) cuando f ∈ C[0, π] y es no negativa, es decir bajo las condicio-
nes del lema (1.2), equivale a invertir el operador A teniendo presente que f debe
ser no negativa.
Esto es lo que se hará después que se tenga la certeza de que existe una función
de Green para el problema considerado en el lema (1.2). Para ello solo se necesita
probar que cero no es un valor propio.
Como las soluciones del problema (1.1)-(1.2) ligado a las hipótesis del lema (1.2) son
positivas o son idénticamente nulas en el intervalo [0, π], la única manera para que
Ax = 0 o equivalentemente −x = 0 y se cumplan las condiciones de frontera claro
está, es que x = 0, luego no existe una autofunción para el operador autoadjunto A
que posea como valor propio asociado el cero.
Ahora se procederá a invertir el operador A, y con ello obtener la función de Green
buscada. Primero se realizarán unos pocos pasos previos.
Sea h : Dh → R, donde Dh ⊆ R2 es la región mostrada en la figura (1).
Integrando sobre Dh se tiene
  t x
h(x, y)dydx = h(x, y)dydx,
0 0
Dh

cambiando el orden de integración y fijando x se puede observar que


 t x  t t
h(x0 , y)dydx = h(x0 , y)dxdy,
0 0 0 y

13
y y
(t, t) (t, t)

y=x x=y

Dh Dh

t x t x
a) b)

Figura 1. Region donde se define h. En la figura a) se toman particiones verticales, en


la b) se toman horizontales para cambiar los limites de integración

como x es fijo se puede asumir que h solo es función de y, denotando h(x0 , y) = h1 (y)
se obtiene
 t t  t  t
h(x0 , y)dxdy = (t − y)h(x0 , y)dy = (t − y)h1 (y)dy,
0 y 0 0

por tanto
 t x  t
(0.4) h1 (y)dydx = (t − y)h1 (y)dy
0 0 0

Ahora sı́ considérese el operador autoadjunto Ax = −x , definido para aquellas


funciones x ∈ C 2 [0, π] que satisfacen x(0) = 0, x(π) = 0.
Para invertir A hay que resolver el problema

−x = f

x(0) = 0, x(π) = 0.

Después de dos integraciones tenemos que


 t u
x(t) = − f (s)dsdu + c1 t + c2 ,
0 0

excepto por el signo que precede la integral doble y por los términos c1 t+c2 , la última
integral coincide con el lado izquierdo de la identidad (0.4) (tomando f = h1 , s = y
y u = x), por tanto es posible afirmar que
 t
(0.5) x(t) = − (t − s)f (s)ds + c1 t + c2
0

14
haciendo t = 0 se observa que c2 = 0, y haciendo t = π se tiene que c1 =
 π (π−s)
0 π
f (s)ds, insertando estos valores en (0.5) se deduce lo siguiente
 
t π
(π − s)
x(t) = − (t − s)f (s)ds + t f (s)ds
0 0 π
 t  t  π
(π − s) (π − s)
=− (t − s)f (s)ds + tf (s)ds + tf (s)ds
0 0 π π
 t  π t
st (π − s)
= (−t + s + t − )f (s)ds + tf (s)ds
0 π π
 t  π t
(π − t) (π − s)
= sf (s)ds + tf (s)ds,
0 π t π
o bien
 π
(0.6) x(t) = G(t, s)f (s)ds,
0

donde

 s(π−t) , si 0 ≤ s ≤ t ≤ π,
π
(0.7) G(t, s) =
 t(π−s) , si 0 ≤ t ≤ s ≤ π.
π

Invirtiendo los papeles de t y s en la anterior función, se tiene



 t(π−s) , si 0 ≤ t ≤ s ≤ π,
π
(0.8) G(s, t) =
 s(π−t) , si 0 ≤ s ≤ t ≤ π,
π

que es precisamente la función de la ecuación (1.6).


Con el solo hecho de observar las funciones G(t, s) y G(s, t) en las ecuaciones (0.7)
y (0.8) se nota que ellas son iguales, o sea G(t, s) = G(s, t).
A partir de la expresión (0.5) también se puede apreciar que cero no es un valor
propio, pues de ser ası́ Ax = −x = f implicarı́a que f = 0, y por la ecuación (0.5)
se tendrı́a que x(t) = c1 (t) + c2 y por las condiciones de frontera c2 = 0 y c1 = 0
haciendo t igual a cero y a π respectivamente, luego x = 0, pero esto no puede
suceder por la definición de autofunción.
Finalmente veamos que G es realmente una función de Green:

i. G es C 2 ([0, π] × [0, π]).

15
ii. Para s fijo (s = s0 ) entonces

0(π − s0 ) s0 (π − π)
G(0, s0 ) = = 0, G(π, s0 ) = = 0.
π π

iii. En el operador Ax = −x , p(t) = 1, q(t) = 0 y w(t) = −1, ası́

∂ ∂G(t, s)  ∂ 2 G(t, s)
p(t) + q(t)G(t, s) = =0
∂t ∂t ∂t2

iv.
∂G(t, s)  ∂G(t, s)  π−s s 1
 +−  −= − (− ) = 1 = .
∂t t=s ∂t t=s π π p(s)
Aunque con esto se ha alcanzado el objetivo de los preliminares, a continuación
se presentarán otros resultados concernientes al problema de invertir operadores
autoadjuntos.

Teorema 0.24. Supóngase que cero no es un valor propio de A. Sea K el operador


integral definido por  β
Kf (t) = G(t, s)f (s)w(s)ds
α

para todo f en C(I). Entonces A−1 = K. Esto es,

i. Si f está en C(I) entonces Kf está en DA y AKf = f .

ii. Si x está en DA entonces KAx = x.

Demostración. En la prueba hay que utilizar el siguiente teorema debido a Leibnitz


∂f (t,s)
Teorema 0.25. Sea f : I × I → C, donde f (t, s) y ∂t
son continuas para todo
t y s en I, entonces
 t  t
d ∂f (t, s)
(0.9) f (t, s)ds = f (t, t) + ds,
dt α α ∂t

 β  β
d ∂f (t, s)
(0.10) f (t, s)ds = −f (t, t) + ds.
dt t t ∂t

16
A continuación se probará la parte i. del teorema.

Sea f ∈ C(I), y sea x(t) = α G(t, s)f (s)w(s)ds, entonces
 t  β
x(t) = G(t, s)f (s)w(s)ds + G(t, s)f (s)w(s)ds,
α t

donde ambos integrandos satisfacen las condiciones del teorema de Leibnitz, luego
 t
 ∂G(t, s)
x (t) =G(t, t)f (t)w(t) + f (s)w(s)ds − G(t, t)f (t)w(t)+
α ∂t
 β
∂G(t, s)
f (s)w(s)ds,
t ∂t
 t  β
∂G(t, s) ∂G(t, s)
= f (s)w(s)ds + f (s)w(s)ds.
α ∂t t ∂t
Para hallar x de nuevo hay que utilizar el teorema de Leibnitz, ası́
 t 2
 ∂G(t, t− ) ∂ G(t, s) ∂G(t, t+ )
x (t) = f (t)w(t) + f (s)w(s)ds − f (t)w(t)+
∂t α ∂t2 ∂t
 β 2
∂ G(t, s)
f (s)w(s)ds,
t ∂t2
 β 2
f (t)w(t) ∂ G(t, s)
= + f (s)w(s)ds.
p(t) α ∂t2
Como G(t, s) satisface las condiciones de frontera en α y β, x(t) también, ası́ x
está en DA , pero x = Kf .
De las fórmulas anteriores para x, x y x , y utilizando la parte iii. de la definición
de función de Green (0.21) se concluye que AKf = f para toda f ∈ C(I).
Nos resta observar la parte ii., pero como A : DA → C(I), el rango de A es un
subconjunto de C(I). Por la parte i. C(I) es un subconjunto del rango de A. Por
tanto el rango de A es C(I). Como el cero no es un valor propio, Ax = 0 implica
que x = 0, por tanto A−1 existe y A−1 = K.

Por último se investigarán las relaciones existentes entre los autovalores de A y los
de K.

Teorema 0.26. Supóngase que cero no es un valor propio de A entonces

i. x es una autofunción de A con autovalor λ si y solo si x es una autofunción de


K con autovalor λ1 .

17
ii. Cero no es un autovalor de K.

Demostración. i. Si Ax = λx, λ = 0, entonces x = KAx = Kλx, por tanto


Kx = ( λ1 )x.
Recı́procamente, si Kx = ( λ1 )x, entonces x = AKx = ( λ1 )Ax, se sigue que
Ax = λx.

ii. Si Kx = 0x, entonces x = AKx = A0 = 0. Pero por definición la función x = 0


no puede ser una autofunción.

Ahora se tienen dos representaciones equivalentes del problema regular de Sturm-


Liouville, por definición

i. (px ) + qx = wx, con x sujeto a las condiciones de frontera


α1 x(α)+α2 x (α) = 0, y β1 x(β)+β2 x (β) = 0. Y a partir de los últimos resultados

ii. ( λ1 )x(t) = α
G(t, s)x(s)w(s)ds
donde G(t, s) = G(s, t).

Teorema 0.27. Si x1 y x2 son dos funciones propias de A correspondientes al mismo


valor propio λ, entonces ellas son linealmente dependientes. Los valores propios de
A tienen multiplicidad uno.

Demostración. Sea Ax1 = λx1 y Ax2 = λx2 , y también

α1 x1 (α) + α2 x1 (α) = 0 y β1 x1 (β) + β2 x1 (β) = 0,

α1 x2 (α) + α2 x2 (α) = 0 y β1 x2 (β) + β2 x2 (β) = 0.

Por el teorema (0.9) parte iii. se tiene que


 t2
[Lx1 · x2 − x1 Lx2 ]dt = 0
t1

luego W (x1 , x2 ) es constante, pero usando cualquiera de las condiciones frontera,


esta constante debe ser cero. Por tanto x1 y x2 son dependientes.

18
1. EL METODO DE CUADRATURA.
Se desea hallar información acerca de las soluciones de ecuaciones de la forma

(1.1) u (t) + f (λ, u(t)) = 0, t ∈ [0, π], λ ∈ R.

(1.2) u(0) = 0, u(π) = 0.

utilizando el método de cuadratura. Tal método consiste en reducir (1.1) a una


ecuación cuadrática de primer orden. Multiplicando la ecuación (1.1) por u (t) se
tiene lo siguiente:

(1.3) u (t)u (t) + f (λ, u(t))u (t) = 0.


(u (t))2

Claramente u (t)u (t) = 2
. Por otro lado, al definir F ası́: F (λ, x) =
x
0
f (λ, s)ds, se sigue que d
dt
[F (λ, u(t))] = f (λ, u(t))u (t), este es el segundo término
del lado derecho de la ecuación (1.3).
De esta manera (1.3) equivale a
(u (t))2 
(1.4) + [F (λ, u(t))] = 0,
2
(u (t))2
integrando (1.4) con respecto a t se tiene 2
+ F (λ, u(t)) = k, o de forma equi-
valente

(1.5) [u (t)]2 + 2F (λ, u(t)) = c,

donde c = 2k es una constante independiente de t. La ecuación (1.5) es una forma


de conservación de energı́a.
Cuando (1.1) sujeta a condiciones iniciales tiene solución única, sus soluciones son
simétricas con respecto a los puntos crı́ticos, esto se verá a continuación.

Lema 1.1. Supóngase que la ecuación (1.1) sujeta a condiciones iniciales tiene
solución única. Si u(t) es solución y u (τ ) = 0 entonces u(τ + t) = u(τ − t) para
todo t en R.

19
Demostración. Sean v(t) = u(τ + t) y w(t) = u(τ − t). Por simple inspección se
puede notar que v y w son soluciones de (1.1), ya que solo intervienen las derivadas
de orden par y f no depende de t. Como v(0) = u(τ ) = w(0) y también v  (0) =
u (τ ) = 0 = −u (τ ) = w (0) se tiene que v y w satisfacen la misma condición inicial,
y por la unicidad de soluciones se tiene que u(τ + t) = v(t) = w(t) = u(τ − t).

A continuación se usarán los pocos resultados obtenidos hasta el momento para


entender la estructura de las soluciones de (1.1)-(1.2) si λ > 0 y f es positiva,
ası́ como en el caso en que f es “superlineal ”para cada λ en R, para probar que el
problema (1.1)-(1.2) tiene infinitas soluciones.

1.1. Soluciones positivas.


Lema 1.2. Si f (λ, u(t)) ≥ 0 para todo λ ≥ 0 y todo t en R, y además f es continua
entonces:

i. Las soluciones de (1.1)-(1.2) son positivas en (0, π) o son idénticamente nulas.

ii. Si u y v son soluciones de (1.1)-(1.2) y u( π2 ) > v( π2 ), entonces u(t) > v(t) para
todo t en (0, π).

iii. Si u = v entonces F (u( π2 )) = F (v( π2 ))

Demostración. i. Sea G : [0, π] × [0, π] → R la función definida mediante:



t(π − s)/π, si 0 ≤ t ≤ s ≤ π,
(1.6) G(s, t) =
s(π − t)/π si 0 ≤ s ≤ t ≤ π.

A continuación se observa que el problema (1.1)-(1.2) es equivalente a


 π
(1.7) u(t) = G(s, t)f (λ, u(s))ds, para todo t en [0, π].
0

Primero se verá que u satisface las condiciones de frontera, es decir, que u(0) =
u(π) = 0. Utilizando la figura (2) se observa que R1 = {(s, t)| 0 ≤ t ≤ s ≤ π} y
R2 = {(s, t)| 0 ≤ s ≤ t ≤ π} (para R1 se toman las particiones verticales y para
R2 se toman las particiones horizontales), como el segmento t = 0, 0 ≤ s ≤ π

20
t
π
R2

R1

π s
Figura 2. Región donde se define G

pertenece a R1 , para hallar u(0) se toma la primera parte de la definición de la



función (1.6), ası́ u(0) = 0 0 (π−s) f (λ, u(s))ds = 0, de manera similar el segmento
π

t = π, 0 ≤ s ≤ π pertenece a R2 , por tanto u(π) = 0 s (π−π) π
f (λ, u(s))ds = 0, por
la segunda parte de la definición de G.
Ahora se mostrará que la condición (1.1) se cumple, o equivalentemente que u (t) =
−f (λ, u(t)). Se comienza partiendo el intervalo [0, π] en los intervalos [0, t] y [t, π],
luego  
t π
u(t) = G(s, t)f (λ, u(s))ds + G(s, t)f (λ, u(s))ds,
0 t
la región 0 ≤ s ≤ t ≤ π corresponde a R2 , y 0 ≤ t ≤ s ≤ π a R1 , por tanto u
adquiere la siguiente forma
 t  π
(π − t) (π − s)
u(t) = s f (λ, u(s))ds + t f (λ, u(s))ds
0 π π
  t t
(π − t) t (π − s)
= sf (s)ds − t f (s)ds.
π 0 π π
Derivando con respecto a t como un producto y aplicando la primera parte del
teorema fundamental del cálculo (T.F.C) se tiene
  t
 1 t π−t π−t (π − s)
u (t) = − sf (s)ds + tf (t) − t f (t) − f (s)ds
π 0 π π π
  t π
1 t (π − s)
=− sf (s)ds − f (s)ds.
π 0 π π

21
Y derivando una vez mas con respecto a t
t π−t
u (t) = − f (t) − f (t)
π π
t t
= − f (t) − f (t) + f (t)
π π
= − f (t), como se esperaba.

Como u(t) = 0
G(s, t)f (λ, u(s))ds, G(s, t) ≥ 0 en su dominio y por hipótesis
f (λ, u(s)) ≥ 0, el integrando en la ecuación (1.7) es mayor o igual a cero, de donde
u(t) ≥ 0 para todo t en [0, π]. Como G(· , t) > 0 en (0, π), si u(τ ) = 0 para algún τ
en (0, π) entonces f (λ, u(s)) = 0 para todo s en (0, π). Concluyendo que u(t) = 0
para todo t en (0, π).
Sea τ un punto crı́tico de u. Si en la ecuación (1.5) se hace t = τ se aprecia que
c = 2F (λ, u(τ )), y se obtiene de esta forma la ecuación

(1.8) [u (t)]2 = 2F (λ, u(τ )) − 2F (λ, u(t)),



en particular u (0) = u (π) = 2F (λ, u(τ )), donde τ es tal que u(τ ) = máx{u(t)|t ∈
[0, π]}. Como f (λ, u) ≥ 0, continua, y u es positiva o cero, F es continuamente
diferenciable y no negativa, ası́ el lado derecho de (1.8) es C 1 . Si F (λ, u(τ )) = 0
entonces F (λ, u(t)) también debe ser cero, pues en otro caso [u (t)]2 ≤ 0. De esta
manera [u (t)]2 = 0, de donde u(t) ha de ser constante y como u(0) = u(π) = 0
entonces u debe ser idénticamente cero.
Ahora bien, si F (u(τ )) > 0 que es la otra opción, de la ecuación (1.8) se aprecia que
tanto u como v(t) = u(π − t) satisfacen

(1.9) u (t) = 2[F (λ, u(τ )) − F (λ, u(t))], u(0) = 0 en [0, τ1 ),


(1.10) v  (t) = 2[F (λ, v(τ )) − F (λ, v(t))], v(0) = 0 en [0, τ2 ),

donde τ1 = sup{t | u(t) < u(τ ), u(t) = 0} y τ2 = inf{t | u(t) ≤ u(τ ), u(t) = 0}.
Ya se habı́a dicho que el lado derecho de la ecuación (1.8) es C 1 , luego el lado de-
recho de las ecuaciones (1.9)-(1.10) también lo es, y cada una de estas ecuaciones
es localmente Lipschitz en [0, τ ) (si T es una función continuamente diferenciable

22
entonces T satisface la condición de Lipschitz). Como u y v son soluciones del pro-
blema (1.1)-(1.2), por el teorema de existencia y unicidad para problemas de valor
inicial de Picard se tiene que u(t) = v(t) = u(π − t) en [τ2 , τ1 ], esto es,

(1.11) Si u satisface (1.1)-(1.2), u(π/2) = máx{u(t) | t ∈ [0, π]} y u(t) = u(π − t),

es decir, u es simétrica con respecto a π/2.


Si u y v son soluciones del problema (1.1)-(1.2) tales que u(π/2) > v(π/2), de la
ecuación (1.5) se tiene que

 u(t) √
du
(1.12) = 2t, t ∈ [0, τ1 ),
0 F (λ, u(π/2)) − F (λ, u(t))

 v(t) √
dv
(1.13) = 2t, t ∈ [0, τ2 ).
0 F (λ, v(π/2)) − F (λ, v(t))

Como F es positiva y además creciente en la segunda variable, de las igualdades


(1.12)-(1.13) se tiene lo siguiente

(1.14) u(t) = v(t) para todo t si y solo si F (λ, u(π/2)) = F (λ, v(π/2)),

pues si u(t) = v(t), y por definición de F, F (λ, u(π/2)) = F (λ, v(π/2)).


Y si F (λ, u(π/2)) = F (λ, v(π/2)) entonces
 u(π/2)  v(π/2)
F (λ, u(π/2)) = f (λ, s)ds = f (λ, s)ds = F (λ, v(π/2)),
0 0

luego u(π/2) = v(π/2). Por (1.11) ambas soluciones son simétricas con respecto a
π/2, ası́ u (π/2) = v  (π/2) = 0, y de nuevo por el teorema de existencia y unicidad de
Picard se tiene que u(t) = v(t) para todo t en (0, π). Si F (λ, u(π/2)) > F (λ, v(π/2))
entonces u(π/2) > v(π/2) y por lo anterior u(t) = v(t) para todo t en (0, π), luego
u(t) > v(t) para t en (0, π) de esta manera se tienen las partes i. y ii. .

Con la información obtenida hasta el momento es posible demostrar el siguiente

23
Teorema 1.3. Sean g : R → R una función continua y positiva y f (λ, u) = λg(u). Si
lı́mu→∞ g(u)
u
= ∞ entonces existe λ∗ > 0 tal que para 0 < λ < λ∗ el problema (1.1)-
(1.2) tiene por lo menos dos soluciones y para λ = λ∗ por lo menos una solución.
Si u y v satisfacen (1.1)-(1.2) y u(π/2) < v(π/2) entonces u(t) < v(t) para todo
t en (0, π). Si además g es convexa para λ ∈ (0, λ∗ ) el problema (1.1)-(1.2) tiene
exactamente dos soluciones y para λ = λ∗ una única solución.

Demostración. Supóngase que u = 0, a partir de (1.9) y (1.11) se sabe que u (t) =



2[F (λ, u(π/2)) − F (λ, u(t))] en (0, τ1 ), pero por definición de τ1 , τ1 > π/2, luego

se puede asumir que u (t) = 2[F (λ, u(π/2)) − F (λ, u(t))] en [0, π/2], ası́ u (t) > 0

para t en [0, π/2). Ya que u (0) = 2F (λ, u(π/2)) > 0, en (0, π/2) u decrece pero
sigue siendo positiva y finalmente u (π/2) = 0, luego u es creciente en [0, π/2] y por
la simetrı́a con respecto a π/2 (que se dedujo en (1.11)) decreciente en [−π/2, π], por
u
lo tanto u posee un único punto crı́tico en π/2. En este caso F (λ, u) = 0 f (λ, s)ds =
u u u
0
λg(s)ds = λ 0
g(s)ds, y si se define G(u) = 0
g(s)ds entonces F (λ, u) = λG(u),
de la ecuación (1.5) se tiene que

(1.15) u (t) = c − 2λG(u(t)), t en [0, π/2].

Al hacer t = π/2 se tiene que c = 2λG(u(π/2)). Definiendo ρ = u(π/2) = máx{u(t), t ∈


[0, π]} la ecuación (1.15) pasa a ser


(1.16) u (t) = 2λ(G(ρ) − G(u(t))), t en [0, π/2].

Luego

 u(t) √
du
(1.17) = 2λt.
0 G(ρ) − G(u)
En particular si t = π/2 se tiene
 ρ √
du
(1.18) = 2λπ/2 .
0 G(ρ) − G(u)
Recı́procamente, asúmase que la pareja (ρ, λ) satisface la ecuación anterior. Sea
√  u
du
(1.19) H(u, t) = −t 2λ + ,
0 G(ρ) − G(u)

24
como Hu = 0 y continua en (0, π/2) se puede aplicar el teorema de la función
implı́cita para asegurar que H(u, t) = 0 define u como función de t con u(0) = 0 y
u(π/2) = ρ. Derivando a ambos lados de la ecuación H(u, t) = 0 con respecto a t
(aplicando regla de la cadena) y teniendo en cuenta que u es función de t se obtiene
que u (t) > 0 en [0, π/2), de lo cual se sigue que u es creciente allı́ y (1.15) se tiene.
El hecho de que u(π/2) = ρ, se utiliza para probar que u (π/2) = 0. Por la simetrı́a
con respecto a π/2 mencionada en (1.11) y por el lema (1.1) se tiene que u(π) = 0,
o sea, u es solución del problema (1.1)-(1.2), concluyendo ası́ que (1.18) es condición
necesaria y suficiente para que el problema (1.1)-(1.2)tenga solución.
Para demostrar la primera parte del teorema se utilizará el gráfico de la función

2 ρ du 2 2
(1.20) λ= 2 = 2 (Σ(ρ))2
π 0 G(ρ) − G(u) π

Para ello hay que tener presente que


 ρ
du
(1.21) lı́m = 0,
ρ→0 0 G(ρ) − G(u)

 ρ
du
(1.22) lı́m = 0,
ρ→∞ 0 G(ρ) − G(u)
 u(π/2)
para obtener (1.21) se observa que G(ρ) − G(u) = u(t)
g(s)ds, t variando entre
0 y π/2, luego los lı́mites lo hacen entre u(0) = 0 y u(π/2) = ρ, u es creciente
allı́ por lo ya visto, por otro lado g es continua y positiva en ese intervalo, luego
se puede suponer que g(s) > 1/M para M fija suficientemente grande, con estas

consideraciones se puede afirmar que G(ρ)−G(u) > 0 (1/M )du = ρ/M , invirtiendo,
ρ  ρ M
tomando la raı́z cuadrada e integrando se tiene que 0 √ du < 0 ρ
du =
√ √ G(ρ)−G(u)
M ρ, y una vez elegido M , M ρ → 0 si ρ → 0.
Para ver que (1.22) se tiene, hay que utilizar la hipótesis lı́mu→∞ g(u)
u
= ∞, luego
para todo M > 0 existe N > 0 tal que si u > N entonces g(u) > M u. Por tanto, si
ρ ρ 2 2
u > N, G(ρ) − G(u) = u g(u)du > u M udu = M (ρ 2−u ) , de donde
ρ ρ
0
√ du < 2/M 0 √ du , por medio de una sustitución trigonométrica
G(ρ)−G(u) ρ2 −u2
la última integral es igual a √π , tomando M suficientemente grande la anterior
2M

25
π2
expresión se puede hacer menor que , para ello sea M > 22
, esto prueba (1.22).
Por la continuidad de Σ, y por los lı́mites (1.21)-(1.22) se sigue que si

λ∗ = 2π −2 {máx (Σ(ρ))2 : ρ ∈ (0, ∞)}

y 0 < λ < λ∗ , el problema (1.1)-(1.2) tiene por lo menos dos soluciones; si λ = λ∗


por lo menos una solución, y si λ > λ∗ ninguna.
Ahora se probará la otra parte del teorema, es decir, si u(π/2) < v(π/2) entonces
u(t) < v(t) para todo t en (0, π). De la ecuación (1.17) se tiene

√  u(t)
ds
(1.23) 2λt =
0 G(u(π/2)) − G(s)

√  v(t)
ds
(1.24) 2λt = , t en (0, π/2)
0 G(v(π/2)) − G(s)

como G(u(π/2)) < G(v(π/2)), el integrando en (1.23) es mayor para cada s, que el
integrando en (1.24), de donde se sigue que u(t) < v(t) para todo t en (0, π).
Finalmente se considerará el caso en que g es convexa. Si el problema (1.1)-(1.2)
tiene tres soluciones, a saber u, v y w, de lo visto en el resultado anterior se puede
suponer que u < v < w en (0, π). Llamando z = v − u y s = w − v se tiene lo
siguiente:
z  + λh(t)z = 0, z > 0 en (0, π), z(0) = z(π) = 0

s + λk(t)s = 0, s > 0 en (0, π), s(0) = s(π) = 0


g(v(t))−g(u(t)) g(w(t))−g(u(t))
donde h(t) = v(t)−u(t)
y k(t) = w(t)−u(t)
. Por la convexidad de g se tiene
que h < k en (0, π). Para ver esto será de ayuda la interpretación geométrica. La
gráfica de una función convexa es cóncava hacia arriba como se muestra en la figura
(3), para cualquier t0 fijo se tiene que u(t0 ) < v(t0 ) < w(to ), si A, B y C están en
la gráfica de g y A esta a la izquierda de B que a su vez esta a la izquierda de C
la pendiente del segmento AB es menor que la del segmento BC, estas pendientes
son precisamente h(t0 ) y k(t0 ), y como esto se tiene para cualquier t0 en (0, π) se
concluye que h(t) < k(t). Por el teorema de oscilación de Sturm mencionado en los
preliminares, se tiene que s(x) se anula al menos una vez entre dos ceros sucesivos

26
g

C
g(w(t0 ))

g(v(t0 )) B
A
g(u(t0 ))

u(t0 ) v(t0 ) w(t0 ) u

Figura 3. Función convexa.

de z(x), pero esto es imposible pues s(x) = w(x) − u(x) > v(x) − u(x) = z(x), por
tanto el problema (1.1)-(1.2) no puede tener tres o más soluciones.
2
Ahora supóngase que para λ = λ∗ = π2
(máx{(Σ(ρ))2 : ρ ∈ (0, ∞)}) hay por lo
menos dos soluciones del problema (1.1)-(1.2), utilizando el gráfico de la función
2
λ= π2
(Σ(ρ))2 se tiene que debe existir un λ1 < λ∗ para el cual el problema tiene
por lo menos tres soluciones pero esto contradice el resultado anterior.

λ∗
λ1

u1 u2 u3

Figura 4. si λ1 < λ∗ el problema tiene por lo menos 3 soluciones

27
1.2. Soluciones oscilatorias.
Ahora se estudiará la existencia de soluciones, no necesariamente positivas para el
problema “superlineal”

(1.25) u + f (u) = α, t ∈ [0, π], α ∈ R

(1.26) u(0) = u(π) = 0,

donde f : R → R es continua y satisface

f (u)
(1.27) lı́m = ∞.
|u|→∞ u

Se puede considerar (1.25) como u + f1 (α, u) = 0 donde f1 (α, u) = f (u) − α, luego
aplicar el lema (1.1) para concluir que si (1.25)-(1.26) tiene solución única y τ es un
punto crı́tico entonces u(τ + t) = u(τ − t). A continuación se intentará hallar una
solución que tenga alguna de las formas de la figura (5), donde u(x) = u(2j(a+b)+x)
para x en (0, 2a) y j en Z. Para que u(π) sea cero, se necesita que 2(a + b) sea un
submúltiplo entro de π, de manera que u(π) concuerde con u(2(a + b)), esto es:
2(a + b)k = π, y despejando, b = π
2k
− a para k en Z+ .
La otra posibilidad para que u(π) sea cero es que u(π) coincida con u(2a), para ello
se necesita que 2(a + b) sea un submúltiplo entero de π − a, o sea 2(a + b)k = π − a
y despejando, b = π−a − a, donde k está en Z+ .
 u 2k
Sean F (u) = 0 f (s)ds, ρ = u(a), ϕ = u(b), con a y b puntos crı́ticos. Al hacer un
razonamiento similar al que condujo a las ecuaciones (1.9)-(1.10) se observa que:

u + f (u) =α
 (u )2 
+ F  (u) =αu
2
(u )2 + 2F (u) =2αu + c
si a es un punto crı́tico y u(a) = ρ entonces
2F (u(a)) − 2αu(a) =c
(u (t))2 = 2F (u(a)) − 2αu(a)−2F (u(t)) + 2αu(t), luego

28
0 π

0 π

0 π

Figura 5.

(1.28) (u )2 =2F (ρ) − 2αρ − 2F (u) + 2αu



(1.29) u = 2 F (ρ) − αρ − F (u) + αu, t ∈ [0, a]
 u √
du
(1.30) = 2t, t ∈ [0, a] .
0 F (ρ) − αρ − F (u) + αu

Al asumir que en 2a + b hay otro punto crı́tico y razonado idénticamente para t en


[0, b] (haciendo una traslación de 2a unidades a la derecha) se obtiene

(1.31) (u )2 =2F (u(2a + b)) − 2αu(2a + b) − 2F (u(2a + t)) + 2αu(2a + t)


al hacer el cambio de variable t = t − 2a, t ∈ [2a, 2a + b]
(1.32) (u )2 =2F (u(b)) − 2αu(b) − 2F (u(t)) + 2αu(t)
(1.33) (u )2 =2F (ϕ) − 2αϕ − 2F (u(t)) + 2αu(t)

(1.34) u = 2 F (ϕ) − αϕ − F (u(t)) + αu(t)

29
 u √
du
(1.35) = 2t, t ∈ [0, b]
0 F (ϕ) − αϕ − F (u) + αu
volviendo a la variable anterior
 u √
du
(1.36) = 2(t − 2a), t ∈ [2a, 2a + b]
0 F (ϕ) − αϕ − F (u) + αu

como u es simétrica con respecto a a, al calcular u (2a), usando (1.28) y (1.33), se


deduce que:

(u (2a))2 = 2F (ρ) − 2αρ


(u (2a))2 = 2F (ϕ) − 2αϕ

de donde se sigue que

(1.37) F (ρ) − αρ = F (ϕ) − αϕ

Ahora es posible demostrar el siguiente

Teorema 1.4. Si f satisface (1.27) entonces para cada α ∈ R existe un entero


positivo K = K(α) tal que para todo k ≥ K el problema (1.25)-(1.26) tiene una
solución con k máximos locales. En particular, para cada α el problema (1.25)-(1.26)
tiene infinitas soluciones.

Demostración. Dado α ∈ R se define H(s) = F (s) − αs, luego H  (s) = F  (s) − α,


f (s)
por (1.27) para todo M > 0 existe N > 0 tal que si s < −N , entonces s
>M
y como s es negativo f (s) < M s, y H  (s) = F  (s) − α < M s − α, y sin importar
el valor de α, para s suficientemente grande y negativo M s − α es negativo, luego
H  (s) < 0.
A medida que s se hace más negativo (mas grande en valor absoluto) como H  (s) <
M s − α, H  también se hace mas negativa, luego H no se puede comportar como
la gráfica de la izquierda en la figura (6), y necesariamente ha de hacerlo como la
gráfica de la derecha en figura (6).
Con estas observaciones podemos asegurar que H(s) → ∞ cuando s → −∞. En
consecuencia ha de existir un A ≤ 0 tal que

(1.38) H(s) < H(q) si q ≤ A y s ∈ (q, 0).

30


Figura 6. Comportamiento de H

Razonando de manera idéntica se tiene que H  (s) = F  (s) − α = f (s) − α y por


f (s)
(1.27) para todo M1 > 0 existe N1 > 0 tal que si s > N1 , entonces s
> M1 , como
s es positivo f (s) > M1 s, y para s suficientemente grande f (s) − α > M1 s − α > 0
sin importar el valor de α. De esta manera H  (s) > 0 para s grande, luego H  (s) es
creciente, pues a medida que s crece H  también lo hace, luego H(s) → ∞ cuando
s tiende a ∞.
Como en el razonamiento anterior (s < 0), en este caso debe existir un A1 tal que
H  (s) > 0 para s en [A1 , ∞) y

(1.39) H(s) ≤ H(ρ), si ρ ≥ A1 y s ∈ (0, ρ) y además,


(1.40) H(A1 ) ≥ H(A).

Sea Q la inversa de H restringida a (−∞, A]. Para ρ ≥ 1 se define


 ρ  ϕ
ds ds
(1.41) Γ(ρ) = −
0 H(ρ) − H(s) 0 H(ϕ) − H(s)
ρ ϕ
Donde ϕ = Q(H(ρ)). Luego Γ(ρ) = 0 √ ds
− 0 √ ds
, ya que en
F (ρ)−αρ−H(s) F (ϕ)−αϕ−H(s)
(1.37) se habı́a visto que H(ρ) = F (ρ) − αρ = F (ϕ) − αϕ = H(ϕ).
ρ ϕ
Por lo tanto Γ(ρ) = 0 √ ds − 0 √ ds . El problema (1.25)-(1.26) se
H(ρ)−H(s) H(ρ)−H(s)
puede expresar como

(1.42) u + f1 (α, u) = 0


(1.43) u(0) = u(π) = 0,

31
donde f1 (α, u) = f (u) − α.
x x x
Ası́ F1 (α, x) = 0 f1 (α, s)ds = 0 (f (s)−α)ds = 0 f (s)ds−αx, por tanto F (α, u) =
u u
0
f (s)ds − αu = F (u) − αu, donde F (u) = 0 f (s)ds. Aplicando primero (1.12)-
(1.13) y posteriormente (1.14) se tiene que Γ(ρ) → 0 si ρ → ∞.
Sea K el menor entero mayor que π
2−máx{Γ(ρ):ρ≥A1 }
por el teorema del valor intermedio
(T.V.I) para cada k ≥ K existe ρk tal que
π
(1.44) Γ(ρk ) = .
2k
Ahora se define
 ρk  ϕk
ds ds
a= , b= ,
0 H(ρk ) − H(s) 0 H(ϕk ) − H(s)

siendo ϕk = Q(H(ρk )). Volviendo a la ecuación (1.9) se ve que para t en [0, a] la


formula
 u √
ds
(1.45) = 2t
0 H(ρk ) − H(s)

define a u como función de t. Derivando con respecto a t se tiene que √ u =
H(ρk )−H(u)

2, esta ecuación es equivalente a
√ √
u = 2 H(ρk ) − H(u) = 2 F (ρk ) − αρk − F (u) + αu, t ∈ [0, a]

pero esta ecuación es precisamente la ecuación (1.29), que es equivalente a la (1.25).


Utilizando la simetrı́a de u con respecto a a, se tiene que u satisface la ecuación
(1.25) en [0, 2a).
Razonando similarmente se obtiene la ecuación
 u √
ds
(1.46) = 2(t − 2a)
0 H(ρk ) − H(s)

que define una solución de (1.25) en [2a, 2a + b], de esta ecuación es evidente que
u(2a) = 0. La derivada con respecto a t no es otra cosa que la ecuación (1.31) en la
cual se observa que u (2a + b) = 0, con esto finaliza la demostración.

32
2. PLANO DE FASE, ENERGIA Y EL
TEOREMA DEL VALOR INTERMEDIO.
En las siguientes secciones se estudiarán algunos aspectos relacionados con la depen-
dencia continua de soluciones de ecuaciones diferenciales ordinarias en los paráme-
tros que las definen, con el fin de encontrar información sobre problemas con condi-
ciones de frontera a partir de problemas de valor inicial. El principio de contracciones
y el teorema del valor intermedio serán de gran ayuda en este capı́tulo.

2.1. El principio de contracciones.


Teorema 2.1. Sea (X, d) un espacio métrico completo y (Y, d) un espacio métrico.
Si f : X × Y → X es continua en la segunda variable y existe a ∈ [0, 1) tal que:

(2.1) d(f (x1 , y), f (x2 , y)) ≤ ad(x1 , x2 )

entonces existe una función continua ϕ : Y → X tal que f (x, y) = x si y solo si


x = ϕ(y).

Demostración. para y fijo se define la función gy : X → X como gy (x) = f (x, y),


ası́ la condición (2.1) adquiere la forma d(gy (x1 ), gy (x2 )) ≤ ad(x1 , x2 ) y como a ∈
[0, 1), gy es una contracción que va de un espacio métrico completo X en sı́ mismo,
por el teorema del punto fijo gy posee exactamente un punto fijo x̂, esto es, gy (x̂) = x̂.
Para hallar x̂ se elige un punto x0 ∈ X arbitrario y se define la sucesión x1 =
gy (x0 ), . . . , xn+1 = gy (xn ). Tal sucesión es de Cauchy, ya que para cualquier > 0
se tiene que

d(gy (xn ), gy (xn+1 )) = d(xn+1 , xn+2 ) ≤ ad(xn , xn+1 ) ≤ a2 d(xn−1 , xn ) ≤ . . .


≤ an+1 d(x0 , x1 ),

la última expresión es menor que , pues a ∈ [0, 1), por la completez de (X, d) la
sucesión (xn ) converge a x̂.
Como gy (x) es continua (pues es contracción), f (x, y) es continua en la primera
variable, por tanto

gy (x̂) = gy ( lı́m xn ) = lı́m (gy (xn )) = x̂,


n→∞ n→∞

33
y por la definición de gy , se tiene que f (x̂, y) = x̂. Luego ϕ(y) = x̂, de esta manera,
por la definición de ϕ, si f (xi , yj ) = xi entonces ϕ(yj ) = xj , esto es, f (xi , yj ) =
f (ϕ(yj ), yj ) = ϕ(yj ).
Para ver la continuidad de ϕ, se tomará una sucesión (yn ) que converja a ŷ, ası́:

d(ϕ(yn ), ϕ(ŷ)) =d(f (ϕ(yn ), yn ), f (ϕ(ŷ), ŷ))


≤ d(f (ϕ(yn ), yn ), f (ϕ(ŷ), yn )) + d(f (ϕ(ŷ), yn ), f (ϕ(ŷ), ŷ))
≤ ad(ϕ(yn ), ϕ(ŷ)) + d(f (ϕ(ŷ), yn ), f (ϕ(ŷ), ŷ))

de lo cual se sigue que


d(f (ϕ(ŷ), yn ), f (ϕ(ŷ), ŷ))
d(ϕ(yn ), ϕ(ŷ)) ≤ → 0 si n → ∞,
1−a
luego ϕ es continua.

Observación: Si f m es una contracción con p como punto fijo (f m (p) = p), entonces
p es un punto fijo de f r con 0 ≤ r < m, para probar este resultado es importante
tener en cuenta que cualquier entero positivo n, se puede expresar como n = mq + r,
con con 0 ≤ r < m y q ∈ Z+ .
Si x0 es un punto arbitrario

f n (x0 ) = f mq+r (x0 ) = f r (f mq (x0 )); si n → ∞, q → ∞

y se obtiene que

(2.2) lı́m f n (x0 ) = f r ( lı́m f mq (x0 )) = f r (p),


n→∞ q→∞

pero también

(2.3) lı́m f n (x0 ) = lı́m f mq (f r (x0 )) = lı́m f mq (y) = p,


n→∞ q→∞ q→∞

donde f r (x0 ) = y. De (2.2) y (2.3) se sigue que f r (p) = p.


Aplicación: Mostrar la existencia y dependencia continua de soluciones de u + nr u +
f (u, r) = 0, u(0) = a, u (0) = 0.
Despejando u se tiene u = − nr u − f (u, r), que se puede convertir en un sistema al
hacer u = x1 , u = x2 , ası́ u = x2 , si F (t, x) = (x2 , − nr x2 − f (x1 , r)) y x = (x1 , x2 ),

34
entonces se tiene que (x1 , x2 ) = F (t, x), y al hacer y = (y1 , y2 ) y suponer que f
satisface la condición (2.1) entonces
n n
F (t, x) − F (t, y) = (x2 , − x2 − f (x)) − (y2 , − y2 − f (y))
r r
n
= (x2 − y2 , − (x2 − y2 ) + (f (y) − f (x))
r
n
≤ x − y + | − | x − y + λ x − y , 0 ≤ λ < 1,
r
por tanto F satisface la condición de Lipschitz, ası́ el problema junto a las condiciones
iniciales tiene solución única por el teorema de existencia y unicidad de Picard.

2.2. La fórmula de variación de parámetros


En la presente sección se estudiará el problema

(2.4) u + λu = p(t), t ∈ [0, π], λ > 0

(2.5) u(0) = a, u (0) = b

y se hallará su solución por medio del método de variación de parámetros.


Se comienza hallando la solución del problema homogéneo asociado al problema
(2.4)-(2.5), a saber u + λu = 0, u(0) = a, u (0) = b.
La ecuación caracterı́stica asociada es r2 + λ = 0 y como λ > 0 sus soluciones
√ √ √
son r = ± λi, luego u1 (t) = sin( λt) y u2 (t) = cos( λt) son dos soluciones
linealmente independientes, de ahı́ que la solución general de la ecuación homogénea
√ √
sea u(t) = c1 sin( λt) + c2 cos( λt).
Hallando las constantes c1 y c2 de tal manera que se verifiquen las condiciones
iniciales, se tiene que la solución de la ecuación homogénea está dada por u(t) =
√ √
√b sin( λt) + a cos( λt).
λ
A continuación se utilizará el método de variación de parámetros para hallar una
solución particular del problema (2.4)-(2.5).

Como u + λu = 0 tiene la solución u(t) = c1 u1 (t) + c2 u2 (t), donde u1 = sin( λt)

y u2 = cos( λt), se sustituyen las constantes c1 y c2 por las funciones v1 y v2
respectivamente de manera que u = v1 u1 + v2 u2 sea una solución particular de
(2.4)-(2.5).

35
El wronskiano de u1 y u2 está dado por
 
 sin(√λt) √  √
 cos( λt) 
W (u1 , u2 ) = √ √ √ √  = − λ.
 λ cos( λt) − λ sin( λt)

  √
cos( λt)p(t)   √
sin( λt)p(t)
Ası́ v1 (t) = − u2 p(t)
W (u1 ,u2 )
dt = √
λ
dt, y v2 (t) = u1 p(t)
W (u1 ,u2 )
dt =− √
λ
dt.
Como u = u1 v1 + u2 v2 , se tiene
√  √ 
sin( λt) t √ cos( λt) t √
u(t) = √ cos( λs)p(s)ds − √ sin( λs)p(s)ds
λ 0 λ 0
 t √ √ √ √
1
=√ [sin( λt) cos( λs) − cos( λt) sin( λs)]p(s)ds
λ 0
 t √ √
1
=√ sin( λt − λs)p(s)ds
λ 0
 t √
1
=√ sin( λ(t − s))p(s)ds .
λ 0
Como la solución de (2.4)-(2.5) esta dada por Yg + Yp , donde Yg es la solución de
la ecuación homogénea y Yp es una solución particular, por tanto la solución del
problema (2.4)-(2.5) es
√ √  t √
b 1
(2.6) u(t, a, b, p) = a cos( λt) + √ sin( λt) + √ sin( λ(t − s))p(s)ds.
λ λ 0
A continuación se probará que esta expresión satisface el problema (2.4)-(2.5).
Evidentemente u(0) = a. Para hallar u (0) es necesario derivar la expresion
t √
√1 sin( λ(t − s))p(s)ds, para ello se utiliza el teorema de Leibnitz especificado
λ 0
en los preliminares, ası́:
√ √ √ 1 √
u (t) = − λa sin( λt) + b cos( λt) + √ sin[( λ(t − t))]p(t)+
λ
 t √
cos( λ(t − s))p(s)ds
0

√ √ √  t √

(2.7) u (t) = − λa sin( λt) + b cos( λt) + cos( λ(t − s))p(s)ds .
0

Al hacer t = 0 en esta expresión se tiene que u (0) = b.

36
Solo resta ver que u + λu = p, para ello se derivará la ecuación (2.7) utilizando de
nuevo el teorema de Leibnitz
√ √ √ √
u (t) = −λa cos( λt) − λb sin( λt) + cos( λ(t − t))p(t)−
√  t √
λ sin( λ(t − s))p(s)ds
0

(2.8)

√ √ √ √ √  t √
u (t) = −λa λa cos( λt) − λb sin( λt) − λ sin( λ(t − s))p(s)ds + p(t) ,
0

al utilizar (2.6) y (2.8) se tiene que u + λu = p(t), como se esperaba.


En la expresión para u(·, a, b, p) se observa que si an → a, bn → b, y pn → p
en L1 [0, π], entonces u(·, an , bn , pn ) → u(·, a, b, p) uniformemente en [0, π] pues la
convergencia tiene lugar en un intervalo compacto.

2.3. Alternativa de Fredholm para casos semilineales.


A continuación se considera el problema semilineal

(2.9) u + g(u) = p(t)

(2.10) u(0) = u(π) = 0

donde p es continua, g es localmente Lipschitz y además


g(u)
lı́m = λ, λ > 0.
|u|→∞ u

Esta sección está dedicada a probar el siguiente

/ {n2 , n = 1, 2, . . .} entonces el problema (2.9)-(2.10) tiene


Teorema 2.2. si λ ∈
solución.

Demostración. como g es localmente Lipschitziana, el problema (2.9) sujeto a la


condición inicial u(0) = 0, u (0) = b tiene solución única, a saber u(·, b). Para
ver esto se convierte la ecuación (2.9) en sistema lineal x = F (t, x), donde F es
una función vectorial, que satisface la condición de Lipschitz respecto a la segunda

37
variable. A tal fin sea u = x1 y u = x2 , con esta elección, la ecuación (2.9) se puede
expresar ası́
x = (x1 , x2 ) = (x2 , −g(x1 )),

de donde se sigue que F (t, x) = (x2 , −g(x1 )). Al hacer Y = (y1 , y2 ) y utilizar el
hecho de que g es Lipschitz (|g(y1 ) − g(x1 )| ≤ k|y1 − x1 |) se tiene:

F (t, x) − F (t, y) = (x2 − y2 , g(y1 ) − g(x1 ))


≤ (x2 − y2 , k|y1 − x1 |)
≤ X − Y + k X − Y
≤ c X − Y (c = 1 + k) .

Luego F es Lipschitz, y el problema X = F (t, X) de condición inicial X(0) =


(x1 (0), x2 (0)) = (0, b), tiene solución única u(·, b) por el teorema de existencia y
g(u)
unicidad de Picard. Como lı́mu→∞ u
= λ, entonces por definición, para todo > 0
existe M > 0 tal que si u > M entonces | g(u)
u
− λ| < , que equivale a g(u) < λu + u,
por tanto es posible expresar g(u) = λu + h(u). Al dividir por u y tomar el lı́mite
se concluye que lı́mu→∞ h(u)
u
= 0, de la misma manera si u → −∞.
Con estas consideraciones el problema (2.9) adquiere la siguiente forma

u + λu = p(t) − h(u)

u(0) = 0 u (0) = b.

Por el resultado principal de la sección anterior una solución para este problema
viene dada por la fórmula
√  t √
b 1
u(t, b) = √ sin( λt) + √ sin( λ(t − s))(p(s) − h(u))ds.
λ λ 0
En particular ψ(b) = u(π, b) es continua. Como para cada b u(t, b) es continua,
existe t0 ∈ [0, π] tal que

(2.11) |u(t0 , b)| = máx |u(t, b)|,

ası́
√  t0 √  t0 √
b 1 1
u(t0 , b) = √ sin( λt0 )+ √ sin( λ(t−s))p(s)ds− √ sin( λ(t−s))h(u)ds ,
λ λ 0 λ 0

38
 
b √ 1  t0 √ 
 1  t0 

|u(t0 , b)| ≤ √ | sin( λt0 )| + √  sin( λ(t − s))p(s)ds + √  h(u)ds ,
λ λ 0 λ 0
como g(u) = λu + h(u) ≤ λu + u, se sigue que h(u) ≤ u.
t √
Al hacer | 0 0 sin( λ(t − s))p(s)ds| = c1 y tener presente (2.11) se tiene
√  t0
b
|u(t0 , b)| ≤ √ | sin( λt0 )| + c1 + k uds
λ 0
b √
≤ √ | sin( λt0 )| + c1 + (kt0 ) máx |u(t, b)|
λ 0≤t≤t0

b √
≤ √ | sin( λt0 )| + c1 + c2 |u(t0 , b)|
λ
1  b √ 
≤ √ | sin( λt0 )| + c1 ,
1 − c2 λ
donde se puede tomar tan pequeño como se desee.
√ √
Como λ ∈ / Z+ se puede suponer que sin( λπ) > 0, de lo cual se sigue que
√  π √
b 1
ψ(b) = u(π, b) = √ sin( λπ) + √ sin( λ(π − s))p(s)ds
λ λ 0
1 π √
−√ sin( λ(π − s))h(u)ds
λ 0
b √ π
≥ √ sin( λπ) + c1 − |h(u(s, b))|ds
λ 0
b √
≥ √ sin( λπ) + c1 − π máx |u(s, b)|
λ
b √
= √ sin( λπ) + c1 − π |u(t0 , b)|
λ

b √  √b sin( λt) + c1 
≥ √ sin( λπ) + c1 − π λ
λ 1 − c2
b √  √ + c1 
b
≥ √ sin( λπ) + c1 − π λ ,
λ 1 − c2
y la ultima expresión tiende a infinito cuando b tiende a infinito, pues
b √ b π b  √ π 
(2.12) √ sin( λπ) − √ = √ sin( λπ) −
λ λ(1 − c2 ) λ 1 − c2
y al hacer suficientemente pequeño se tiene lo requerido. Si en la ecuación (2.12)
se hace b → −∞ se concluye que ψ(b) → −∞ si b → −∞.

39
Como ψ es continua debe existir un β tal que ψ(β) = u(π, β) = 0, con esto concluye
la demostración.

Ahora se desea averiguar que sucede si λ = n2 . Por la demostración del teorema


anterior se sabe que todo se reduce a saber si cero está en el recorrido de ψ(b).

Si λ = n2 entonces λ = n ∈ Z+ , luego

b 1 π
ψ(b) = u(π, b) = sin(nπ) + sin(nπ − ns)(p(s) − h(u))ds
n n 0

1 π
= sin(nπ − ns)(p(s) − h(u))ds .
n 0
Por otro lado

sin(nπ − ns) = sin(nπ) cos(ns) − sin(ns) cos(nπ)


= − sin(ns) cos(nπ)

sin(ns), si n es impar,
=
− sin(ns), si n es par.
Luego
 
 1 π sin(ns)(p(s) − h(u))ds = φ1 (s), si n es impar,
ψ(b) = n 0
− 1 π sin(ns)(p(s) − h(u))ds = φ (s), si n es par.
n 0 2

Para ψ(b) es suficiente analizar uno de los dos casos, pues si cero está en el recorrido
de φ1 (s) es porque φ1 (s0 ) = 0 para algún s0 , pero entonces 0 = −φ1 (s0 ) = φ2 (s0 ) y
cero esta en el recorrido de φ2 . Por tanto se investigará si cero esta en el recorrido
de  π
nφ1 (s) = sin(ns)(p(s) − h(u))ds .
0
Supóngase que h es acotada y creciente, y que se verifica lo siguiente
 π  π  π
sin(ns)h(−∞)ds < sin(ns)p(s)ds < sin(ns)h(+∞)ds .
0 0 0

Ha de existir algún s1 que da origen a un u1 = u(s1 ) tal que sin(ns1 )(p(s1 ) −
0π
h(u1 ))ds < 0, y algún s2 que de lugar a un u2 = u(s2 ) tal que 0
sin(ns2 )(p(s2 ) −
h(u2 ))ds > 0. Por la continuidad de nφ1 (s) debe existir un s0 que de origen a

u0 = u(s0 ) tal que 0 sin(ns0 )(p(s0 ) − h(u0 ))ds = 0, es decir nφ1 (s0 ) = 0, luego
φ1 (s0 ) = 0.

40
2.4. Plano de fase aplicado a una ecuación superlineal
En esta sección se considera el problema de frontera

(2.13) u + f (u) = p(t), t ∈ [0, π]

(2.14) u(0) = u(π) = 0

donde f y p son funciones continuas, f satisface (2.1), ası́ como la condición de


superlinealidad
f (u)
(2.15) lı́m = ∞.
|u|→∞ u

En la segunda sección del primer capı́tulo (soluciones oscilatorias) se demostró por


el método de cuadratura, que si p(t) es una función constante el problema (2.13)-
(2.14) tiene infinitas soluciones. En esta sección veremos que la condición (2.15) es
suficiente para que (2.13)-(2.14) tenga infinitas soluciones.
A continuación se convertirá la ecuación (2.13) en un sistema de primer orden, por
medio de la sustitución x1 = u, x2 = u , de esta manera

(2.16) x1 = x2 , x2 = −f (x) + p(t),

al hacer X = (x1 , x2 ) y F (t, x) = (x2 , p(t) − f (x1 )), (2.16) se puede expresar en
notación vectorial como X  = F (t, X). Teniendo en cuenta la condición (2.1), se
puede probar que F es lipschitz en la segunda variable ası́ como se hizo al comienzo
de la sección anterior. Por tanto el problema X  = F (t, X) sujeto a la condición
inicial X(0) = (x1 (0), x2 (0)) = (0, a) posee solución única para cada a ∈ R, esto
debido al teorema de existencia y unicidad de Picard.
Denotando tal solución como (x(a, t), y(a, t)), se sabe que esta función es continua
en las dos variables, y si an → a entonces (x(an , ·), y(an , ·)) → (x(a, ·), y(a, ·)) uni-
formemente en intervalos compactos.

Lema 2.3. Existe a0 tal que si |a| ≥ a0 entonces x2 (a, t) + y 2 (a, t) = 0 para cada
t ∈ [0, π]. Mas precisamente E(a, t) → ∞ cuando |a| → ∞ uniformemente para t
en intervalos compactos.

41
 2
Demostración. Sea E(a, t) = (u (a,t))
2
+ F (u(a, t)). Por la condición (2.1) se tiene
t
que F (t) = 0 f (s)ds es acotada inferiormente, a saber F (t) ≥ M para todo t ≥ 0.
Como |p(t)| ≤ máxt∈[a,b] |p(t)| y por otra parte 2(E−F ) = (u )2 entonces 2(E−M ) ≥

(u )2 , y tomando raı́z |(u )| ≤ 2 (E − M ), luego

|p(t)u (t)| = |p(t)||u (t)| ≤ p ∞ 2 (E − M ),

p(t)u (t) =≥ − p ∞ 2 (E − M ),

por tanto
dE
=u (a, t)u (a, t) + f (u(a, t))u (a, t)
dt
=p(t)u (a, t)

≥ − p ∞ 2 (E − M ),

separando variables e integrando entre 0 y t

d(E − M ) √
≥ − 2 p dt
(E − M )

2 E(t) − M ≥ 2 E(0) − M − 2 p t,
a2 a2
como E(0) = 2
y como 2
→ ∞ cuando |a| → ∞, se tiene que E(a, t) → ∞ cuando
|a| → ∞ uniformemente, para t en intervalos compactos.

Si |a| > a0 entonces para cada (x(a, t), y(a, t)) se puede definir

r(a, t) = x2 (a, t) + y 2 (a, t), y
 x(a, t) 
θ(a, t) = arctan , θ(a, 0) = 0,
y(a, t)
o implı́citamente

x(a, t) = r(a, t) sin(θ(a, t)), y(a, t) = r(a, t) cos(θ(a, t)),

r y θ son diferenciables con respecto a t, pues x y y lo son.

Lema 2.4. lı́m|a|→∞ θ(a, π) = ∞

42
Demostración. Durante la prueba de este lema en las funciones r y θ se omitirá la
variable a para simplificar la notación.
Derivando θ y reordenando los términos se tiene que
 1  y x 
(2.17) θ (t) = 1 −
1 + ( xy )2 yy

Sea > 0 dado. Por el lema anterior existe a( ) tal que si |a| ≥ a( ) entonces
1
(2.18) r(t) ≥ , para todo t ∈ [0, π],
2
por la condición (2.15) para cada M > 0 existe K(M ) = K tal que si |x| ≥ K
entonces |f (x)| ≥ M x. Por el argumento de energı́a si a ≥ a(M )
K
(2.19) r(t) ≥ .
2 sin(M −1/3 )

Tómese = M −1/3 suficientemente pequeño para que


1 1 π
(2.20) − |f | 2 − p > , <
1 + tan( ) 2 2
y también supóngase que
x
 
(2.21)   ≤ sin(M −1/3 )
y
y x y
 y x
  y

esta última hipótesis asegura que y y
≤ y
sin( ), luego 1 − y y
≥ 1− y
sin( ) ,
insertando esto en (2.17) se tiene que
 1  y 
(2.22) θ (t) ≥  x 2 1 − sin( ) .
1+ y y

y
Tomando suficientemente pequeño 1 − y
sin( ) ≥ 0, por la hipótesis (2.21) x
y

1 1
sin( ), luego 1+( x )2
≥ 1+sin2 ()
, y esto junto a la desigualdad (2.22) conduce a
y

1  y 

(2.23) θ (t) ≥ 1 − sin( ) .
1 + sen2 (x) y
y y x y 
Por (2.21) y como y
= x y
entonces y
≤ | yx | sin( ), y multiplicando por sin( ),

y  y 
 
sin( ) ≤   sin2 ( ),
y x

43
1
reemplazando |x| por r| sin(t)| y utilizando (2.18) que equivale a r
≤ 2 , se tiene que
 y  |y  | sin2 ( ) |y  |  sin2 ( ) 
  2
  sin ( ) = = ,
x r| sin( )| r | sin(t)|

se puede elegir de tal manera que sin2 ( )| sin(t)| < 1, con esta elección
 y  |y  |
  2
  sin ( ) ≤ ≤ 2 |y  |,
x r
y  y
y como ya se habı́a visto que y
sin( ) ≤ | yx | sin2 ( ), se tiene que y
sin( ) ≤ 2 |y  |,
como y  = p − f ,

y
sin( ) ≤ 2 |y  | ≤ 2 p ∞ + 2 |f | ≤ p ∞ + 2 |f |,
y
y
ası́ 1 − y
sin( ) ≥ 1 − p ∞ − 2 |f |, y
 1  y   1 
1 − sin( ) ≥ (1 − p ∞ − 2 |f |),
1 + sin2 ( ) y 1 + sin( )

por la desigualdad (2.22)

1 p ∞ 2 |f |
(2.24) θ (t) ≥ − −
1 + sin2 ( ) 1 + sin2 ( ) 1 + sin2 ( )
1
≥ 2 − p ∞ − 2 |f |.
1 + sin ( )
sin()
Para < π/2 1
cos()
≥ sin( ), ası́ cos()
≥ sin2 ( ), y 1 + tan( ) ≥ 1 + sin2 ( ) por lo
tanto
1
θ (t) ≥ − p ∞ − 2 |f |,
1 + tan( )
y por (2.19)
x
 
(2.25) θ (t) ≥ 1/2 para   ≥ sin(M −1/3 ).

y

Ahora se probará que si | xy | ≥ sin( ) entonces

M 2/3
(2.26) θ (t) ≥
2

44
como
xf (x) − x2 − xp(t)
θ (t) = 1 +
r2
M x − x2 − r p ∞
2
≥1+
r2
y + x + M x2 − x2 p ∞
2 2
= −
y 2 + x2 r
x 2
1 + M(y ) p ∞
= x 2 − .
1 + (y) r

1+M z
Lo anterior sugiere tener en cuenta la función g(z) = 1+z
, sı́ M > 1 ella es
creciente, por tanto si a < b entonces g(a) < g(b), esta simple observación será de
vital importancia para probar (2.26).
sin2 (θ) sin()
Recordando, = n−1/3 . Además ( xy )2 = cos2 (θ)
≥ cos()
= tan( ), pues sin2 (θ) cos( ) ≥
cos2 (θ) sin( ), ya que cuando

→ 0, sin2 (θ) cos( ) → sin2 (θ) y cos2 (θ) sin( ) → 0 .


1+M ( x )2
Por tanto g(( xy )2 ) ≥ g(tan( )), o lo que es lo mismo 1+( x
y
)2
≥ 1+M tan()
1+tan()
.
y

Por otro lado tan( ) ≥ cuando → 0, pues lı́m→0 tan()



tiende a uno por valores
1+M tan()
mas grandes que uno. Ası́ g(tan( )) ≥ g( ), o 1+tan() ≥ 1+M 1+

, y es claro que
1+M  1+M 
1+
≥ 2
para ≤ 1.
Resumiendo las anteriores observaciones se tiene que θ (t) ≥ M 2/3
2
+ ( 12 − p r ∞ ), si se
K
logra ver que r → sin(2)
, donde K es el que aparece en (2.19) entonces r se puede
1 p ∞ M 2/3
hacer suficientemente grande para que 2
− r
≥ 0, ası́ θ (t) ≥ 2
, que es lo que
se desea ver.
Para ello se observa que si | xy | ≥ sin( ) entonces |x| ≥ r cos(θ) sin( ) para todo θ, en
particular si θ = se tiene que |x| ≥ r cos( ) sin( ) = 2r sin(2 ).
Como r
2
sin(2 ) = r sin( ) cos( ) y por (2.19) 2r sin( ) ≥ K, se tiene que si →
K
0 entonces 2r sin( ) cos( ) ≥ K cos → K, luego r sin( ) cos( ) → 2
o de forma
K K
equivalente r
2
sin(2 ) → 2
, de donde se sigue que r → sin(2)
.
En particular si a > a(M ) entonces θ es creciente.
Sean 0 = t0 < t1 < t2 < . . . < tj ≤ π tales que θ(tk ) = kπ y θ(π) < (j + 1)π, y sean
0 < r0 < s1 < t1 < r1 < . . . < sj < tj ≤ π tales que θ(sk ) = kπ − , θ(rk ) = kπ + .

45
A continuación se utilizará (2.25) para probar las siguientes afirmaciones, en donde
el Teorema del Valor Medio (T.V.M) será una herramienta muy importante.
θ(r0 )−θ(0)
i. r0 ≤ 2 : por el (T.V.M) θ (c0 ) = r0 −0
≥ 12 , donde c0 ∈ (0, r0 ), ası́ 
r0
≥ 1
2
o
2 ≥ r0 .

ii. rk − tk ≤ 2 : razonando igual que en i. kπ+−kπ


rk −tk
≥ 12 , luego rk − tk ≤ 2 .

iii. tk − sk ≤ 2 : por el mismo argumento kπ−kπ+


tk −sk
≥ 12 , esto es, tk − sk ≤ 2 .

iv. sk − rk−1 ≤ 2 2 (π − 2 ) : haciendo uso de θ(sk ) − θ(rk−1 ) = π − 2 y de la


desigualdad (2.26) se tiene que
 sk
M 2/3
π − 2 = θ(sk ) − θ(rk−1 ) = θ (s)ds ≥ (sk − rk−1 ),
rk−1 2
2(π−2)
de lo cual se sigue que sk − rk−1 ≤ M 2/3
= 2 2 (π − 2 ).

Reuniendo los anteriores resultados se tiene que tk − tk−1 ≤ 4 + 2 2 (π − 2 ).


Como θ(π) < θ(tj ) + π, por los anteriores resultados se tiene lo siguiente

1 θ(π)−θ(tj )
i. si θ(π) − θ(tj ) < , aplicando el (T.V.M) 2
≤ π−tj
, ası́ π − tj ≤ 2 ,

ii. si θ(π) ∈ [jπ + , (j + 1)π − ] entonces π − tj ≤ 2 + 2 2 (π − 2 ),

iii. si θ(π) ∈ [(j + 1)π − , (j + 1)π−) entonces π − tj < 4 + 2 2 (π − 2 ),


ası́:

π =π − tj + (t1 − t0 ) + (t2 − t1 ) + . . . + (tj−1 − tj−2 ) + (tj − tj−1 )


≤(j + 1)(4 + 2 2 (π − 2 )).

Luego j → ∞ cuando → 0, ello implica que θ(tj ) = jπ → ∞, de ahı́ que θ(a, π) →


∞ cuando |a| → ∞, y con esto concluye la demostración.

La utilidad de este lema se hace patente en la demostración del siguiente

Teorema 2.5. Si f satisface (2.15) entonces el problema (2.13)-(2.14) tiene infinitas


soluciones.

46
Demostración. Como ψ(a) = θ(a, π) es una función continua, creciente y definida
en el intervalo [a0 , ∞), por el Teorema del Valor Intermedio existe una sucesión
a1 , a2 , . . . ⊆ [a0 , ∞) tal que θ(ai , π) = (i+m)π donde m es el mayor entero menor que
θ(a0 ,π)
 i ,π) 
π
. Como (i+m)π = θ(ai , π) = arctan x(a y(ai ,π)
, tomando tangente y despejando x
se tiene que x(ai , π) = 0. Al denotar x(ai , π) como xai , entonces la anterior ecuación
expresada con esta notación, no es otra cosa que

(2.27) xai (π) = 0

Al comienzo de esta sección se habı́a visto que xa (t) era una solución de la ecuación
(2.13) y que además xa (0) = 0 para cualquier a ∈ R, ası́, para aquellos ai de la
sucesión mencionada al comienzo de esta demostración, se puede afirmar que

(2.28) xai (0) = 0, xai (π) = 0 y xai satisface la ecuación (2.13).

Es decir, el problema (2.13)-(2.14) posee infinitas soluciones. Probar esto era el


objetivo de esta sección.

2.5. El Teorema del Valor Intermedio Generalizado y su


aplicación a sistemas superlineales con acoplamiento
débil.
En el desarrollo de este trabajo ha sido indispensable el Teorema del Valor Interme-
dio (T.V.I) en una dimensión. Para extender los resultados anteriores a ecuaciones
mas complejas se necesita generalizar el (T.V.I). En esta sección se trabajará con la
siguiente generalización atribuida a Carlo Miranda.

Teorema 2.6. Sean a1 < b1 < . . . < an < bn números reales. Sea f : [a1 , b1 ] ×
. . . × [an , bn ] → Rn una función continua de componentes f1 , . . . fn . Si para cada
i = 1, 2, . . . , n se tiene que

fi (x1 , . . . , xi−1 , ai , xi+1 , . . . , xn ) ≤ 0 y fi (x1 , . . . , xi−1 , bi , xi+1 , . . . , xn ) ≥ 0

para todo (x1 , . . . , xi−1 , ·, xi+1 , . . . , xn ) o

fi (x1 , . . . , xi−1 , ai , xi+1 , . . . , xn ) ≥ 0 y fi (x1 , . . . , xi−1 , bi , xi+1 , . . . , xn ) ≤ 0

para todo (x1 , . . . , xi−1 , ·, xi+1 , . . . , xn ), entonces existe x tal que f (x) = 0

47
Ahora se estudiará el problema de frontera

(2.29) ui + fi (ui ) + gi (t, u1 , . . . , un ) = 0, t ∈ [0, π]

(2.30) ui (0) = ui (π) = 0, i = 1, 2, . . . , n

Se dice que el sistema (2.29)-(2.30) es débilmente acoplado si las funciones g1 , . . . , gn


son acotadas. Se supone que para i = 1, 2, . . . , n

fi (u)
(2.31) lı́m = ∞.
|u|→∞ u

Es decir, el sistema (2.29) es superlineal.


El teorema presentado a continuación extiende el teorema (2.5) que basó su demos-
tración en el lema (2.3) ası́ como en el intrincado lema (2.4), por tanto los resultados
ya obtenidos nos dan una idea de como es la demostración del siguiente

Teorema 2.7. Si f1 , . . . , fn satisfacen (2.31) entonces el problema (2.29)-(2.30)


tiene infinitas soluciones. Más precisamente, existen enteros positivos M1 , . . . , Mn
tales que si m1 ≥ M1 , . . . , mn ≥ Mn son también enteros entonces (2.29)-(2.30)
tiene una solución (u1 , . . . , un ) tal que ui tiene mi ceros en (0, π).

Demostración. Por la demostración del lema (2.3) se puede afirmar que existen
números reales α1 ≥ 0, . . . , αn ≥ 0 tales que si |a1 | ≥ α1 , . . . , |an | ≥ αn entonces

(ui (a1 , . . . , an , t))2 + (ui (a1 , . . . , an , t))2 > 0, para todo t ∈ [0, π].

Por la demostración del mismo lema se tiene que


1
(Ei (a1 , . . . , an , t)) = (ui (a1 , . . . , an , t))2 + Fi (a1 , . . . , an , t) → ∞
2
x
uniformemente para t ∈ [0, π] cuando ai → ∞, donde Fi (x) = 0 fi (s)ds.
Estos resultados y el lema (2.4) implican que si a1 ≥ α1 , . . . , an ≥ αn entonces
existen funciones continuas y crecientes θi (a1 , . . . , an , ·) para i = 1, 2, . . . , n, tales
que

(2.32) θi (a1 , . . . , an , 0) = 0 y θi (a1 , . . . , an , π) → ∞ cuando ai → ∞.

48
También existen numeros reales positivos w1 , . . . , wn tales que

(2.33) θi (a1 , . . . , ai−1 , αi , ai+1 , . . . , an , π) ≤ wi para todo a1 ≥ α1 , . . . , an ≥ αn .

Se define

(2.34) Ωi = mı́n{θi (a1 , . . . , an , π); ai ≥ αi , i = 1, . . . , n}.

Tomando como referencia la prueba del teorema (2.5), llámese Mi al menor entero
mayor que Ωi /π. Dados los números m1 , . . . , mn tales que m1 ≥ M1 se define

Zi (a1 , . . . , an ) = θi (a1 , . . . , an , π) − mi π,

por (2.32) se tiene la existencia de βi > αi , i = 1, 2, . . . , n, tales que si aj ∈


[αi , βi ], j = i entonces

Zi (a1 , . . . , ai−1 , βj , ai+1 , . . . , an ) > 0.

Como Zi (a1 , . . . , ai−1 , αj , ai+1 , . . . , an ) < 0, por el Teorema del Valor Intermedio
Generalizado se concluye que Z = (Z1 , . . . , Zn ) posee un cero. Por definición de Z
existen a1 , . . . , an tales que θi (a1 , . . . , an , π) = mi π, de nuevo por el teorema (2.5)
esto equivale a ui (a1 , . . . , an , π) = 0 y ui posee mi − 1 ceros en (0, π), finalizando
ası́ la idea de la demostración.

2.6. El método de lı́neas


Por medio del siguiente ejemplo se podrá apreciar como se pueden utilizar los sis-
temas grandes de ecuaciones diferenciales ordinarias para resolver problemas que
involucran ecuaciones diferenciales parciales.
Se estudiará una discretización de una ecuación de onda que da lugar a sistemas
de ecuaciones ordinarias con acoplamiento lineal. Las preguntas que se formularán
surgen de manera natural al tener presentes las dos secciones anteriores.

49
A continuación se estudiará el problema de frontera

(2.35) utt − uxx + f (u) = p(x, t), x ∈ [0, π], t ∈ [0, T ].


(2.36) u(x, 0) = 0
(2.37) u(x, T ) = 0
(2.38) u(0, t) = 0
(2.39) u(π, t) = 0

Al dividir el intervalo [0, π] en n + 1 segmentos iguales, y denotar uk (t) = u( n+1 , t),
para k = 1, 2, . . . , n, la ecuación (2.35) se puede aproximar por medio del sistema

(2.40) uk (t) − (n + 1)(uk+1 (t) − 2uk (t) + uk (t) + uk (t)) + f (uk ) = pk (t),

donde u0 (t) = 0 y un+1 (t) = 0, esto se tiene como consecuencia de las ecuaciones
(2.38) y (2.39) respectivamente. Las funciones uk cumplen la siguiente condición
debido a las condiciones de contorno (2.36)-(2.37):

(2.41) uk (0) = uk (T ) = 0, para k = 1, 2, . . . , n.

El problema (2.40)-(2.41) se puede replantear como sigue

(2.42) uk + fˆk (uk ) + gk (t̂, u1 , . . . , un ) = 0, t̂ ∈ [0, π]

(2.43) uk (0) = uk (π) = 0,

para ello basta hacer el cambio de variable t̂ = πt


T
, tomar fˆk (uk ) = f (uk ), y hacer

gk (t̂, u1 , . . . , un ) = −(n + 1)(uk+1 (t) − 2uk (t) + uk (t) + uk (t)) − pk (t).

Esto es, expresar el problema (2.40)-(2.41) en la forma (2.29)-(2.30), pero aún ası́ no
es possible obtener la misma conclusión del teorema (2.7) por que las funciones
fˆk (uk ) = f (uk ) no satisfacen la condición de superlinealidad, y por otra parte el
sistema (2.42)-(2.43) no es débilmente acoplado, es decir, las gk no necesariamente
son acotadas.
El sistema (2.40) es equivalente a la ecuación vectorial

(2.44) u + Au + f (u) = p(t),

50
donde A es la matriz de componentes


2(n + 1)2 , si i = j


aij = −(n + 1)2 , si i = j + 1 o i = j − 1



0, si |i − j| ≥ 2.

Como se puede apreciar A es una matriz simétrica real, que posee los siguientes
valores propios  jπ 
2(n + 1)2 (1 − cos ), j = 1, 2, . . . , n.
n+1
Tratando de probar que las soluciones de (2.40)-(2.41) conducen a soluciones de
(2.35)-(2.39), surgen los siguientes problemas:

i. (Estimaciones a priori) Dar condiciones sobre f y p para que si (u1 , . . . , un )


son soluciones de (2.40) tales que ui (0) = 0, |ui (0)| ≤ b, entonces las ui sean
acotadas, por ejemplo por un B que dependa de b pero no de n.

ii. (Oscilación) ¿Se pueden imponer condiciones sobre f y p para que indepen-
dientemente de n, existan α1 , . . . , αn de manera que si |ai | ≥ αi entonces las
funciones argumento θi estén definidas y las conclusiones del teorema (2.7) se
conserven?

Otra alternativa a considerar es la siguiente. Para j = 1, 2, . . . , n sea


 jπ   jkπ   jnπ 
(2.45) ϕj = (sin , . . . , sin , . . . sin )T ,
n+1 n+1 n+1
cada ϕj es un vector propio de A y ϕi = ϕj cuando i = j, también se tiene que
{ϕ1 , . . . , ϕn } es una base ortogonal de Rn , pues A es simétrica.
Además ϕj 2 = kn,j (n + 1). Utilizando estos resultados se sigue que si


n 
n
2
un (t) = u(t) = αj (t)ϕj entonces u(t) = αj2 knj (n + 1), ası́
j=1 j=1


n  jπ 

Au, u = 2(n + 1)2 (1 − cos )αj2 knj (n + 1),
j=1
n+1

51
reemplazando el valor de u en la ecuación (2.44) se tiene
 jπ 
ϕj , fˆ(u)
ϕj , pn
αj + 2(n + 1)2 (1 − cos )αj (t) + =
n+1 knj (n + 1) knj (n + 1)

n  jkπ 
donde la k−ésima componente de fˆ(u) es f αj (t) sin n+1 .
j=1
De una manera un poco más clara

n
 jkπ  fˆk (u)
ϕj , pn
αj + σjn αj + sin = ,
k=1
n + 1 knj (n + 1) knj (n + 1)
 
donde σnj = 2(n + 1)2 (1 − cos jπ
n+1
).
Utilizando la fórmula de variación de parámetros se tiene que
 t
     
αj (t) (σnj ) knj (n+1) = sinh (σnj ) t aj + sinh (σnj )1/2 (t−s)
ϕj , fˆ(u)−pn ds
1/2 1/2
0

3. APLICACIONES
A continuación se analiza un problema con condiciones de frontera aparentemente
sencillo, pero que suministra una buena cantidad de casos a considerar.
Por el teorema de existencia y unicidad de Picard se sabe que si f es una función
continua que satisface la condición de Lipschitz en un dominio adecuado, entonces
el problema de valores iniciales

(3.1) u + f = 0,

(3.2) u(0) = 0, u (0) = a,

tiene una y solo una solución en un intervalo que contiene el cero.


Como se sabe f es quien determina si la ecuación diferencial es lineal o no, en esta
sección se verá que problemas lineales y no lineales pueden no tener solución aún
cuando la función f sea Lipschitz en todo su dominio, esto será consecuencia de
las condiciones iniciales y de frontera que se impongan, también se compararán los
resultados obtenidos en los diversos casos con el lema (1.2), con el único objetivo de
mostrar la consistencia del lema aludido.

52
En estas aplicaciones se tomará como la f de la ecuación (3.1) a la función no lineal
|u|, la cual es Lipschitz en cualquier dominio, esto es, se considerará el problema

u + |u| = 0,

con varias condiciones de frontera, las cuales darán lugar a diferentes posibilidades.
Problemas con valores de contorno
Caso lineal
Se considerará el problema de frontera

(3.3) u + u = 0, t ∈ [0, a],

(3.4) u(0) = 0, u(a) = α,

en donde f (u) = u es lineal.


Como la ecuación caracterı́stica de (3.3) es r2 + 1 = 0, que tiene solución r = ±i, la
solución de la ecuación (3.3) viene dada por

u(t) = c1 sin(t) + c2 cos(t),

por la condición u(0) = 0 se sigue que c2 = 0, luego las soluciones de (3.3)-(3.4)


son de la forma u(t) = c1 sin(t). Por la otra condición de frontera α = u(a) =
c1 sin(a), 0 ≤ t ≤ a.
Si a = nπ, n ∈ Z entonces α = c1 sin(nπ) = 0, de manera que si α = 0 y a = nπ el
problema (3.3)-(3.4) no tendrı́a solución, esto es, el problema

u + u = 0, t ∈ [0, nπ], n ∈ Z

u(0) = 0, u(nπ) = α, α = 0 ,

no tiene solución en el intervalo [0, nπ].


Este resultado no contradice el lema (1.2) por que no se posee la certeza de que
u > 0.
Caso no lineal
Ahora se considera el problema

(3.5) u + |u| = 0, t ∈ [0, a]

53
(3.6) u(0) = 0, u(a) = α,

aquı́ f (u) = |u| es una función no lineal.


f es Lipschitz en todo su dominio. Por la definición de la función valor absoluto hay
que considerar dos casos.

i. Si u(t) ≤ 0 en [0, a] entonces el problema (3.5)-(3.6) toma la forma

u − u = 0, t ∈ [0, a],

u(0) = 0, u(a) = α.

ii. Si u(t) ≥ 0 en [0, a] se tendrı́a

u + u = 0, t ∈ [0, a],

u(0) = 0, u(a) = α.

Para continuar el análisis de este problema no lineal son necesarios los dos lemas
siguientes

Lema 3.1. A. Si b > 0 es un cero de una solución u(t) de la ecuación u + |u| = 0,
tal que u (b) < 0, entonces u(t) < 0 para todo t ≥ b.

Demostración. Si u (b) < 0, entonces existe c > b tal que u(t) < 0 para todo t a
la derecha de b y a la izquierda de c, es decir, u es solución de u − u en [b, c), con
c > b.
Como toda solución no nula de u − u = 0 no tiene ceros en [b, ∞) diferentes de b
se debe tener que u(t) < 0 para todo t > b.
Véase ahora como es la solución del problema (3.5)-(3.6) si u(t) < 0. Esta es la
situación descrita en el caso i. (u − u = 0), la ecuación caracterı́stica asociada es
r2 − 1 = 0, sus raı́ces son r = ±1, de ahı́ que sus soluciones sean de la forma

u(t) = c1 exp(t) + c2 exp(−t),

como u(0) = 0 se ha de tener que c2 = −c1 , luego u(t) = c1 exp(t) − c1 exp(−t), o


en forma equivalente
u(t) = k sinh(t),
c1
donde k = 2
.

54
Lema 3.2. B. Si b > 0 es un cero de una solución u(t) de u + |u| = 0, tal que
u (b) > 0, entonces u(t) se anula en b + π, o sea, u(b + π) = 0.

Demostración. El problema u + |u| = 0 adquiere la forma u + u = 0 en una


vecindad de b, a saber en [b, c) para algún c > b, y como u(b) = 0, el razonamiento
que condujo a la solución del problema (3.3)-(3.4) implica que u(t) = c sin(t − b),
para t > 0 será una solución del problema, además es única por que se trata de
un problema de valores iniciales (u(b) = 0, u (b) = c, c > 0), a continuación se
comprueba que se cumple la condición inicial y la hipótesis

u(b) = c sin(b − b) = 0,

u(b + π) = c sin(b + π − b) = 0.
Esto completa la demostración.

Nota 3.3. Si se considera el problema u + |u| = 0, u(b) = 0, u (b) = 0, para b > 0
entonces por la unicidad de soluciones del problema de valor inicial, u(t) = 0.

Teorema 3.4. Si a < π entonces el problema de contorno (3.5)-(3.6) tiene una


única solución.

Demostración. Por los lemas A y B se tiene que la función




 k sin(t) , si α > 0,


(3.7) u(t) = 0 , si α = 0,



−k sinh(t) , si α < 0,

donde k > 0, es solución del problema u + |u| = 0, u(0) = 0, esto es claro, pues
[0, a] ⊆ [0, π].
Por la condición de frontera u(a) = α se deduce que la solución u(t) dada en la
ecuación (3.7) es única para el problema (3.5)-(3.6), pues u (t) será negativa, positiva
o cero, y estos casos se consideraron en los lemas A y B y la nota (3.3). Al utilizar
la condición u(a) = α para encontrar k se tiene que


 α[sin(a)]−1 , si α > 0,


k= 0, si α = 0,



−α[sinh(a)]−1 , si α < 0.

55
A simple vista parece que la solución u(t) = −k sinh(t), k > 0, contradice el lema
(1.2), pero al analizar lo que sucede de una manera más detallada se observa que no
es ası́.
Las hipótesis del lema dicen que f (u(t)) ≥ 0 para todo t y además f es continua,
es este caso f (u(t)) = |u(t)| verifica las dos condiciones; lo que no satisface es una
condición de frontera. En el problema (1.1)-(1.2) t ∈ [0, π] y u(π) = 0, aquı́ en
cambio t ∈ [0, a], a < π y u(a) = α, α < 0, al intentar adaptar el presente ejercicio
al del problema (1.1)-(1.2) lo que se podrı́a hacer serı́a u(a) = 0. En este caso

u(t) = k sinh(t), 0 = u(a) = k sinh(a),

como para cualquier a tal que 0 < a < pi se tiene que sinh(a) > 0, entonces k = 0,
ası́ u(t) = 0, de nuevo se mantiene en pie la conclusión del lema (1.2).

Teorema 3.5. Si a = π entonces el problema

u + |u| = 0,

u(0) = 0, u(π) = α,
tiene

i. Infinitas soluciones si α = 0.

ii. Ninguna solución si α > 0.

iii. Una única solución si α < 0.

Demostración. Sea u(t) solución de u +|u| = 0 tal que u(0) = 0. Hay que considerar
dos casos
I. Si u (0) > 0. Si esto sucede entonces para todo α > 0, u(t) = k sin(t) es solución
de u + |u| = 0 y u(0) = 0, de manera que si α = 0 hay infinitas soluciones.
Si α > 0 el problema de contorno u + |u| = 0, u(0) = 0, u(π) = α, no tendrá so-
lución. Esto prueba las partes i. y ii. .
II. Si u (0) < 0. De ser esta la situación, por el lema A se tiene que u(t) < 0 para
todo t > 0. Si α < 0 entonces u(t) = α[sinh(π)]−1 sinh(t) es la única solución de
u + |u| = 0, u(0) = 0, u(π) = α.

56
Ahora see observa como se relaciona este teorema con el lema (1.2).
Si α = 0 se verifican todas las condiciones del lema, pues f (u) = |u| ≥ 0, además |u|
es continua y u(0) = 0, u(π) = 0. El lema dice que si se cumplen las condiciones
ya mencionadas entonces las soluciones del problema son positivas en (0, π) o son
idénticamente nulas allı́.
En la demostración se mostró que si esta era la situación (caso I.), entonces la
solución es u(t) = k sin(t), se puede pensar que si la constante k se toma negativa
u(t) = k sin(t) sigue siendo solución y también se verifican las condiciones iniciales,
entonces ¿qué es lo que pasa?
Lo que sucede es que en aquel primer caso de la demostración se asumió que u (0) >
0, luego existe un c > 0 tal que u (t) > 0 para todo t en el intervalo Ic = [0, c) y
como u(0) = 0, u ha de ser positiva en Ic , pero si en la solución u(t) = k sin(t)
se toma k < 0 no existirı́a intervalo alguno en el cual u sea positiva, por tanto k
no puede ser negativa. Ası́ k ha de ser positiva o cero y la solución u(t) = k sin(t)
satisface de nuevo la conclusión del lema (1.2).

Teorema 3.6. Si π < a < 2π entonces el problema (3.5)-(3.6) tiene

i. Ninguna solución si α > 0.

ii. Una única solución si α = 0.

Demostración. i. Esto es consecuencia de los lemas A y B y la nota posterior a


ellos.
ii. La única solución es la trivial.

Teorema 3.7. Si π < a < 2π y α < 0 entonces el problema (3.5)-(3.6) posee dos
soluciones (linealmente independientes).

Demostración. Si u (0) < 0 una solución es u(t) = α sinh(a) sinh(t).


La otra es solución de u + u = 0, si u(t) ≥ 0 en [0, π] y si π ≤ t ≤ a tiene un cero
en π. Si u (0) > 0 entonces la solución es de la forma

k1 sin(t), si 0 ≤ t ≤ π,
u(t) =
k [sinh(t) − tanh(π) cosh(t)] , si π ≤ t ≤ a,
2

57
k1 y k2 constantes a determinar de tal manera que se verifiquen las condiciones de
frontera y tales que u (t) sea continua en t = π.
Al elegir k2 = α[sinh(a) − tanh(π) cosh(a)]−1 se cumple la condición de frontera
u(a) = α.
La continuidad de u (t) implica que k1 = −α[sinh(a−π)]−1 , no hay ningún problema
a la hora de verificar la condición u(0) = 0.
Se ve que el lado derecho de

k2 = α[sinh(a) − tanh(π) cosh(a)]−1 y de k1 = −α[sinh(a − π)]−1

están bien definidos, ya que a > π.


Con estos valores asignados a las constantes k1 y k2 la solución es

−α[sinh(a − π)]−1 sin(t), si 0 ≤ t ≤ π,
u(t) =
α[sinh(a) − tanh(π) cosh(a)]−1 [sinh(t) − tanh(π) cosh(t)] , si π ≤ t ≤ a,

esto completa la demostración.

Referencias
[1] Apostol, T. M. Análisis Matemático, segunda ed. Reverté, S.A, 1979.

[2] Castro, A. Métodos Variacionales y Análisis Funcional no Lineal. Universidad


Pedagógica y Tegnológica de Colombia y Sociedad Colombiana de Matemáticas,
1980.

[3] Castro, A. Introducción al Estudio de Ecuaciones Diferenciales no Lineales


con Condición de Frontera. Universidad Nacional de Colombia, 1991.

[4] Coddington, E. An Introduction to Ordinary Differential Equations. Dover,


1989.

[5] Hirsch, M. W., and Smale, S. Linear Methods of Applied Analysis. Academic
Press, 1974.

[6] Krall, A. Linear Methods of Applied Analysis. Addison Wesley, 1973.

58
[7] Kreyszig, E. Introductory Functional Analysis with Applications. John Wiley
and Sons. Inc, 1978.

[8] Lang, S. Linear Algebra, second ed. Addison-Wesley, 1973.

[9] Simmons, G. F. Differential Equations with Applications and Historical Notes,


second ed. Mc Graw-Hill, Inc, 1993.

59