Está en la página 1de 3

CAPITULO I

En este capı́tulo comenzamos nombrando el método de Newton para aproximar las raı́ces de una
ecuación. En seguida, definimos escalas suaves de espacios de Banach yHaproximaciones
H de identidad
y probamos las propiedades de convexidad utilizadas en la teorı́a. En 3 y 4 el teorema de Nash-
Moser es enunciado y demostrado, haciendo la segunda de estas secciones la parte que se refiere a las
soluciones infinitamente regulares cuando el mienbro derecho
H de la ecuación es infinitamente regular .
Para esto seguimos el método de Sergeraert [ Ser] . En 5 estudiamos una ecuación diferencial parcial
no lineal en el toro, dónde es fácil construir escalas suaves usando series de Fourier.Aunque todo sea
muy simple, el ejemplo ya permite ilustrar la utilidad de las propiedades de convexidad H y interpolación
de las normas, y como actuar indutivamente para obtener estimaciones suaves.En 6 discutimos la
posibilidad de relajar las estimaciones suaves para la inversa a la derecha de la derivada del operador
en estudio, presentamos una extensión válidad para estimaciones sub-suaves para r < 2 (el caso suave
corresponde r ≤ 1) y mostramos con un contra-ejemplo la imposibilidad de obtener el mismo resultado
si r > 2.

1 El método de Newton
Comenzaremos por recordar el método de Newton para aproximar una raı́z de una función real dos
veces diferenciable definida en R. Sea f: R −→ R de clase C 2 y supongamos que existe una constante
positiva C> 0 tal que

1
|f 0 (x)| ≥ , x ∈ R, (1)
C

|f 00 (x)| ≤ C, x ∈ R, (2)

donde f 0 y f 00 son las derivadas de f. Es claro que la primera condición obliga a f a tener,
de hecho, un cero.En efecto, f 0 no puede cambiar de signo y podemos suponer, por ejemplo que
f 0 ≤ −1/Cyf (0) > 0. Entonces, f (x) − f (0) ≤ −(1/C)x que resulta menor que −f (0) para x > 0
suficientemente grande haciendo f (x) < 0 lo que permite concluir que f tiene un cero en el intervalo
[0, x]. Sin embargo, este razonamiento simple da una información muy vaga sobre la localización del
cero de f: el cero pertenece al intervalo [0, x], donde x = Cf (0) y esto es todo, aunque la precisión
mejora cuando menor es |f (0)|. El razonamiento anterior tiene la siguiente interpretación geométrica:
el gráfico de f a la derecha del origen queda por debajo de la recta que paso por el punto de coordenadas
(0, f (0)) con declive−1/C. Esta recta intercepta el eje de las abscisas en el punto x = Cf (0). El primer
paso del método de Newton consiste en reemplazar la recta descrita anteriormente por la recta que
pasa por el mismo punto (0, f (0)) pero, está vez, con declividad f 0 (0). De esta forma obtenemos un
punto x1 en la intersección con el eje x. Ahora reiteramos el proceso a partir del punto x1 para obtener
u n punto x2 y ası́ sucesivamente. La sucesión ası́ definida verifica entonces

x0 = 0 (3)

1
xn+1 = xn − f (xn ), n = 0, 1, ... (4)
f 0 (xn )

Estudiemos la convergencia de la sucesión.


Usaremos el siguiente Teorema
Teorema: Sea una función f : R → R con sus n primeras derivadas existen son continuas en el intervalo
[a,b] y f n+1 (x) existe para todo x ∈ (a, b), entonces existe z ∈ (a, b) tal que:

1
f 0 (a) f 00 (a) f n (a) f n+1 (z)
f (b) = f (a) + (b − a) + (b − a)2 + ... + (b − a)n + (b − a)n+1
1! 2! n! (n + 1)!

En nuestro caso tomando b = xn+1 y x ∈ (xn , xn+1 ) donde se tiene ,por la fórmula de Taylor que

f (xn+1 ) = f (xn ) + f 0 (xn )(xn+1 − xn ) + R2 (xn , xn+1 )


(5)
= O(|xn+1 − xn |2 )

dónde usamos (3) y (4) para observar que los dos primeros términos del miembro de la derecha se
f 00 (z)
cancelan mutuamente, y (1),(2) para estimar el resto R2 . Donde R2 (xn , xn+1 ) = |xn − xn+1 |2 .
(2)!

También sigue de (1),(2),(3) y (4) que

1
|xn+1 − xn | = | ||f (xn )|
f 0(xn )

Ası́,

|xn+1 − xn | ≤ C|f (xn )|

Como
|f 00 (z)|
|f (xn )| = |xn − xn−1 |2 ≤ C|xn − xn−1 |2
4
El que combinando con la estimación anterior proporciona

|xn+1 − xn | ≤ C 2 |xn − xn−1 |2 , n = 1, 2, ...

n −1 n
Si escribimos |x1 | = L tenemos inmediatamente por inducción que |xn+1 − xn | ≤ C 2 L2 .

Vemos entonces que CL < 1 la sucesión (xn ) será una sucesión de Cauchy. Considerando que
|x1 | = |f (x0 )/f 0 (x0 )| ≤ C|f (x0 )| bastará suponer que |f (x0 )| < 1/C 2 para garantizar que CL < 1,es
decir, si en el primer punto x0 de la sucesión la función asume un valor suficientemente pequeńo, el
método proporciono una sucesión convergente. En virtud de (5), el limite es necesariamente un cero
de f. Es importante notar que la velocidad de la convergencia es bastante rápida, ya que la distancia
entre términos consecutivos |xn+1 − xn | es estimada por la potencia de una base fija menor que 1, con
exponente 2n .

Gran parte de lo que se ha hecho en el caso de una función f definida de R en R se aplica casi sin
modificaciones al caso de una aplicación entre dos espacios normados completos,cambiando el valor
absoluto por las normas correspondientes. Un ejemplo tı́pico es el siguiente.
Sea X = C k+m (el espacio de Banach de las funciones k+m veces continuas y acotadamente difer-
enciables en RN con la norma del supremo de la función y sus derivadas de orden hasta k+m) y sea
Y = C k . Un operador no lineal de orden m , F : X → Y es una aplicación de la forma

Fu(x) = F(x, u, ..., Dα u, ...), |α| ≤ m, (6)

2
donde F es una función infinitamente diferenciable de todos sus argumentos. Digamos que estamos
interesados en encontrar una función u(x) que verifique la ecuación Fu = 0. Para aplicar el esquema
de Newton a esta situación debemos considerar una sucesión (un ) definida inductivamente por medio
de

un+1 = un − [F 0 (un )]−1 (F(un )), n = 0, 1, ...

donde F 0 (un ) ∈ L(X, Y ) (espacio de las transformaciones lineales acotadas de X en Y).Sin embargo,
para que el método funciones debemos exigir que [F 0 (un )]−1 pertenezca a L(X,Y).Desafortunadamente,
esta requisito es raramente satisfecho para operadores diferenciables (6). Con excepción de los op-
eradores elı́pticos, incluso cuando F 0 (un ) es inyectivo, la inversa [F 0 (un )]−1 no es continua. Mas
precisamente, si pensamos en Y como un espacio de funciones que posee k derivadas, podemos ver el
operador F de orden m como una aplicación que ”pierde” m derivadas. Si, como se ha dicho, es ver-
dad que en general [F 0 (un )]−1 no recupera las m derivadas perdidas por F, sucede con frecuencia que
[F 0 (un )]−1 recupera por lo menos un número fijo r¡m de derivadas. En estas circunstancias, aunque
no sea posible aplicar el método de Newton, se aplica una modificación que hizo Nash es su trabajo
[N]. en esta modificación la pérdida de derivadas es compensada por la introducción de operadores de
regularización. Nash uso los espacios C k que no gozan de propiedades funcionales muy adecuadas y
pueden ser sustituidas con ventaja por los espacios de Holder Λk o por los espacios de Sobolev H k .
Todas estas familias de espacios poseen ciertas caracterı́sticas comunes cuya abstracción conducen a
la noción de escalas suaves de espacios de Banach, lo segundo se describe en la próxima sección.

También podría gustarte