Está en la página 1de 10

Matemáticas III - Tema 2

Ecuación escalar no lineal

 Planteamiento del problema


 El método de bisección
 Iteración del punto fijo
 El método de Newton-Raphson
 El método de la secante
2.1. PLANTEAMIENTO DEL PROBLEMA
Sea f : I → R una función escalar continua, donde I es cualquier
intervalo de la recta real. (La palabra escalar se refiere a la que
llegada es R, y no R2 , R3 . . .).
• Se llama cero de la función f o raı́z de la ecuación f (x) = 0 a
un punto c ∈ I tal que f (c) = 0.
• Resolver una ecuación f (x) = g (x) (por ejemplo, cos x = x) se
puede formular como buscar los ceros de h = f − g (es decir,
resolver cos x − x = 0).
• Salvo en el caso de polinomios de grado bajo, no es posible en
general encontrar los ceros por procedimientos analı́ticos, y hay
que “conformarse” con diseñar algoritmos numéricos que
aproximen los ceros con un error lo menor posible. Por ejemplo,
¿cómo resolverı́amos a mano cos x = x?

• Ası́ que buscamos una sucesión (cn ) con el propósito de que


converja a un cero c de f . Pero: puede no converger, o puede que
la convergencia sea demasiado lenta.

2.2. EL MÉTODO DE BISECCIÓN


Teorema de Bolzano. Si f es continua en [a, b] y f (a)·f (b) < 0,
entonces f tiene al menos un cero c en (a, b).
Esta idea es la base del método de bisección, que genera una
sucesión que siempre converge a un cero, si bien la convergencia
será en general muy lenta.
• El método (el algoritmo), a nivel teórico, consiste en:
2. Buscamos un intervalo [a, b] con f (a)·f (b) < 0. (Un buen sistema
para hacerlo es utilizar un ordenador para dibujar la gráfica de la
función, cuando sea posible). No necesitamos garantizar que en el
intervalo haya un único cero: el método encontrará uno de los
ceros del intervalo (a, b). La longitud del intervalo es b − a.
3. Buscamos el punto medio del intervalo: c1 = (a + b)/2.
4. Evaluamos f (c1 ). Si es 0, hemos acabado: c = c1 es un cero. Si
no lo es, tendrá signo distinto de f (a) o de f (b). Elegimos de los
dos semi-intervalos el que nos conviene (el de “signos distintos”),
que tiene longitud (b − a)/2. Y repetimos el proceso: definimos c2
como el punto medio del intervalo escogido, que dividimos en dos
semi-intervalos de longitud (b − a)/4.
5. Ası́ determinamos una sucesión de intervalos encajados, de
longitudes (b − a)/2, (b − a)/4, (b − a)/8, . . . , (b − a)/2n ,. . . ,
con la seguridad de que cada uno de los intervalos contiene un
cero. Si en el paso n-ésimo es f (cn ) = 0, hemos encontrado
“exactamente” un cero: c = cn . Si esto nunca sucede, la sucesión
infinita (cn ) converge a un cero c: limn→∞ cn = c, puesto que
limn→∞ |c − cn | ≤ limn→∞ (b − a)/2n = 0.

• Teorema del método de bisección. Si f : [a, b] → R es continua


con f (a)f (b) < 0, el método de bisección genera una sucesión (cn )
que se aproxima a un cero c cumpliendo |cn − c| ≤ (b − a)/2n .
 De modo que la cota del error es (b − a)/2n .
 Se comprueba (está hecho en el tema anterior) que
limn→∞ (b − a)/2n = 0 con orden de convergencia lineal y
constante de error asintótico 1/2. Por tanto, la cota del error
converge a 0 con convergencia lineal.
 Coste operacional: en cada paso, una cuenta trivial (suma de
extremos y división entre dos) y una evaluación de f .

 Ejemplo. f (x) = x 3 + x 2 − 1 tiene un cero en [0, 1] (único en el


intervalo, porque f  (x) = 3x 2 + 2x, luego f crece estrictamente en
(0, 1]).

Elección de intervalos:
[1/2, 1] = [1/2, 2/2]
[3/4, 2/2] = [3/4, 4/4]
[3/4, 7/8] = [6/8, 7/8]
[6/8, 13/16] = [12/16, 13/16]
[12/16, 25/32] = [24/32, 25/32]
...
(f es negativa en 3/4 y positiva
en los extremos superiores)

• A nivel práctico, no podemos hacer infinitas iteraciones. Ası́ que:


1. Fijamos una tolerancia, tol: nos conformamos con obtener un
punto c que esté a distancia menor o igual que tol de un cero.
6. Si no hemos encontrado exactamente el cero, acabamos el proceso
(criterio de parada) cuando cota de error (la longitud del
intervalo) sea menor o igual que la tolerancia:
(b − a)/2n ≤ tol. Elegimos como c el último punto
encontrado: es seguro que c está en el intervalo, y su distancia al
extremo que escojamos (error que cometemos) es menor que la
longitud del intervalo.
 También podrı́amos fijar un número máximo de iteraciones, pero
en este caso no tiene mucho sentido: sabemos que llegaremos a la
tolerancia cuando n ≥ (ln(b − a) − ln(tol))/ ln 2. Por ejemplo,
para b − a = 1 y tol = 10−5 , es n = 17.
 Otro posible criterio de parada es que |f (cn )| sea menor que una
tolerancia fijada. Pero hay que tener cuidado; puede que se
cumpla y que cn esté lejos del cero.
• Siempre hay errores en las cuentas. Sumar y dividir por 2 da un
error muy pequeño, pero evaluar la función f puede requerir
muchas operaciones y acumular un error grande. Los errores de los
que hablamos suponen (en todos los métodos) aritmética exacta.

2.3. ITERACIÓN DE PUNTO FIJO


Resolver la ecuación g (x) = x es un problema que aparece a
menudo, a veces como herramienta para resolver otros problemas
(como buscar ceros de una función f : reescribimos f (x) = 0 como
f (x) + x = x, por ejemplo).
Una solución c, que cumple g (c) = c, es un punto fijo de g .
Gráficamente corresponden a las abscisas de los puntos en los que
la gráfica de g corta a la bisectriz y = x del plano real.

f (x) = cos(3x)/4 + 1.
Teorema del punto fijo. Si g : [a, b] → [a, b] es continua,
entonces g tiene al menos un punto fijo en [a, b]. Y si
|g (y ) − g (x)| < |y − x| para todos x, y ∈ [a, b], entonces el punto
fijo es único. Esta última condición se verifica en particular en el
caso de que g sea derivable en (a, b) y |g  (x)| < 1 para todo
x ∈ (a, b) (:teorema del valor medio).
El método de iteración de punto fijo genera una sucesión (cn )
que, bajo ciertas condiciones, converge a un punto fijo de g .
La definición de la sucesión es muy sencilla:
 Tomamos c0 ∈ [a, b].
 Definimos c1 = g (c0 ), c2 = g (c1 ),. . . ,cn+1 = g (cn ),. . .
 Supongamos que existe c = limn→∞ cn . Entonces, por continuidad
de g en el punto c,
 
c = lim cn+1 = lim g (cn ) = g lim cn = g (c) ,
n→∞ n→∞ n→∞

y por tanto c es un punto fijo de g . (La tercera igualdad se debe


a la propiedad fundamental de la continuidad de g ).

Teorema del método de punto fijo. Sea g : [a, b] → [a, b]


continua en [a, b] y derivable en (a, b). Supongamos que existe
δ ∈ (0, 1) con |g  (x)| < δ para todo x ∈ (a, b). Sea c0 ∈ (a, b).
Entonces la sucesión (cn ) definida por cn+1 = g (cn ) para n ≥ 0
converge al único punto fijo c de g en [a, b]. Además, si n ≥ 1,
n δn
|c −cn | ≤ δ max(c0 −a, b −c0 ) y |c −cn | ≤ |c1 −c0 | .
1−δ
 El teorema da condiciones suficientes, pero no necesarias: es
posible que no se cumpla la condición de acotación uniforme de
las derivadas pero el método converja. En general, si la derivada es
continua y |g  (c)| < 1, convergerá si tomamos c0 suficientemente
cerca de c. Para comprobar esta segunda condición, podemos
recurrir a la ayuda de la representación gráfica.
 Si existe g  (c) con |g  (c)| > 1, es muy difı́cil que el método
converja a c. (Pero no imposible: podrı́amos caer en el punto c
tras un número finito de iteraciones).
 Criterios de parada: el mejor es (δ n /1 − δ)|c1 − c0 | < tol.
También puede fijarse un número máximo de etapas, o una
tolerancia para |cn − cn−1 |.
Interpretación gráfica.

g (x) = cos(3x)/4 + 1 (|g  (c)| < 1)

g (x) = 3 cos(3x)/2 + 1.6 (|g  (c)| > 1)

Derivada 1, convergencia y no convergencia

Ciclo y punto eventualmente fijo


• Coste computacional: en cada paso hay que evaluar g una vez.
• Podemos usar el método para resolver ecuaciones f (x) = 0. En
general, hay más de una forma de hacerlo, con resultados muy
distintos.
• Ejemplo. Buscar la única raı́z real de x 3 + 4x 2 − 10 = 0, que
claramente está en el intervalo [1, 2].
 Podemos reescribir la ecuación como x = x 3 + 4x 2 + x − 10:
g1 (x) = x 3 + 4x 2 + x − 10. El método no converge.
10
 Reescribirla como x = 2 − 4 = g2 (x). No converge.
x
(10 − x 3 )1/2
 Reescribirla como x = = g3 (x). Converge.
2
 En los dos primeros casos la derivada en el cero c de f de la
función “g ” construida tiene módulo mayor que uno. En el
tercero, el módulo es menor que uno.
(Ver ficheros PuntoFijoCero.mw y PuntoFijoCero.pdf).

10
Iteración de punto fijo para búsqueda de cero > g2 d x/
x2
K4

(Maple) g2 := x/
10
K4 (4)
x2
> plot g2, d , 1.3 ..1.4, 1.3 ..1.4, thickness = 3
> restart
1.40
3 2
> f d x/x C4$x K10 1.38
3 2
f := x/x C4 x K10 (1)
1.36
> plot f, 1 ..2, thickness = 3
1.34
14 1.32
10 1.30
1.321.341.361.381.40
6

0
1.2 1.4 1.6 1.8 2
K4
1
3 2
10 Kx
> g3 d x/
> plot f, 1.3 ..1.4, thickness = 3 2
1
0.5 g3 := x/ 10 Kx3 (5)
2
> plot g3, d , 1.3 ..1.4, 1.3 ..1.4, thickness = 3
0
1.34 1.40
1.40
K0.5
1.38

K1 1.36
1.34
1.32
> g1 d x/x^3 C4$ x^2 Cx K10
1.30
g1 := x/x3 C4 x2 Cx K10 (2) 1.321.34 1.361.381.40

> d d x/x
d := x/x (3)
> plot g1, d , 1.3 ..1.4, 1.3 ..1.4, thickness = 3
1.40
1.38
1.36
1.34
1.32
1.30
1.34 1.40
Orden de convergencia: fórmula de Taylor
 Supongamos que el método converge, y recordemos que
g  (c) g (m) (c) g (m+1) (ξx )
g (x) = g (c)+g  (c)(x−c)+ (x−c)2 +· · ·+ (x−c)m + (x−c)m+1
2 m! (m + 1)!

cuando g es de clase C m+1 en un entorno de c, siendo ξx un


punto comprendido entre c y x. Como g (c) = c y g (cn ) = cn+1 ,

 g  (c) 2 g (m+1) (ξn )


cn+1 −c = g (c)(cn −c)+ (cn −c) +· · · (cn −c)m+1
2 (m + 1)!
 Supongamos que g (k) (c) es la primera derivada distinta de cero.
Entonces
|cn+1 − c| |g (k) (c)|
lim = .
n→∞ |cn − c|k k!
 Es decir, en estas condiciones, el orden de convergencia es k y la
|g (k) (c)|
constante de error asintótico es .
k!
 En particular, la convergencia es al menos lineal (k ≥ 1). (Lo es
en los ejemplos vistos, porque g  (c) = 0).

2.4. EL MÉTODO DE NEWTON-RAPHSON

• Buscamos los ceros de una función f (x) como los puntos fijos de
f (x)
la función g (x) = x −  :
f (x)
f (c)
f (c) = 0 si y sólo si g (c) = c −  =c.
f (c)
En principio requiere que la función g esté definida en un entorno
del cero buscado; es decir, que exista derivada y no se anule. Pero
puede funcionar en otras condiciones.
 De modo que tomamos c0 y definimos
f (cn )
cn+1 = cn − para n ≥ 0 .
f  (cn )
 Si f es de clase C 3 en un entorno de un cero c, entonces g es
C 2, y (f  (c))2 − f (c)f  (c) (f  (c))2

g (c) = 1 − =1−  =0
(f  (c))2 (f (c))2
cuando f  (c) = 0. De modo que si, en estas condiciones, el
método converge, el orden de convergencia es al menos 2.
• Teorema del método de Newton-Raphson. Sea f ∈ C 2 ([a, b]).
Supongamos que existe un cero simple c ∈ [a, b] de f : f (c) = 0 y
f  (c) = 0. Entonces:
- Existe δ > 0 tal que el método de Newton-Raphson genera
una sucesión que converge a c para todo c0 ∈ [c − δ, c + δ].
- Si además f ∈ C 3 ([c − δ, c + δ]) entonces la convergencia del
método es al menos cuadrática.
Interpretación gráfica. Consideremos la recta tangente a la
gráfica de f en el punto cn : y = f (cn ) + f  (cn )(x − cn ). Su
intersección con el eje horizontal y = 0 es precisamente el punto
x = cn − f (cn )/f  (cn ); es decir, el punto cn+1 .

• El coste computacional del método es alto: en cada paso, aparte


de calcular f en un punto, hay que calcular f  en el mismo punto,
lo que a menudo requiere el empleo de nuevos métodos numéricos
(que veremos).
• El método puede tener problemas en el caso de búsqueda de ceros
con derivada 0. Incluso en el caso de convergencia, se pierde la
convergencia cuadrática, y se divide por cantidades muy pequeñas,
lo que aumenta los errores de redondeo.
• Una posibilidad es aplicar el método de N-R a h(x) = f (x)/f  (x),
que tiene los mismos ceros que f , pero con derivada no nula. Pero
aumenta mucho el coste computacional, por tener que calcular la
segunda derivada. Y siguen los problemas de pequeños divisores.
• El método de deflación se aplica en el caso de varios ceros: una
vez encontrado el primero, c, aplicamos el método de N-R a
h(x) = f (x)/(x − c). Y ası́ sucesivamente. No es muy eficaz.
2.5. EL MÉTODO DE LA SECANTE

• Es una adaptación del método de Newton-Raphson que evita el


f (cn ) − f (cn−1 )
cálculo de derivadas. Se aproxima f  (cn ) por .
cn − cn−1
 De modo que tomamos c0 y c1 y definimos
f (cn )(cn − cn−1 )
cn+1 = cn − para n ≥ 1 .
f (cn ) − f (cn−1 )
 El punto cn+1 es el corte con el eje horizontal de la recta que une
los puntos (cn−1 , f (cn−1 )) y (cn , f (cn )).

 El coste computacional es menor que en el caso de N-R, y el orden


de convergencia es aproximadamente de 1.62.

BIBLIOGRAFÍA

R. L. Burden, J. D. Faires, Análisis Numérico, Thomson


International (varias ediciones, diferentes años). Capı́tulo 2.
D. Kincaid, W. Cheney, Análisis Numérico,
Addison-Wesley Iberoamericana, 1994. Capı́tulo 3.

También podría gustarte