Está en la página 1de 27

Tema 2

Métodos de resolución de Ecuaciones


no Lineales

1. Generalidades. Orden de convergencia


Nos planteamos en este tema el problema de la resolución aproximada de Ecuaciones no
Lineales. Para plantear el problema, suponemos dada una función real de variable real f
definida en un conjunto D ⊆ R. El problema que queremos resolver se escribe:

Hallar x ∈ D tal que f (x) = 0, (1.1)

En general supondremos que D es un intervalo abierto de R y que la función f es, al menos,


continua en D.
Un caso particular importante de ecuación de la forma (1.1) es aquél en el que f es un
polinomio de grado n ≥ 2, en cuyo caso el problema adopta la forma

an xn + an−1 xn−1 + ... + a1 x + a0 = 0, (1.2)

siendo los ak , k = 0, 1, ..., n, números reales dados, y an 6= 0.


Este último tipo de ecuaciones ha sido muy estudiado y de él son bien conocidos los
siguientes hechos:

si n = 2, se tiene la fórmula de resolución, conocida de todos,


p
2 −a1 ± a21 − 4a2 a0
a2 x + a1 x + a0 = 0 ⇔ x = ,
2a2
que expresa el valor exacto de la solución. Desde el punto de vista del Análisis Numéri-
co, el único tipo de errores que se introducen con esta fórmula son los errores de
redondeo debidos a las operaciones aritméticas.

si n = 3 ó 4, existen también fórmulas que expresan el valor exacto de la o las solu-


ciones de (1.2), mediante sumas, productos y raı́ces de los coeficientes. Son fórmulas
complicadas y difı́cilmente aplicables en la práctica.

si n ≥ 5, se sabe que no existen fórmulas como las anteriores y, en general, las raı́ces
de estos polinomios no pueden ser calculadas de manera exacta.

1
2 Cálculo Numérico I.

En consecuencia, se hace necesario desarrollar procedimientos de cálculo aproximado de


las soluciones, tanto para las ecuaciones polinómicas, como, con mayor razón, para las no
lineales en general.
Antes que nada, hagamos notar que la ecuación (1.1) puede ser escrita de distintas formas
equivalentes, por ejemplo g(x) = x, o g(x) = h(x).

Ejemplo 1.1 Si consideramos la ecuación

x log x − 1 = 0,

teniendo en cuenta que para que esté definido el logaritmo como un número real, x ha de
ser estrictamente positivo, dicha ecuación puede ser escrita de varias maneras equivalentes.
Por ejemplo en la forma
log x − 1/x = 0,
o también en la forma de ecuación de punto fijo (véase más adelante) dada por x = 1/ log x,
o en la forma log x = 1/x, que es del tipo g(x) = h(x).
En los dos primeros casos, el problema de hallar la solución x de f (x) = 0 puede ser
interpretado geométricamente como el de encontrar la abscisa del punto de corte de la curva
de ecuación en el plano cartesiano y = f (x) con el eje OX, es decir con la recta y = 0. En
el caso en que la ecuación se escribe en forma g(x) = x, se puede interpretar de manera
geométrica el problema como el de hallar la abscisa del punto de corte de la curva y = g(x)
con la bisectriz del primer cuadrante, es decir, la recta y = x. Finalmente, si la ecuación se
ha escrito en la forma g(x) = h(x), el significado geométrico consiste en hallar la abscisa del
punto de corte de las curvas de ecuaciones y = g(x) e y = h(x).

En particular, denominaremos ecuación de punto fijo a una igualdad de la forma

g(x) = x. (EP F )

Hagamos notar que existen muchas maneras de escribir una ecuación dada en la forma
(EP F ):

Ejemplo 1.2 Si consideramos la ecuación polinómica x3 − 3x2 + x − 2 = 0, teniendo en


cuenta que la o las soluciones de la misma no pueden ser x = 0, ésta puede ser escrita de
manera equivalente en distintas formas de (EP F ). Por ejemplo

x = −x3 + 3x2 + 2, (EP F )1

o dividiendo por x, se obtiene x2 − 3x + 1 − 2/x = 0, con lo que despejando,


 
1 2 2
x= x +1− . (EP F )2
3 x

También, se puede dividir la ecuación de partida por x2 , obteniéndose x−3+1/x−2/x2 =


0, con lo que despejando,
1 2
x = 3 − + 2. (EP F )3
x x
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 3

Por supuesto, también se puede escribir la ecuación en la forma

x = x + (x3 − 3x2 + x − 2)h(x), (EP F )4

siendo h cualquier función real continua en todo R tal que h(x) 6= 0 para todo x ∈ R.
Desde el punto de vista del Análisis Numérico, estas cuatro formas no son equivalentes.
Con unas se aproxima la solución buscada de manera más rápida y con menos coste de
cálculos que con otras.

A continuación, vamos a realizar algunas consideraciones generales sobre el problema (1.1).


A cualquier solución de la citada ecuación, es decir, a cualquier x ∈ R tal que f (x) = 0, se
le denomina un cero o una raı́z de f .
Comencemos introduciendo el concepto de orden de multiplicidad de un cero de una
función f .

Definición 1.3 Sean (a, b) ⊂ R un intervalo abierto, f : (a, b) → R una función continua
en (a, b) y m ≥ 1 un número entero. Se dice que α ∈ (a, b) es un cero de f de multiplicidad
m, si la función f puede ser escrita en la forma

f (x) = (x − α)m q(x) ∀x ∈ (a, b) \ {α}, (1.3)

con q una función definida en (a, b) \ {α} tal que existe

lı́m q(x) ∈ R \ {0}.


x→α

En el caso m = 1 diremos que α es un cero simple de f .

Observación 1.4 Dados f : (a, b) → R una función y α ∈ (a, b) un cero de f , en general


no podemos asignarp un orden al cero α de f en los términos de la Definición 1.3. Basta
considerar f (x) = |x − 1| (función continua en R) y α = 1.

Respecto del concepto de orden de multiplicidad de un cero, se tienen los siguientes


resultados.

Proposición 1.5 Sean f ∈ C 1 (a, b)1 y α ∈ (a, b). La función f tiene un cero simple (i.e.
de multiplicidad 1) en α, si y sólo si

f (α) = 0 y f 0 (α) 6= 0. (1.4)


1
Recordemos que, dado n ≥ 0 un número entero, usaremos la notación
(
C 0 (a, b) = {f / f : (a, b) → R, y f es continua en (a, b)} si n = 0,
C n (a, b) = {f / f ∈ C 0 (a, b) y existen di f /dxi ∈ C 0 (a, b) ∀i : 1 ≤ i ≤ n} si n ≥ 1.
4 Cálculo Numérico I.

Demostración. Supongamos en primer lugar que f tiene un cero simple en α. En tal caso,
evidentemente f (α) = 0. Además, f puede ser escrita en la forma (1.3), y en consecuencia,
la función
f (x)
q(x) = , x ∈ (a, b) \ {α},
x−α
con lo que, teniendo en cuenta que f (α) = 0, se tiene

f (x) − f (α)
0 6= lı́m q(x) = lı́m = f 0 (α).
x→α x→α x−α
Recı́procamente, supongamos que se satisface (1.4). Consideremos la función qb definida
por
f (x)
qb(x) = , x ∈ (a, b) \ {α}.
x−α
Evidentemente se satisface

f (x) = (x − α)b
q (x), x ∈ (a, b) \ {α}.

Además,
f (x) − f (α)
lı́m qb(x) = lı́m = f 0 (α) 6= 0,
x→α x→α x−α
de donde se obtiene el resultado.
La propiedad anterior puede ser generalizada al caso m ≥ 2:

Proposición 1.6 Sean m ≥ 2 entero, f ∈ C m (a, b) y α ∈ (a, b). La función f tiene un cero
en α de multiplicidad m si y sólo si

f (α) = f 0 (α) = ... = f m−1) (α) = 0, f m) (α) 6= 0.

Demostración. Se deja como ejercicio.

Ejemplo 1.7 Aplicando el resultado anterior deducimos que α = 0 es un cero simple de la


función f (x) = sen x. Del mismo modo α = 0 es un cero doble (de multiplicidad m = 2) de
la función g(x) = cos x − 1.

Es importante resaltar que en este curso nos vamos a limitar a la aproximación de raı́ces
simples de ecuaciones no lineales.
En cualquier proceso de cálculo de raı́ces de una ecuación no lineal se distinguen tres
fases: localización, separación y aproximación.

1. En la fase de localización se busca conocer un intervalo donde se encuentra una o


varias soluciones de la ecuación, haciendo uso para ello de métodos analı́ticos, tablas,
representación aproximada, etc.... El propio origen de la ecuación (fı́sico, técnico, ...)
puede dar indicaciones de dónde se encuentran las soluciones. Obsérvese que después
de esta fase habremos dado respuesta al problema de la existencia de raı́ces de la
ecuación (1.1).
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 5

2. La separación consiste en encontrar subintervalos que contengan una y sólo una solución
de la ecuación, ello es fundamental en el caso de raı́ces muy próximas. En general, se
puede conseguir la separación combinando el teorema de Bolzano y la Proposición 1.10.
Cuando se ha conseguido esto, se dice que la solución está aislada. Ello no siempre se
puede conseguir, ası́ por ejemplo si consideramos la función

x sen(1/x), si x 6= 0,
f (x) =
0, si x = 0;

la solución x = 0 de la ecuación f (x) = 0 no puede ser aislada.


Obsérvese que después de esta fase conoceremos el número de soluciones que posee
la ecuación (1.1).

3. En la fase de aproximación, se construye una sucesión de valores que converja hacia la


solución buscada, ello se realiza, habitualmente, mediante un método iterativo. Noso-
tros vamos a estudiar métodos iterativos de los denominados de un paso o un punto
inicial.

Para la primera fase (localización de raı́ces) utilizaremos el Teorema de Bolzano:

Teorema 1.8 Sean a, b ∈ R, con a < b, y f : [a, b] → R una función continua en [a, b] tal
que f (a)f (b) ≤ 0. Entonces, existe α ∈ [a, b] tal que f (α) = 0.

Es importante destacar que si cambiamos la hipótesis f (a)f (b) ≤ 0 por la condición


f (a)f (b) < 0 (siendo f una función continua en [a, b]), entonces podemos concluir que existe
α ∈ (a, b) tal que f (α) = 0.
En la fase de separación utilizaremos básicamente la monotonı́a de la función en su
dominio. Recordemos lo siguiente:

Definición 1.9 Sean I ⊂ R un intervalo no degenerado, i.e., un intervalo que no se reduce


a un punto, y f una función real definida en dicho intervalo.

a) Se dice que f es creciente (respectivamente, decreciente) en el intervalo I, si para


cualesquiera x1 , x2 ∈ I con x1 < x2 , se tiene f (x1 ) ≤ f (x2 ) (respectivamente, f (x1 ) ≥
f (x2 )). Se dice que f es monótona en I si es creciente en I o si decreciente en I.

b) Se dice que f es estrictamente creciente (respectivamente, estrictamente decreciente)


en el intervalo I, si para cualesquiera x1 , x2 ∈ I con x1 < x2 , se tiene f (x1 ) < f (x2 )
(respectivamente, f (x1 ) > f (x2 )). Se dice que f es estrictamente monótona en I si es
estrictamente creciente en I o estrictamente decreciente en I.

De la definición, deducimos el resultado siguiente

Proposición 1.10 Sean I ⊂ R un intervalo no degenerado y f : I → R una función real.


Si f es estrictamente monótona en I, entonces la ecuación (1.1) tiene a lo más una solución
en el intervalo I.
6 Cálculo Numérico I.

Demostración. La prueba del resultado es directa: Por reducción al absurdo, supongamos


que f posee dos ceros distintos en I, α1 , α2 ∈ I, y, por fijar ideas, supongamos que f es
estrictamente creciente en I y α1 < α2 . De aquı́,
0 = f (α1 ) < f (α2 ) = 0
que, evidentemente, es absurdo.

Observación 1.11 Es bien conocido que si f es derivable en el intervalo I y f 0 (x) > 0


en todo punto x ∈ I, entonces f es estrictamente creciente en I. Análogamente, si
f 0 (x) < 0 en todo punto x ∈ I, entonces f es estrictamente decreciente en I.
En consecuencia, si f 0 es siempre positiva en I, o siempre negativa en I, entonces la
ecuación (1.1) tiene a lo más una solución en dicho intervalo.
Si f es monótona en I, pero no estrictamente monótona, entonces la ecuación (1.1)
puede tener infinitas soluciones en este intervalo.
Las consideraciones anteriores no son válidas para la ecuación de punto fijo g(x) = x.
La función g puede ser estrictamente monótona, pero la (EP F ) puede tener infinitas
soluciones. Ası́ por ejemplo, si consideramos la función g(x) = x + 21 sen x, su derivada
es g 0 (x) = 1 + 12 cos x > 0 en todo punto x ∈ R. En consecuencia, esta función g
es estrictamente creciente en I = R, pero la ecuación g(x) = x ⇔ sen x = 0, tiene
infinitas soluciones en R, dadas por xk = kπ, k ∈ Z.

En la fase de aproximación de raı́ces utilizaremos los llamados métodos iterativos de


un paso. Éstos se definen:

Definición 1.12 Un método iterativo es un proceso constructivo que genera una sucesión
{xk }k≥0 . Supongamos dados x0 ∈ R un punto y G : D ⊆ R → R una función. Un método
iterativo de un paso (o de un punto inicial) es un método iterativo que genera una sucesión
por recurrencia mediante la fórmula
(
x0 ∈ R dado,
(1.5)
xk+1 = G(xk ), ∀k ≥ 0.

Ası́ pues, un método iterativo de un paso depende de la fórmula (1.5) que se utilice, y
también del punto inicial x0 que se tome. Cuando lo planteamos, el método iterativo debe
dar respuesta a las siguientes cuestiones:

1. Bien definido: El primer problema que se presenta con todo método iterativo de
un paso es saber si partiendo de x0 , con el esquema (1.5) se construye una verdadera
sucesión. Ası́ por ejemplo, si consideramos la sucesión definida por recurrencia mediante
la fórmula
3
xk+1 = 3 − , k ≥ 0,
xk
(G(x) = 3 − 3/x) y partimos de x0 = 2, es inmediato ver que se van obteniendo
sucesivamente, x1 = 3/2, x2 = 1, x3 = 0, y en consecuencia x4 no está definida. En
consecuencia, en este caso diremos que el método iterativo está mal definido.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 7

2. Convergencia del método: Una vez que el método iterativo proporciona una suce-
sión {xk }k≥0 cabe plantearse si la sucesión es convergente. Por ejemplo, si consideramos
x0 = −1 y consideramos (1.5) con
 
(1 + x)π
G(x) = cos ,
2

obtenemos la sucesión xk = (−1)k+1 que, evidentemente, es oscilante.

3. Convergencia: Cuando usamos un método iterativo para aproximar una raı́z α de f ,


debemos analizar si la sucesión generada converge hacia ese cero α.

4. Velocidad de convergencia: Queremos determinar el número de iteraciones que hay


que hacer para que el error que se cometa sea menor que una cantidad ε > 0 prefijada.

5. Orden de convergencia: Queremos conocer cómo evoluciona el error en el curso de


las iteraciones.

En este Tema vamos estudiar dos métodos iterativos de un paso para los que responde-
remos a estas cuestiones.

Observación 1.13 Es importante resaltar que el método iterativo (1.5) está bien definido
cuando se puede demostrar que los puntos xk que va generando están en el dominio de G
para cualquier k ≥ 0. En particular el método iterativo de un paso estará bien definido si la
función G satisface imag (G) ⊆ dom (G) ≡ D.

En lo que sigue vamos a considerar una función f : D → R definida en D ⊆ R y α ∈ D


un cero de f en D (es decir, una solución de la ecuación (1.1)). Ası́, introducimos

Definición 1.14 1. Se dice que el método iterativo dado por la fórmula (1.5) tiene la
propiedad de convergencia global hacia α ∈ R en D ⊂ R, si para todo dato inicial
x0 ∈ D la sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ D y es convergente hacia α.

2. Se dice que el método iterativo (1.5) tiene la propiedad de convergencia local hacia
α ∈ R si existe un número δ > 0 tal que para cualquier x0 ∈ [α − δ, α + δ] ∩ D la
sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ [α − δ, α + δ] ∩ D y es convergente
hacia α.

3. Se dice que α es un punto atractivo para el método iterativo (1.5) si el método iterativo
tiene convergencia, al menos local, en D hacia el cero α. En caso contrario, diremos
que α es un punto repulsivo para dicho método.

Obsérvese que distintas raı́ces de una misma ecuación pueden ser unas atractivas y otras
repulsivas para un mismo método iterativo (veremos ejemplos de ello en clase de problemas).
Otra propiedad importante de los métodos iterativos es el llamado orden de conver-
gencia del método. En cierto sentido, el orden de convergencia proporciona una medida de
la velocidad de convergencia de la sucesión construida con el método hacia su lı́mite.
8 Cálculo Numérico I.

Definición 1.15 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α. Se dice que la sucesión tiene orden de convergencia al menos p si
existen un número entero k0 ≥ 0 y un número real C > 0 (0 < C < 1 si p = 1) tales que

|xk+1 − α| ≤ C|xk − α|p para todo k ≥ k0 .

Nótese que en la definición precedente, p no tiene que ser necesariamente un número


entero. En la terminologı́a clásica, si p = 1, 2 ó 3, se habla de convergencia al menos lineal,
cuadrática o cúbica, respectivamente. Si p < 1, o si p = 1 y C ≥ 1, se dice que la convergencia
es sublineal, y si p > 1 se dice que la convergencia es superlineal.

Observación 1.16 Es interesante resaltar que no toda sucesión convergente tiene asignado
un orden de convergencia en el sentido de la definición anterior. Por ejemplo, la sucesión
1 1 1 1 1 1
0, 1, 1, , 2 , , 3 , ..., , n , ...,
2 2 3 3 n n
converge a cero, pero
|x2k+1 | 1/(k + 1)
= ,
|x2k |p 1/k pk
sucesión que converge a +∞ cuando k → ∞, cualquiera que sea p > 0.

Podemos caracterizar el orden de convergencia de una sucesión. Se tiene:

Proposición 1.17 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α y con xk 6= α para todo k ≥ 0. Entonces, la sucesión {xk }k≥0 tiene
orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m sup = L < +∞ (L < 1 si p = 1). (1.6)
|xk − α|p

Demostración. En primer lugar, obsérvese que se tiene |xk − α| = 6 0 para cualquier k ≥ 0


por lo que los cocientes que aparecerán a continuación están bien definidos.
Si el orden de convergencia es al menos p, existe un entero k0 ≥ 0 y una constante C > 0
(C < 1 si p = 1) tal que

|xk+1 − α|
≤C para todo k ≥ k0 .
|xk − α|p
En consecuencia
|xk+1 − α|
lı́m sup =L≤C
|xk − α|p
de donde deducimos (1.6).
Recı́procamente, supongamos que se tiene (1.6). Fijemos ε > 0 (con L + ε < 1 si p = 1).
Entonces, utilizando las propiedades de los lı́mites superiores, existe un entero k0 (ε) ≥ 1 tal
que
|xk+1 − α|
≤ L + ε para todo k ≥ k0 (ε).
|xk − α|p
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 9

Basta tomar C = L + ε para deducir que {xk }k≥0 tiene orden de convergencia al menos p.
Esto acaba la prueba.
|xk+1 − α|
Obsérvese que en el caso en que exista lı́m , la proposición anterior afirma que
|xk − α|p
la sucesión {xk }k≥0 tiene orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m = L < +∞ (L < 1 si p = 1).
|xk − α|p

Definición 1.18 Sean {xk }k≥0 ⊂ R una sucesión, p > 0 un número real y α ∈ R tal que
lı́m xk = α. Supongamos que xk 6= α para cualquier k ≥ 0. Entonces, se dice que la sucesión
tiene orden de convergencia (exactamente) p si existe
|xk+1 − α|
lı́m = L ∈ (0, +∞) (L ∈ (0, 1) si p = 1). (1.7)
|xk − α|p
En tal caso, a la constante L definida por (1.7) se le denomina la constante asintótica del
error.

Observación 1.19 Obsérvese que si una sucesión {xk }k≥0 converge hacia α con orden de
convergencia p (y xk 6= α para cualquier k ≥ 0), entonces para cualquier q > 0 existe

|xk+1 − α|  +∞ si q > p,
lı́m = L si q = p,
|xk − α|q
0 si q < p.

Por otro lado, dada una sucesión {xk }k≥0 convergente hacia α, en general ésta no tiene
un orden de convergencia en el sentido de la Definición 1.18 (ver ejemplos más abajo).

Ejemplo 1.20 1. Consideremos la sucesión {xk }k≥1 con xk = k1 . Evidentemente, existe


el lı́m xk = 0, pero es fácil comprobar que no tiene un orden de convergencia hacia 0
pues
|xk+1 |
lı́m = 1 (p = 1 y L = 1)
|xk |
pero, como L = 1, no podemos decir que la sucesión converge con orden 1 (lineal). Por
otro lado, 
|xk+1 | 0 si p < 1,
lı́m =
|xk |p ∞ si p > 1.

2. Consideremos ahora la sucesión {xk }k≥1 con xk = 21k . Es fácil comprobar que la sucesión
converge hacia 0 con orden de convergencia exactamente 1. Efectivamente
|xk+1 | 1
lı́m = ∈ (0, 1).
|xk | 2
Como ya hemos dicho, el orden de convergencia de una sucesión mide la velocidad de con-
vergencia de la sucesión hacia su lı́mite. En el siguiente ejemplo pondremos de manifiesto
este hecho:
10 Cálculo Numérico I.

Ejemplo 1.21 Consideremos la sucesión {xk }k≥0 definida por recurrencia (algoritmo de
Heron para x = 1),
x2 + 1
x0 = 2, xk+1 = k , ∀k ≥ 0.
2xk
1. En primer lugar, es fácil ver que la sucesión {xk }k≥0 está bien definida. Efectivamente,
por inducción no es difı́cil probar que

xk > 0, ∀k ≥ 0.

2. Veamos que {xk }k≥0 es convergente probando que la sucesión es monótona y acotada.
Obsérvese que
1 − x2k
xk+1 − xk = , ∀k ≥ 0,
2xk
ası́, para comprobar la monotonı́a de la sucesión, estudiemos la cantidad 1−x2k . Ası́, si k ≥ 1,
2 2
x2k−1 + 1 x2k−1 − 1
 
1− x2k =1− =− .
2xk−1 2xk−1

Utilizando las igualdades anteriores es fácil ver (por inducción) que la sucesión es monóto-
na decreciente. Por otro lado, de la segunda igualdad también deducimos

1 ≤ xk ≤ x0 = 2, ∀k ≥ 0,

es decir, la sucesión {xk }k≥0 está acotada.


Deducimos por tanto que existe lı́m xk = l. Veamos cuánto vale éste. De la acotación
obtenida para xk , se tiene que l ∈ [1, 2]. Por otro lado, tomando lı́mite en la fórmula de
recurrencia obtenemos
l2 + 1
l= ⇐⇒ l = 1.
2l
3. Veamos ahora que la sucesión {xk }k≥0 converge hacia 1 con orden de convergencia 2
(convergencia cuadrática). Para ello, calculemos el lı́mite

|xk+1 − 1| 1 1
lı́m 2
= lı́m = .
|xk − 1| 2xk 2

Como hemos dicho anteriormente este orden de convergencia mide la velocidad con la que
la sucesión se acerca hacia su lı́mite. Veremos esto en el siguiente punto.
4. Calculemos cuántas iteraciones k son necesarias para que el error |xk − 1| sea menor que
10−4 . Teniendo en cuenta que xk ≥ 1 para todo k ≥ 0, es fácil ver la desigualdad

|xk − 1| 1 1
2
= ≤ , ∀k ≥ 1,
|xk−1 − 1| 2xk−1 2

es decir,
1
|xk − 1| ≤ |xk−1 − 1|2 , ∀k ≥ 1.
2
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 11

Razonando por inducción y teniendo en cuenta que x1 = 5/4, también se deduce

11 1 1 2k−1 1 1 1
|xk − 1| ≤ 2 22 ··· k−2 |x1 − 1| = 2k−1 −1 2k = , ∀k ≥ 1.
23(2 )−1
22 2 22 2 2 k−1

Obsérvese que aseguramos que |xk − 1| ≤ 10−4 si calculamos k tal que


  
1 −4 1 1 4 log 10
≤ 10 ⇐⇒ k ≥ 1 + ln 1+ ⇐⇒ k ≥ 30 2517405377 . . .
23(2 )−1 log 2 3 log 2
k−1

Basta por tanto tomar k = 4. Ası́, en la cuarta iteración del método podemos asegurar que
el error cometido es menor que 10−4 . (En este ejemplo tan sencillo es posible calcular el error
exacto que, de hecho, es mejor que la cota obtenida:

x1 = 1, 25 y |x1 − 1| = 00 25,



 x = 1, 025 y |x − 1| = 00 25 · 10−1 ,

2 3

 x3 = 1, 0003048780488 · · · y |x3 − 1| = 00 3049 · 10−3 ,

x4 = 10 00000004647 . . . y |x4 − 1| = 00 4647 · 10−7 ).

2. Método de bisección
El método de bisección (o de dicotomı́a) es un método de aproximación de raı́ces de una
función que está basado en el Teorema de Bolzano. Para presentarlo supongamos dados un
intervalo cerrado [a, b] ⊂ R (con a < b) y una función f : [a, b] → R continua en [a, b] y
consideremos la ecuación (1.1). Supondremos en esta sección las hipótesis
Hipótesis: Supongamos que f es continua en [a, b] y f (a)f (b) < 0. Como aplicación del
Teorema de Bolzano (Teorema 1.8), sabemos que existe un punto α ∈ (a, b) tal que f (α) = 0.
Supongamos que dicho cero α es el único cero de f en [a, b].
Bajo las condiciones precedentes, vamos a construir una sucesión de intervalos encajados

[a, b] = [a0 , b0 ] ⊃ [a1 , b1 ] ⊃ [a2 , b2 ] ⊃ · · · ⊃ [ak , bk ] ⊃ . . . ,

que siempre contienen al punto α. Para ello razonamos del siguiente modo:
Etapa 1. Tenemos que f (a0 )f (b0 ) = f (a)f (b) < 0. Sea

a0 + b 0
x0 = .
2

Si f (x0 ) = 0, ya hemos encontrado la solución α = x0 .


Si f (x0 ) 6= 0, entonces se pueden presentar dos casos:

a) Si f (a0 )f (x0 ) < 0, tomamos a1 = a0 y b1 = x0 .

b) Si f (a0 )f (x0 ) > 0, entonces f (x0 )f (b0 ) < 0, y tomamos a1 = x0 y b1 = b0 .


12 Cálculo Numérico I.

Tanto en el caso a) como en el b), el intervalo [a1 , b1 ] construido satisface [a1 , b1 ] ⊂ [a0 , b0 ],
f (a1 )f (b1 ) < 0 (y por tanto, α ∈ (a1 , b1 )) y

1 1
b1 − a1 = (b0 − a0 ) = (b − a).
2 2

Etapa k. Supongamos que f (ak−1 )f (bk−1 ) < 0. Sea

ak−1 + bk−1
xk−1 = .
2
Si f (xk−1 ) = 0, ya hemos encontrado la solución α = xk−1 .
Si f (xk−1 ) 6= 0, entonces se pueden presentar dos casos:

a) Si f (ak−1 )f (xk−1 ) < 0, tomamos ak = ak−1 y bk = xk−1 .

b) Si f (ak−1 )f (xk−1 ) > 0, entonces f (xk−1 )f (bk−1 ) < 0, y tomamos ak = xk−1 y bk = bk−1 .

Nuevamente, tanto en el caso a) como en el b), el intervalo [ak , bk ] satisface [ak , bk ] ⊂


[ak−1 , bk−1 ], f (ak )f (bk ) < 0 (y por tanto, α ∈ (ak , bk )) y

1
bk − ak = (bk−1 − ak−1 ), ∀k ≥ 1.
2

Mediante este algoritmo, o bien en un número finito de etapas se ha encontrado la raı́z


α de f en (a, b) o, en caso contrario, construimos una sucesión de intervalos encajados
{[ak , bk ]}k≥0 que satisfacen:

 ak ≤ ak+1 , bk+1 ≤ bk y α ∈ (ak , bk ) ∀k ≥ 0,
1
 bk − ak = (b − a) ∀k ≥ 0.
2k

En particular, deducimos que la sucesión {ak }k≥0 es monótona creciente, {bk }k≥0 es monótona
decreciente y

1 1
0 ≤ α − ak ≤ k
(b − a) y 0 ≤ bk − α ≤ k (b − a) ∀k ≥ 0.
2 2
Por tanto lı́m ak = α y lı́m bk = α.
Después de haber efectuado k pasos, se puede tomar como aproximación de la raı́z α de
ak + b k
f en (a, b) el valor xk = que, evidentemente satisface lı́m xk = α. De hecho, podemos
2
acotar el error absoluto cometido por

1
|xk − α| ≤ (b − a).
2k+1
Tenemos ası́ descrito el método de bisección o dicotomı́a.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 13

Observación 2.1 El método de bisección presenta varios inconvenientes. Es lento (de he-
cho, la convergencia del algoritmo no llega a ser lineal), ya que no aprovecha ninguna otra
propiedad de f que no sea el signo de la misma. Es un método en que pasa desapercibido si
se acerca uno mucho o no a la solución, y es computacionalmente costoso, ya que hay que
efectuar muchas comparaciones.
Sin embargo, el método de bisección presenta también algunas ventajas. Ası́, es siempre
convergente en el intervalo en el que se aplica. Además, tiene una expresión explı́cita de la
cota del error (lo que permite saber a priori el número de etapas k a aplicar para obtener
una aproximación de la raı́z α con una precisión ε > 0 prefijada).

3. Métodos de primer orden: el método de las aproxi-


maciones sucesivas
Consideremos a, b ∈ R, con a < b, y g : [a, b] → R una función continua en [a, b]. En esta
sección estudiaremos el llamado método de las aproximaciones sucesivas (MAS). Se trata de
un método iterativo de un paso aplicable a ecuaciones que se escriben en la forma:

x = g(x). (EP F )

Definición 3.1 Sea α ∈ [a, b]. Se dice que α es un punto fijo de g si g(α) = α, es decir, si
α es solución de la ecuación (EP F ).

Los puntos fijos de g geométricamente corresponden a las abcisas de los puntos de corte
entre la gráfica de la recta y = x y la gráfica y = g(x).
Ası́, el método de las aproximaciones sucesivas (M AS) aplicado a la ecuación (EP F )
tiene la forma: (
x0 ∈ [a, b] dado,
(M AS)
xk+1 = g(xk ), ∀k ≥ 0.
Obsérvese en primer lugar que para que (M AS) esté bien definido se debe tener que xk ∈ [a, b]
para cualquier k ≥ 0.
Comencemos analizando la existencia y/o unicidad de puntos fijos de la función g. Se
tiene:

Proposición 3.2 (existencia de solución para (EP F )) Sean a, b ∈ R, con a < b, y


g : [a, b] → R una función continua en el intervalo [a, b]. Supongamos que se tiene

(g(a) − a)(g(b) − b) ≤ 0. (3.8)

Entonces, existe al menos un α ∈ [a, b] tal que g(α) = α.

Demostración. Basta aplicar el Teorema de Bolzano (Teorema 1.8) en el intervalo [a, b] a


la función h(x) = g(x) − x.

Observación 3.3 Es fácil comprobar que una condición suficiente para que se satisfaga (3.8)
es que g([a, b]) ⊆ [a, b].
14 Cálculo Numérico I.

Pasemos a continuación a analizar la unicidad de solución de la ecuación (EP F ). Para


ello, introduzcamos la siguiente definición:
Definición 3.4 Sean dados a, b ∈ R, con a < b, y g : [a, b] → R una función. Se dice que g
es contractiva en el intervalo [a, b], si existe una constante L ∈ [0, 1) tal que

|g(x) − g(y)| ≤ L|x − y| ∀x, y ∈ [a, b]. (3.9)

En tal caso, a L se la denomina una constante de contractividad para g en [a, b].

Ejemplo 3.5 La función g : [1, 2] → R dada por


x 1
g(x) = + , ∀x ∈ [1, 2],
2 x
es contractiva en [1, 2] pues

1 1 1
|g(x) − g(y)| = − |x − y| ≤ |x − y|, ∀x, y ∈ [1, 2].
2 xy 2
Ası́, g es contractiva en [1, 2] con constante de contractividad asociada L = 1/2 ∈ (0, 1).

Observación 3.6 1. Si g es contractiva en g con constante de contractividad L ∈ [0, 1),


entonces
|g(x) − g(y)| ≤ L|x − y| < |x − y| ∀x, y ∈ [a, b] con x 6= y. (3.10)
En particular, la distancia entre las imágenes g(x) y g(y) es menor que la distancia
entre x e y: la función g “contrae” las distancias.
2. Obsérvese que la condición (3.9) implica la condición (3.10). En particular ambas
condiciones implican la continuidad uniforme depla función g en el intervalo [a, b].
El recı́proco no es cierto; basta considerar g(x) = |x| en el intervalo [−1, 1] que es
uniformemente continua en [−1, 1] pero no es contractiva en el intervalo (ver relación
de problemas).
3. La constante L de contractividad asociada a una función g contractiva en el intervalo
[a, b] puede ser interpretada geométricamente como una cota superior de la pendiente
de las rectas secantes a la gráfica de la curva y = g(x) en el intervalo [a, b].

Proposición 3.7 (unicidad de solución para (EP F )) Sean a, b ∈ R, con a < b, y g :


[a, b] → R una función contractiva en [a, b]. Entonces, existe a lo más una solución de (EP F )
en [a, b] (o dicho de otro modo, g posee, a lo sumo, un punto fijo en [a, b]).

Demostración. Supongamos que α1 , α2 ∈ [a, b] son dos puntos fijos distintos de g en [a, b].
Entonces,
0 < |α1 − α2 | = |g(α1 ) − g(α2 )| ≤ L|α1 − α2 | < |α1 − α2 |,
donde L ∈ [0, 1) es una constante de contractividad de g en [a, b]. Evidentemente esto es
absurdo.
Una condición suficiente para que una función sea contractiva en un intervalo [a, b], viene
dada en la siguiente proposición:
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 15

Proposición 3.8 Sea g : [a, b] → R una función continua en el intervalo [a, b] y derivable
en (a, b). Supongamos que satisface la condición

L := sup |g 0 (x)| < 1.


x∈(a,b)

Entonces, g es contractiva en el intervalo [a, b], siendo L una constante de contractividad


para g en [a, b].

Demostración. Sean x, y ∈ [a, b]. Aplicando el Teorema del Valor Medio a la función g
deducimos que existe un punto z ∈ (a, b) tal que

|g(x) − g(y)| = |g 0 (z)(x − y)| ≤ L|x − y|.

De esta desigualdad deducimos la prueba.


Pasemos a continuación a analizar la convergencia del método (M AS) presentado ante-
riormente. El resultado que sigue, proporciona convergencia global de (M AS) y acotación
del error.

Teorema 3.9 (convergencia global de (M AS) y acotación del error) Sean a, b ∈ R,


con a < b, y g : [a, b] → R dados. Supongamos que g([a, b]) ⊆ [a, b] y que g es contractiva en
el intervalo [a, b], con constante de contractividad L ∈ [0, 1). Entonces,
1. La función g posee un único punto fijo α en [a, b].

2. El método de aproximaciones sucesivas (M AS) está bien definido en [a, b], i.e., para
todo x0 ∈ [a, b] se tiene que {xk }k≥0 ⊂ [a, b].

3. El método de aproximaciones sucesivas (M AS) es globalmente convergente en [a, b]


hacia α con orden de convergencia al menos 1.

4. Se tienen las siguientes acotaciones del error absoluto:

|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [a, b] (cota a priori), (3.11)

Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 0 y ∀x0 ∈ [a, b] (cota a posteriori). (3.12)
1−L
Demostración. En primer lugar, al ser g una función contractiva en el intervalo [a, b]
deducimos que g es también continua en [a, b]. Veamos la prueba de los puntos del enunciado:
El primer punto es consecuencia directa de las Proposiciones 3.2 y 3.7 (véase la Obser-
vación 3.3). Por otro lado, teniendo en cuenta la hipótesis g([a, b]) ⊆ [a, b], es fácil deducir
que para cualquier x0 ∈ [a, b] el método está bien definido y satisface

{xk }k≥0 ⊂ [a, b].

Pasemos a continuación a probar el punto 3. Para ello, probemos la estimación (3.11).


Fijemos x0 ∈ [a, b] arbitrario. Se tiene,

|xk − α| = |g(xk−1 ) − g(α)| ≤ L|xk−1 − α| ≤ · · · ≤ Lk |x0 − α|.


16 Cálculo Numérico I.

Obsérvese que en la desigualdad anterior estamos usando de manera reiterada que, para
cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en [a, b].
Teniendo en cuenta que L ∈ [0, 1), deducimos que lı́m xk = α y, por tanto, tenemos que
el método (M AS) es globalmente convergente en el intervalo [a, b]. Por otro lado, tenemos

|xk − α| ≤ L|xk−1 − α|, ∀k ≥ 1.

De aquı́ deducimos que el método tiene orden de convergencia al menos 1. Tenemos probado
el punto 3 y la desigualdad (3.11).
Para finalizar probemos la estimación (3.12). Sea m ≥ 0. Entonces,

|xm+1 − xm | = |g(xm ) − g(xm−1 )| ≤ L|xm − xm−1 | ≤ · · · ≤ Lm |x1 − x0 |,

(de nuevo hemos usado que, para cualquier m ≥ 0, xm ∈ [a, b] y que g es contractiva en
[a, b]). Por otro lado, si tomamos k, m con m > k ≥ 0, aplicamos la desigualdad triangular
y tenemos en cuenta la desigualdad anterior, podemos escribir


 |xm − xk | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xk+2 − xk+1 | + |xk+1 − xk |
  k
L − Lm

 
m−1 m−2 k+1 k

≤ L +L + ··· + L + L |x1 − x0 | = |x1 − x0 |

 1−L
Lk


≤ |x1 − x0 |.



1−L
Sabemos que lı́mm→∞ xm = α, ası́, si en la desigualdad precedente tomamos lı́mm→∞ obten-
dremos la estimación (3.12). Esto finaliza la prueba.2

Observación 3.10 Las acotaciones del error dadas en las desigualdades (3.11) y (3.12)
muestran que la convergencia del método será mejor cuanto más próxima esté la constante
de contractividad L a 0.

Ejemplo 3.11 Consideremos la ecuación de punto fijo e−x = x en el intervalo [1/2, log 2]
y veamos que este intervalo es un intervalo de convergencia global para (M AS), es decir,
comprobemos que g(x) = e−x satisface en [1/2, log 2] las condiciones del Teorema 3.9.
En primer lugar, la función g ∈ C 1 [1/2, log 2], es decir, g es continua y derivable en
[1/2, log 2] y g 0 es continua en [1/2, log 2]. De hecho,

g 0 (x) = −e−x < 0, ∀x ∈ [1/2, log 2].

En particular, g es estrictamente decreciente en el intervalo y se tiene

g([1/2, log 2]) = [g(log 2), g(1/2)] = [1/2, e−1/2 ] ⊂ [1/2, log 2].

Tenemos ası́ una de las hipótesis del Teorema 3.9 que hay que comprobar.
2
Otra forma de probar la cota a posteriori es con ayuda de la siguiente desigualdad: |x0 − α| = |x0 ± x1 −
α| ≤ |x0 − x1 | + |x1 − α| y que |x1 − α| ≤ L|x0 − α|, de donde (1 − L)|x0 − α| ≤ |x0 − x1 |. Esto unido a la
cota a priori también implica la cota a posteriori.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 17

Veamos ahora que g es contractiva en [1/2, log 2] y calculemos una constante de contrac-
tividad asociada. Para ello, aplicaremos la Proposición 3.8:

máx |g 0 (x)| = máx e−x = e−1/2 = L < 1,


x∈[1/2,log 2] x∈[1/2,log 2]

y por tanto se satisfacen todas las condiciones del Teorema 3,9.


Apliquemos a continuación el (M AS) partiendo de x0 = 1/2 para aproximar el único
punto fijo α de g en [1/2, log 2]. En concreto, calculemos el número de iteraciones k para que
el error absoluto cometido sea menor que 10−3 . Con este fin usaremos la estimación (3.12):

Lk e−k/2 −1/2 1

2− e
|xk − α| ≤ |x1 − x0 | = e − = √ .
1−L 1 − e−1/2 2 2( e − 1)ek/2

Ası́, garantizamos que el error sea menor que 10−3 si calculamos k tal que
√ √
(2 − e) 103
 
2− e −3
√ k/2
≤ 10 ⇐⇒ k ≥ 2 log √ = 110 2 . . .
2( e − 1)e 2( e − 1)

En concreto, si tomamos k = 12 y aproximamos α por

x12 = 00 567067351853728 . . .

garantizamos que el error absoluto cometido es menor que 10−3 .

A continuación daremos un resultado de convergencia local para (M AS). En este resul-


tado no supondremos hipótesis globales en el intervalo, solo una propiedad sobre la derivada
en el punto fijo de la función. Se tiene:

Teorema 3.12 (convergencia local de (M AS)) Sea I ⊂ R un intervalo abierto y g :


I → R una función tal que existe α ∈ I verificando g(α) = α. Supongamos que existe δ > 0
tal que (α − δ, α + δ) ⊂ I y g ∈ C 1 (α − δ, α + δ). Supongamos también que

|g 0 (α)| < 1.

Entonces, α es un punto atractivo para (M AS), es decir, existe ρ ∈ (0, δ) tal que para
cualquier x0 ∈ [α − ρ, α + ρ] (M AS) está bien definido y genera una sucesión {xk }k≥0 que
satisface lı́m xk = α. Además, existe una constante L ∈ [0, 1) (que depende de ρ y |g 0 (α)|)
tal que
|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [α − ρ, α + ρ],
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [α − ρ, α + ρ].
1−L

Demostración. La prueba es una consecuencia del Teorema 3.9 aplicado en un intervalo


(que tendremos que encontrar) [α − ρ, α + ρ]. Como |g 0 (α)| < 1, existe ρ ∈ (0, δ) tal que
g ∈ C 1 ([α − ρ, α + ρ]) y
|g 0 (x)| < 1, ∀x ∈ [α − ρ, α + ρ].
18 Cálculo Numérico I.

Como consecuencia de la Proposición 3.8 obtenemos que g es contractiva en el intervalo


[α − ρ, α + ρ] y

L= máx |g 0 (x)| = |g 0 (x)| < 1, con x ∈ [α − ρ, α + ρ],


x∈[α−ρ,α+ρ]

es una constante de contractividad asociada.


Por otro lado g([α − ρ, α + ρ]) ⊆ [α − ρ, α + ρ] pues, fijado x ∈ [α − ρ, α + ρ], existe
ξ ∈ (α − ρ, α + ρ) tal que

|g(x) − α| = |g(x) − g(α)| = |g 0 (ξ)||x − α| ≤ L|x − α| ≤ Lρ < ρ.

Se tiene ası́ la propiedad.


Podemos aplicar el Teorema 3.9 a g en el intervalo [α − ρ, α + ρ] obteniendo la prueba
del resultado.
En relación con el resultado anterior, también es posible dar condiciones suficientes para
que un punto fijo α de una función g sea repulsivo para el (M AS)

Proposición 3.13 Sea I ⊂ R un intervalo abierto y g : I → R una función tal que existe
α ∈ I verificando g(α) = α. Supongamos que existe δ > 0 tal que (α − δ, α + δ) ⊂ I y
g ∈ C 1 (α − δ, α + δ). Supongamos también que para una constante C > 1 se tiene

|g 0 (x)| ≥ C ∀x ∈ (α − δ, α + δ).

Entonces, α es un punto repulsivo para (M AS).

Demostración. Razonemos por reducción al absurdo. Si α es un punto atractivo para


(M AS) aplicado a g. Entonces, existe ρ ∈ (0, δ) tal que para cualquier x0 ∈ [α − ρ, α + ρ] el
método (M AS) está bien definido, genera una sucesión {xk }k≥0 ⊂ [α − ρ, α + ρ] y lı́m xk = α.
Tomemos x0 ∈ [α − ρ, α + ρ] con x0 6= α. Utilizando el Teorema del Valor Medio para los
puntos xk y α podemos escribir

|xk − α| = |g(xk−1 ) − g(α)| = |g 0 (ξk )||xk−1 − α|, ∀k ≥ 1,

donde ξk es un punto que está entre xk y α, es decir ξk ∈ [α − ρ, α + ρ] ⊂ (α − δ, α + δ).


Utilizando la hipótesis sobre |g 0 (x)| obtenemos

|xk − α| ≥ C|xk−1 − α|, ∀k ≥ 1.

Obsérvese que podemos seguir aplicando el razonamiento anterior (la sucesión satisface
{xk }k≥0 ⊂ [α − ρ, α + ρ]), obteniendo

|xk − α| ≥ C k |x0 − α|, ∀k ≥ k0 .

Al ser C > 1 y x0 6= α obtenemos que lı́m |xk − α| = ∞ y esto es, evidentemente absurdo.
Tenemos ası́ la prueba.
Como hemos comentado anteriormente, (M AS) es un método iterativo de orden de con-
vergencia al menos 1 (lineal). En algunos casos el orden de convergencia es mayor. Veamos
esto en el siguiente resultado:
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 19

Teorema 3.14 Sean m ∈ N, α, δ ∈ R, con δ > 0, y g : I = (α − δ, α + δ) → R una función


tal que g(α) = α. Supongamos que (M AS) es localmente convergente en I hacia el punto
fijo α de g. Entonces,

1. Si m ≥ 2, g ∈ C m (I) y

g 0 (α) = g 00 (α) = · · · = g m−1) (α) = 0,

entonces (M AS) tiene orden de convergencia al menos m hacia α.

2. Si m ≥ 1, g ∈ C m (I),

g 0 (α) = g 00 (α) = · · · = g m−1) (α) = 0 y g m) (α) 6= 0,

(con |g 0 (α)| < 1 si m = 1), entonces la sucesión {xk }k≥0 generada por el (M AS)
cumple que, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para
todo k ≥ 0 y dicha sucesión tiene orden de convergencia exacta m hacia α.

Demostración. Probemos cada una de las partes del resultado:


1. Como (M AS) es localmente convergente en I, existe ρ ∈ (0, δ) tal que para cualquier
x0 ∈ [α − ρ, α + ρ] (M AS) genera una sucesión {xk }k≥0 ⊂ [α − ρ, α + ρ] tal que lı́m xk = α.
Por otro lado, g ∈ C m (I) y, por tanto podemos hacer un desarrollo de Taylor3 hasta el orden
m. Ası́, fijado k ≥ 0, existe ξk (que está entre xk y α, es decir, ξk ∈ [α − ρ, α + ρ]) tal que

1 m)
|xk+1 − α| = |g(xk ) − g(α)| = |g (ξk )||xk − α|m ∀k ≥ 0. (3.13)
m!

Si tomamos C = máx |g m) (x)|/m! (obsérvese que g ∈ C m (I) y por tanto g m) es continua


x∈[α−ρ,α+ρ]
en [α − ρ, α + ρ]), entonces, de la desigualdad anterior obtenemos

|xk+1 − α| ≤ C|xk − α|m , ∀k ≥ 0.

De esta desigualdad deducimos el primer punto.


2. Sea {xk }k≥0 una sucesión generada para el (MAS) tal que lı́m xk = α. Hay dos posibilida-
des: o bien existe k0 ∈ N tal que xk = α para todo k ≥ k0 , o bien para todo k ∈ N, se tiene
que xk 6= α. Si ocurre esto último, por (3.13), dado que lı́mk ξk = α, se tiene

|xk+1 − α| 1 1 m)
lı́m m
= lı́m |g m) (ξk )| = |g (α)| =
6 0.
|xk − α| m! m!

De este modo deducimos el segundo punto y la prueba del resultado.


3
Teorema de Taylor (e.g. cf. [T. Apostol, Calculus Vol. 1, Th.7.6, p.342 y Sec.7.7, p.347]) Sean I ⊂ R un
Pn f j) (a)
intervalo, a ∈ I, f ∈ C n+1 (I). Entonces, dado x ∈ I, existe c entre x y a tal que f (x) = j=0
j
j! (x−a) +
f n+1) (c)
En (x) siendo el error (en su expresión más simple, pues hay varias posibles) En (x) = (n+1)! (x − a)n+1 .
20 Cálculo Numérico I.

4. Métodos de segundo orden: método de Newton y


variantes
En esta sección volveremos de nuevo al estudio de la ecuación (1.1), donde supondremos
que la función f está definida en el intervalo [a, b] (con a, b ∈ R y a < b). Supongamos que
f admite una raı́z α en el intervalo (a, b). Nuestro primer objetivo es construir un método
iterativo de orden al menos cuadrático (orden 2) que aproxima a dicha raı́z de f . La idea
se basa en escribir de manera equivalente la ecuación (1.1) como (EP F ) para una nueva
función g y aplicar los resultados de la sección anterior. Razonamos del siguiente modo:
Sea h : [a, b] → R una función definida en [a, b] tal que h(x) 6= 0 en el intervalo [a, b].
Evidentemente la ecuación (1.1) equivale a

x − h(x)f (x) = x, (EP F )h

es decir, equivale a (EP F ) para la función g : [a, b] → R dada por g(x) = x − h(x)f (x).
La idea del método de Newton consiste en determinar h de tal modo que al aplicar el
(M AS) a la ecuación (EP F )h , resulte un método convergente de al menos segundo orden.
Para ello, teniendo en cuenta el Teorema 3.14, parece natural pedir que se tenga g ∈ C 2 [α −
ρ, α + ρ] (con ρ > 0 tal que [α − ρ, α + ρ] ⊆ [a, b]) y g 0 (α) = 0. Teniendo en cuenta que
g 0 (x) = 1 − h0 (x)f (x) − h(x)f 0 (x) y que f (α) = 0, deducimos que h ha de satisfacer

h(α)f 0 (α) = 1.

Si suponemos que f 0 (x) 6= 0 para cualquier x en [a, b], basta tomar como función h(x) =
1/f 0 (x). Ası́, la anterior ecuación (EP F )h se escribe

f (x)
x− = x,
f 0 (x)

ecuación para la que el (M AS) adopta la forma



 x0 ∈ [a, b] dado,
f (x ) (M N )
 xk+1 = xk − 0 k , ∀k ≥ 0.
f (xk )

Este método iterativo (M N ) recibe el nombre de Método de Newton.

Observación 4.1 1. El método de Newton tiene una interpretación geométrica sencilla,


que en realidad está en el origen histórico del mismo. En efecto, en cada etapa k, el valor
xk+1 corresponde a la abscisa del punto de corte con el eje OX de la recta tangente
a la curva y = f (x) en el punto (xk , f (xk )) (esta recta viene dada por y − f (xk ) =
f 0 (xk )(x − xk )). Esta interpretación geométrica justifica que el método de Newton
también reciba el nombre de método de la tangente.

2. Obsérvese que para poder aplicar el método de Newton en el intervalo [a, b] es necesario
que la función f sea al menos derivable en [a, b] y que f 0 (x) 6= 0 para todo x ∈ [a, b].
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 21

3. Si f ∈ C 3 ([a, b]) cumple que f 0 (x) 6= 0 en [a, b], entonces automáticamente g(x) =
x − ff0(x)
(x)
∈ C 2 ([a, b]) y por el Teorema 3.14 se tiene que el (MN) tiene orden al menos
dos.

Comencemos estudiando un resultado de convergencia global del (M N ) en el intervalo


[a, b] sin imponer que f ∈ C 3 . Se tiene:

Teorema 4.2 (Convergencia global del (M N )) Sean a, b ∈ R, con a < b, y f ∈ C 2 ([a, b])
tal que

(i) f (a)f (b) < 0,

(ii) f 0 (x) 6= 0, para todo x ∈ [a, b],

(iii) el signo de f 00 (x) es constante en [a, b] (es decir, o f 00 (x) ≥ 0 para todo x ∈ [a, b], o
f 00 (x) ≤ 0 para todo x ∈ [a, b]),

(iv) si c ∈ {a, b} es tal que |f 0 (c)| = mı́n(|f 0 (a)|, |f 0 (b)|), entonces

|f (c)|
≤ b − a.
|f 0 (c)|

Entonces se tiene:

1. La función f tiene una única raı́z α en [a, b], i.e., existe un único α ∈ [a, b] tal que
f (α) = 0.

2. El (M N ) está bien definido, i.e. para todo x0 ∈ [a, b] se tiene {xk }k≥0 ⊂ [a, b].

3. El (MN) es globalmente convergente en [a, b] hacia α, i.e., para todo x0 ∈ [a, b] se tiene
que existe lı́m xk = α.

4. El (M N ) tiene convergencia al menos cuadrática en [a, b]. De hecho, si se m1 y M2


están dadas por:
m1 = mı́n |f 0 (x)| y M2 = máx |f 00 (x)|, (4.14)
x∈[a,b] x∈[a,b]

entonces se tienen las siguientes acotaciones del error absoluto:


M2
|xk+1 − α| ≤ |xk − α|2 , ∀k ≥ 0, (4.15)
2m1
M2
|xk+1 − α| ≤ |xk+1 − xk |2 , ∀k ≥ 0. (4.16)
2m1
Demostración. Veamos cada uno de los puntos del enunciado:
1. En primer lugar, de las hipótesis (i) y (ii) deducimos que podemos aplicar las Propo-
siciones 1.8 y 1.10 deduciendo que f tiene un único cero α en [a, b].
Por otro lado, las hipótesis (i)–(iv) hacen que, geométricamente, haya cuatro situaciones
posibles:
22 Cálculo Numérico I.

1) f (a) < 0 (y, en consecuencia, f (b) > 0 y f 0 (x) > 0 en [a, b]) y f 00 (x) ≤ 0 para todo
x ∈ [a, b],
2) f (a) < 0 (y, ası́, f (b) > 0 y f 0 (x) > 0 en [a, b]) y f 00 (x) ≥ 0 para todo x ∈ [a, b],
3) f (a) > 0 (y, en consecuencia, f (b) < 0 y f 0 (x) < 0 en [a, b]) y f 00 (x) ≤ 0 para todo
x ∈ [a, b],
4) f (a) > 0 (y, en consecuencia, f (b) < 0 y f 0 (x) < 0 en [a, b]) y f 00 (x) ≥ 0 para todo
x ∈ [a, b].
Nosotros probaremos el teorema en la primera situación. El resto de configuraciones se
pueden demostrar de manera análoga (queda como ejercicio para el lector la prueba en
las tres restantes situaciones), o bien ser llevados al caso 1) mediante cambios de variables
adecuados (ver [3]).
A partir de ahora supondremos que f (a) < 0, f (b) > 0 y f 00 (x) ≤ 0 para todo x ∈ [a, b].
En tal caso, por (ii) obtenemos que f 0 (x) > 0 para todo x ∈ [a, b] y, al ser f 00 (x) ≤ 0, f 0 es
no creciente en [a, b]. Deducimos que la hipótesis (iv) se reescribe: c = b y
f (b)
≤ b − a. (4.17)
f 0 (b)

2. Veamos que el (M N ) está bien definido. Introduzcamos la función g : [a, b] → R


definida por
f (x)
g(x) = x − 0 , ∀x ∈ [a, b].
f (x)
De las hipótesis del enunciado deducimos que g ∈ C 1 ([a, b]). Evidentemente, el (M N ) es
el (M AS) aplicado a esta función g y xk+1 = g(xk ) para k ≥ 0. Ası́, para ver que (M N )
está bien definido, veamos que g([a, b]) ⊆ [a, b]. Para ello, observemos que
(f 0 (x))2 − f (x)f 00 (x) f (x)f 00 (x)
g 0 (x) = 1 − = , ∀x ∈ [a, b],
(f 0 (x))2 (f 0 (x))2
y, en consecuencia, como suponemos f 00 (x) ≤ 0 para todo x ∈ [a, b], tenemos
(
g 0 (x) ≥ 0 ∀x ∈ [a, α) (g es creciente en [a, α]),
g 0 (x) ≤ 0 ∀x ∈ (α, b] (g es decreciente en [α, b]).

Veamos que g([a, b]) ⊆ [a, b]:

Si x ∈ [a, α], entonces g(a) ≤ g(x) ≤ g(α) = α < b. Como


f (a)
g(a) = a − > a,
f 0 (a)
deducimos que a < g(x) ≤ α < b para cada x ∈ [a, α].
Si x ∈ [α, b], entonces g(b) ≤ g(x) ≤ g(α) = α < b. Como c = b, de (4.17) deducimos
f (b)
g(b) = b − ≥ a.
f 0 (b)
También en este caso deducimos que a ≤ g(x) ≤ α < b para cada x ∈ [α, b].
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 23

Obsérvese que en realidad hemos probado que


a ≤ g(x) ≤ α, ∀x ∈ [a, b]. (4.18)
En particular, deducimos que (M N ) está bien definido. Esto prueba el punto 2.
3. Pasemos a probar que el método es globalmente convergente en [a, b] hacia α. Para ello,
veamos primero que, a partir del primer término, la sucesión generada por (M N ) es creciente
y está acotada superiormente. Efectivamente, si x0 ∈ [a, b], usando (4.18) obtenemos que
x1 = g(x0 ) ∈ [a, α]. Utilizando de nuevo (4.18) y un razonamiento de inducción conseguimos
{xk }k≥1 ⊂ [a, α].
En particular la sucesión {xk }k≥1 está acotada.
También {xk }k≥1 es creciente pues, si k ≥ 1 se tiene
f (xk )
xk+1 = g(xk ) = xk − ≥ xk .
f 0 (xk )
En la fórmula anterior hemos utilizado que {xk }k≥1 ⊂ [a, α] y que f (x) ≤ 0 en [a, α].
Resumiendo, la sucesión {xk }k≥1 ⊂ [a, α] es monótona creciente y está acotada superior-
mente. Ası́, existe el lı́mite
lı́m xk := α ≤ α.
En tal caso, tomando lı́mites en la igualdad
f (xk )
xk+1 = xk − ,
f 0 (xk )
obtenemos
f (α)
α=α− ,
f 0 (α)
es decir, f (α) = 0 o, equivalentemente, α = α. Obtenemos ası́ la prueba del tercer punto del
enunciado.
4. Estudiemos el orden de convergencia. Aunque g 0 (α) = 0 (lo que sugiere que el orden
de convergencia del método será al menos cuadrático), no podemos aplicar el Teorema 3.14
pues, en principio g no pertenece a C 2 ([a, b]). Estudiaremos directamente el error absoluto
del método:
De la expresión de xk+1 deducimos
f (xk ) + f 0 (xk )(xk+1 − xk ) = 0, ∀k ≥ 0. (4.19)
Por otra parte, realizando un desarrollo de Taylor de f (α) hasta el orden 2 (obsérvese que
f ∈ C 2 ([a, b]) también obtenemos:
1
0 = f (α) = f (xk ) + f 0 (xk )(α − xk ) + f 00 (θk )(α − xk )2 , ∀k ≥ 0,
2
donde θk es un punto situado entre α y xk (y, por tanto en [a, b]). Restando las dos expresiones
obtenemos
1
f 0 (xk )(α − xk+1 ) + f 00 (θk )(α − xk )2 = 0.
2
24 Cálculo Numérico I.

Despejando xk+1 − α, tomando valores absolutos y usando (4.14) deducimos (4.15). En


particular esta desigualdad (4.15) prueba que el método de Newton (M N ) es de orden al
menos cuadrático.
Para obtener (4.16), volvemos a hacer un desarrollo de Taylor de segundo orden de
f (xk+1 ):

1
f (xk+1 ) = f (xk ) + f 0 (xk )(xk+1 − xk ) + f 00 (θ̄k+1 )(xk+1 − xk )2 , ∀k ≥ 0,
2

donde ahora θ̄k+1 es un nuevo punto situado entre xk+1 y xk (y, de nuevo, en el intervalo
[a, b]). Usando (4.19) deducimos

1
f (xk+1 ) = f 00 (θ̄k+1 )(xk+1 − xk )2 .
2
Por otra parte, aplicando el teorema del valor medio en los puntos xk+1 y α tenemos:

f (xk+1 ) = f (xk+1 ) − f (α) = f 0 (θbk+1 )(xk+1 − α),

donde θbk+1 es un punto intermedio entre xk+1 y la raı́z α. Igualando estas dos fórmulas y
despejando xk+1 − α obtenemos:

f 00 (θ̄k+1 )
xk+1 − α = (xk+1 − xk )2
0
2f (θk+1 )
b

Tomando valores absolutos y usando (4.14) obtenemos (4.16). Esto finaliza la prueba del
resultado.

Observación 4.3 1. Analizando la demostración del resultado anterior deducimos que


la hipótesis (iv) puede ser reescrita de manera equivalente del siguiente modo:
(iv) si c ∈ {a, b} es tal que |f 0 (c)| = mı́n(|f 0 (a)|, |f 0 (b)|), entonces, tomando x0 = c, se
tiene x1 ∈ [a, b].

2. De la demostración anterior también se deduce que, bajo las condiciones del Teore-
ma 4.2, la sucesión {xk }k≥1 que genera el método de Newton (M N ) es monótona a
partir del primer término. Efectivamente, hemos visto que en la primera de las cuatros
situaciones descritas al inicio de la prueba, la sucesión {xk }k≥1 es monótona creciente.
En las otras tres es posible comprobar que la sucesión sigue siendo monótona (creciente
o decreciente).

3. La acotación del error (4.16) (estimación “a posteriori”) es un test de parada para


el método. Supongamos que queremos calcular una aproximación de la raı́z α con un
error menor que ε > 0, entonces iterarı́amos el método hasta un término k ≥ 1 que
satisfaga
M2
|xk − xk−1 |2 < ε.
2m1
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 25

4. La condición (iv) del enunciado del Teorema 4.2 limita el tamaño del intervalo [a, b] a
considerar. En concreto, el punto c es el extremo “malo”del intervalo y la condición (iv)
se puede reescribir diciendo que si tomamos x0 = c, entonces el punto x1 no se sale del
intervalo [a, b]. El otro extremo del intervalo [a, b] es el extremo “bueno”: si tomamos
como x0 ese punto, la sucesión será monótona y convergerá hacia α. Vemos este punto
en el siguiente resultado.
Corolario 4.4 (Regla de Fourier) Consideremos una función f ∈ C 2 ([a, b]) tal que sa-
tisface las hipótesis (i), (ii) y (iii) del Teorema 4.2. Sea x0 = a o x0 = b tal que se tiene4
f (x0 ) > 0 si f 00 (x) ≥ 0 para todo x ∈ [a, b], o f (x0 ) < 0 si f 00 (x) ≤ 0 para todo x ∈ [a, b].
Entonces, la sucesión {xk }k≥0 generada por el método (M N ) está bien definida, es
monótona, {xk }k≥0 ⊂ [a, b] y es convergente hacia α (la única raı́z de f en [a, b]) con orden
de convergencia al menos cuadrática. Además, se tienen las estimaciones de error (4.15)
y (4.16).
Demostración. Probemos el resultado en la primera situación de las cuatro descritas al
inicio de la prueba del Teorema 4.2. En estas condiciones c = b y x0 = a. Recordemos que
en este caso la función g dada por
f (x)
g(x) = x − , ∀x ∈ [a, b].
f 0 (x)
es creciente en el intervalo [a, α] y, además, la sucesión {xk }k≥0 es monótona creciente,
está contenida en el subintervalo [a, α] (por tanto está acotada) y converge hacia α. Las
estimaciones (4.15) y (4.16) se prueban análogamente a como se hizo anteriormente. Esto
acaba la prueba.
El último Teorema que probaremos en este Tema nos proporciona un resultado de con-
vergencia local para el método de Newton (M N ). Se tiene:
Teorema 4.5 (Convergencia local del (M N )) Consideremos el intervalo abierto (a, b)
y una función f ∈ C 2 (a, b). Supongamos que existe α ∈ (a, b) tal que f (α) = 0 y f 0 (α) 6= 0.
Entonces, el método (M N ) es localmente convergente en (a, b), i.e., existe ρ > 0 tal que el
método (M N ) está bien definido en [α − ρ, α + ρ] y es convergente en [α − ρ, α + ρ] hacia
α. Además, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para todo
k≥0y
|xk+1 − α| |f 00 (α)|
lı́m = , ∀x0 ∈ [α − ρ, α + ρ] \ {α}. (4.20)
|xk − α|2 2|f 0 (α)|
Ası́, la convergencia hacia α es de orden al menos dos, y si f 00 (α) 6= 0, el método (M N )
tiene convergencia (exactamente) cuadrática (p = 2).
Demostración. La prueba es consecuencia del Teorema 3.12. Efectivamente, como f ∈
C 2 (a, b) y f 0 (α) 6= 0, existe δ > 0 tal que (α − δ, α + δ) ⊂ (a, b) y f 0 (x) 6= 0 para todo
x ∈ (α − δ, α + δ). Ası́, la función
f (x)
g(x) = x − , ∀x ∈ (α − δ, α + δ),
f 0 (x)
4
Si f 00 (x) ≡ 0 en todo el intervalo, f es una lı́nea recta y el (MN) lleva directamente a la solución por
cualquier extremo que se empiece.
26 Cálculo Numérico I.

está bien definida en el intervalo y satisface g ∈ C 1 (α − δ, α + δ), g(α) = α y g 0 (α) = 0.


Podemos aplicar directamente a g el Teorema 3.12 concluyendo que existe ρ ∈ (0, δ) tal que
el método (M N ) está bien planteado en [α − ρ, α + ρ] y es convergente hacia la raı́z α de f .
Tenemos ası́ la primera parte del enunciado.
Probemos a continuación la segunda parte del Teorema. Sea x0 ∈ [α − ρ, α + ρ]. Entonces
la sucesión generada por el método (M N ) está bien definida, {xk }k≥0 ⊂ [α − ρ, α + ρ] y
satisface lı́m xk = α. Las estimaciones probadas en el Teorema Global de Convergencia del
Método de Newton son válidas aquı́ igualmente, de donde deducimos que existe un punto ξk
que está entre α y xk tal que

1 f 00 (ξk )
xk+1 − α = 0
(xk − α)2 ,
2 f (xk )

es decir, que o bien existe un k0 ≥ 0 tal que xk0 = α y por tanto también xk = α para todo
k ≥ k0 o bien xk 6= α para todo k ≥ 0, en cuyo caso,

xk+1 − α 1 f 00 (ξk )
= , ∀k ≥ 0.
(xk − α)2 2 f 0 (xk )

Como en particular se tiene que lı́m ξk = α, tomando lı́mite en la expresión anterior inferimos
la igualdad (4.20). Esto finaliza la prueba del resultado.

Observación 4.6 Observemos que si en la parte final del resultado anterior tuviéramos
f 00 (α) = 0, cabrı́a esperar “mayor convergencia” , del tipo al menos p con p > 2. Si fuera el
caso, serı́a convergencia supercuadrática.
Concretamente, si f ∈ C 3 , la convergencia serı́a de orden al menos 3. En efecto, de la
prueba anterior se deduce que
xk+1 − α 1 f 00 (ξk )
=
(xk − α)2 2 f 0 (xk )
con ξk entre xk y α. Por tanto, |ξk − α| ≤ |xk − α|. Además, por el teorema del valor medio,

f 00 (ξk ) = f 00 (ξk ) − 0 = f 00 (ξk ) − f 00 (α) = f 000 (ck )(ξk − α),

donde ck es un valor entre ξk y α. Por tanto, de ambas expresiones concluimos que

|xk+1 − α| 1 |f 000 (ck )(ξk − α)| |f 000 (α)|


lı́m sup = lı́m sup ≤ .
|xk − α|3 2 |f 0 (xk )(xk − α)| 2|f 0 (α)|

Terminamos el Tema presentando dos variantes del método de Newton (M N ). Se trata


del método de la secante y del método regula falsi. Pasemos a describirlos brevemente sin
realizar un análisis de su convergencia:

Método de la secante: Este algoritmo es un método iterativo de dos pasos. Se trata


de una variación del método de Newton donde se construye el punto xk+1 como la
abscisa del punto de corte entre el eje OX y la recta secante a la curva y = f (x)
que pasa por los puntos (xk , f (xk )) y (xk−1 , f (xk−1 )) (recordemos que en el método
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 27

de Newton el punto xk+1 es la abscisa del punto de corte entre el eje OX y la recta
tangente que pasa por el punto (xk , f (xk ))). Ası́, este método tiene la forma:

 x0 , x1 dados,
xk − xk−1 (M S)
 xk+1 = xk − f (xk ) , ∀k ≥ 1.
f (xk ) − f (xk−1 )

Regula falsi: Se trata de una variante del método anterior y, en algún sentido, recuerda
al método de dicotomı́a (bisección). Supongamos dados x0 y x1 tales que x0 < x1 y
f (x0 )f (x1 ) < 0 y calculemos x2 como la abscisa del punto de corte entre el eje OX y la
secante a f que pasa por los puntos (x0 , f (x0 )) y (x1 , f (x1 )). Utilizando los tres puntos
x0 , x1 y x2 (x0 < x2 < x1 ) seleccionamos el subintervalo ([x0 , x2 ] ó [x2 , x1 ]) donde haya
un cambio de signo de f en los extremos. El nuevo punto x3 se construirı́a repitiendo
en el nuevo intervalo el proceso anterior. Evidentemente este nuevo algoritmo es un
método iterativo de dos pasos.

Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.

[2] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.

[3] P. Henrici: Elementos de Análisis Numérico, John Wiley and Sons-Ed. Trillas, México,
1972.

[4] J. A. Infante y J. M. Rey, Métodos Numéricos: Teorı́a, problemas y prácticas con


MATLAB , Ediciones Pirámide, Madrid, 1999.

Como bibliografı́a complementaria se pueden consultar:

[5] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.

[6] R.L. Burden & J.D. Faires, Métodos Numérico, International Thomson Editores Spain
Paraninfo, Madrid, 2004.

[7] D. Kincaid & W. Cheney, Análisis Numérico, Addison-Wesley Iberoamericana, Wil-


mington, 1994.

También podría gustarte