Documentos de Académico
Documentos de Profesional
Documentos de Cultura
si n ≥ 5, se sabe que no existen fórmulas como las anteriores y, en general, las raı́ces
de estos polinomios no pueden ser calculadas de manera exacta.
1
2 Cálculo Numérico I.
x log x − 1 = 0,
teniendo en cuenta que para que esté definido el logaritmo como un número real, x ha de
ser estrictamente positivo, dicha ecuación puede ser escrita de varias maneras equivalentes.
Por ejemplo en la forma
log x − 1/x = 0,
o también en la forma de ecuación de punto fijo (véase más adelante) dada por x = 1/ log x,
o en la forma log x = 1/x, que es del tipo g(x) = h(x).
En los dos primeros casos, el problema de hallar la solución x de f (x) = 0 puede ser
interpretado geométricamente como el de encontrar la abscisa del punto de corte de la curva
de ecuación en el plano cartesiano y = f (x) con el eje OX, es decir con la recta y = 0. En
el caso en que la ecuación se escribe en forma g(x) = x, se puede interpretar de manera
geométrica el problema como el de hallar la abscisa del punto de corte de la curva y = g(x)
con la bisectriz del primer cuadrante, es decir, la recta y = x. Finalmente, si la ecuación se
ha escrito en la forma g(x) = h(x), el significado geométrico consiste en hallar la abscisa del
punto de corte de las curvas de ecuaciones y = g(x) e y = h(x).
g(x) = x. (EP F )
Hagamos notar que existen muchas maneras de escribir una ecuación dada en la forma
(EP F ):
siendo h cualquier función real continua en todo R tal que h(x) 6= 0 para todo x ∈ R.
Desde el punto de vista del Análisis Numérico, estas cuatro formas no son equivalentes.
Con unas se aproxima la solución buscada de manera más rápida y con menos coste de
cálculos que con otras.
Definición 1.3 Sean (a, b) ⊂ R un intervalo abierto, f : (a, b) → R una función continua
en (a, b) y m ≥ 1 un número entero. Se dice que α ∈ (a, b) es un cero de f de multiplicidad
m, si la función f puede ser escrita en la forma
Proposición 1.5 Sean f ∈ C 1 (a, b)1 y α ∈ (a, b). La función f tiene un cero simple (i.e.
de multiplicidad 1) en α, si y sólo si
Demostración. Supongamos en primer lugar que f tiene un cero simple en α. En tal caso,
evidentemente f (α) = 0. Además, f puede ser escrita en la forma (1.3), y en consecuencia,
la función
f (x)
q(x) = , x ∈ (a, b) \ {α},
x−α
con lo que, teniendo en cuenta que f (α) = 0, se tiene
f (x) − f (α)
0 6= lı́m q(x) = lı́m = f 0 (α).
x→α x→α x−α
Recı́procamente, supongamos que se satisface (1.4). Consideremos la función qb definida
por
f (x)
qb(x) = , x ∈ (a, b) \ {α}.
x−α
Evidentemente se satisface
f (x) = (x − α)b
q (x), x ∈ (a, b) \ {α}.
Además,
f (x) − f (α)
lı́m qb(x) = lı́m = f 0 (α) 6= 0,
x→α x→α x−α
de donde se obtiene el resultado.
La propiedad anterior puede ser generalizada al caso m ≥ 2:
Proposición 1.6 Sean m ≥ 2 entero, f ∈ C m (a, b) y α ∈ (a, b). La función f tiene un cero
en α de multiplicidad m si y sólo si
Es importante resaltar que en este curso nos vamos a limitar a la aproximación de raı́ces
simples de ecuaciones no lineales.
En cualquier proceso de cálculo de raı́ces de una ecuación no lineal se distinguen tres
fases: localización, separación y aproximación.
2. La separación consiste en encontrar subintervalos que contengan una y sólo una solución
de la ecuación, ello es fundamental en el caso de raı́ces muy próximas. En general, se
puede conseguir la separación combinando el teorema de Bolzano y la Proposición 1.10.
Cuando se ha conseguido esto, se dice que la solución está aislada. Ello no siempre se
puede conseguir, ası́ por ejemplo si consideramos la función
x sen(1/x), si x 6= 0,
f (x) =
0, si x = 0;
Teorema 1.8 Sean a, b ∈ R, con a < b, y f : [a, b] → R una función continua en [a, b] tal
que f (a)f (b) ≤ 0. Entonces, existe α ∈ [a, b] tal que f (α) = 0.
Definición 1.12 Un método iterativo es un proceso constructivo que genera una sucesión
{xk }k≥0 . Supongamos dados x0 ∈ R un punto y G : D ⊆ R → R una función. Un método
iterativo de un paso (o de un punto inicial) es un método iterativo que genera una sucesión
por recurrencia mediante la fórmula
(
x0 ∈ R dado,
(1.5)
xk+1 = G(xk ), ∀k ≥ 0.
Ası́ pues, un método iterativo de un paso depende de la fórmula (1.5) que se utilice, y
también del punto inicial x0 que se tome. Cuando lo planteamos, el método iterativo debe
dar respuesta a las siguientes cuestiones:
1. Bien definido: El primer problema que se presenta con todo método iterativo de
un paso es saber si partiendo de x0 , con el esquema (1.5) se construye una verdadera
sucesión. Ası́ por ejemplo, si consideramos la sucesión definida por recurrencia mediante
la fórmula
3
xk+1 = 3 − , k ≥ 0,
xk
(G(x) = 3 − 3/x) y partimos de x0 = 2, es inmediato ver que se van obteniendo
sucesivamente, x1 = 3/2, x2 = 1, x3 = 0, y en consecuencia x4 no está definida. En
consecuencia, en este caso diremos que el método iterativo está mal definido.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 7
2. Convergencia del método: Una vez que el método iterativo proporciona una suce-
sión {xk }k≥0 cabe plantearse si la sucesión es convergente. Por ejemplo, si consideramos
x0 = −1 y consideramos (1.5) con
(1 + x)π
G(x) = cos ,
2
En este Tema vamos estudiar dos métodos iterativos de un paso para los que responde-
remos a estas cuestiones.
Observación 1.13 Es importante resaltar que el método iterativo (1.5) está bien definido
cuando se puede demostrar que los puntos xk que va generando están en el dominio de G
para cualquier k ≥ 0. En particular el método iterativo de un paso estará bien definido si la
función G satisface imag (G) ⊆ dom (G) ≡ D.
Definición 1.14 1. Se dice que el método iterativo dado por la fórmula (1.5) tiene la
propiedad de convergencia global hacia α ∈ R en D ⊂ R, si para todo dato inicial
x0 ∈ D la sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ D y es convergente hacia α.
2. Se dice que el método iterativo (1.5) tiene la propiedad de convergencia local hacia
α ∈ R si existe un número δ > 0 tal que para cualquier x0 ∈ [α − δ, α + δ] ∩ D la
sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ [α − δ, α + δ] ∩ D y es convergente
hacia α.
3. Se dice que α es un punto atractivo para el método iterativo (1.5) si el método iterativo
tiene convergencia, al menos local, en D hacia el cero α. En caso contrario, diremos
que α es un punto repulsivo para dicho método.
Obsérvese que distintas raı́ces de una misma ecuación pueden ser unas atractivas y otras
repulsivas para un mismo método iterativo (veremos ejemplos de ello en clase de problemas).
Otra propiedad importante de los métodos iterativos es el llamado orden de conver-
gencia del método. En cierto sentido, el orden de convergencia proporciona una medida de
la velocidad de convergencia de la sucesión construida con el método hacia su lı́mite.
8 Cálculo Numérico I.
Definición 1.15 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α. Se dice que la sucesión tiene orden de convergencia al menos p si
existen un número entero k0 ≥ 0 y un número real C > 0 (0 < C < 1 si p = 1) tales que
Observación 1.16 Es interesante resaltar que no toda sucesión convergente tiene asignado
un orden de convergencia en el sentido de la definición anterior. Por ejemplo, la sucesión
1 1 1 1 1 1
0, 1, 1, , 2 , , 3 , ..., , n , ...,
2 2 3 3 n n
converge a cero, pero
|x2k+1 | 1/(k + 1)
= ,
|x2k |p 1/k pk
sucesión que converge a +∞ cuando k → ∞, cualquiera que sea p > 0.
Proposición 1.17 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α y con xk 6= α para todo k ≥ 0. Entonces, la sucesión {xk }k≥0 tiene
orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m sup = L < +∞ (L < 1 si p = 1). (1.6)
|xk − α|p
|xk+1 − α|
≤C para todo k ≥ k0 .
|xk − α|p
En consecuencia
|xk+1 − α|
lı́m sup =L≤C
|xk − α|p
de donde deducimos (1.6).
Recı́procamente, supongamos que se tiene (1.6). Fijemos ε > 0 (con L + ε < 1 si p = 1).
Entonces, utilizando las propiedades de los lı́mites superiores, existe un entero k0 (ε) ≥ 1 tal
que
|xk+1 − α|
≤ L + ε para todo k ≥ k0 (ε).
|xk − α|p
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 9
Basta tomar C = L + ε para deducir que {xk }k≥0 tiene orden de convergencia al menos p.
Esto acaba la prueba.
|xk+1 − α|
Obsérvese que en el caso en que exista lı́m , la proposición anterior afirma que
|xk − α|p
la sucesión {xk }k≥0 tiene orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m = L < +∞ (L < 1 si p = 1).
|xk − α|p
Definición 1.18 Sean {xk }k≥0 ⊂ R una sucesión, p > 0 un número real y α ∈ R tal que
lı́m xk = α. Supongamos que xk 6= α para cualquier k ≥ 0. Entonces, se dice que la sucesión
tiene orden de convergencia (exactamente) p si existe
|xk+1 − α|
lı́m = L ∈ (0, +∞) (L ∈ (0, 1) si p = 1). (1.7)
|xk − α|p
En tal caso, a la constante L definida por (1.7) se le denomina la constante asintótica del
error.
Observación 1.19 Obsérvese que si una sucesión {xk }k≥0 converge hacia α con orden de
convergencia p (y xk 6= α para cualquier k ≥ 0), entonces para cualquier q > 0 existe
|xk+1 − α| +∞ si q > p,
lı́m = L si q = p,
|xk − α|q
0 si q < p.
Por otro lado, dada una sucesión {xk }k≥0 convergente hacia α, en general ésta no tiene
un orden de convergencia en el sentido de la Definición 1.18 (ver ejemplos más abajo).
2. Consideremos ahora la sucesión {xk }k≥1 con xk = 21k . Es fácil comprobar que la sucesión
converge hacia 0 con orden de convergencia exactamente 1. Efectivamente
|xk+1 | 1
lı́m = ∈ (0, 1).
|xk | 2
Como ya hemos dicho, el orden de convergencia de una sucesión mide la velocidad de con-
vergencia de la sucesión hacia su lı́mite. En el siguiente ejemplo pondremos de manifiesto
este hecho:
10 Cálculo Numérico I.
Ejemplo 1.21 Consideremos la sucesión {xk }k≥0 definida por recurrencia (algoritmo de
Heron para x = 1),
x2 + 1
x0 = 2, xk+1 = k , ∀k ≥ 0.
2xk
1. En primer lugar, es fácil ver que la sucesión {xk }k≥0 está bien definida. Efectivamente,
por inducción no es difı́cil probar que
xk > 0, ∀k ≥ 0.
2. Veamos que {xk }k≥0 es convergente probando que la sucesión es monótona y acotada.
Obsérvese que
1 − x2k
xk+1 − xk = , ∀k ≥ 0,
2xk
ası́, para comprobar la monotonı́a de la sucesión, estudiemos la cantidad 1−x2k . Ası́, si k ≥ 1,
2 2
x2k−1 + 1 x2k−1 − 1
1− x2k =1− =− .
2xk−1 2xk−1
Utilizando las igualdades anteriores es fácil ver (por inducción) que la sucesión es monóto-
na decreciente. Por otro lado, de la segunda igualdad también deducimos
1 ≤ xk ≤ x0 = 2, ∀k ≥ 0,
|xk+1 − 1| 1 1
lı́m 2
= lı́m = .
|xk − 1| 2xk 2
Como hemos dicho anteriormente este orden de convergencia mide la velocidad con la que
la sucesión se acerca hacia su lı́mite. Veremos esto en el siguiente punto.
4. Calculemos cuántas iteraciones k son necesarias para que el error |xk − 1| sea menor que
10−4 . Teniendo en cuenta que xk ≥ 1 para todo k ≥ 0, es fácil ver la desigualdad
|xk − 1| 1 1
2
= ≤ , ∀k ≥ 1,
|xk−1 − 1| 2xk−1 2
es decir,
1
|xk − 1| ≤ |xk−1 − 1|2 , ∀k ≥ 1.
2
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 11
11 1 1 2k−1 1 1 1
|xk − 1| ≤ 2 22 ··· k−2 |x1 − 1| = 2k−1 −1 2k = , ∀k ≥ 1.
23(2 )−1
22 2 22 2 2 k−1
Basta por tanto tomar k = 4. Ası́, en la cuarta iteración del método podemos asegurar que
el error cometido es menor que 10−4 . (En este ejemplo tan sencillo es posible calcular el error
exacto que, de hecho, es mejor que la cota obtenida:
x1 = 1, 25 y |x1 − 1| = 00 25,
x = 1, 025 y |x − 1| = 00 25 · 10−1 ,
2 3
x3 = 1, 0003048780488 · · · y |x3 − 1| = 00 3049 · 10−3 ,
x4 = 10 00000004647 . . . y |x4 − 1| = 00 4647 · 10−7 ).
2. Método de bisección
El método de bisección (o de dicotomı́a) es un método de aproximación de raı́ces de una
función que está basado en el Teorema de Bolzano. Para presentarlo supongamos dados un
intervalo cerrado [a, b] ⊂ R (con a < b) y una función f : [a, b] → R continua en [a, b] y
consideremos la ecuación (1.1). Supondremos en esta sección las hipótesis
Hipótesis: Supongamos que f es continua en [a, b] y f (a)f (b) < 0. Como aplicación del
Teorema de Bolzano (Teorema 1.8), sabemos que existe un punto α ∈ (a, b) tal que f (α) = 0.
Supongamos que dicho cero α es el único cero de f en [a, b].
Bajo las condiciones precedentes, vamos a construir una sucesión de intervalos encajados
que siempre contienen al punto α. Para ello razonamos del siguiente modo:
Etapa 1. Tenemos que f (a0 )f (b0 ) = f (a)f (b) < 0. Sea
a0 + b 0
x0 = .
2
Tanto en el caso a) como en el b), el intervalo [a1 , b1 ] construido satisface [a1 , b1 ] ⊂ [a0 , b0 ],
f (a1 )f (b1 ) < 0 (y por tanto, α ∈ (a1 , b1 )) y
1 1
b1 − a1 = (b0 − a0 ) = (b − a).
2 2
ak−1 + bk−1
xk−1 = .
2
Si f (xk−1 ) = 0, ya hemos encontrado la solución α = xk−1 .
Si f (xk−1 ) 6= 0, entonces se pueden presentar dos casos:
b) Si f (ak−1 )f (xk−1 ) > 0, entonces f (xk−1 )f (bk−1 ) < 0, y tomamos ak = xk−1 y bk = bk−1 .
1
bk − ak = (bk−1 − ak−1 ), ∀k ≥ 1.
2
En particular, deducimos que la sucesión {ak }k≥0 es monótona creciente, {bk }k≥0 es monótona
decreciente y
1 1
0 ≤ α − ak ≤ k
(b − a) y 0 ≤ bk − α ≤ k (b − a) ∀k ≥ 0.
2 2
Por tanto lı́m ak = α y lı́m bk = α.
Después de haber efectuado k pasos, se puede tomar como aproximación de la raı́z α de
ak + b k
f en (a, b) el valor xk = que, evidentemente satisface lı́m xk = α. De hecho, podemos
2
acotar el error absoluto cometido por
1
|xk − α| ≤ (b − a).
2k+1
Tenemos ası́ descrito el método de bisección o dicotomı́a.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 13
Observación 2.1 El método de bisección presenta varios inconvenientes. Es lento (de he-
cho, la convergencia del algoritmo no llega a ser lineal), ya que no aprovecha ninguna otra
propiedad de f que no sea el signo de la misma. Es un método en que pasa desapercibido si
se acerca uno mucho o no a la solución, y es computacionalmente costoso, ya que hay que
efectuar muchas comparaciones.
Sin embargo, el método de bisección presenta también algunas ventajas. Ası́, es siempre
convergente en el intervalo en el que se aplica. Además, tiene una expresión explı́cita de la
cota del error (lo que permite saber a priori el número de etapas k a aplicar para obtener
una aproximación de la raı́z α con una precisión ε > 0 prefijada).
x = g(x). (EP F )
Definición 3.1 Sea α ∈ [a, b]. Se dice que α es un punto fijo de g si g(α) = α, es decir, si
α es solución de la ecuación (EP F ).
Los puntos fijos de g geométricamente corresponden a las abcisas de los puntos de corte
entre la gráfica de la recta y = x y la gráfica y = g(x).
Ası́, el método de las aproximaciones sucesivas (M AS) aplicado a la ecuación (EP F )
tiene la forma: (
x0 ∈ [a, b] dado,
(M AS)
xk+1 = g(xk ), ∀k ≥ 0.
Obsérvese en primer lugar que para que (M AS) esté bien definido se debe tener que xk ∈ [a, b]
para cualquier k ≥ 0.
Comencemos analizando la existencia y/o unicidad de puntos fijos de la función g. Se
tiene:
Observación 3.3 Es fácil comprobar que una condición suficiente para que se satisfaga (3.8)
es que g([a, b]) ⊆ [a, b].
14 Cálculo Numérico I.
Demostración. Supongamos que α1 , α2 ∈ [a, b] son dos puntos fijos distintos de g en [a, b].
Entonces,
0 < |α1 − α2 | = |g(α1 ) − g(α2 )| ≤ L|α1 − α2 | < |α1 − α2 |,
donde L ∈ [0, 1) es una constante de contractividad de g en [a, b]. Evidentemente esto es
absurdo.
Una condición suficiente para que una función sea contractiva en un intervalo [a, b], viene
dada en la siguiente proposición:
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 15
Proposición 3.8 Sea g : [a, b] → R una función continua en el intervalo [a, b] y derivable
en (a, b). Supongamos que satisface la condición
Demostración. Sean x, y ∈ [a, b]. Aplicando el Teorema del Valor Medio a la función g
deducimos que existe un punto z ∈ (a, b) tal que
2. El método de aproximaciones sucesivas (M AS) está bien definido en [a, b], i.e., para
todo x0 ∈ [a, b] se tiene que {xk }k≥0 ⊂ [a, b].
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 0 y ∀x0 ∈ [a, b] (cota a posteriori). (3.12)
1−L
Demostración. En primer lugar, al ser g una función contractiva en el intervalo [a, b]
deducimos que g es también continua en [a, b]. Veamos la prueba de los puntos del enunciado:
El primer punto es consecuencia directa de las Proposiciones 3.2 y 3.7 (véase la Obser-
vación 3.3). Por otro lado, teniendo en cuenta la hipótesis g([a, b]) ⊆ [a, b], es fácil deducir
que para cualquier x0 ∈ [a, b] el método está bien definido y satisface
Obsérvese que en la desigualdad anterior estamos usando de manera reiterada que, para
cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en [a, b].
Teniendo en cuenta que L ∈ [0, 1), deducimos que lı́m xk = α y, por tanto, tenemos que
el método (M AS) es globalmente convergente en el intervalo [a, b]. Por otro lado, tenemos
De aquı́ deducimos que el método tiene orden de convergencia al menos 1. Tenemos probado
el punto 3 y la desigualdad (3.11).
Para finalizar probemos la estimación (3.12). Sea m ≥ 0. Entonces,
(de nuevo hemos usado que, para cualquier m ≥ 0, xm ∈ [a, b] y que g es contractiva en
[a, b]). Por otro lado, si tomamos k, m con m > k ≥ 0, aplicamos la desigualdad triangular
y tenemos en cuenta la desigualdad anterior, podemos escribir
|xm − xk | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xk+2 − xk+1 | + |xk+1 − xk |
k
L − Lm
m−1 m−2 k+1 k
≤ L +L + ··· + L + L |x1 − x0 | = |x1 − x0 |
1−L
Lk
≤ |x1 − x0 |.
1−L
Sabemos que lı́mm→∞ xm = α, ası́, si en la desigualdad precedente tomamos lı́mm→∞ obten-
dremos la estimación (3.12). Esto finaliza la prueba.2
Observación 3.10 Las acotaciones del error dadas en las desigualdades (3.11) y (3.12)
muestran que la convergencia del método será mejor cuanto más próxima esté la constante
de contractividad L a 0.
Ejemplo 3.11 Consideremos la ecuación de punto fijo e−x = x en el intervalo [1/2, log 2]
y veamos que este intervalo es un intervalo de convergencia global para (M AS), es decir,
comprobemos que g(x) = e−x satisface en [1/2, log 2] las condiciones del Teorema 3.9.
En primer lugar, la función g ∈ C 1 [1/2, log 2], es decir, g es continua y derivable en
[1/2, log 2] y g 0 es continua en [1/2, log 2]. De hecho,
g([1/2, log 2]) = [g(log 2), g(1/2)] = [1/2, e−1/2 ] ⊂ [1/2, log 2].
Tenemos ası́ una de las hipótesis del Teorema 3.9 que hay que comprobar.
2
Otra forma de probar la cota a posteriori es con ayuda de la siguiente desigualdad: |x0 − α| = |x0 ± x1 −
α| ≤ |x0 − x1 | + |x1 − α| y que |x1 − α| ≤ L|x0 − α|, de donde (1 − L)|x0 − α| ≤ |x0 − x1 |. Esto unido a la
cota a priori también implica la cota a posteriori.
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 17
Veamos ahora que g es contractiva en [1/2, log 2] y calculemos una constante de contrac-
tividad asociada. Para ello, aplicaremos la Proposición 3.8:
Ası́, garantizamos que el error sea menor que 10−3 si calculamos k tal que
√ √
(2 − e) 103
2− e −3
√ k/2
≤ 10 ⇐⇒ k ≥ 2 log √ = 110 2 . . .
2( e − 1)e 2( e − 1)
x12 = 00 567067351853728 . . .
|g 0 (α)| < 1.
Entonces, α es un punto atractivo para (M AS), es decir, existe ρ ∈ (0, δ) tal que para
cualquier x0 ∈ [α − ρ, α + ρ] (M AS) está bien definido y genera una sucesión {xk }k≥0 que
satisface lı́m xk = α. Además, existe una constante L ∈ [0, 1) (que depende de ρ y |g 0 (α)|)
tal que
|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [α − ρ, α + ρ],
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [α − ρ, α + ρ].
1−L
Proposición 3.13 Sea I ⊂ R un intervalo abierto y g : I → R una función tal que existe
α ∈ I verificando g(α) = α. Supongamos que existe δ > 0 tal que (α − δ, α + δ) ⊂ I y
g ∈ C 1 (α − δ, α + δ). Supongamos también que para una constante C > 1 se tiene
|g 0 (x)| ≥ C ∀x ∈ (α − δ, α + δ).
Obsérvese que podemos seguir aplicando el razonamiento anterior (la sucesión satisface
{xk }k≥0 ⊂ [α − ρ, α + ρ]), obteniendo
Al ser C > 1 y x0 6= α obtenemos que lı́m |xk − α| = ∞ y esto es, evidentemente absurdo.
Tenemos ası́ la prueba.
Como hemos comentado anteriormente, (M AS) es un método iterativo de orden de con-
vergencia al menos 1 (lineal). En algunos casos el orden de convergencia es mayor. Veamos
esto en el siguiente resultado:
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 19
1. Si m ≥ 2, g ∈ C m (I) y
2. Si m ≥ 1, g ∈ C m (I),
(con |g 0 (α)| < 1 si m = 1), entonces la sucesión {xk }k≥0 generada por el (M AS)
cumple que, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para
todo k ≥ 0 y dicha sucesión tiene orden de convergencia exacta m hacia α.
1 m)
|xk+1 − α| = |g(xk ) − g(α)| = |g (ξk )||xk − α|m ∀k ≥ 0. (3.13)
m!
|xk+1 − α| 1 1 m)
lı́m m
= lı́m |g m) (ξk )| = |g (α)| =
6 0.
|xk − α| m! m!
es decir, equivale a (EP F ) para la función g : [a, b] → R dada por g(x) = x − h(x)f (x).
La idea del método de Newton consiste en determinar h de tal modo que al aplicar el
(M AS) a la ecuación (EP F )h , resulte un método convergente de al menos segundo orden.
Para ello, teniendo en cuenta el Teorema 3.14, parece natural pedir que se tenga g ∈ C 2 [α −
ρ, α + ρ] (con ρ > 0 tal que [α − ρ, α + ρ] ⊆ [a, b]) y g 0 (α) = 0. Teniendo en cuenta que
g 0 (x) = 1 − h0 (x)f (x) − h(x)f 0 (x) y que f (α) = 0, deducimos que h ha de satisfacer
h(α)f 0 (α) = 1.
Si suponemos que f 0 (x) 6= 0 para cualquier x en [a, b], basta tomar como función h(x) =
1/f 0 (x). Ası́, la anterior ecuación (EP F )h se escribe
f (x)
x− = x,
f 0 (x)
2. Obsérvese que para poder aplicar el método de Newton en el intervalo [a, b] es necesario
que la función f sea al menos derivable en [a, b] y que f 0 (x) 6= 0 para todo x ∈ [a, b].
Tema 2: Métodos de resolución de Ecuaciones no Lineales. 21
3. Si f ∈ C 3 ([a, b]) cumple que f 0 (x) 6= 0 en [a, b], entonces automáticamente g(x) =
x − ff0(x)
(x)
∈ C 2 ([a, b]) y por el Teorema 3.14 se tiene que el (MN) tiene orden al menos
dos.
Teorema 4.2 (Convergencia global del (M N )) Sean a, b ∈ R, con a < b, y f ∈ C 2 ([a, b])
tal que
(iii) el signo de f 00 (x) es constante en [a, b] (es decir, o f 00 (x) ≥ 0 para todo x ∈ [a, b], o
f 00 (x) ≤ 0 para todo x ∈ [a, b]),
|f (c)|
≤ b − a.
|f 0 (c)|
Entonces se tiene:
1. La función f tiene una única raı́z α en [a, b], i.e., existe un único α ∈ [a, b] tal que
f (α) = 0.
2. El (M N ) está bien definido, i.e. para todo x0 ∈ [a, b] se tiene {xk }k≥0 ⊂ [a, b].
3. El (MN) es globalmente convergente en [a, b] hacia α, i.e., para todo x0 ∈ [a, b] se tiene
que existe lı́m xk = α.
1) f (a) < 0 (y, en consecuencia, f (b) > 0 y f 0 (x) > 0 en [a, b]) y f 00 (x) ≤ 0 para todo
x ∈ [a, b],
2) f (a) < 0 (y, ası́, f (b) > 0 y f 0 (x) > 0 en [a, b]) y f 00 (x) ≥ 0 para todo x ∈ [a, b],
3) f (a) > 0 (y, en consecuencia, f (b) < 0 y f 0 (x) < 0 en [a, b]) y f 00 (x) ≤ 0 para todo
x ∈ [a, b],
4) f (a) > 0 (y, en consecuencia, f (b) < 0 y f 0 (x) < 0 en [a, b]) y f 00 (x) ≥ 0 para todo
x ∈ [a, b].
Nosotros probaremos el teorema en la primera situación. El resto de configuraciones se
pueden demostrar de manera análoga (queda como ejercicio para el lector la prueba en
las tres restantes situaciones), o bien ser llevados al caso 1) mediante cambios de variables
adecuados (ver [3]).
A partir de ahora supondremos que f (a) < 0, f (b) > 0 y f 00 (x) ≤ 0 para todo x ∈ [a, b].
En tal caso, por (ii) obtenemos que f 0 (x) > 0 para todo x ∈ [a, b] y, al ser f 00 (x) ≤ 0, f 0 es
no creciente en [a, b]. Deducimos que la hipótesis (iv) se reescribe: c = b y
f (b)
≤ b − a. (4.17)
f 0 (b)
1
f (xk+1 ) = f (xk ) + f 0 (xk )(xk+1 − xk ) + f 00 (θ̄k+1 )(xk+1 − xk )2 , ∀k ≥ 0,
2
donde ahora θ̄k+1 es un nuevo punto situado entre xk+1 y xk (y, de nuevo, en el intervalo
[a, b]). Usando (4.19) deducimos
1
f (xk+1 ) = f 00 (θ̄k+1 )(xk+1 − xk )2 .
2
Por otra parte, aplicando el teorema del valor medio en los puntos xk+1 y α tenemos:
donde θbk+1 es un punto intermedio entre xk+1 y la raı́z α. Igualando estas dos fórmulas y
despejando xk+1 − α obtenemos:
f 00 (θ̄k+1 )
xk+1 − α = (xk+1 − xk )2
0
2f (θk+1 )
b
Tomando valores absolutos y usando (4.14) obtenemos (4.16). Esto finaliza la prueba del
resultado.
2. De la demostración anterior también se deduce que, bajo las condiciones del Teore-
ma 4.2, la sucesión {xk }k≥1 que genera el método de Newton (M N ) es monótona a
partir del primer término. Efectivamente, hemos visto que en la primera de las cuatros
situaciones descritas al inicio de la prueba, la sucesión {xk }k≥1 es monótona creciente.
En las otras tres es posible comprobar que la sucesión sigue siendo monótona (creciente
o decreciente).
4. La condición (iv) del enunciado del Teorema 4.2 limita el tamaño del intervalo [a, b] a
considerar. En concreto, el punto c es el extremo “malo”del intervalo y la condición (iv)
se puede reescribir diciendo que si tomamos x0 = c, entonces el punto x1 no se sale del
intervalo [a, b]. El otro extremo del intervalo [a, b] es el extremo “bueno”: si tomamos
como x0 ese punto, la sucesión será monótona y convergerá hacia α. Vemos este punto
en el siguiente resultado.
Corolario 4.4 (Regla de Fourier) Consideremos una función f ∈ C 2 ([a, b]) tal que sa-
tisface las hipótesis (i), (ii) y (iii) del Teorema 4.2. Sea x0 = a o x0 = b tal que se tiene4
f (x0 ) > 0 si f 00 (x) ≥ 0 para todo x ∈ [a, b], o f (x0 ) < 0 si f 00 (x) ≤ 0 para todo x ∈ [a, b].
Entonces, la sucesión {xk }k≥0 generada por el método (M N ) está bien definida, es
monótona, {xk }k≥0 ⊂ [a, b] y es convergente hacia α (la única raı́z de f en [a, b]) con orden
de convergencia al menos cuadrática. Además, se tienen las estimaciones de error (4.15)
y (4.16).
Demostración. Probemos el resultado en la primera situación de las cuatro descritas al
inicio de la prueba del Teorema 4.2. En estas condiciones c = b y x0 = a. Recordemos que
en este caso la función g dada por
f (x)
g(x) = x − , ∀x ∈ [a, b].
f 0 (x)
es creciente en el intervalo [a, α] y, además, la sucesión {xk }k≥0 es monótona creciente,
está contenida en el subintervalo [a, α] (por tanto está acotada) y converge hacia α. Las
estimaciones (4.15) y (4.16) se prueban análogamente a como se hizo anteriormente. Esto
acaba la prueba.
El último Teorema que probaremos en este Tema nos proporciona un resultado de con-
vergencia local para el método de Newton (M N ). Se tiene:
Teorema 4.5 (Convergencia local del (M N )) Consideremos el intervalo abierto (a, b)
y una función f ∈ C 2 (a, b). Supongamos que existe α ∈ (a, b) tal que f (α) = 0 y f 0 (α) 6= 0.
Entonces, el método (M N ) es localmente convergente en (a, b), i.e., existe ρ > 0 tal que el
método (M N ) está bien definido en [α − ρ, α + ρ] y es convergente en [α − ρ, α + ρ] hacia
α. Además, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para todo
k≥0y
|xk+1 − α| |f 00 (α)|
lı́m = , ∀x0 ∈ [α − ρ, α + ρ] \ {α}. (4.20)
|xk − α|2 2|f 0 (α)|
Ası́, la convergencia hacia α es de orden al menos dos, y si f 00 (α) 6= 0, el método (M N )
tiene convergencia (exactamente) cuadrática (p = 2).
Demostración. La prueba es consecuencia del Teorema 3.12. Efectivamente, como f ∈
C 2 (a, b) y f 0 (α) 6= 0, existe δ > 0 tal que (α − δ, α + δ) ⊂ (a, b) y f 0 (x) 6= 0 para todo
x ∈ (α − δ, α + δ). Ası́, la función
f (x)
g(x) = x − , ∀x ∈ (α − δ, α + δ),
f 0 (x)
4
Si f 00 (x) ≡ 0 en todo el intervalo, f es una lı́nea recta y el (MN) lleva directamente a la solución por
cualquier extremo que se empiece.
26 Cálculo Numérico I.
1 f 00 (ξk )
xk+1 − α = 0
(xk − α)2 ,
2 f (xk )
es decir, que o bien existe un k0 ≥ 0 tal que xk0 = α y por tanto también xk = α para todo
k ≥ k0 o bien xk 6= α para todo k ≥ 0, en cuyo caso,
xk+1 − α 1 f 00 (ξk )
= , ∀k ≥ 0.
(xk − α)2 2 f 0 (xk )
Como en particular se tiene que lı́m ξk = α, tomando lı́mite en la expresión anterior inferimos
la igualdad (4.20). Esto finaliza la prueba del resultado.
Observación 4.6 Observemos que si en la parte final del resultado anterior tuviéramos
f 00 (α) = 0, cabrı́a esperar “mayor convergencia” , del tipo al menos p con p > 2. Si fuera el
caso, serı́a convergencia supercuadrática.
Concretamente, si f ∈ C 3 , la convergencia serı́a de orden al menos 3. En efecto, de la
prueba anterior se deduce que
xk+1 − α 1 f 00 (ξk )
=
(xk − α)2 2 f 0 (xk )
con ξk entre xk y α. Por tanto, |ξk − α| ≤ |xk − α|. Además, por el teorema del valor medio,
de Newton el punto xk+1 es la abscisa del punto de corte entre el eje OX y la recta
tangente que pasa por el punto (xk , f (xk ))). Ası́, este método tiene la forma:
x0 , x1 dados,
xk − xk−1 (M S)
xk+1 = xk − f (xk ) , ∀k ≥ 1.
f (xk ) − f (xk−1 )
Regula falsi: Se trata de una variante del método anterior y, en algún sentido, recuerda
al método de dicotomı́a (bisección). Supongamos dados x0 y x1 tales que x0 < x1 y
f (x0 )f (x1 ) < 0 y calculemos x2 como la abscisa del punto de corte entre el eje OX y la
secante a f que pasa por los puntos (x0 , f (x0 )) y (x1 , f (x1 )). Utilizando los tres puntos
x0 , x1 y x2 (x0 < x2 < x1 ) seleccionamos el subintervalo ([x0 , x2 ] ó [x2 , x1 ]) donde haya
un cambio de signo de f en los extremos. El nuevo punto x3 se construirı́a repitiendo
en el nuevo intervalo el proceso anterior. Evidentemente este nuevo algoritmo es un
método iterativo de dos pasos.
Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.
[2] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.
[3] P. Henrici: Elementos de Análisis Numérico, John Wiley and Sons-Ed. Trillas, México,
1972.
[5] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.
[6] R.L. Burden & J.D. Faires, Métodos Numérico, International Thomson Editores Spain
Paraninfo, Madrid, 2004.