Está en la página 1de 45

Métodos iterativos para

resolver ecuaciones no
lineales

Juan R. Torregrosa, Alicia Cordero,


Universidad Politécnica de Valencia
Ecuaciones no lineales

𝑓𝑓 𝒙𝒙 = 𝟎𝟎 Métodos iterativos // Raíces simples

Métodos sin memoria Punto a punto Multipunto


𝑦𝑦𝑘𝑘 = 𝜓𝜓(𝑥𝑥𝑘𝑘 )
𝑥𝑥𝑘𝑘+1 = 𝜙𝜙(𝑥𝑥𝑘𝑘 ) 𝑥𝑥𝑘𝑘+1 = 𝜙𝜙(𝑥𝑥𝑘𝑘 , 𝑦𝑦𝑘𝑘 )

Con Libres de Optimo No óptimo


derivadas derivadas

Punto a punto
Métodos con memoria

Multipunto
𝑥𝑥𝑘𝑘+1 = 𝜙𝜙(𝑥𝑥𝑘𝑘 , 𝑥𝑥𝑘𝑘−1 , … , 𝑥𝑥𝑘𝑘−𝑖𝑖 ), 𝑦𝑦𝑘𝑘 = 𝜓𝜓(𝑥𝑥𝑘𝑘 , 𝑥𝑥𝑘𝑘−1 , … , 𝑥𝑥𝑘𝑘−𝑖𝑖 ),
𝑖𝑖 ≤ 𝑘𝑘 𝑥𝑥𝑘𝑘+1 = 𝜙𝜙(𝑥𝑥𝑘𝑘 , 𝑥𝑥𝑘𝑘−1 , … , 𝑥𝑥𝑘𝑘−𝑖𝑖 , 𝑦𝑦𝑘𝑘 )
𝑖𝑖 ≤ 𝑘𝑘

Con Libres de
derivadas derivadas
Ecuaciones no lineales

Índice

 ¿Qué problema queremos resolver?

 Métodos clásicos: Newton y Steffensen

 Conceptos previos y resultados

 ¿Cómo probamos el orden de convergencia?

 Métodos de un punto ó punto a punto

 Limitaciones de los métodos de un punto

 Métodos multipunto
Ecuaciones no lineales

Objetivo
Encontrar una raíz simple α de la función f, es decir, una
solución de la ecuación 𝑓𝑓 𝑥𝑥 = 0 donde 𝑓𝑓: 𝐼𝐼 ⊆ 𝑅𝑅 → 𝑅𝑅.
sin(x)+sqrt(x 2/10)

2.5

1.5

0.5
cero

cero
-0.5

-6 -4 -2 0 2 4 6
x
Estimación visual: x0 PASO 0
Ecuaciones no lineales

Objetivo: Encontrar una raíz simple α de la función f, es decir,


una solución de la ecuación f ( x) = 0, donde f : I ⊂ R → R

 α es una raíz simple de la función f si f(α) = 0 y f’(α) ≠ 0


 α es una raíz de la función f con multiplicidad m si
f (α ) = 0, f ' (α ) = f ' ' (α ) =  f ( m−1) (α ) = 0, f ( m ) (α ) ≠ 0

 Escasez de métodos analíticos para encontrar la solución.


 Aproximación de la solución mediante métodos iterativos.
 Métodos iterativos de punto fijo
xk +1 = g ( xk ), k = 0,1,2,..., g : R → R,
 Generación de una sucesión {xk }k ≥0 que, bajo ciertas condiciones
de f y de la aproximación inicial x0, converge a la solución α
Ecuaciones no lineales

El esquema iterativo mas conocido es el método de Newton,


cuya expresión iterativa es

f ( xk )
xk +1 = xk − , k = 0,1,2,...
f ' ( xk )

¿Cómo se diseña?

f ( x ) = f ( x0 ) + ∫ f ' (t )dt ≈ f ( x0 ) + f ' ( x0 )( x − x0 )


x

x0

x =α
0 ≈ f ( x0 ) + f ' ( x0 )(α − x0 )

f ( x0 ) f ( x0 )
α ≈ x0 − x1 = x0 −
f ' ( x0 ) f ' ( x0 )
Se trata de un método de punto fijo
f (x )
xk +1 = g ( xk ), donde g ( x) = x − ,
f ' (x )
Ecuaciones no lineales

f ( xk )
xk +1 = xk − , k = 0,1,2,...
f ' ( xk )
Newton

f ( xk )
2
xk +1 = xk − , k = 0,1,2,... Steffensen
f ( xk + f ( xk )) − f ( xk )

wk = xk + γ f ( xk ), γ ≠0

f ( xk ) Steffensen
xk +1 = xk − , k = 0,1,2,...
f [ wk , xk ] modificado
Ecuaciones no lineales

Conceptos básicos

 Orden de convergencia. La sucesión {xk }k ≥0 , generada por un método


iterativo, tiene orden de convergencia local p, si encontramos constantes
C y p tales que
xk +1 − α
lim =C
xk − α
k →∞ p

 p =1 y 0<C<1: convergencia lineal


 p >1 y C>0: convergencia de orden p (cuadrática, cúbica,…)

 Índice de eficiencia I = p1 / d

 Índice de eficiencia computacional IC = p1 /( d +op )


d número de evaluaciones funcionales por iteración
op número de (productos/cocientes) por iteración
Ecuaciones no lineales

Conceptos básicos

 Tasa de convergencia.

xk +1 − xk
≈ cte, ∀ k ≥ k0
xk − xk −1
p
Ecuaciones no lineales

 Método de un punto ó Método multipunto

xk +1 = φ ( xk )  y k = ψ ( xk )
 Predictor-corrector
 xk +1 = φ ( xk , yk )

 Método con derivadas ó Método libre de derivadas

Esquema de Newton Esquema de Steffensen

 Método sin memoria ó Método con memoria

xk +1 = φ ( xk ) xk +1 = φ ( xk , xk −1 , )

 Orden de convergencia computacional aproximado

ln ( xk +1 − xk / xk − xk −1 )
p ≈ ACOC =
ln ( xk − xk −1 / xk −1 − xk − 2 )
Ecuaciones no lineales

 Conjetura de Kung y Traub

El orden de convergencia de un método iterativo sin


memoria, con d evaluaciones funcionales por iteración, no
puede superar la cota de 2d-1. Cuando esta cota es
alcanzada, al método se le llama óptimo.

Método óptimo

 ¿Existe una cota de este tipo para métodos iterativos con memoria?
 ¿Cómo podemos definir una cota similar para métodos iterativos para
sistemas?
 ¿Los métodos libres de derivadas son mejores que los métodos con
derivadas? ¿En qué contexto?
Ecuaciones no lineales

“Ambos son óptimos, pero a diferencia del método de


Newton, el método de Steffensen es libre de derivadas”

Método de Newton Método de Steffensen


Orden 2 2
Eval. funcionales 2 2
Índice de eficiencia 21/ 2 21/ 2
Con derivadas Libre de derivadas
Punto a punto Punto a punto
Sin memoria Sin memoria
Óptimo Óptimo

Métodos tipo Métodos tipo


Newton Steffensen
Ecuaciones no lineales

¿Cómo se demuestra la convergencia


de un método?
 Teorema

Sea g una función de punto fijo tal que g(p) es continua en un entorno
de la solución α. El método iterativo xk +1 = g ( xk ) es de orden p
si y solo si

g (α ) = α , g ( k ) (α ) = 0, k = 1,2,  , p − 1, y g ( p ) (α ) ≠ 0

 Desarrollo de Taylor y manipulaciones algebraicas ….

Denotando ek = xk − α , el método iterativo tiene orden p si y solo si


se cumple la relación

ek +1 = C ekp + O(ekp +1 ) Ecuación del error


Ecuaciones no lineales

 Teorema
Sea α un cero simple de una función suficientemente diferenciable
𝑓𝑓: 𝐷𝐷 ∈ 𝑅𝑅 → 𝑅𝑅 en un conjunto convexo D. Si la estimación inicial 𝑥𝑥0 es
suficientemente próxima a α, el método de Newton alcanza orden de
convergencia cuadrático, siendo su ecuación del error
𝑒𝑒𝑘𝑘+1 = 𝑐𝑐2 𝑒𝑒𝑘𝑘2 + 𝑂𝑂 𝑒𝑒𝑘𝑘3 ,
1 𝑓𝑓𝑘𝑘 𝛼𝛼
donde 𝑐𝑐𝑘𝑘 = , 𝑘𝑘 = 2,3, … y 𝑒𝑒𝑘𝑘 = 𝑥𝑥𝑘𝑘 − 𝛼𝛼.
𝑘𝑘! 𝑓𝑓′ 𝛼𝛼

Prueba: Desarrollando en serie de Taylor en torno a α, tenemos


1
𝑓𝑓 𝑥𝑥𝑘𝑘 = 𝑓𝑓 𝛼𝛼 + 𝑓𝑓 ′ 𝛼𝛼 𝑥𝑥𝑘𝑘 − 𝛼𝛼 + 𝑓𝑓 ′′ 𝛼𝛼 𝑥𝑥𝑘𝑘 − 𝛼𝛼 2
+ 𝑂𝑂( 𝑥𝑥𝑘𝑘 − 𝛼𝛼 3 ) = 𝑓𝑓 ′ 𝛼𝛼 𝑒𝑒𝑘𝑘 + 𝑐𝑐2 𝑒𝑒𝑘𝑘2 + 𝑂𝑂 𝑒𝑒𝑘𝑘3
2

𝑓𝑓′ 𝑥𝑥𝑘𝑘 = 𝑓𝑓′ 𝛼𝛼 + 𝑓𝑓 ′′ 𝛼𝛼 𝑥𝑥𝑘𝑘 − 𝛼𝛼 + 𝑂𝑂( 𝑥𝑥𝑘𝑘 − 𝛼𝛼 2 ) = 𝑓𝑓 ′ 𝛼𝛼 1 + 2𝑐𝑐2 𝑒𝑒𝑘𝑘 + 𝑂𝑂 𝑒𝑒𝑘𝑘2


Así,
𝑓𝑓(𝑥𝑥𝑘𝑘 ) 2 3
= 𝑒𝑒𝑘𝑘 − 𝑐𝑐2 𝑒𝑒𝑘𝑘 + 𝑂𝑂 𝑒𝑒𝑘𝑘
𝑓𝑓 ′ 𝑥𝑥𝑘𝑘
Y la ecuación del error es:
𝑓𝑓 𝑥𝑥𝑘𝑘
𝑒𝑒𝑘𝑘+1 = 𝑥𝑥𝑘𝑘+1 − 𝛼𝛼 = 𝑥𝑥𝑘𝑘 − 𝛼𝛼 − ′ = 𝑐𝑐2 𝑒𝑒𝑘𝑘2 + 𝑂𝑂 𝑒𝑒𝑘𝑘3 .
𝑓𝑓 𝑥𝑥𝑘𝑘
Ecuaciones no lineales

Métodos de un punto
Método de Halley

f ( xk )  L f ( xk ) 
xk +1 = xk − 1 + , k = 0,1,2,...
f ' ( xk )  2 − L f ( xk ) 

f ( xk ) f ′′( xk )
L f ( xk ) =
f ' ( xk )
2

Grado de convexidad logarítmica

 Orden 3  Método sin memoria


 Índice de eficiencia: 31/ 3  No libre de derivadas
 Índice de eficiencia comp.: 31/( 3+ 6 )  No óptimo
Ecuaciones no lineales

Método de Chebyshev

f ( xk )  L f ( xk ) 
xk +1 = xk − 1+  , k = 0,1,2,...
f ' ( xk )  2 

f ( xk ) f ′′( xk )
L f ( xk ) =
f ' ( xk )
2

 Orden 3  Método sin memoria


 Índice de eficiencia: 31/ 3  No libre de derivadas
 Índice de eficiencia comp.: 31/( 3+ 5)  No óptimo
Ecuaciones no lineales

Método Super-Halley

f ( xk )  L f ( xk ) − 2 
xk +1 = xk −  , k = 0,1,2,...
f ' ( xk )  2( L f ( xk ) − 1) 

f ( xk ) f ′′( xk )
L f ( xk ) =
f ' ( xk )
2

 Orden 3  Método sin memoria


 Índice de eficiencia: 31/ 3  No libre de derivadas
 Índice de eficiencia comp.: 31/( 3+ 6 )  No óptimo
Ecuaciones no lineales

Familia de métodos Chebyshev-Halley

 1 L f ( xk )  f ( xk )
xk +1 = xk − 1 +  , k = 0,1,2,...
 2 1 − β L f ( xk )  f ' ( xk )

f ( xk ) f ′′( xk )
L f ( xk ) =
f ' ( xk )
2

β = 0, método de Chebyshev
Métodos de orden 3 para
cualquier valor de β β = 1/2, método de Halley
β = 1, método super-Halley
β → ∞, método de Newton

 ¿Para qué valores de β se obtienen los métodos más estables?


 ¿Para qué valores de β se consiguen métodos con amplias
regiones de puntos iniciales convergentes?
Ecuaciones no lineales

Todos los métodos iterativos punto a punto, con derivadas,


pueden ser considerados variantes del método de Newton. De
hecho, la mayoría de ellos se pueden diseñar de la siguiente
forma:

f ( xk )
xk +1 = xk − H (uk ) , k = 0,1,2, 
f ' ( xk )

para una elección adecuada de la función real H(u) con


variable u.

H(u) es una función peso que nos permite incrementar el


orden de convergencia del método de Newton

Procedimiento de funciones peso


Ecuaciones no lineales

f ( xk )
xk +1 = xk − H (uk ) , k = 0,1,2,  (1)
f ' ( xk )
Teorema
Sea α ∈ I un cero simple de una función suficientemente diferenciable
f :I⊂ R → R
 u ( x) = f ( x) / f ' ( x) Si elegimos una función H(u) tal que H(0) =1, el
método (1) tiene convergencia cuadrática.

 u ( x) = f ( x) f ' ' ( x) / f ' ( x)


2
Si elegimos una función H(u) tal que H(0) = 1
y H’(0) = 1/2, el método (1) tiene convergencia cúbica.

 u(x) = ??, ¿qué condiciones garantizarían el orden 4?


Ecuaciones no lineales

f ( xk ) f ( xk )
xk +1 = xk − H (uk ) , k = 0,1,2,  u k = u ( xk ) =
f ' ( xk ) f ' ( xk )

Teorema

Sea f : I ⊂ R → R una función real con derivada segunda en I . Sea α


una raíz simple de f(x) = 0. Si elegimos una aproximación inicial
cercana a α y una función suficientemente diferenciable H(u), tal que
H(0) = 1, entonces el método tiene convergencia cuadrática a α, siendo
su ecuación del error
ek +1 = (c2 − H ' (0))ek2 + O(ek3 ),

1 f ( j ) (α )
con c j = , j = 2,3,... y ek = xk − α .
j! f ' (α )
Ecuaciones no lineales

Algunos métodos conocidos:

 Método de Newton H (u ) = 1

1
 Método de Kanwar-Tomar H (u ) =
1 + βu
λu
 Método de Kou-Li H (u ) = 1 + , β , λ parámetros
(1 + βu )(1 + 2 βu )
2
 Método de Noor H (u ) = , β parámetro
1 ± 1 + 4 β f ( x)u
3 2

¡Todos estos métodos son óptimos según la conjetura de Kung-Traub!


Ecuaciones no lineales

f ( xk ) f ( xk ) f ' ' ( xk )
xk +1 = xk − H (uk ) , k = 0,1,2,  uk = u ( xk ) =
f ' ( xk ) f ' ( xk ) 2

Teorema

Supongamos que f(x) y H(u) son funciones suficientemente diferenciables


y que f(x) tiene un cero simple en α. Si elegimos una estimación inicial
próxima a α y la función H(u) satisface H(0) = 1 y H’(0) = 1/2, entonces el
método tiene convergencia cúbica a α, con ecuación del error

ek +1 = −2((−1 + H ' ' (0))c22 + (1 / 2)c3 )ek3 + O(ek4 ),

1 f ( j ) (α )
siendo c j = , j = 2,3,... y ek = xk − α .
j! f ' (α )
Ecuaciones no lineales

Algunos métodos conocidos:

2
 Halley H (u ) =
2−u
1
 Chebyshev H (u ) = 1 + u
2
1 1 2 1 3
 Noor et al. H (u ) = 1 + u + u + u
2 2 4
1+ β
 Hansen-Patrick H (u ) = , β parámetro
β ± 1 − ( β + 1)u
2
 Euler H (u ) =
1 + 1 − 2u
u
 Neta-Scott H (u ) = 1 + , β parámetro
2 − βu

¡Ninguno de estos métodos es óptimo según la conjetura de Kung-Traub!


Ecuaciones no lineales

Limitaciones de los métodos de un


punto
 Teorema

Sea xk +1 = g ( xk ) un método iterativo de un punto, que


utiliza p evaluaciones funcionales por iteración. Entonces, su
orden de convergencia es como máximo p.

 Teorema
Para diseñar un método iterativo de un punto de orden p, su
expresión iterativa debe contener derivadas al menos hasta
orden p-1

Los métodos de un punto no son una buena alternativa para


incrementar el orden de convergencia y el índice de eficiencia.

¿Cómo podemos incrementar el orden de convergencia


manteniendo la optimalidad del método?
Ecuaciones no lineales

Métodos multipunto

 Utilizando diferentes fórmulas de cuadratura para aproximar la integral


f ( x ) = f ( x0 ) + ∫ f ' (t )dt
x

x0
o Nodos equiespaciados,
o Cuadratura de Gauss, …
 Teorema

Sean g1 ( x), g 2 ( x) dos funciones de punto fijo para f ( x) = 0.


Consideremos los esquemas iterativos xk +1 = g1 ( xk +1 ) y xk +1 = g 2 ( xk +1 )
de órdenes p1 y p2, respectivamente. Entonces, el orden de
convergencia del método iterativo asociado a la función de punto fijo
g ( x) = g 2 ( g1 ( x))
es p1p2.
Ecuaciones no lineales

Métodos multipunto mediante


fórmulas de cuadratura
f ( x ) = f ( x0 ) + ∫ f ' (t )dt ≈ f ( x0 ) +
x (x − x0 ) ( f ' (x ) + f ' ( x0 ))
x0 2

Regla trapecios
x =α
0 ≈ f ( x0 ) + ( f ' (α ) + f ' ( x0 ))
(α − x0 )
2
2 f ( x0 ) f ( x0 )
α ≈ x0 − y0 = x0 −
f ' (α ) + f ' ( x0 ) f ' ( x0 )
predictor

f ( xk )
y k = xk −
Orden 3 f ' ( xk ) Método de
2 f ( xk ) trapecios
No óptimo xk +1 = xk − , k = 0,1,2,...
f ' ( y k ) + f ' ( xk )
Ecuaciones no lineales

 x + x0 
f ( x ) = f ( x0 ) + ∫ f ' (t )dt ≈ f ( x0 ) + ( x − x0 ) f ' 
x

x0
 2 

Regla punto medio

f ( xk )
y k = xk −
Orden 3 f ' ( xk ) Método de
f ( xk ) punto medio
No óptimo xk +1 = xk − , k = 0,1,2,...
 x + y k 
f ' k 
 2 

H(u) para aumentar el orden?


Ecuaciones no lineales

f ( x ) = f ( x0 ) + ∫ f ' (t )dt ≈ f ( x0 ) +
x (x − x0 )  f ' (x ) + 4 f '  x + x0  + 
f ' ( x0 )
  
x0 6   2  

Regla de Simpson

f ( xk )
y k = xk −
f ' ( xk ) Método de
6 f ( xk ) Simpson
xk +1 = xk − , k = 0,1,2,...
 xk + y k 
f ' ( xk ) + 4 f '   + f ' ( yk )
 2 

Orden 3
No óptimo
Ecuaciones no lineales

f ( x ) = f ( x0 ) + ∫ f ' (t )dt ≈ f ( x0 ) +
( x − x0 ) n
Ai f ' (ti )

x

x0 2 i =1

Cuadratura de Gauss
Ai pesos
ti nodos

Orden 3
No óptimo Método de Gauss-Legendre
f ( xk )
y k = xk − , k = 0,1,2,...
f ' ( xk )
f ( xk )
xk +1 = xk −

f ' 
( ) (
3 + 3 xk + 3 − 3 y k  )
 + f '
( )
 3 − 3 xk + 3 + 3 y k 

( )
6   6 
   
Ecuaciones no lineales

Métodos multipunto mediante


fórmulas de cuadratura

Los métodos iterativos diseñados utilizando fórmulas de cuadratura tienen


las siguientes características:

 El orden de convergencia no depende del número de nodos


utilizados en la fórmula de cuadratura.

 Cuando se utiliza el método de Newton como predictor, el orden de

convergencia es siempre tres.

 Ninguno de estos métodos es óptimo.

 Muchos métodos pueden ser diseñados utilizando otros esquemas

como predictores.
Ecuaciones no lineales

Métodos multipunto por composición

f ( xk )
y k = xk −
f ' ( xk ) Newton+Newton
f ( yk )
xk +1 = yk − , k = 0,1,2,... Orden 4, No óptimo
f ' ( yk )

f ( xk )
y k = xk −
f ' ( xk )
f ( yk )
z k = yk −
f ' ( yk )
Orden 8, No óptimo

f (zk )
xk +1 = z k − , k = 0,1,2,...
f ' (zk )

¡ Este procedimiento no es eficiente puesto que utiliza demasiadas


evaluaciones funcionales por iteración !
Ecuaciones no lineales

Composición eficiente

 Derivada “congelada”

f ( xk ) f ( xk )
y k = xk − y k = xk −
f ' ( xk ) f ' ( xk ) Método de
f ( yk ) f ( yk )
Potra-Pták
xk +1 = yk − , xk +1 = yk − , k = 0,1,2,...
f ' ( yk ) f ' ( xk )

El índice de eficiencia del método de Potra-Pták es mayor que el del


esquema Newton+Newton, pero todavía no es óptimo
Ecuaciones no lineales

 Procedimiento de funciones peso

f ( xk )
y k = xk −
f ' ( xk )
f ( yk ) (2)
xk +1 = yk − H ( µ k ) , k = 0,1,2,...
f ' ( xk )
f ( y)
H(µ) es una función peso real, donde µ =
Teorema f ( x)

Sea α ∈ I un cero simple de una función suficientemente diferenciable f(x),


y x0 una estimación inicial próxima a α. Si elegimos una función H tal que
H(0) =1, H’(0) = 2 y H ' ' (0) < ∞, entonces (2) tiene orden de convergencia 4 y
su ecuación del error es
 H ' ' (0)  3  4
ek +1 =  5 − c2 − c2 c3  ek + O(ek ),
5

 2  
1 f ( k ) (α )
donde ck = , k = 2,3,; ek = xk − α
k! f ' (α )
Ecuaciones no lineales

1 + βµ
Caso especial: H (µ ) =
1 + ( β − 2) µ

f ( xk )
y k = xk −
f ' ( xk )
f ( xk ) + β f ( y k ) f ( yk )
Familia de
xk +1 = yk − , k = 0,1,2,...
f ( xk ) + (β − 2 ) f ( yk ) f ' ( xk ) King

Métodos óptimos de orden 4 para cualquier valor del parámetro

β =0
f ( xk )
y k = xk −
f ' ( xk ) Método de
f ( xk ) f ( yk ) Ostrowski
xk +1 = yk − , k = 0,1,2,...
f ( xk ) − 2 f ( y k ) f ' ( x k )
Ecuaciones no lineales

f ' ( yk )
µ k = µ ( xk ) =
f ' ( xk )
f ( xk )
y k = xk − γ ,
f ' ( xk )
f ( xk )
xk +1 = xk − H ( µ k ) , f ( yk )
f ' ( xk ) µ k = µ ( xk ) =
f ( xk )

Orden 4
Óptimo
2 f ( xk )
y k = xk −
3 f ' ( xk )
Método de
3 f ' ( y k ) + f ' ( xk ) f ( xk ) Jarratt
xk +1 = xk − , k = 0,1,2,...
6 f ' ( y k ) − f ' ( xk ) f ' ( xk )
Ecuaciones no lineales

Estas ideas pueden extenderse para diseñar métodos óptimos de


orden 8, 16, 24, … Por ejemplo:

f ( xk )
y k = xk − ,
f ' ( xk )
f ( yk ) f ( y) f ( z)
z k = yk − H ( µ k ) , µ= ,η=
f ' ( xk ) f ( x) f ( y)
f (zk )
xk +1 = z k − G ( µ k ,η k ) , k = 0,1, 
f ' ( xk )

G ( µ k ) + M (η k ) ó G ( µ k ) M (η k ) ó ......

Bajo ciertas condiciones de las funciones suficientemente diferenciables


H(µ) y G(µ,η), podemos obtener métodos óptimos de orden 8.
Ecuaciones no lineales

f ( xk )
y k = xk − γ ,
f ' ( xk )
f ( xk ) f ' ( yk )
z k = xk − H ( µ k ) µ k = µ ( xk ) =
f ' ( xk )
,
f ' ( xk )
f (zk )
x k +1 = z k − ,
f ' (zk )

α f ' ( xk ) + β f ' ( y k )

¿ Existen condiciones para los parámetros α, β y γ y para la


función H, bajo las cuales el método alcanza orden de
convergencia 8 ?
Ecuaciones no lineales

Mediante la composición y la aproximación de las derivadas,


diseñamos la familia de métodos óptimos de orden 8, con
expresión iterativa

f ( xk ) f ( xk ) − f ( y k )
z k = xk −
f ' ( xk ) f ( xk ) − 2 f ( y k )
f ( z k )  f ( xk ) − f ( y k ) 1 f (zk )
2

uk = zk − 
 + 
f ' ( xk )  f ( xk ) − 2 f ( y k ) 2 f ( y k ) − 2 f ( z k ) 
f (zk ) a1 (u k − z k )
xk +1 = u k − , k = 0,1,2,...
f ' ( xk ) b2 ( yk − xk ) + b3 ( z k − xk )

donde a1, b2 y b3 son parámetros arbitrarios, con a1 ≠ 0

En general:
Orden alto Complejidad de la expresión iterativa

¡ Debemos alcanzar un equilibrio entre el orden de convergencia y la


complejidad de la expresión iterativa resultante !
Ecuaciones no lineales

Ejemplos

Funciones diferenciables
(a) f ( x) = sen 2 ( x) − x 2 + 1, α ≈ 1.404492

(b) f ( x) = x 2 − e x − 3x + 2, α ≈ 0.257530

(c) f ( x) = cos( x) − x, α ≈ 0.739085

(d) f ( x) = ( x − 1) 3 − 1, α = 2
Métodos iterativos:
 Newton

 Traub

 Ostrowski,…
Ecuaciones no lineales

Ejemplos
 Métodos implementados en Matlab.

 Aritmética de precisión variable con 200 dígitos

 >> digits 200

 Estimación inicial en arit. prec. var.: >> x0=vpa(0.3)

 Criterio de parada x k +1 − x k < 10 −100 ó f ( x k ) < 10 −100

 Orden de convergencia computacional (ACOC) ([CT])


ln ( xk +1 − xk / xk − xk −1 )
ρ≈
ln ( xk − xk −1 / xk −1 − xk − 2 )
Ecuaciones no lineales

Ejemplos

Newton Halley Ostrowski Traub Punto Medio Newton+Newton

Iter 8 5 4 18 6 4
(a)
ρ 2.0000 3.0000 3.9951 3.0001 3.0000 3.9915
x0= 1
|xk+1-xk| 4.2076e-051 1.0180e-038 5.6401e-028 1.0553e-61 2.7029e-097 7.3279e-026
|f(xk+1)| 3.4438e-101 1.3785e-114 1.0359e-109 3.5827e-183 0 3.4438e-101

Iter 6 5 4 4 4 3
(b)
ρ 2.0000 3.0000 4.0000 3.0001 3.0000 3.8301
x0=0.7
|xk+1-xk| 9.1363e-051 1.1648e-075 9.0394e-077 3.0475e-39 2.3767e-035 3.1267e-025
|f(xk+1)| 2.9477e-101 7.7869e-208 0 1.8682e-117 2.8063e-106 2.9477e-101

Iter 7 5 4 5 5 4
(c)
ρ 2.0000 3.0000 4.0000 3.0000 3.0000 4.0000
x0=1
|xk+1-xk| 1.7955e-083 4.4217e-087 3.5827e-074 7.6007e-95 5.8956e-099 1.7955e-083
|f(xk+1)| 1.1913e-166 1.9467e-208 0 0 0 0

Iter 10 6 5 57 6 5
(d) ρ 2.0000 3.0000 4.0000 3.0000 3.0000 4.0000
x0=1.5 |xk+1-xk| 1.7506e-090 6.4453e-072 3.2401e-060 1.4402e-44 4.6610e-045 1.3231e-045
|f(xk+1)| 9.1937e-180 0 0 1.7925e-131 2.7847e-133 9.1937e-180
Ecuaciones no lineales

Referencias
 [BRW] W. Bi, H. Ren, Q. Wu, Three-step iterative methods with eighth-order
convergence for solving nonlinear equations, Journal of Computational and Applied
Mathematics, 255 (2009) 105--112.
 [CHMT] A. Cordero, J.L. Hueso, E. Martínez, J.R. Torregrosa, “Modified Newton-Jarrat’s
composition”, Numerical Algorithms, 55 (2010) 87-99.
 [CHMT2] A. Cordero, J.L. Hueso, E. Martínez, J.R. Torregrosa, “New modifications of
Potra-Pták’s method with optimal fourth and eighth order of convergence”, Journal of
Computational an Applied Mathematics, 234 (2010) 2969-2976.
 [CT] A. Cordero, J.R. Torregrosa, Variants of Newton’s Method using fifth-order
quadrature formulas” , Applied Mathematics and Computation, 190 (2007) 686-698.
 [CT2] A. Cordero, J.R. Torregrosa, “A class of Steffensen type methods with optimal
order of convergence”, enviado a Applied Mathematics and Computation.
 [CTV] A. Cordero, J.R. Torregrosa, M.P. Vassileva, “Three-step iterative methods with
optimal eighth-order convergence”, Journal of Computational an Applied Mathematics,
Doi: 10.1016/j.cam.2011.01.004.
 [WL] X. Wang, L. Liu, Two new families of sixth-order methods for solving non-linear
equations, Applied Mathematics and Computation, 213 (2009) 73-78.
Ecuaciones no lineales

Referencias
 [EGHS] J. A. Ezquerro, J. M. Gutiérrez, M. A. Hernández y M. A. Salanova, El método
de Halley: posiblemente, el método más redescubierto del mundo, Margarita
Mathematica en honor de José Javier Guadalupe, Chicho. Servicio de Publicaciones de
la Universidad de La Rioja, pp. 205-220.
 [Ki] R. King, A family of fourth order methods for nonlinear equations”, SIAM Journal
Numerical Analysis, 10 (1973) 876-879.
 [KT] H.T. Kung, J.F. Traub, Optimal order of one-point and multi-point iteration, Applied
Mathematics and Computation, 21 (1974) 643-651.
 [LW] L. Liu, X. Wang, Eighth-order methods with high efficiency index for solving
nonlinear equations, Applied Mathematics and Computation, 215 (2010) 3449-–3454.
 [Os] A.M. Ostrowski, Solutions of equations and systems of equations, Academic Press,
New York-London, 1966.
 [Oz] A.Y. Ozban, Some new variants of Newton’s Method, Applied Mathematics Letters,
17 (2004) 677–682.
 [PT] F.A. Potra, V. Pták, Nondiscrete introduction and iterative processes, Research
Notes in Mathematics, Vol. 103, Pitman, Boston, 1984.,
Ecuaciones no lineales

Referencias
 [Tr] J.F. Traub, Iterative methods for the solution of equations, Chelsea Publishing
Company, New York, 1982.
 [WF] S. Weerakoon, T.G.I. Fernando, A variant of Newton’s method with accelerated
third- order convergence, Applied Mathematics Letters, 13 (8) (2000) 87–93.
 [ACT] V. Arroyo, A. Cordero, J.R. Torregrosa, Approximation of artificial satellites’
preliminary orbits: The efficiency challenge , Mathematical and Computer Modelling
doi: 10.1016/j.mcm.2010.11.063.
 [CT2] A. Cordero, J.R. Torregrosa, Variants of Newton’s Method using fifth-order
quadrature formulas, Applied Mathematics and Computation, 190 (2007) 686-698.
 [HMT] J.L. Hueso, E. Martínez, J.R. Torregrosa, Third and fourth order iterative
methods free from second derivative for nonlinear systems, Applied Mathematics and
Computation, 211 (2009) 190-197.
 [Oz] Özban, Some new variants of Newton’s method, Applied Mathematics Letters, 17
(2004) 677–682.
 [Ja] P. Jarratt, Some fourth order multipoint iterative methods for solving equations.
Math. Comp., 20 (1966) 434-437.

También podría gustarte