Está en la página 1de 31

1

HERRAMIENTAS METODOLÓGICAS EN LA INVESTIGACIÓN MATEMÁTICA

Diseño y análisis de la convergencia y estabilidad de métodos iterativos para la resolución de ecuaciones

no lineales

Jorge Ramos Canós, Armando Solís Zúñiga

Resumen. Una rama de análisis numérico consiste en la resolución de ecuaciones no lineales por medio de métodos
iterativos. El método más conocido y utilizado para esto es el de Newton-Raphson, sin embargo existen otros métodos
más eficientes que este. En este escrito se presentará una familia de métodos iterativos óptimos (según la conjetura
de Kung y Traub) y se estudiará, mediante herramientas dinámicas, cuál método de esta familia es más eficaz en
comparación con esquemas iterativos ya conocidos.
Palabras clave: métodos iterativos, ecuaciones no lineales, métodos óptimos, dinámica compleja, análisis de convergencia

Abstract. One stream of numerical analysis consist in the resolution of non linear equations using iterative methods.
The best known and used method for this is Newton-raphson method, however, there are other more efficient
methods than this one. This paper presents a family of optimal iterative methods (according to Kung and Traub
conjecture) and will be studied with dinamic tools which method of this family is more effective than known iterati-
ve schemes.
KeyWords: iterative methods, non-linear equations, optimal methods, complex dynamic, analysis of convergence

1 Introducción

El objetivo de este artículo es el estudio de métodos iterativos para la resolución de ecuaciones no lineales. Se empe-
zará dando algunas definiciones básicas que nos serán útiles a lo largo del trabajo como la de multiplicidad de una
raíz o convergencia.
El método más conocido para la resolución de ecuaciones no lineales f (x) = 0 donde f es una función de una variable
real es el método de Newton:

f (xk )
xk+1 = xk − (1)
f 0 (xk )

Este trabajo intentará ir más allá presentando una familia de métodos más compleja, los métodos multipaso. Además,
se estudiará la conjetura de Kung y Traub que nos dará el valor óptimo de orden de convergencia que puede alcanzar
un método. Existe una versión del método de Newton que es multipaso que es de la siguiente forma:

f (xk )
yk = xk −
f 0 (xk )
f (yk )
xk+1 = yk − 0
f (yk )
2

También se profundizará más en el estudio del orden de convergencia del método, ya que lo que se busca es un
enfoque práctico de los métodos, por lo que se presentará el orden de convergencia computacional. Además, cuando
se estudia el caso práctico no se conoce realmente el valor de la raíz de la ecuación (ya que es lo que se pretende
aproximar), por lo que se introducirá el concepto de orden de convergencia computacional aproximado.
En algunos casos se encuentran ciertos puntos a los que el método converge, pero que sin embargo no son solución de
la ecuación que se intenta resolver. Es por ello que en este trabajo se estudiará también la estabilidad de los métodos
mediante ciertos operadores (que se definirán en este mismo artículo), estos permitirán la obtención de la órbita de
los puntos de convergencia del método para poder distinguir aquellos que son solución de los que no.
Con fin de explicar bien estos conceptos y hacerlos más visuales, se presentarán algunos métodos multipaso conoci-
dos como el de Traub o el de Jarrat. Se realizará un estudio de estos métodos con los conceptos definidos previamente
y se verá si realmente son óptimos o no según la conjetura de Kung y Traub.
Con el estudio de estos métodos multipaso, se podrá observar que prácticamente todos tienen un factor en común,
una función peso. Esta jugará un papel fundamental en el estudio realizado, ya que lo que se pretende es proponer
un método a partir de una función multipaso. Se dará un resultado que permitirá asegurar la convergencia de un
método a partir de la función multipaso bajo ciertas hipótesis.
Después de haber ilustrado todos los conceptos necesarios para el estudio de la convergencia y la estabilidad de un
método, se procederá a presentar una familia de métodos iterativos originales de este trabajo. Dentro de esta familia,
la diferencia entre los métodos se verá en la función peso.
Una vez presentados los métodos multipaso se comenzará con su estudio. Lo primero será clasificar los puntos fijos
y los puntos críticos de nuestro método.
Para continuar se realizará un estudio práctico del método utilizando el programa Matlab. Con él se generarán una
serie de planos dinámicos que posteriormente se mostrarán en este trabajo. Estos planos dinámicos nos permitirán
observar la órbita de los puntos fijos en el plano complejo, y esto hará más visual el estudio de la convergencia y de
la estabilidad. Además se realizarán pruebas numéricas que permitirán comparar este método con otros métodos ya
conocidos presentados previamente en este escrito.
Tras observar las simulaciones numéricas realizadas se puede observar como para algunos de los parámetros este
método es más eficiente que algunos de los ya conocidos, por lo que parece un buen método para la resolución de
ecuaciones no lineales.

1.1. Conceptos básicos

Definición 1 (Multiplicidad de la raíz de una función):


Sea f : I ⊂ R → R y α un cero de f ; o sea f (α) = 0. El valor α se le llama cero de multiplicidad k de f si existe un
número real c; c 6= 0 tal que:
|f (x)|
lı́m = c.
x→α |x − α|k

Si k = 1, entonces α recibe el nombre de raíz simple.

Traub en [14] puntualiza las Definiciones 2-7:

Definición 2 (Convergencia):
Sea α ∈ R, xn ∈ R, n = 0, 1, 2, ... entonces, se dice que la sucesión {xn } converge a α si
3

lı́m |xn − α| = 0.
n→∞

Definición 3 (Orden de convergencia):


Si, además de cumplir las condiciones de convergencia, existen: una constante 0 < c ≤ 1, un natural n0 > 0 y un
entero p > 1 tales que, para todo n > n0 :

|xn+1 − α| 6 c|xn − α|p ,


o bien:
|xn+1 − α|
lı́m =c;
n→∞ |xn − α|p
entonces, se dice que la sucesión {xn } converge a α con al menos orden p.

Si p = 2 o 3, entonces se dice que es de orden cuadrático o cúbico, respectivamente. Por ejemplo, el método de
Newton presentado en (1), es de orden cuadrático para algún vecindario de α, ya que existe una constante c tal que
|xk+1 − α|
lı́m = c.
k→∞ |xk − α|2

Definición 4 (Orden de convergencia por medio de la ecuación del error):


Si en = xn − α denota el error en la n-ésima iteración, la relación:

en+1 = cepn + O ep+1



n , c∈R

se conoce como ecuación del error. Al valor p obtenido se le conoce como el orden del método. Esta definición es
equivalente a la Definición 3.

Definición 5 Se le llama método multipaso a aquel que tiene la siguiente estructura:

yn(1) = G1 (xn ),
yn(2) = G2 (xn ),
..
.
xn+1 = G(xn , yn(1) , yn(2) , ...)

donde G1 , G2 , G3 , . . . , G son operadores.

El primero en introducir este concepto fue Traub en [14] con su método multipaso:

f (xk )
yk = xk − ,
f 0 (xk ) (2)
f (yk )
xk+1 = yk − 0 .
f (xk )

Más adelante en la Subsección 1.3, se profundizará la importancia de los métodos multipaso para el trabajo.

Definición 6 (Evaluaciones funcionales): Al número de veces en el que la función f y sus derivadas están siendo
evaluadas por cada iteración se le llama número de evaluaciones funcionales y se denota por d.
4

Por ejemplo en el esquema de Newton presentado en (1) posee dos evaluaciones funcionales: f (xk ) y f 0 (xk ); por lo
que d = 2.
En el esquema de Traub presentado en (2) posee tres evaluaciones funcionales: f (xk ), f 0 (xk ) y f (yk ); por lo que d = 3.

Definición 7 (Eficiencia de un método):


Sea M un método iterativo. Entonces la eficiencia de M se define como:

p
I= ,
d
donde p es el orden de convergencia y d es el número de evaluaciones funcionales por iteración.

Ostrowski en [12] precisa la siguiente definición:

Definición 8 (Índice de eficiencia de un método):


Sea M un método iterativo. Entonces el índice de eficiencia de M se define como:

EI = p1/d ,

donde p es el orden de convergencia y d es el número de evaluaciones funcionales por iteración.

1.1.1. Conjetura de Kung y Traub

Kung y Traub en [11] establecen la siguiente conjetura: “El orden de convergencia de cualquier método multipaso no
puede ser mayor a 2d−1 (llamado orden óptimo), donde d es el número de evaluaciones funcionales por iteración”.
Bajo esta conjetura, se estudiarán métodos que satisfagan que el orden de convergencia de p sea igual a 2d−1 ; siempre
que se cumpla esta condición, se puede decir que el método es óptimo.

1.1.2. Orden de convergencia computacional y orden de convergencia computacional aproximado

Al probar nuevos métodos, si se desea verificar el orden de convergencia o estimar cuánto difiere del orden teóri-
co en la implementación práctica, se puede calcular el orden de convergencia computacional (COC), definido por
Weerakoon y Fernando en [15] como:

ln |(xk+1 − α)/(xk − α)|


p≈ , k = 1, 2, ...
ln |(xk − α)/(xk−1 − α)|

donde xk+1 , xk y xk−1 son las últimas tres aproximaciones sucesivas de α obtenidas en el proceso iterativo. Dado que
el valor de α es desconocido en la práctica, se utiliza el orden de convergencia computacional aproximado (ACOC)
definido por Cordero y Torregrosa en [6] como:

ln |(xk+1 − xk )/(xk − xk−1 )|


p ≈ ACOC = ρ = , k = 2, 3, ...
ln |(xk − xk−1 )/(xk−1 − xk−2 )|
5

1.2. Herramientas dinámicas

Las herramientas dinámicas son un concepto que se utilizará para estudiar el análisis de estabilidad del método,
porque en comparación con métodos conocidos como el método de Newton expuesto en la ecuación (1), el cual es
bastante estable; se creará un mapeo en C para visualizar el comportamiento del método cuando converja la solución.
Blanchard en [2] establece las Definiciones 9-17:

Definición 9 (Punto fijo):


Dado un operador G : Ĉ → Ĉ; Ĉ = C ∪ {±∞} definido sobre la esfera de Riemann, un punto fijo ẑ es aquel que se
mantiene invariante al operador G, o sea:
G(ẑ) = ẑ

Por ejemplo, para una ecuación cualquiera f (z) = 0, si z0 es una de sus soluciones y G es un operador para apro-
ximar las raíces de f ; es claro que G(z0 ) = z0 . Por lo tanto se puede concluir que toda raíz de una ecuación será,
eventualmente, punto fijo del operador G.
Sin embargo, puede que al resolver la ecuación G(z) = z, aparezcan valores de z que no correspondan a ninguna raíz
de la función f . Estos puntos se denominan puntos fijos extraños. Desde un punto de vista numérico, un punto fijo
extraño no es deseable, porque si se usa un valor cercano a uno de ellos como estimación inicial, el método numérico
puede converger al punto fijo, es decir, la convergencia a un punto no es una solución.

Definición 10 (Órbita de un punto):


Dada una función racional R : Ĉ → Ĉ definida sobre la esfera de Riemann, la órbita de un punto z0 es la sucesión de
puntos:
{z0 , R(z0 ), R2 (z0 ), ..., Rn (z0 ), ...}

del plano complejo generada por el método iterativo.

Definición 11 (Punto k − periódico):


Dada una función racional R : Ĉ → Ĉ definida sobre la esfera de Riemann, Un punto ẑ es k-periódico si se cumple
que:
Rk (ẑ) = ẑ y Rp (ẑ) 6= ẑ para p = 1, 2, ..., k − 1.

Definición 12 (Estabilidad de puntos fijos):


Los puntos fijos se pueden clasificar según el comportamiento del operador derivada sobre ellos, así, un punto fijo
z ∗ de R puede ser:

Atractor, si |R0 (z ∗ )| < 1

Superatractor, si |R0 (z ∗ )| = 0

Repulsor, si |R0 (z ∗ )| > 1

Parabólico o indiferente, si |R0 (z ∗ )| = 1

Definición 13 (Estabilidad de puntos periódicos):


La estabilidad de los puntos k − periódicos se puede determina calculando cada |R0 (zi∗ )|, con i = 1, · · · , k. Luego, se
dice que la órbita periódica de periodo k es atractora si se cumple que:

|R0 (z0∗ )R0 (z1∗ ) · · · R0 (zk∗ )| < 1.


6

Análogamente, si la expresión es igual a cero se le llama superatractora, si es mayor que uno se le llama repulsora y
si es igual a uno se le llama indiferente.

Definición 14 (Cuenca de atracción):


La cuenca de atracción de un atractor z es el conjunto de preimágenes de cualquier orden:

A(z) = {z0 ∈ Ĉ : Rn (z0 ) → z, n → ∞}.

La cuenca de atracción es el conjunto de todas las órbitas posibles de un atractor, por tanto indica la región de
convergencia de un método iterativo.

Definición 15 (Conjunto de Fatou y de Julia):

Al conjunto de todas las cuencas de atracción se llama conjunto de Fatou, F.

A la frontera entre las componentes conexas de las cuencas de atracción, se le llama conjunto de Julia, J .

Estos conjuntos son complementarios, o sea: F ∪ J = Ĉ.

Definición 16 (Cuenca de atracción inmediata):


La cuenca de atracción inmediata de un punto fijo z ∗ es la componente conexa de A(z ∗ ) que contiene a z ∗ .

Definición 17 (Punto crítico):


Un punto crítico de un operador R es un punto z ∗ para el que la derivada de R en un punto fijo se anula, o sea:

R0 (z ∗ ) = 0.

Eventualmente los puntos fijos que sean superatractores van a ser críticos, sin embargo podrían existir puntos que
no sean fijos pero sí cumplan la anterior igualdad; a dichos puntos se le llaman puntos críticos libres.

Teorema 1 (Teorema de Fatou-Julia):


La cuenca de atracción inmediata de un punto k − periódico contiene, al menos, un crítico.

García en [8] explica que: “a la hora de realizar el análisis dinámico de un nuevo método es necesario aplicarlo sobre
un problema concreto, es decir, sobre una ecuación no lineal específica; por eso, una manera natural de abordar el
estudio dinámico de un método iterativo en cuestión es aplicándolo sobre polinomios de bajo grado”.
En este caso se hará el estudio sobre un polinomio de grado dos genérico, ya que es la función no lineal más sencilla.
Artidiello en [1] y García en [8] aseveran que, en la práctica, cuando se modela el método sobre ecuaciones no lineales
sencillas, si el estudio dinámico sobre el método iterativo en el polinomio cuadrático se comporta de forma inestable
o necesita muchas condiciones para que converja, entonces sobre funciones no lineales más complicadas también;
por lo que, dependerá del comportamiento del método sobre dicho polinomio para definir cómo es el método y sacar
conclusiones sobre su desempeño en general. Si bien es cierto, no se puede generalizar partiendo del estudio sobre
funciones cuadráticas, en la práctica se puede verificar con las pruebas numéricas pues los resultados aplicados en
funciones no lineales más complejas coinciden con la teoría estudiada en polinomios de grado dos.
Con estos conceptos se generará el estudio de estabilidad de los métodos a proponer.
7

1.3. Métodos multipasos

A continuación, se describirá la generación de métodos multipasos, se tomó como base algunos aportes hechos por
diferentes autores y deducciones para crear un método; estas serán de apoyo para los nuevos esquemas iterativos.
Traub en [14] expone la idea de métodos multipasos, describe un método haciendo uso del esquema de Newton sin
alterar el paso de la derivada, con el objetivo de minimizar las cantidades de evaluaciones funcionales, que tienen
como función aumentar el orden de convergencia del método.
Método de Traub de orden 3 en [14]:

f (xk )
yk = xk − ,
f 0 (xk )
f (yk )
xk+1 = yk − 0 .
f (xk )

Anteriormente se mostró el caso cuando d = 3; luego 2d−1 = 4; con base a la conjetura de Kung y Traub en [11], se
llega a la conclusión de que este método no es óptimo ya que es de orden 3 y podría buscar un método de orden 4
con la misma cantidad de evaluaciones funcionales. A partir de dicha conjetura, Jarratt en [9] propone el siguiente
método:

2 f (xk )
yk = xk − ,
3 f0 (xk )
(3)
1 3f (yk ) + f 0 (xk ) f (xk )
0

xk+1 = xk − .
2 3f 0 (yk ) − f 0 (xk ) f 0 (xk )

El anterior método es óptimo, dado que el número de evaluaciones funcionales es 3 y su orden de convergencia p es
4, cumpliendo así la conjetura de Kung y Traub ya que p = 2d−1 .
Artidiello en [1], llama función peso a aquella función que, bajo ciertas condiciones iniciales, el orden de convergencia
puede aumentar gracias a multiplicar esta función. Chun en [5] propone el esquema presentado en (4) con una
función peso H(tk ) donde tk = ff (x
(yk )
k)
.

f (xk )
yk = xk − ,
f 0 (xk ) (4)
f (yk )
xk+1 = yk − H(tk ) 0 .
f (xk )

Particularmente si la función H cumple ciertas condiciones, entonces el método es de orden 4, haciendo el método
óptimo ya que utiliza únicamente tres evaluaciones funcionales.
A continuación, exponemos el siguiente teorema, siendo este un caso particular al Teorema 3.3.1 demostrado por
Artidiello en [1].

Teorema 2 :
Sea f : I ⊂ R → R una función suficientemente diferenciable en cada punto del intervalo abierto I tal que α ∈ I es
una raíz simple de la ecuación no lineal f (x) = 0. Sea H : R → R cualquier función suficientemente diferenciable tal
que H(0) = 1, H 0 (0) = 2 y |H 00 (0)| < ∞. Entonces, si la estimación inicial x0 está suficientemente cerca de la solución
α, la sucesión {xk }k≥0 obtenida usando la expresión con función peso de Chun presentada en (4) converge a α y el
orden de convergencia local es al menos 4 y su ecuación del error es:
8

H 00 (0)
  
ek+1 = 5− C23 − C2 C3 e4k + O(e5k ),
2

1 f (j) (α)
donde Cj = , j = 2, 3, ... y ek = xk − α, ∀k ∈ N.
j! f 0 (α)
La prueba de este teorema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.

Algunos métodos iterativos de esta forma son:


El método de Chun en [4]:

f (xk )
yk = xk − ,
f 0 (xk ) (5)
f (xk ) + 2f (yk ) f (yk )
xk+1 = yk − .
f (xk ) f 0 (xk )

El método de Ostrowski en [14], que es un caso particular para β = −2 de la familia de King en [10]:

f (xk )
yk = xk − ,
f 0 (xk ) (6)
f (xk ) + (2 + β)f (yk ) f (yk )
xk+1 = yk − ; β ∈ R.
f (xk ) + βf (yk ) f 0 (xk )

El método de Kung y Traub en [11]:

f (xk )
yk = xk − ,
f 0 (xk )
(7)
f (xk )2 f (yk )
xk+1 = yk − .
(f (xk ) − f (yk ))2 f 0 (xk )

Método de Zhao et al. en [16]:

f (xk )
yk = xk − ,
f 0 (xk )
(8)
1 + 2tk + t2k f (yk ) f (yk )
xk+1 = yk − ; tk = .
1 − 4t2k f 0 (xk ) f (xk )
Los métodos expuestos anteriormente, poseen la estructura de la familia de Chun presentado en en (4), ya que tienen
una función peso de la forma H(tk ) con tk = ff (x
(yk )
k)
.

En el caso del esquema de Chun presentado en (5), la función peso es:

f (yk )
H(tk ) = 1 + 2tk ; tk = .
f (xk )

En el caso del esquema de King presentado en (6), la función peso es:

1 + (2 + β)tk f (yk )
H(tk ) = ; tk = .
1 + βtk f (xk )
9

En el caso del esquema de Kung y Traub presentado en (7), la función peso es:

1 f (yk )
H(tk ) = 2
; tk = .
(1 − tk ) f (xk )

En el caso del esquema de Zhao presentado en (8), la función peso es:

1 + 2tk + t2k f (yk )


H(tk ) = 2 ; tk = .
1 − 4tk f (xk )

Con base a los esquemas expuestos anteriormente, para lograr generar un método iterativo de la familia de Chun
de (4), como condición se debe tener el mismo esquema pero con una función peso que cumpla las condiciones del
teorema 2. Para todo lo anterior, este método sigue la estructura con funciones peso racionales pero el denominador
posee una función cuadrática:
Familia de métodos RS:

f (xk )
yk = xk − ,
f 0 (xk )
1 + 2tk f (yk ) f (yk ) (9)
xk+1 = yk − ; tk = ,
1 + γt2k f 0 (xk ) f (xk )

donde γ es un parámetro real. Esta es una familia de métodos ya que γ varía.


αt + β
En general, ya existen escritos a cerca del estudio dinámico de la familia de Chun con función peso H(t) = ;
γt + δ
(con α, β, γ y δ son parámetros reales), es decir, donde su numerador y su denominador sean lineales como el estudio
generado en [1] por Artidiello.
Se desea realizar el estudio de la dinámica de una familia de métodos con una función peso racional donde el nume-
rador sea lineal y el denominador cuadrático. Vale la pena resaltar que si se escogiera que tanto el numerador como el
denominador sean cuadráticas, existieran más habrían más parámetros a tener en cuenta, por lo que termina siendo
algo extenso el estudio.
α + βt
Se presenta la siguiente función peso: H(t) = , con α, β, γ parámetros reales. Sin embargo, otro detalle a
1 + γt2
considerar es que se debe cumplir ciertas condiciones sobre H descritas en el teorema 2 para que el método sea
óptimo; específicamente que: H(0) = 1, H 0 (0) = 2 y |H 00 (0)| < ∞. Entonces:

H(0) = 1 ⇒ α = 1

H 0 (0) = 2 ⇒ β = 2

1 + 2t
Luego, la función peso propuesta queda de la forma: H(t) = .
1 + γt2
En la sección 2 del escrito se realiza el estudio de estabilidad del método RS para determinar cuáles valores de γ hacen
que el método sea más eficiente. Hay que resaltar que este método es nuevo y no se tiene referencias en literaturas
anteriormente expuestas.
10

1.3.1. Clases de conjugación

Artidiello en [1] expone lo siguiente: “Las clases de conjugación permiten simplificar los cálculos, trabajando simul-
táneamente con todos los polinomios cuadráticos”.

Definición 18 (Clases de conjugación):


Sean f y g dos funciones analíticas en la esfera de Riemann. Una conjugación analítica entre f y g es un difeomorfismo
h en la esfera de Riemann tal que h ◦ f ◦ h−1 = g.

1.3.2. Teorema del escalado y transformación afín

Para generalizar el estudio dinámico sobre la función no lineal, las clases conjugadas y el Teorema del escalado
cumplen para este estudio. En este caso particular un polinomio cuadrático cualquiera; lo anterior quiere decir que
gracias a este aspecto se puede garantizar que el estudio dinámico realizado contempla cualquier polinomio de grado
dos.

Teorema 3 (Teorema del Escalado para la familia de Chun):


Sea f (z) una función analítica en la esfera de Riemann y T (z) = αz + β una aplicación afín con α 6= 0. Si g(z) =
λf ◦ T (z), entonces (T ◦ Gg,γ ◦ T −1 )(z)

= Gf,γ (z), es decir, Gf,γ es analíticamente

conjugada

a Gg,γ mediante T .
f (z) g(z)
f z− 0 g z− 0
Donde Gf,γ = z − ff0(z)
(z) − H(tf (z), γ)
f (z)
f 0 (z) y Gg,γ = z − gg(z)
0 (z) − H(gf (z), γ)
g (z)
g 0 (z) son los operadores corres-
pondientes a la familia de métodos de Chun (4) sobre f y g respectivamente, con H(tf (z), γ) y H(tg (z), γ) funciones
suficientemente diferenciables tales que

ambas funciones

cumplen

que H(0, γ) = 1, H 0 (0, γ) = 2, |H 00 (0, γ)| < ∞ y γ
f (z) g(z)
f z− f 0 (z) g z− g0 (z)
es un parámetro; con tf (z) = f (z) y tg (z) = g(z) .
La prueba de este teorema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección 3.

Definición 19 :
Sean R1 y R2 funciones racionales en la esfera de Riemann. Se dice que R1 y R2 son conjugadas si existe una trans-
formación de Möbius en la esfera de Riemann tal que: M ◦ R1 ◦ M −1 = R2

Luego de haber obtenidos los resultados como: puntos fijos, puntos críticos, puntos periódicos y cuencas de atracción
para el método RS descrito en (9); el teorema del escalado logrará mapeos de planos dinámicos y zonas de estabilidad
que logren tener una mejor interpretación.

2 Análisis de Estabilidad de RS

Se hará un estudio sobre el plano complejo en el que podremos realizar un análisis de estabilidad para algunas
ecuaciones no lineales elegidas que permitirán saber cómo de eficiente es el método.
Para estudiar el método se trabajará sobre un polinomio genérico de grado dos p(z) = (z − a)(z − b) a partir de la
función peso
1 + 2t
H(t) = , donde γ ∈ R es un parámetro.
1 + γt2
11

p(z)
y(z) = z−
p0 (z)
 
p(y(z)) ab − z 2 1 + 2(a−z)(b−z)
(a+b−2z)2 (a − z)2 (b − z)2
Of (z) = y(z) − H(t) 0 = +  
p (z) a + b − 2z (a + b − 2z)3 1 + (a−z)
2 (b−z)2 γ

(a+b−2z)4

p(y(z))
t= .
p(z)
Este resultado es el operador de la función p que depende de a y de b.
Ahora, se aplicará el operador de Möbius al operador para calcular su conjugado, ya que este mandará las raízes del
polinomio a y b a 0 y ∞ para que el resultado no dependa de a y b.

z−a
M (z) =
z−b
z 4 (5 + z(4 + z) + γ)
Op(z) = M (Of (M −1 (z))) =
1 + z(4 + z(5 + γ))

Gracias a la definición 18 sobre las clases de conjugación, el Teorema 3 del escalado y la Definición 19, se puede
confirmar que Op y Of son conjugados por lo que su dinámica asociada es equivalente, lo que permitirá realizar el
estudio en casos más simples. Se calcularán los valores de γ para los que Op pueda ser simplificado.
Igualando el numerador del operador Op a cero se obtiene:


sn1 (γ) = −2 − −1 − γ

sn2 (γ) = −2 + −1 − γ

Luego igualando el denominador del operador Op a cero se obtiene:

sd1 (γ) = √1
−2+ −1−γ

1
sd2 (γ) = − 2+√−1−γ

Se iguala cada término sni (γ) con cada término sdi (γ); con i ∈ {1, 2}, para conocer en qué valores de γ estos términos
son iguales y el operador Op se pueda simplificar. Haciendo todas las igualdades posibles se obtiene que Op se puede
simplificar si γ = −4 o si γ = −6. Estos valores de γ serán los usados para la variar el número de puntos fijos extraños
y para las pruebas numéricas.

2.1. Puntos fijos

Como se ha mencionado anteriormente, los puntos fijos del operador Op(z) son los puntos tales que Op(z) = z;
eventualmente lo cumplen z = 0 y z = ∞, pues son las raíces del polinomio p(z) luego de la transformación de
Möbius.
Para verificar, se resuelve la ecuación Op(z) = z y se obtiene que una de sus raíces es 0. Para comprobar que ∞ es un
punto fijo se puede calcular el operador inverso de la siguiente manera:
12


−1 1 z 4 5 + 4z + z 2 + γ
z = = ,
Op z1 1 + 4z + z 2 (5 + γ)

y sutituyendo z por 0 se puede ver que su imagen es 0 por lo que ∞ también es un punto fijo.
No obstante, cuando se resuelve la expresión Op(z) = z, se encuentran otras 5 raíces las cuales son puntos fijos
extraños:

1. pf0 (γ) = 1
1 √ p √ 
2. pf1 (γ) = −5 − −7 − 4γ − 2 + 10 −7 − 4γ − 4γ
4
1 √ p √ 
3. pf2 (γ) = −5 − −7 − 4γ + 2 + 10 −7 − 4γ − 4γ
4
1 √ p √ 
4. pf3 (γ) = −5 + −7 − 4γ − 2 − 10 −7 − 4γ − 4γ
4
1 √ p √ 
5. pf4 (γ) = −5 + −7 − 4γ + 2 − 10 −7 − 4γ − 4γ
4

Como se puede observar, los puntos fijos extraños dependen de γ, por lo que también dependerán de γ su estabilidad
y los puntos críticos. Se realizará un análisis de la variación de números de puntos fijos extraños, así como de la
estabilidad y puntos críticos independientes para algunos valores específicos del parámetro γ.

Lema 1 :
z 4 (5 + z(4 + z) + γ)
El número de puntos fijos extraños del operador Op(z) = es 5 excepto cuando γ vale 4, en ese
1 + z(4 + z(5 + γ))
caso se encuentran 3 puntos fijos extraños.
La prueba de este lema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.

Existe otro valor de γ que simplifica el Operador Op y que además mantiene el mismo número de puntos fijos
extraños:
z 4 (−1+z(4+z))
Si γ = −6 entonces el operador es Op(z) = 1−(−4+z)z y al resolver Op(z) = z se obtienen los siguientes puntos
fijos extraños:

z = 1,
√ √
 q 
1
z = −5 − 17 − 26 + 10 17 ,
4
√ √
 q 
1
z = −5 − 17 + 26 + 10 17 ,
4
√ √
 q 
1
z = −5 + 17 − i −26 + 10 17 ,
4
√ √
 q 
1
z = −5 + 17 + i −26 + 10 17 .
4
13

2.2. Estabilidad de los puntos fijos

Es importante obtener los puntos fijos para poder realizar un análisis de la estabilidad del método, ya que, así sa-
bemos si los puntos son valores atractores, repulsores o indiferentes según distintos valores del parámetro γ. Para
conocer la estabilidad de los puntos fijos se evaluará en la derivada del operador, es decir, en Op0 (z).

Teorema 4 :
Los puntos fijos z = 0 y z = ∞ son superatractores independientemente del valor de γ, y para z = 1 se obtienen los
siguientes resultados:

1. Atractor si |γ + 18| < 4; en particular superatractor si γ = −16

2. Indiferente si |γ + 18| = 4

3. Repulsor si |γ + 18| > 4

La prueba de este teorema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.

La estabilidad de z = 1 se puede observar en el plano complejo en el gráfico 1:

Figura 1: Estabilidad del punto fijo extraño pf0 (γ)

Visualmente, si γ está en la circunferencia del cono, se tendrá que es atractor. Si γ está sobre la circunferencia, será
indiferente y si está fuera de la circunferencia entonces será repulsor.

Teorema 5 :
Los puntos fijos extraños pf1 (γ) y pf2 (γ) son:

1. Atractores si −1.817808 < γ < −1.75

2. Indiferentes si γ ≈ −1.817808, γ ≈ −1.75

3. Repulsores para el resto de valores de γ.

Mientras que los puntos fijos extraños pf3 (γ) y pf4 (γ) son:

1. Atractores si −34.933 < γ < −22

2. Indiferentes si γ ≈ −34.933, γ = −22

3. Repulsores para valores de γ diferentes de los anteriores.


14

No es posible comprobar de forma analítica el teorema debido a que al evaluar estos puntos fijos extraños en las fun-
ciones de estabilidad, aparecen raíces de polinomios de grado alto. El análisis numérico de este teorema (elaboración
propia) puede ser encontrado en la sección Anexos en la subsección ??.

La estabilidad de z = pf1 (γ) y de z = pf2 (γ) se puede visualizar en el plano complejo en el gráfico 2:

Figura 2: Estabilidad de los puntos fijos extraños pf1 (γ) y pf2 (γ)

La estabilidad de z = pf3 (γ) y de z = pf4 (γ) se puede visualizar en el plano complejo en el gráfico 3:

Figura 3: Estabilidad de los puntos fijos extraños pf3 (γ) y pf4 (γ)

La obtención de aquellos valores para los que Op0 (γ) pasa de ser atractor a repulsor se han obtenido numéricamente,
es decir, se trata de valores aproximados. En los gráficos anteriores se pueden observar las regiones en las que el
parámetro cambia su estabilidad, si γ está dentro de esas cuencas entonces el método RS será inestable.

2.3. Puntos críticos

Como se ha explicado anteriormente, la obtención de los puntos críticos se ha realizado resolviendo la ecuación
Op0 (z) = 0. Estos puntos son importantes, ya que además de los puntos fijos superatractores, se pueden encontrar
algunos puntos que no son ni raíces ni puntos fijos extraños. Estos puntos se denominan puntos críticos estables.
García [8] comenta que dichos puntos son de interés debido a que cada cuenca de atracción contendrá al menos un
punto crítico, por lo que los que sean críticos libres se podrían encontrar en una cuenca de atracción de alguna de las
soluciones de la ecuación, o bien estar en la de un punto fijo extraño u órbita periódica atractora.
Los puntos críticos de Op(z) son z = 0 y z = ∞ (corresponden a la transformación de Möbius de las raíces del
polinomio) ya que son puntos fijos superatractores y los críticos libres:
15

√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
1. cr1 (γ) = − 4(5+γ) − √ − 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) −λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
2. cr2 (γ) = − 4(5+γ) − √ + 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) −λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
3. cr3 (γ) = − 4(5+γ) + √ − 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) +λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
4. cr4 (γ) = − 4(5+γ) + √ + 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) +λ
4 25+10γ+γ 2

√ 8(20+3γ) (20+3γ)3 (
2(20+3γ) 60+10γ+γ 2 )
!
25+10γ+γ 2 − 5+γ − (5+γ)3 + (5+γ)2
Con λ = √ .
2 −20γ−13γ 2 −2γ 3

1 1
Particularmente cr2 (γ) = y cr4 (γ) = .
cr1 (γ) cr3 (γ)
:
El número de puntos críticos extraños del operador Op(z) es 4, salvo en los casos:

1. Si γ = 0 entonces hay un punto crítico libre de multiplicidad cuatro.

2. Si γ = −2 entonces hay 2 puntos críticos libres.


−5
3. Si γ = 2 entonces hay 2 puntos críticos libres, ambos de multiplicidad dos.

4. Si γ = −4 entonces no hay puntos críticos libres.

5. Si γ = −10 entonces hay 2 puntos críticos libres.

6. Si γ = −16 entonces hay 3 puntos críticos libres, uno de ellos de multiplicidad dos.

La prueba de este lema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.
Para saber qué valores de γ generan una variación en el número de puntos críticos libres, se procede a solucionar
todas las ecuaciones posibles: cri (γ) = crj (γ); con i, j ∈ {1, 2, 3, 4} y i 6= j. Resolviendo todas las ecuaciones posibles,
se obtiene que el operador Op0 se simplifica si γ = 0, γ = −2, γ = −5 2 , γ = −4, γ = −10 o si γ = −16. Algunos de
estos valores también se utilizarán para realizar las pruebas numéricas.

2.4. Planos de parámetros

Los planos de parámetros son gráficos de los valores críticos independientes del método que permiten conocer de
forma visual los valores de γ que afectarán a la estabilidad del método.
El plano de parámetros parte como punto inicial un punto crítico independiente y se aplica el método iterativo RS
para todos los valores del parámetro definidos en una malla sobre el plano complejo. Si en un punto, donde γ es un
valor específico, el método converge en menos de 50 iteraciones a alguna de las raíces del polinomio z = 0 o z = ∞
entonces a dicho punto se le asigna el color rojo; en otro caso entonces al punto se le asigna el color negro.
Particularmente para el método RS se obtienen dos planos paramétricos: uno en donde se visualiza el comportamien-
to del método con alguno de los puntos críticos cr1 (γ) o cr2 (γ) y otro con alguo de los puntos críticos cr3 (γ) o cr4 (γ)
esto debido a que cr2 (γ) = cr11(γ) y cr4 (γ) = cr31(γ) por lo que solo hay 2 puntos críticos independientes.
16

0.8

0.6

0.4

0.2

IIm{α}
0

-0.2

-0.4

-0.6

-0.8
-2 -1.8 -1.6 -1.4 -1.2 -1 -0.8 -0.6 -0.4 -0.2 0
IRe{α}

Figura 4: Plano de parámetros P1 del método RS para z = cr1,2 (γ)

15

10

5
IIm{α}

-5

-10

-15
-50 -40 -30 -20 -10 0
IRe{α}

Figura 5: Plano de parámetros P2 del método MA2 para z = cr3,4 (γ)

Los puntos del plano complejo que aparecen en negro en los planos 4 y 5 hacen referencia a los valores del parámetro
γ en los que el método no converge a las raíces del polinomio cuadrático, tomando como estimación inicial alguno
de los puntos críticos libres cri (γ) con i ∈ {1, 2, 3, 4}. Esto quiere decir que existen, por lo menos, tres cuencas de
convergencia, la del 0, la del ∞ y otra (o más) de algún punto fijo extraño atractor o alguna órbita periódica atractora.
17

0.1

0.08

0.06

0.04

0.02

IIm{α} 0

-0.02

-0.04

-0.06

-0.08

-0.1
-1.9 -1.88 -1.86 -1.84 -1.82 -1.8 -1.78 -1.76 -1.74 -1.72 -1.7
IRe{α}

Figura 6: Detalle del plano de parámetros P1 del método RS

10

5
IIm{α}

-5

-10
-45 -40 -35 -30 -25 -20 -15 -10
IRe{α}

Figura 7: Detalle del plano de parámetros P2 del método RS

Las regiones que se pueden apreciar en 6 corresponden con los diagramas de estabilidad de los puntos fijos extraños
pf1,2 (γ) que se pueden observar en 2, donde estos puntos son atractores; y las regiones negras en 7 hacen referencia
a los diagramas de estabilidad de los puntos fijos extraños pf0,3,4 (γ) que se pueden apreciar en 1 y 3, donde dichos
puntos son atractores. Las otras regiones en negro corresponden a digramas de estabilidad de órbitas periódicas
atractoras.
18

2.5. Planos dinámicos

Los planos dinámicos son otra forma de ampliar la información obtenida con los planos paramétricos. Con los planos
dinámicos se pueden visualizar las cuencas de atracción de puntos fijos o periódicos del método RS con algún valor
del parámetro γ en particular.
Para construir un plano dinámico se define un mallado de puntos en el plano complejo, cada uno de los cuales se
toma como estimación inicial del método iterativo, si partiendo desde un punto específico del mallado el método
iterativo converge a algún cero de la función, entonces se le asignará un determinado color, particularmente de color
naranja si converge a z = 0 y color azul si converge a z = ∞; en caso de que el punto tomado como estimación inicial
no converja a ninguna de las raíces de la función en un máximo de iteraciones establecido, se le asignará el color
negro.

z=-3.9602e-08+i-7.0554e-21
4

1
Im{z}

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 8: Plano dinámico del método RS para γ = −4

z=-1.3289e-08+i-4.5299e-08

1
Im{z}

-1

-2

-3

-4

-5

-6 -4 -2 0 2 4
Re{z}

Figura 9: Plano dinámico del método RS para γ = −6


19

z=-8.7169e-08+i2.9579e-08
4

Im{z}
0

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 10: Plano dinámico del método RS para γ = 0

z=0.00012119+i0.00029806
4

1
Im{z}

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 11: Plano dinámico del método RS para γ = −2


20

z=-2.8962e-10+i-1.629e-10
4

Im{z}
0

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

−5
Figura 12: Plano dinámico del método RS para γ = 2

z=1.8857e-07+i-8.5821e-09
4

1
Im{z}

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 13: Plano dinámico del método RS para γ = −10


21

z=1+i0
4

Im{z}
0

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 14: Plano dinámico del método RS para γ = −16

z=-2.1307+i-8.8939e-50
4

1
Im{z}

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 15: Plano dinámico del método RS para γ = −1.76


22

z=-0.21308+i0.72918
4

Im{z}
0

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 16: Plano dinámico del método RS para γ = 2 + 5i

z=1.2435+i-0.74415
4

1
Im{z}

-1

-2

-3

-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}

Figura 17: Plano dinámico del método RS para γ = 1.9 + 10.9i

Todas las gráficas son del método RS sobre un polinomio cuadrático con la Transformación de Möbius.
En la figura 8 se puede observar el plano dinámico del método de Ostrowski aplicado a un polinomio cuadrático con
la Transformación de Möbius.
En las figuras 8-13 se puede observar los planos dinámicos de valores de γ que se encuentran en la zona de estabili-
dad. Esto se puede verificar visualmente ya que en los gráficos el método solo converge a las soluciones, las cuales
en este caso luego de aplicar la Transformación de Möbius son 0 e ∞.
En las figuras 14-17 se puede observar los planos dinámicos de valores de γ que se encuentran fuera de la zona de
estabilidad. Esto se puede verificar visualmente ya que en los gráficos el método converge a otros valores además de
23

la solución, dando como resultado zonas negras.


En la figura 17 se pueden observar las cuencias de atracción correspondientes a γ = 1.9 + 10.9i; este valor es im-
portante de resaltar ya que en el plano dinámico que se obtiene aparece una órbita periódica de periodo 3, lo cual
es importante porque gracias al Teorema de Sarkovski, véase [7], se puede probar que existen órbitas periódicas de
cualquier periodo.

2.6. Pruebas numéricas

Las pruebas numéricas que aparecen en el siguiente apartado han sido calculadas utilizando aritmética de precisión
variable, con 7000 dígitos de mantisa y una tolerancia máxima de 10−300 en Matlab R2015a en una computadora
portátil con procesador Intel(R) Core(T M ) i5 − 7200U CP U @2.50GHz 2.70GHz con una memoria RAM de 8GB.
En este apartado se presentarán resultados obtenidos al utilizar el método familia RS con algunos valores γ específicos
para estimar ceros de las siguientes funciones:

f1 (x) = (x − 1)3 − 1, ξ=2


2
f2 (x) = sen(x) − x + 1, ξ ≈ 1.409624
f3 (x) = arctan(x), ξ=0
 x 2
f4 (x) = sen(x) − , ξ = 0, doble
2
2
f5 (x) = 10xe−x − 1, ξ ≈ 1.679631

Se comparará el método familia RS con otros métodos iterativos conocidos: el esquema de Newton presentado en (1),
el esquema de Jarratt presentado en (3), el esquema de Chun presentado en (5), el esquema de Ostrowski presentado
en (6), el esquema de Kung y Traub presentado en (7) y el esquema de Zhao presentado en (8).
En las siguientes tablas se mostrarán los resultados obtenidos de funciones anteriormente mencionadas, teniendo en
cuenta que el criterio para que el código se detenga es, en todos los métodos, |xk+1 − xk | + |f (xk+1 )| < 10−300 , así se
puede verificar si la sucesión {xk } converge y su límite es la solución de la ecuación no lineal f (x) = 0.
Para cada una de las funciones se mostrará la estimación inicial utilizada x0 , la raíz ξ la que tiende el proceso, las
estimaciones del error cometido en la última iteración: |xk+1 − xk | y |f (xk+1 )|, el número de iteraciones que ha
necesitado para converger y ρ como el orden de convergencia computacional aproximado ACOC.
24

Métodos ξ |xk+1 − xk | f (xk+1 ) iter ρ

f1 Newton 2.0000 6.244 e-447 1.17 e-892 11 2.0000


x0 = 2.5 Jarratt 2.0000 1.989 e-490 3.132 e-1959 6 4.0000
Chun 2.0000 7.377 e-310 4.146 e-1236 6 4.0000
Ostrowski 2.0000 1.989 e-490 3.132 e-1959 6 4.0000
Kung y Traub 2.0000 2.146 e-397 1.06 e-1586 6 4.0000
Zhao 2.0000 7.909 e-562 3.912 e-2245 6 4.0000
RSγ=0 2.0000 7.377 e-310 4.146 e-1236 6 4.0000
RSγ=−2 2.0000 3.598 e-366 1.341 e-1461 6 4.0000
RSγ=−2.5 2.0000 1.027 e-386 7.218 e-1544 6 4.0000
RSγ=−6 2.0000 8.365 e-624 1.958 e-2492 6 4.0000
RSγ=−1.76 2.0000 1.518 e-357 4.626 e-1427 6 4.0000
RSγ=−16 2.0000 8.908 e-672 2.141 e-2683 8 4.0000
RSγ=2+5i 2.0000 1.621 e-995 1.726 e-3978 7 4.0000
RSγ=1.9+10.9i 2.0000 2.476 e-805 1.434 e-3217 7 4.0000

Tabla 1: Resultados obtenidos por los métodos iterativos sobre la función f1

En el Cuadro 1 y se puede observar que en general, la mayoría de los métodos convergen a la solución de la ecuación;
el número de iteraciones es en general el mismo y el orden de convergencia computacional aproximado coincide con
el orden teórico.
25

Métodos ξ |xk+1 − xk | f (xk+1 ) iter ρ

f2 Newton 1.409624 1.958 e-546 5.723 e-1092 11 2.0000


x0 = 1 Jarratt 1.409624 4.768 e-555 2.334 e-2218 6 4.0000
Chun 1.409624 1.787 e-782 2.388 e-3127 7 4.0000
Ostrowski 1.409624 4.914 e-554 2.661 e-2214 6 4.0000
Kung y Traub 1.409624 6.482 e-421 1.638 e-1681 6 4.0000
Zhao 1.409624 1.753 e-998 1.42 e-3993 7 4.0000
RSγ=0 1.409624 1.787 e-782 2.388 e-3127 7 4.0000
RSγ=−2 1.409624 1.895 e-711 1.804 e-2843 7 4.0000
RSγ=−2.5 1.409624 9.452 e-602 9.285 e-2405 7 4.0000
RSγ=−6 1.409624 7.799 e-324 1.799 e-1293 6 4.0000
RSγ=−1.76 1.409624 5.842 e-736 1.761 e-2941 7 4.0000
RSγ=−16 1.409624 1.217 e-794 1.141 e-3175 7 4.0000
RSγ=2+5i 1.409624 2.819 e-773 2.552 e-3090 7 4.0000
RSγ=1.9+10.9i 1.409624 2.811 e-737 3.791 e-2946 7 4.0000

Tabla 2: Resultados obtenidos por los métodos iterativos sobre la función f2

En el Cuadro 2 se puede observar que el método RS con γ = −6 converge con una iteración menor en comparación
con los otros parámetros de su misma familia y con igual iteración que el método de Jarratt, Ostrowski y el método
de Kung y Traub.
26

Métodos ξ |xk+1 − xk | f (xk+1 ) iter ρ

f3 Newton - - - > 1000 -


x0 = 1.5 Jarratt 0.0000 3.312 e-1312 6.492 e-6559 7 5.0000
Chun - - - > 1000 -
Ostrowski 0.0000 2.429 e-1259 1.878 e-6294 7 5.0000
Kung y Traub 0.0000 5.76 e-677 1.409 e-3382 7 5.0000
Zhao - - - - -
RSγ=0 - - - > 1000 -
RSγ=−2 - - - > 1000 -
RSγ=−2.5 0.0000 2.619 e-339 2.736 e-1694 6 5.0000
RSγ=−6 0.0000 2.485 e-401 2.105 e-2004 7 5.0000
RSγ=−1.76 - - - > 1000 -
RSγ=−16 0.0000 3.87 e-350 1.929 e-1748 10 5.0000
RSγ=2+5i - - - > 1000 -
RSγ=1.9+10.9i - - - > 1000 -

Tabla 3: Resultados obtenidos por los métodos iterativos sobre la función f3

En el Cuadro 3 se puede observar que en general, la mayoría de métodos divergen, esto se debe a que, como todos
son una composición del método de Newton; dicho método tiene problemas en el cálculo de la derivada cerca del
cero de la función arco-tangente. Sin embargo, aquellas funciones que convergen, lo hacen con un número bajo de
iteraciones y su ACOC es mayor al teórico. Particularmente el método RS con γ = −2.5 logra converger con un
número de iteraciones menor al de todos.
27

Métodos ξ |xk+1 − xk | f (xk+1 ) iter ρ

f4 Newton 0.0000 5.657 e-301 8.001 e-602 996 1.0000


x0 = 0.5 Jarratt 0.0000 4.938 e-301 6.774 e-603 499 1.0000
Chun 0.0000 7.443 e-301 2.862 e-602 594 1.0000
Ostrowski 0.0000 4.999 e-301 6.942 e-603 499 1.0000
Kung y Traub 0.0000 4.252 e-301 6.687 e-603 540 1.0000
Zhao 0.0000 6.602 e-301 1.082 e-602 484 1.0000
RSγ=0 0.0000 7.443 e-301 2.862 e-602 594 1.0000
RSγ=−2 0.0000 4.823 e-301 9.303 e-603 552 1.0000
RSγ=−2.5 0.0000 4.268 e-301 6.737 e-603 540 1.0000
RSγ=−6 0.0000 5.884 e-301 5.41 e-603 430 1.0000
RSγ=−1.76 0.0000 9.784 e-301 3.967 e-602 557 1.0000
RSγ=−16 - - - > 1000 -
RSγ=2+5i 0.0000 9.519 e-301 6.369 e-602 654 1.0000
RSγ=1.9+10.9i 0.0000 4.22 e-301 1.68 e-602 724 1.0000

Tabla 4: Resultados obtenidos por los métodos iterativos sobre la función f4

Algo particular es que en el Cuadro 4, la gran mayoría de métodos convergen lentamente: esto se sabe ya que su
ACOC es igual a 1, en otros casos el método diverge; esto es esperable ya que la función posee ceros con multiplicidad
lo cual genera problemas para los métodos iterativos usuales. Sin embargo, el método RS cuando γ = −16 diverge, lo
que es esperable ya que este valor de γ se encuentra fuera de la zona de estabilidad de RS cuando se hizo el estudio
con el polinomio cuadrático.
28

Métodos ξ |xk+1 − xk | f (xk+1 ) iter ρ

f5 Newton 1.679631 2.13 e-437 1.198 e-873 11 2.0000


x0 = 2 Jarratt 1.676931 3.146 e-477 2.01 e-1906 6 4.0000
Chun 1.676931 1.697 e-428 9.852 e-1711 7 4.0000
Ostrowski 1.676931 6.876 e-469 4.983 e-1873 6 4.0000
Kung y Traub 1.676931 2.909 e-318 3.324 e-1270 6 4.0000
Zhao 1.676931 1.605 e-992 1.236 e-3968 7 4.0000
RSγ=0 1.676931 1.697 e-428 9.852 e-1711 7 4.0000
RSγ=−2 - - - > 1000 -
RSγ=−2.5 1.676931 1.83 e-516 6.558 e-2063 7 4.0000
RSγ=−6 1.676931 6.3 e-310 4.098 e-1237 6 4.0000
RSγ=−1.76 - - - > 1000 -
RSγ=−16 1.676931 5.364 e-629 2.215 e-2512 7 4.0000
RSγ=2+5i 1.676931 1.161 e-535 3.741 e-2139 7 4.0000
RSγ=1.9+10.9i 1.676931 7.582 e-534 1.026 e-2131 7 4.0000

Tabla 5: Resultados obtenidos por los métodos iterativos sobre la función f5

En la Tabla 5 se puede observar que en general, la mayoría de métodos convergen y a la solución de la ecuación; el
número de iteraciones es en general el mismo y el orden de convergencia computacional aproximado coincide con el
orden teórico.
Existen algunas particularidades en estos resultados, para el método RS cuando γ = −2 y −1.76, el método diverge;
y en el caso en que γ = −6, el método converge y realiza un número menor de iteraciones en comparación con los
demás parámetros de su familia.
En general se ha visto un buen desempeño del método RS cuando γ = −6, por lo que para pruebas numéricas en
general se recomendaría el uso de este valor en comparación con los demás de la familia RS.
29

3 Conclusiones

En el escrito se ha realizado un estudio para diseñar metodos iterativos multipaso que sirvan para resolver ecuaciones
no lineales con el objetivo de hallar un método más efectivo que los convencionales.
Además del orden de convergencia, existen otros factores que nos ayudan a determinar la eficiencia y estabilidad
de un método iterativo. Tanto la eficiencia, como el índice de eficiencia, así como el orden de convergencia pueden
ayudar a entender mejor la efectividad del método, ya que cuanto más grandes sean estos valores, mayor es la
posibilidad de que el método converja con un menor número de iteraciones, haciendo que el tiempo de ejecución sea
menor.
Como un mayor orden de convergencia no implica necesariamente un mejor método, se utilizan también sistemas
dinámicos. El hecho de que un método tenga un orden de convergencia mayor que otro garantizará que converja
en menos iteraciones, sin embargo, existe la posibilidad de que tenga un radio de convergencia pequeño, es decir,
necesitará que el valor inicial que se tome para aproximar la solución sea cercano a la misma para converger, ya que
en otro caso el método divergerá o convergerá a puntos que no son solución de la ecuación. Esto quiere decir que
prácticamente habrá que conocer la solución de la ecuación, pero esto no será de utilidad, ya que es la solución lo
que queremos aproximar. Esto nos indica que existe la necesidad de utilizar los planos dinámicos para saber si un
método es valido o no.
En comparación con la dínamica compleja, la implementación numérica ha dado resultados satisfactorios sobre los
métodos de estudio: algunos de los valores de γ que han sido obtenidos en la zona de convergencia (zona roja) de los
planos de parámetros, han hecho que el método converja, mientras que otros valores de γ en la zona de divergencia
(zona negra) han hecho fallar al método.
Se ha consigo hallar valores de γ para los que el método RS es mejor que los métodos ya conocidos. En particular,
para γ = 6 se ha necesitado un menor número de iteraciones en contraste con otros valores del mismo y métodos
conocidos.
Bibliografía

[1] S. Artidiello, Diseño, implementación y convergencia de métodos iterativos para resolver ecuaciones y sistemas
no lineales utilizando funciones peso. Diss. Ph. D. thesis, Universitat Politècnica de València, 2014.

[2] P. Blanchard, The Dynamics of Newton’s method. Proceedings of Symposia in Applied Mathematics 49 (1994)
139-152.

[3] S. C. Chapra, y R. P. Canale, Métodos numéricos para ingenieros. Quinta Edición, McGraw-Hill, 2017.

[4] C. Chun, Construction of Newton-like iterative methods for solving nonlinear equations, Numerische Mathe-
matik 104 (2006) 297-315.

[5] C. Chun, Some fourth-roder iterative methods for solving nonlinear equation, Applied Mathematica and
Computation 196 (2008) 454-459.

[6] A. Cordero, J.R. Torregrosa, Variants of Newton’s method using fifth-order quadrature formulas, Appl. Math.
Comput. 190 (2007) 686-698.

[7] R. L. Devaney The Mandelbrot Set, the Farey Tree and the Fibonacci sequence. Am. Math. Monthly, 106(4) (1999)
289-302.

[8] J. García, Análisis dinámico y numérico de familias de métodos iterativos para la resolución de ecuaciones no
lineales y su extensión a espacios de Banach, Departamento de Matemática Aplicada, Universitat Politècnica de
València, 2017.

[9] P. Jarratt, Some fourth order multipoint iterative methods for solving equations, Math. Comp. 20 (1966) 434-437.

[10] R. F. King, A family of fourth-order methods for nonlinear equations, SIAM Journal Numerical Analisis 10(5)
(1973) 876-879.

[11] H.T. Kung, J.F. Traub, Optimal order of one-point and multipoint iteration, J. Assoc. Comput. Math. 21 (1974)
643-651.

[12] A.M. Ostrowski, Solution of equations and systems of equations, Academic Press, New York, 1960.

[13] K. Rajagopal, S. T. Kingni, G. F. Kuiate, V. K. Tamba, y V. Pham, Autonomous Jerk Oscillator with Cosine Hyper-
bolic Nonlinearity: Analysis, FPGA Implementation, and Synchronization, Advances in Mathematical Physics,
vol. 2018.

[14] J.F. Traub, Iterative methods for the solution of equations, Prentice-Hall, Englewood Cliffs, New Jersey, 1964.

[15] S. Weerakoon, T.G.I. Fernando, A variant of Newton’s method with accelerated third-order convergence, Appl.
Math. Letters 13 (2000) 87-93.
BIBLIOGRAFÍA 31

[16] L. Zhao, X. Wang, W. Guo, New families of eighth-order methods with high efficiency index for solving nonli-
near equations, Wseas Transactions on Mathematics 11 (2012) 283-293.

También podría gustarte