Documentos de Académico
Documentos de Profesional
Documentos de Cultura
no lineales
Resumen. Una rama de análisis numérico consiste en la resolución de ecuaciones no lineales por medio de métodos
iterativos. El método más conocido y utilizado para esto es el de Newton-Raphson, sin embargo existen otros métodos
más eficientes que este. En este escrito se presentará una familia de métodos iterativos óptimos (según la conjetura
de Kung y Traub) y se estudiará, mediante herramientas dinámicas, cuál método de esta familia es más eficaz en
comparación con esquemas iterativos ya conocidos.
Palabras clave: métodos iterativos, ecuaciones no lineales, métodos óptimos, dinámica compleja, análisis de convergencia
Abstract. One stream of numerical analysis consist in the resolution of non linear equations using iterative methods.
The best known and used method for this is Newton-raphson method, however, there are other more efficient
methods than this one. This paper presents a family of optimal iterative methods (according to Kung and Traub
conjecture) and will be studied with dinamic tools which method of this family is more effective than known iterati-
ve schemes.
KeyWords: iterative methods, non-linear equations, optimal methods, complex dynamic, analysis of convergence
1 Introducción
El objetivo de este artículo es el estudio de métodos iterativos para la resolución de ecuaciones no lineales. Se empe-
zará dando algunas definiciones básicas que nos serán útiles a lo largo del trabajo como la de multiplicidad de una
raíz o convergencia.
El método más conocido para la resolución de ecuaciones no lineales f (x) = 0 donde f es una función de una variable
real es el método de Newton:
f (xk )
xk+1 = xk − (1)
f 0 (xk )
Este trabajo intentará ir más allá presentando una familia de métodos más compleja, los métodos multipaso. Además,
se estudiará la conjetura de Kung y Traub que nos dará el valor óptimo de orden de convergencia que puede alcanzar
un método. Existe una versión del método de Newton que es multipaso que es de la siguiente forma:
f (xk )
yk = xk −
f 0 (xk )
f (yk )
xk+1 = yk − 0
f (yk )
2
También se profundizará más en el estudio del orden de convergencia del método, ya que lo que se busca es un
enfoque práctico de los métodos, por lo que se presentará el orden de convergencia computacional. Además, cuando
se estudia el caso práctico no se conoce realmente el valor de la raíz de la ecuación (ya que es lo que se pretende
aproximar), por lo que se introducirá el concepto de orden de convergencia computacional aproximado.
En algunos casos se encuentran ciertos puntos a los que el método converge, pero que sin embargo no son solución de
la ecuación que se intenta resolver. Es por ello que en este trabajo se estudiará también la estabilidad de los métodos
mediante ciertos operadores (que se definirán en este mismo artículo), estos permitirán la obtención de la órbita de
los puntos de convergencia del método para poder distinguir aquellos que son solución de los que no.
Con fin de explicar bien estos conceptos y hacerlos más visuales, se presentarán algunos métodos multipaso conoci-
dos como el de Traub o el de Jarrat. Se realizará un estudio de estos métodos con los conceptos definidos previamente
y se verá si realmente son óptimos o no según la conjetura de Kung y Traub.
Con el estudio de estos métodos multipaso, se podrá observar que prácticamente todos tienen un factor en común,
una función peso. Esta jugará un papel fundamental en el estudio realizado, ya que lo que se pretende es proponer
un método a partir de una función multipaso. Se dará un resultado que permitirá asegurar la convergencia de un
método a partir de la función multipaso bajo ciertas hipótesis.
Después de haber ilustrado todos los conceptos necesarios para el estudio de la convergencia y la estabilidad de un
método, se procederá a presentar una familia de métodos iterativos originales de este trabajo. Dentro de esta familia,
la diferencia entre los métodos se verá en la función peso.
Una vez presentados los métodos multipaso se comenzará con su estudio. Lo primero será clasificar los puntos fijos
y los puntos críticos de nuestro método.
Para continuar se realizará un estudio práctico del método utilizando el programa Matlab. Con él se generarán una
serie de planos dinámicos que posteriormente se mostrarán en este trabajo. Estos planos dinámicos nos permitirán
observar la órbita de los puntos fijos en el plano complejo, y esto hará más visual el estudio de la convergencia y de
la estabilidad. Además se realizarán pruebas numéricas que permitirán comparar este método con otros métodos ya
conocidos presentados previamente en este escrito.
Tras observar las simulaciones numéricas realizadas se puede observar como para algunos de los parámetros este
método es más eficiente que algunos de los ya conocidos, por lo que parece un buen método para la resolución de
ecuaciones no lineales.
Definición 2 (Convergencia):
Sea α ∈ R, xn ∈ R, n = 0, 1, 2, ... entonces, se dice que la sucesión {xn } converge a α si
3
lı́m |xn − α| = 0.
n→∞
Si p = 2 o 3, entonces se dice que es de orden cuadrático o cúbico, respectivamente. Por ejemplo, el método de
Newton presentado en (1), es de orden cuadrático para algún vecindario de α, ya que existe una constante c tal que
|xk+1 − α|
lı́m = c.
k→∞ |xk − α|2
se conoce como ecuación del error. Al valor p obtenido se le conoce como el orden del método. Esta definición es
equivalente a la Definición 3.
yn(1) = G1 (xn ),
yn(2) = G2 (xn ),
..
.
xn+1 = G(xn , yn(1) , yn(2) , ...)
El primero en introducir este concepto fue Traub en [14] con su método multipaso:
f (xk )
yk = xk − ,
f 0 (xk ) (2)
f (yk )
xk+1 = yk − 0 .
f (xk )
Más adelante en la Subsección 1.3, se profundizará la importancia de los métodos multipaso para el trabajo.
Definición 6 (Evaluaciones funcionales): Al número de veces en el que la función f y sus derivadas están siendo
evaluadas por cada iteración se le llama número de evaluaciones funcionales y se denota por d.
4
Por ejemplo en el esquema de Newton presentado en (1) posee dos evaluaciones funcionales: f (xk ) y f 0 (xk ); por lo
que d = 2.
En el esquema de Traub presentado en (2) posee tres evaluaciones funcionales: f (xk ), f 0 (xk ) y f (yk ); por lo que d = 3.
p
I= ,
d
donde p es el orden de convergencia y d es el número de evaluaciones funcionales por iteración.
EI = p1/d ,
Kung y Traub en [11] establecen la siguiente conjetura: “El orden de convergencia de cualquier método multipaso no
puede ser mayor a 2d−1 (llamado orden óptimo), donde d es el número de evaluaciones funcionales por iteración”.
Bajo esta conjetura, se estudiarán métodos que satisfagan que el orden de convergencia de p sea igual a 2d−1 ; siempre
que se cumpla esta condición, se puede decir que el método es óptimo.
Al probar nuevos métodos, si se desea verificar el orden de convergencia o estimar cuánto difiere del orden teóri-
co en la implementación práctica, se puede calcular el orden de convergencia computacional (COC), definido por
Weerakoon y Fernando en [15] como:
donde xk+1 , xk y xk−1 son las últimas tres aproximaciones sucesivas de α obtenidas en el proceso iterativo. Dado que
el valor de α es desconocido en la práctica, se utiliza el orden de convergencia computacional aproximado (ACOC)
definido por Cordero y Torregrosa en [6] como:
Las herramientas dinámicas son un concepto que se utilizará para estudiar el análisis de estabilidad del método,
porque en comparación con métodos conocidos como el método de Newton expuesto en la ecuación (1), el cual es
bastante estable; se creará un mapeo en C para visualizar el comportamiento del método cuando converja la solución.
Blanchard en [2] establece las Definiciones 9-17:
Por ejemplo, para una ecuación cualquiera f (z) = 0, si z0 es una de sus soluciones y G es un operador para apro-
ximar las raíces de f ; es claro que G(z0 ) = z0 . Por lo tanto se puede concluir que toda raíz de una ecuación será,
eventualmente, punto fijo del operador G.
Sin embargo, puede que al resolver la ecuación G(z) = z, aparezcan valores de z que no correspondan a ninguna raíz
de la función f . Estos puntos se denominan puntos fijos extraños. Desde un punto de vista numérico, un punto fijo
extraño no es deseable, porque si se usa un valor cercano a uno de ellos como estimación inicial, el método numérico
puede converger al punto fijo, es decir, la convergencia a un punto no es una solución.
Superatractor, si |R0 (z ∗ )| = 0
Análogamente, si la expresión es igual a cero se le llama superatractora, si es mayor que uno se le llama repulsora y
si es igual a uno se le llama indiferente.
La cuenca de atracción es el conjunto de todas las órbitas posibles de un atractor, por tanto indica la región de
convergencia de un método iterativo.
A la frontera entre las componentes conexas de las cuencas de atracción, se le llama conjunto de Julia, J .
R0 (z ∗ ) = 0.
Eventualmente los puntos fijos que sean superatractores van a ser críticos, sin embargo podrían existir puntos que
no sean fijos pero sí cumplan la anterior igualdad; a dichos puntos se le llaman puntos críticos libres.
García en [8] explica que: “a la hora de realizar el análisis dinámico de un nuevo método es necesario aplicarlo sobre
un problema concreto, es decir, sobre una ecuación no lineal específica; por eso, una manera natural de abordar el
estudio dinámico de un método iterativo en cuestión es aplicándolo sobre polinomios de bajo grado”.
En este caso se hará el estudio sobre un polinomio de grado dos genérico, ya que es la función no lineal más sencilla.
Artidiello en [1] y García en [8] aseveran que, en la práctica, cuando se modela el método sobre ecuaciones no lineales
sencillas, si el estudio dinámico sobre el método iterativo en el polinomio cuadrático se comporta de forma inestable
o necesita muchas condiciones para que converja, entonces sobre funciones no lineales más complicadas también;
por lo que, dependerá del comportamiento del método sobre dicho polinomio para definir cómo es el método y sacar
conclusiones sobre su desempeño en general. Si bien es cierto, no se puede generalizar partiendo del estudio sobre
funciones cuadráticas, en la práctica se puede verificar con las pruebas numéricas pues los resultados aplicados en
funciones no lineales más complejas coinciden con la teoría estudiada en polinomios de grado dos.
Con estos conceptos se generará el estudio de estabilidad de los métodos a proponer.
7
A continuación, se describirá la generación de métodos multipasos, se tomó como base algunos aportes hechos por
diferentes autores y deducciones para crear un método; estas serán de apoyo para los nuevos esquemas iterativos.
Traub en [14] expone la idea de métodos multipasos, describe un método haciendo uso del esquema de Newton sin
alterar el paso de la derivada, con el objetivo de minimizar las cantidades de evaluaciones funcionales, que tienen
como función aumentar el orden de convergencia del método.
Método de Traub de orden 3 en [14]:
f (xk )
yk = xk − ,
f 0 (xk )
f (yk )
xk+1 = yk − 0 .
f (xk )
Anteriormente se mostró el caso cuando d = 3; luego 2d−1 = 4; con base a la conjetura de Kung y Traub en [11], se
llega a la conclusión de que este método no es óptimo ya que es de orden 3 y podría buscar un método de orden 4
con la misma cantidad de evaluaciones funcionales. A partir de dicha conjetura, Jarratt en [9] propone el siguiente
método:
2 f (xk )
yk = xk − ,
3 f0 (xk )
(3)
1 3f (yk ) + f 0 (xk ) f (xk )
0
xk+1 = xk − .
2 3f 0 (yk ) − f 0 (xk ) f 0 (xk )
El anterior método es óptimo, dado que el número de evaluaciones funcionales es 3 y su orden de convergencia p es
4, cumpliendo así la conjetura de Kung y Traub ya que p = 2d−1 .
Artidiello en [1], llama función peso a aquella función que, bajo ciertas condiciones iniciales, el orden de convergencia
puede aumentar gracias a multiplicar esta función. Chun en [5] propone el esquema presentado en (4) con una
función peso H(tk ) donde tk = ff (x
(yk )
k)
.
f (xk )
yk = xk − ,
f 0 (xk ) (4)
f (yk )
xk+1 = yk − H(tk ) 0 .
f (xk )
Particularmente si la función H cumple ciertas condiciones, entonces el método es de orden 4, haciendo el método
óptimo ya que utiliza únicamente tres evaluaciones funcionales.
A continuación, exponemos el siguiente teorema, siendo este un caso particular al Teorema 3.3.1 demostrado por
Artidiello en [1].
Teorema 2 :
Sea f : I ⊂ R → R una función suficientemente diferenciable en cada punto del intervalo abierto I tal que α ∈ I es
una raíz simple de la ecuación no lineal f (x) = 0. Sea H : R → R cualquier función suficientemente diferenciable tal
que H(0) = 1, H 0 (0) = 2 y |H 00 (0)| < ∞. Entonces, si la estimación inicial x0 está suficientemente cerca de la solución
α, la sucesión {xk }k≥0 obtenida usando la expresión con función peso de Chun presentada en (4) converge a α y el
orden de convergencia local es al menos 4 y su ecuación del error es:
8
H 00 (0)
ek+1 = 5− C23 − C2 C3 e4k + O(e5k ),
2
1 f (j) (α)
donde Cj = , j = 2, 3, ... y ek = xk − α, ∀k ∈ N.
j! f 0 (α)
La prueba de este teorema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.
f (xk )
yk = xk − ,
f 0 (xk ) (5)
f (xk ) + 2f (yk ) f (yk )
xk+1 = yk − .
f (xk ) f 0 (xk )
El método de Ostrowski en [14], que es un caso particular para β = −2 de la familia de King en [10]:
f (xk )
yk = xk − ,
f 0 (xk ) (6)
f (xk ) + (2 + β)f (yk ) f (yk )
xk+1 = yk − ; β ∈ R.
f (xk ) + βf (yk ) f 0 (xk )
f (xk )
yk = xk − ,
f 0 (xk )
(7)
f (xk )2 f (yk )
xk+1 = yk − .
(f (xk ) − f (yk ))2 f 0 (xk )
f (xk )
yk = xk − ,
f 0 (xk )
(8)
1 + 2tk + t2k f (yk ) f (yk )
xk+1 = yk − ; tk = .
1 − 4t2k f 0 (xk ) f (xk )
Los métodos expuestos anteriormente, poseen la estructura de la familia de Chun presentado en en (4), ya que tienen
una función peso de la forma H(tk ) con tk = ff (x
(yk )
k)
.
f (yk )
H(tk ) = 1 + 2tk ; tk = .
f (xk )
1 + (2 + β)tk f (yk )
H(tk ) = ; tk = .
1 + βtk f (xk )
9
En el caso del esquema de Kung y Traub presentado en (7), la función peso es:
1 f (yk )
H(tk ) = 2
; tk = .
(1 − tk ) f (xk )
Con base a los esquemas expuestos anteriormente, para lograr generar un método iterativo de la familia de Chun
de (4), como condición se debe tener el mismo esquema pero con una función peso que cumpla las condiciones del
teorema 2. Para todo lo anterior, este método sigue la estructura con funciones peso racionales pero el denominador
posee una función cuadrática:
Familia de métodos RS:
f (xk )
yk = xk − ,
f 0 (xk )
1 + 2tk f (yk ) f (yk ) (9)
xk+1 = yk − ; tk = ,
1 + γt2k f 0 (xk ) f (xk )
H(0) = 1 ⇒ α = 1
H 0 (0) = 2 ⇒ β = 2
1 + 2t
Luego, la función peso propuesta queda de la forma: H(t) = .
1 + γt2
En la sección 2 del escrito se realiza el estudio de estabilidad del método RS para determinar cuáles valores de γ hacen
que el método sea más eficiente. Hay que resaltar que este método es nuevo y no se tiene referencias en literaturas
anteriormente expuestas.
10
Artidiello en [1] expone lo siguiente: “Las clases de conjugación permiten simplificar los cálculos, trabajando simul-
táneamente con todos los polinomios cuadráticos”.
Para generalizar el estudio dinámico sobre la función no lineal, las clases conjugadas y el Teorema del escalado
cumplen para este estudio. En este caso particular un polinomio cuadrático cualquiera; lo anterior quiere decir que
gracias a este aspecto se puede garantizar que el estudio dinámico realizado contempla cualquier polinomio de grado
dos.
Definición 19 :
Sean R1 y R2 funciones racionales en la esfera de Riemann. Se dice que R1 y R2 son conjugadas si existe una trans-
formación de Möbius en la esfera de Riemann tal que: M ◦ R1 ◦ M −1 = R2
Luego de haber obtenidos los resultados como: puntos fijos, puntos críticos, puntos periódicos y cuencas de atracción
para el método RS descrito en (9); el teorema del escalado logrará mapeos de planos dinámicos y zonas de estabilidad
que logren tener una mejor interpretación.
2 Análisis de Estabilidad de RS
Se hará un estudio sobre el plano complejo en el que podremos realizar un análisis de estabilidad para algunas
ecuaciones no lineales elegidas que permitirán saber cómo de eficiente es el método.
Para estudiar el método se trabajará sobre un polinomio genérico de grado dos p(z) = (z − a)(z − b) a partir de la
función peso
1 + 2t
H(t) = , donde γ ∈ R es un parámetro.
1 + γt2
11
p(z)
y(z) = z−
p0 (z)
p(y(z)) ab − z 2 1 + 2(a−z)(b−z)
(a+b−2z)2 (a − z)2 (b − z)2
Of (z) = y(z) − H(t) 0 = +
p (z) a + b − 2z (a + b − 2z)3 1 + (a−z)
2 (b−z)2 γ
(a+b−2z)4
p(y(z))
t= .
p(z)
Este resultado es el operador de la función p que depende de a y de b.
Ahora, se aplicará el operador de Möbius al operador para calcular su conjugado, ya que este mandará las raízes del
polinomio a y b a 0 y ∞ para que el resultado no dependa de a y b.
z−a
M (z) =
z−b
z 4 (5 + z(4 + z) + γ)
Op(z) = M (Of (M −1 (z))) =
1 + z(4 + z(5 + γ))
Gracias a la definición 18 sobre las clases de conjugación, el Teorema 3 del escalado y la Definición 19, se puede
confirmar que Op y Of son conjugados por lo que su dinámica asociada es equivalente, lo que permitirá realizar el
estudio en casos más simples. Se calcularán los valores de γ para los que Op pueda ser simplificado.
Igualando el numerador del operador Op a cero se obtiene:
√
sn1 (γ) = −2 − −1 − γ
√
sn2 (γ) = −2 + −1 − γ
sd1 (γ) = √1
−2+ −1−γ
1
sd2 (γ) = − 2+√−1−γ
Se iguala cada término sni (γ) con cada término sdi (γ); con i ∈ {1, 2}, para conocer en qué valores de γ estos términos
son iguales y el operador Op se pueda simplificar. Haciendo todas las igualdades posibles se obtiene que Op se puede
simplificar si γ = −4 o si γ = −6. Estos valores de γ serán los usados para la variar el número de puntos fijos extraños
y para las pruebas numéricas.
Como se ha mencionado anteriormente, los puntos fijos del operador Op(z) son los puntos tales que Op(z) = z;
eventualmente lo cumplen z = 0 y z = ∞, pues son las raíces del polinomio p(z) luego de la transformación de
Möbius.
Para verificar, se resuelve la ecuación Op(z) = z y se obtiene que una de sus raíces es 0. Para comprobar que ∞ es un
punto fijo se puede calcular el operador inverso de la siguiente manera:
12
−1 1 z 4 5 + 4z + z 2 + γ
z = = ,
Op z1 1 + 4z + z 2 (5 + γ)
y sutituyendo z por 0 se puede ver que su imagen es 0 por lo que ∞ también es un punto fijo.
No obstante, cuando se resuelve la expresión Op(z) = z, se encuentran otras 5 raíces las cuales son puntos fijos
extraños:
1. pf0 (γ) = 1
1 √ p √
2. pf1 (γ) = −5 − −7 − 4γ − 2 + 10 −7 − 4γ − 4γ
4
1 √ p √
3. pf2 (γ) = −5 − −7 − 4γ + 2 + 10 −7 − 4γ − 4γ
4
1 √ p √
4. pf3 (γ) = −5 + −7 − 4γ − 2 − 10 −7 − 4γ − 4γ
4
1 √ p √
5. pf4 (γ) = −5 + −7 − 4γ + 2 − 10 −7 − 4γ − 4γ
4
Como se puede observar, los puntos fijos extraños dependen de γ, por lo que también dependerán de γ su estabilidad
y los puntos críticos. Se realizará un análisis de la variación de números de puntos fijos extraños, así como de la
estabilidad y puntos críticos independientes para algunos valores específicos del parámetro γ.
Lema 1 :
z 4 (5 + z(4 + z) + γ)
El número de puntos fijos extraños del operador Op(z) = es 5 excepto cuando γ vale 4, en ese
1 + z(4 + z(5 + γ))
caso se encuentran 3 puntos fijos extraños.
La prueba de este lema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.
Existe otro valor de γ que simplifica el Operador Op y que además mantiene el mismo número de puntos fijos
extraños:
z 4 (−1+z(4+z))
Si γ = −6 entonces el operador es Op(z) = 1−(−4+z)z y al resolver Op(z) = z se obtienen los siguientes puntos
fijos extraños:
z = 1,
√ √
q
1
z = −5 − 17 − 26 + 10 17 ,
4
√ √
q
1
z = −5 − 17 + 26 + 10 17 ,
4
√ √
q
1
z = −5 + 17 − i −26 + 10 17 ,
4
√ √
q
1
z = −5 + 17 + i −26 + 10 17 .
4
13
Es importante obtener los puntos fijos para poder realizar un análisis de la estabilidad del método, ya que, así sa-
bemos si los puntos son valores atractores, repulsores o indiferentes según distintos valores del parámetro γ. Para
conocer la estabilidad de los puntos fijos se evaluará en la derivada del operador, es decir, en Op0 (z).
Teorema 4 :
Los puntos fijos z = 0 y z = ∞ son superatractores independientemente del valor de γ, y para z = 1 se obtienen los
siguientes resultados:
2. Indiferente si |γ + 18| = 4
La prueba de este teorema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.
Visualmente, si γ está en la circunferencia del cono, se tendrá que es atractor. Si γ está sobre la circunferencia, será
indiferente y si está fuera de la circunferencia entonces será repulsor.
Teorema 5 :
Los puntos fijos extraños pf1 (γ) y pf2 (γ) son:
Mientras que los puntos fijos extraños pf3 (γ) y pf4 (γ) son:
No es posible comprobar de forma analítica el teorema debido a que al evaluar estos puntos fijos extraños en las fun-
ciones de estabilidad, aparecen raíces de polinomios de grado alto. El análisis numérico de este teorema (elaboración
propia) puede ser encontrado en la sección Anexos en la subsección ??.
La estabilidad de z = pf1 (γ) y de z = pf2 (γ) se puede visualizar en el plano complejo en el gráfico 2:
Figura 2: Estabilidad de los puntos fijos extraños pf1 (γ) y pf2 (γ)
La estabilidad de z = pf3 (γ) y de z = pf4 (γ) se puede visualizar en el plano complejo en el gráfico 3:
Figura 3: Estabilidad de los puntos fijos extraños pf3 (γ) y pf4 (γ)
La obtención de aquellos valores para los que Op0 (γ) pasa de ser atractor a repulsor se han obtenido numéricamente,
es decir, se trata de valores aproximados. En los gráficos anteriores se pueden observar las regiones en las que el
parámetro cambia su estabilidad, si γ está dentro de esas cuencas entonces el método RS será inestable.
Como se ha explicado anteriormente, la obtención de los puntos críticos se ha realizado resolviendo la ecuación
Op0 (z) = 0. Estos puntos son importantes, ya que además de los puntos fijos superatractores, se pueden encontrar
algunos puntos que no son ni raíces ni puntos fijos extraños. Estos puntos se denominan puntos críticos estables.
García [8] comenta que dichos puntos son de interés debido a que cada cuenca de atracción contendrá al menos un
punto crítico, por lo que los que sean críticos libres se podrían encontrar en una cuenca de atracción de alguna de las
soluciones de la ecuación, o bien estar en la de un punto fijo extraño u órbita periódica atractora.
Los puntos críticos de Op(z) son z = 0 y z = ∞ (corresponden a la transformación de Möbius de las raíces del
polinomio) ya que son puntos fijos superatractores y los críticos libres:
15
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
1. cr1 (γ) = − 4(5+γ) − √ − 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) −λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
2. cr2 (γ) = − 4(5+γ) − √ + 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) −λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
3. cr3 (γ) = − 4(5+γ) + √ − 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) +λ
4 25+10γ+γ 2
√ q
20+3γ −20γ−13γ 2 −2γ 3 1 (20+3γ)2 20+4γ 60+10γ+γ 2
4. cr4 (γ) = − 4(5+γ) + √ + 2 2(5+γ)2 − 2(5+γ) − 2(5+γ) +λ
4 25+10γ+γ 2
√ 8(20+3γ) (20+3γ)3 (
2(20+3γ) 60+10γ+γ 2 )
!
25+10γ+γ 2 − 5+γ − (5+γ)3 + (5+γ)2
Con λ = √ .
2 −20γ−13γ 2 −2γ 3
1 1
Particularmente cr2 (γ) = y cr4 (γ) = .
cr1 (γ) cr3 (γ)
:
El número de puntos críticos extraños del operador Op(z) es 4, salvo en los casos:
6. Si γ = −16 entonces hay 3 puntos críticos libres, uno de ellos de multiplicidad dos.
La prueba de este lema (elaboración propia) puede ser encontrada en la sección Anexos en la subsección ??.
Para saber qué valores de γ generan una variación en el número de puntos críticos libres, se procede a solucionar
todas las ecuaciones posibles: cri (γ) = crj (γ); con i, j ∈ {1, 2, 3, 4} y i 6= j. Resolviendo todas las ecuaciones posibles,
se obtiene que el operador Op0 se simplifica si γ = 0, γ = −2, γ = −5 2 , γ = −4, γ = −10 o si γ = −16. Algunos de
estos valores también se utilizarán para realizar las pruebas numéricas.
Los planos de parámetros son gráficos de los valores críticos independientes del método que permiten conocer de
forma visual los valores de γ que afectarán a la estabilidad del método.
El plano de parámetros parte como punto inicial un punto crítico independiente y se aplica el método iterativo RS
para todos los valores del parámetro definidos en una malla sobre el plano complejo. Si en un punto, donde γ es un
valor específico, el método converge en menos de 50 iteraciones a alguna de las raíces del polinomio z = 0 o z = ∞
entonces a dicho punto se le asigna el color rojo; en otro caso entonces al punto se le asigna el color negro.
Particularmente para el método RS se obtienen dos planos paramétricos: uno en donde se visualiza el comportamien-
to del método con alguno de los puntos críticos cr1 (γ) o cr2 (γ) y otro con alguo de los puntos críticos cr3 (γ) o cr4 (γ)
esto debido a que cr2 (γ) = cr11(γ) y cr4 (γ) = cr31(γ) por lo que solo hay 2 puntos críticos independientes.
16
0.8
0.6
0.4
0.2
IIm{α}
0
-0.2
-0.4
-0.6
-0.8
-2 -1.8 -1.6 -1.4 -1.2 -1 -0.8 -0.6 -0.4 -0.2 0
IRe{α}
15
10
5
IIm{α}
-5
-10
-15
-50 -40 -30 -20 -10 0
IRe{α}
Los puntos del plano complejo que aparecen en negro en los planos 4 y 5 hacen referencia a los valores del parámetro
γ en los que el método no converge a las raíces del polinomio cuadrático, tomando como estimación inicial alguno
de los puntos críticos libres cri (γ) con i ∈ {1, 2, 3, 4}. Esto quiere decir que existen, por lo menos, tres cuencas de
convergencia, la del 0, la del ∞ y otra (o más) de algún punto fijo extraño atractor o alguna órbita periódica atractora.
17
0.1
0.08
0.06
0.04
0.02
IIm{α} 0
-0.02
-0.04
-0.06
-0.08
-0.1
-1.9 -1.88 -1.86 -1.84 -1.82 -1.8 -1.78 -1.76 -1.74 -1.72 -1.7
IRe{α}
10
5
IIm{α}
-5
-10
-45 -40 -35 -30 -25 -20 -15 -10
IRe{α}
Las regiones que se pueden apreciar en 6 corresponden con los diagramas de estabilidad de los puntos fijos extraños
pf1,2 (γ) que se pueden observar en 2, donde estos puntos son atractores; y las regiones negras en 7 hacen referencia
a los diagramas de estabilidad de los puntos fijos extraños pf0,3,4 (γ) que se pueden apreciar en 1 y 3, donde dichos
puntos son atractores. Las otras regiones en negro corresponden a digramas de estabilidad de órbitas periódicas
atractoras.
18
Los planos dinámicos son otra forma de ampliar la información obtenida con los planos paramétricos. Con los planos
dinámicos se pueden visualizar las cuencas de atracción de puntos fijos o periódicos del método RS con algún valor
del parámetro γ en particular.
Para construir un plano dinámico se define un mallado de puntos en el plano complejo, cada uno de los cuales se
toma como estimación inicial del método iterativo, si partiendo desde un punto específico del mallado el método
iterativo converge a algún cero de la función, entonces se le asignará un determinado color, particularmente de color
naranja si converge a z = 0 y color azul si converge a z = ∞; en caso de que el punto tomado como estimación inicial
no converja a ninguna de las raíces de la función en un máximo de iteraciones establecido, se le asignará el color
negro.
z=-3.9602e-08+i-7.0554e-21
4
1
Im{z}
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=-1.3289e-08+i-4.5299e-08
1
Im{z}
-1
-2
-3
-4
-5
-6 -4 -2 0 2 4
Re{z}
z=-8.7169e-08+i2.9579e-08
4
Im{z}
0
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=0.00012119+i0.00029806
4
1
Im{z}
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=-2.8962e-10+i-1.629e-10
4
Im{z}
0
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
−5
Figura 12: Plano dinámico del método RS para γ = 2
z=1.8857e-07+i-8.5821e-09
4
1
Im{z}
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=1+i0
4
Im{z}
0
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=-2.1307+i-8.8939e-50
4
1
Im{z}
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=-0.21308+i0.72918
4
Im{z}
0
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
z=1.2435+i-0.74415
4
1
Im{z}
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
Re{z}
Todas las gráficas son del método RS sobre un polinomio cuadrático con la Transformación de Möbius.
En la figura 8 se puede observar el plano dinámico del método de Ostrowski aplicado a un polinomio cuadrático con
la Transformación de Möbius.
En las figuras 8-13 se puede observar los planos dinámicos de valores de γ que se encuentran en la zona de estabili-
dad. Esto se puede verificar visualmente ya que en los gráficos el método solo converge a las soluciones, las cuales
en este caso luego de aplicar la Transformación de Möbius son 0 e ∞.
En las figuras 14-17 se puede observar los planos dinámicos de valores de γ que se encuentran fuera de la zona de
estabilidad. Esto se puede verificar visualmente ya que en los gráficos el método converge a otros valores además de
23
Las pruebas numéricas que aparecen en el siguiente apartado han sido calculadas utilizando aritmética de precisión
variable, con 7000 dígitos de mantisa y una tolerancia máxima de 10−300 en Matlab R2015a en una computadora
portátil con procesador Intel(R) Core(T M ) i5 − 7200U CP U @2.50GHz 2.70GHz con una memoria RAM de 8GB.
En este apartado se presentarán resultados obtenidos al utilizar el método familia RS con algunos valores γ específicos
para estimar ceros de las siguientes funciones:
Se comparará el método familia RS con otros métodos iterativos conocidos: el esquema de Newton presentado en (1),
el esquema de Jarratt presentado en (3), el esquema de Chun presentado en (5), el esquema de Ostrowski presentado
en (6), el esquema de Kung y Traub presentado en (7) y el esquema de Zhao presentado en (8).
En las siguientes tablas se mostrarán los resultados obtenidos de funciones anteriormente mencionadas, teniendo en
cuenta que el criterio para que el código se detenga es, en todos los métodos, |xk+1 − xk | + |f (xk+1 )| < 10−300 , así se
puede verificar si la sucesión {xk } converge y su límite es la solución de la ecuación no lineal f (x) = 0.
Para cada una de las funciones se mostrará la estimación inicial utilizada x0 , la raíz ξ la que tiende el proceso, las
estimaciones del error cometido en la última iteración: |xk+1 − xk | y |f (xk+1 )|, el número de iteraciones que ha
necesitado para converger y ρ como el orden de convergencia computacional aproximado ACOC.
24
En el Cuadro 1 y se puede observar que en general, la mayoría de los métodos convergen a la solución de la ecuación;
el número de iteraciones es en general el mismo y el orden de convergencia computacional aproximado coincide con
el orden teórico.
25
En el Cuadro 2 se puede observar que el método RS con γ = −6 converge con una iteración menor en comparación
con los otros parámetros de su misma familia y con igual iteración que el método de Jarratt, Ostrowski y el método
de Kung y Traub.
26
En el Cuadro 3 se puede observar que en general, la mayoría de métodos divergen, esto se debe a que, como todos
son una composición del método de Newton; dicho método tiene problemas en el cálculo de la derivada cerca del
cero de la función arco-tangente. Sin embargo, aquellas funciones que convergen, lo hacen con un número bajo de
iteraciones y su ACOC es mayor al teórico. Particularmente el método RS con γ = −2.5 logra converger con un
número de iteraciones menor al de todos.
27
Algo particular es que en el Cuadro 4, la gran mayoría de métodos convergen lentamente: esto se sabe ya que su
ACOC es igual a 1, en otros casos el método diverge; esto es esperable ya que la función posee ceros con multiplicidad
lo cual genera problemas para los métodos iterativos usuales. Sin embargo, el método RS cuando γ = −16 diverge, lo
que es esperable ya que este valor de γ se encuentra fuera de la zona de estabilidad de RS cuando se hizo el estudio
con el polinomio cuadrático.
28
En la Tabla 5 se puede observar que en general, la mayoría de métodos convergen y a la solución de la ecuación; el
número de iteraciones es en general el mismo y el orden de convergencia computacional aproximado coincide con el
orden teórico.
Existen algunas particularidades en estos resultados, para el método RS cuando γ = −2 y −1.76, el método diverge;
y en el caso en que γ = −6, el método converge y realiza un número menor de iteraciones en comparación con los
demás parámetros de su familia.
En general se ha visto un buen desempeño del método RS cuando γ = −6, por lo que para pruebas numéricas en
general se recomendaría el uso de este valor en comparación con los demás de la familia RS.
29
3 Conclusiones
En el escrito se ha realizado un estudio para diseñar metodos iterativos multipaso que sirvan para resolver ecuaciones
no lineales con el objetivo de hallar un método más efectivo que los convencionales.
Además del orden de convergencia, existen otros factores que nos ayudan a determinar la eficiencia y estabilidad
de un método iterativo. Tanto la eficiencia, como el índice de eficiencia, así como el orden de convergencia pueden
ayudar a entender mejor la efectividad del método, ya que cuanto más grandes sean estos valores, mayor es la
posibilidad de que el método converja con un menor número de iteraciones, haciendo que el tiempo de ejecución sea
menor.
Como un mayor orden de convergencia no implica necesariamente un mejor método, se utilizan también sistemas
dinámicos. El hecho de que un método tenga un orden de convergencia mayor que otro garantizará que converja
en menos iteraciones, sin embargo, existe la posibilidad de que tenga un radio de convergencia pequeño, es decir,
necesitará que el valor inicial que se tome para aproximar la solución sea cercano a la misma para converger, ya que
en otro caso el método divergerá o convergerá a puntos que no son solución de la ecuación. Esto quiere decir que
prácticamente habrá que conocer la solución de la ecuación, pero esto no será de utilidad, ya que es la solución lo
que queremos aproximar. Esto nos indica que existe la necesidad de utilizar los planos dinámicos para saber si un
método es valido o no.
En comparación con la dínamica compleja, la implementación numérica ha dado resultados satisfactorios sobre los
métodos de estudio: algunos de los valores de γ que han sido obtenidos en la zona de convergencia (zona roja) de los
planos de parámetros, han hecho que el método converja, mientras que otros valores de γ en la zona de divergencia
(zona negra) han hecho fallar al método.
Se ha consigo hallar valores de γ para los que el método RS es mejor que los métodos ya conocidos. En particular,
para γ = 6 se ha necesitado un menor número de iteraciones en contraste con otros valores del mismo y métodos
conocidos.
Bibliografía
[1] S. Artidiello, Diseño, implementación y convergencia de métodos iterativos para resolver ecuaciones y sistemas
no lineales utilizando funciones peso. Diss. Ph. D. thesis, Universitat Politècnica de València, 2014.
[2] P. Blanchard, The Dynamics of Newton’s method. Proceedings of Symposia in Applied Mathematics 49 (1994)
139-152.
[3] S. C. Chapra, y R. P. Canale, Métodos numéricos para ingenieros. Quinta Edición, McGraw-Hill, 2017.
[4] C. Chun, Construction of Newton-like iterative methods for solving nonlinear equations, Numerische Mathe-
matik 104 (2006) 297-315.
[5] C. Chun, Some fourth-roder iterative methods for solving nonlinear equation, Applied Mathematica and
Computation 196 (2008) 454-459.
[6] A. Cordero, J.R. Torregrosa, Variants of Newton’s method using fifth-order quadrature formulas, Appl. Math.
Comput. 190 (2007) 686-698.
[7] R. L. Devaney The Mandelbrot Set, the Farey Tree and the Fibonacci sequence. Am. Math. Monthly, 106(4) (1999)
289-302.
[8] J. García, Análisis dinámico y numérico de familias de métodos iterativos para la resolución de ecuaciones no
lineales y su extensión a espacios de Banach, Departamento de Matemática Aplicada, Universitat Politècnica de
València, 2017.
[9] P. Jarratt, Some fourth order multipoint iterative methods for solving equations, Math. Comp. 20 (1966) 434-437.
[10] R. F. King, A family of fourth-order methods for nonlinear equations, SIAM Journal Numerical Analisis 10(5)
(1973) 876-879.
[11] H.T. Kung, J.F. Traub, Optimal order of one-point and multipoint iteration, J. Assoc. Comput. Math. 21 (1974)
643-651.
[12] A.M. Ostrowski, Solution of equations and systems of equations, Academic Press, New York, 1960.
[13] K. Rajagopal, S. T. Kingni, G. F. Kuiate, V. K. Tamba, y V. Pham, Autonomous Jerk Oscillator with Cosine Hyper-
bolic Nonlinearity: Analysis, FPGA Implementation, and Synchronization, Advances in Mathematical Physics,
vol. 2018.
[14] J.F. Traub, Iterative methods for the solution of equations, Prentice-Hall, Englewood Cliffs, New Jersey, 1964.
[15] S. Weerakoon, T.G.I. Fernando, A variant of Newton’s method with accelerated third-order convergence, Appl.
Math. Letters 13 (2000) 87-93.
BIBLIOGRAFÍA 31
[16] L. Zhao, X. Wang, W. Guo, New families of eighth-order methods with high efficiency index for solving nonli-
near equations, Wseas Transactions on Mathematics 11 (2012) 283-293.