Está en la página 1de 103

Capítulo 3

SOLUCIÓN DE ECUACIONES NO-LINEALES, f(x) = 0


FIGURA 3.1 Resultados de algoritmos de
Mètodos Numèricos. Fuente: «O-
MATRIXTM». Copyright© 1994-2006
Harmonic Software Inc.
http://www.omatrix.com/

La Teoría de ecuaciones es una rama de las matemáticas que estudia la naturaleza y la obtención de las raíces de
ecuaciones polinómicas, y de otros tipos, y de los métodos de búsqueda de dichas raíces1. Dichos métodos de búsqueda
de las raíces de una ecuación, generalmente, se denominan Métodos Numéricos2. El análisis de la existencia, naturaleza y
errores inherentes en la obtención de las raíces de una ecuación se llama Análisis Numérico. Ambas disciplinas se han
visto potenciadas con la aplicación de la Teoría de Algoritmos y de los desarrolos en hardware y software, a partir de
mediados del siglo 20. La teoría de ecuaciones tiene aplicaciones en todas las ramas de las matemáticas, de las ciencias y
de la Ingeniería3. Históricamente, se han desarrollado muy diversas categorías de ecuaciones. Un listado de tales
categoría incluye:

• Las ecuaciones polinómicas. Una ecuación polinómica puede representarse mediante la siguiente forma general:

f(x) = a0 + a1x1+ a2x2+ ... anxn = 0 (3.1)

en donde a0, a1, ..., an se llaman los coeficientes, los cuales son números cualesquiera, ya sea dentro del campo de los
enteros (E), los reales (R) o los complejos (C). El grado de una ecuación polinómica es igual al número entero positivo n,
para el cual se cumple que an ≠ 0 . En otros términos, el grado de una ecuación polinómica corresponde al exponente de
mayor valor en la ecuación. Una raíz, o un cero, de una ecuación, es un valor de la x tal que al sustituir dicho valor en la
ecuación se obtiene f(x) = 0 (es decir, 0 = 0). El proceso de resolver una ecuación f(x) = 0, consiste en encontrar todas las
raíces de la función f(x), es decir sus ceros. Una ecuación lineal es una ecuación de primer grado que sólo tiene una raíz.
La única raíz de la ecuación lineal ax + b = 0 es x = -b/a. La ecuación cuadrática, o de segundo grado, ax2 + bx + c = 0,
tiene dos raíces, dadas por la fórmula siguiente:

− b ± b 2 − 4ac (3.2)
x=
2a
Las ecuaciones radicales son aquellas en las que la incógnita, x, está bajo un signo radical, como en el siguiente caso:

x 2 − 4 + 3x = 7 (3.3)

Las ecuaciones racionales son ecuaciones en las que aparecen cocientes de polinomios. Por ejemplo:

0
1
Dayton, Barry H.: «Theory of Equations». Northeastern Illinois University Chicago, IL 60625, USA. October, 2004. www.neiu.edu/˜bhdayton/theq/.
2
Cambridge University Press: «NUMERICAL RECIPES IN C: THE ART OF SCIENTIFIC COMPUTING» (ISBN 0-521-43108-5). Copyright (C) 1988-1992
by . Programs Copyright (C) 1988-1992 by Numerical Recipes Software. Permission is granted for internet users to make one paper copy for their own
personal use. Further reproduction, or any copying of machinereadable files (including this one) to any server computer, is strictly prohibited. To order
Numerical Recipes books or CDROMs, visit website http://www.nr.com.
3 Devlin, Keith: «Why are equations important?», Center for the Study of Language and Information at Stanford University. Copyright ©2005 The
Mathematical Association of America (http://www.maa.org). // Gilbert, John: «Lectures notes on Numerical Methods, Roots of equations», Lancaster
university, 1998. // Rusin, Dave: «The Mathematical Atlas, Diofantine equations», 2000, http://www.math-atlas.org/welcome.html.
_____________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 1
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

(3.4)

Se denominan ecuaciones exponenciales a aquellas ecuaciones en las cuales la incógnita, x, aparece en un exponente,
como en el siguiente ejemplo:

(3.5)

Las ecuaciones trigonométricas contienen funciones trigonoméricas específicas. Por ejemplo:

(3.6)

Ecuaciones como la 3.1 a 3.6 serán el objetivo del presente capìtulo, en lo referente a su formulaciòn y los variados
métodos de solución.

• Ecuaciones Diofantinas. Una ecuación Diofantina es aquella en la cual sólo se permiten soluciones en números
enteros. Este tipo de ecuaciones se conoce, en matemáticas, desde muy antiguo, pero fue trás la obra del
matemético griego Diofanto de Alejandría (siglo III d.c.: 210 - 290) que comenzaron a llamarse Ecuaciones
Diofantinas. La obra de Diofanto fue preservada por los árabes y traducida al latin en el siglo XVI. Desde entonces,
muchos matemáticos han realizado diveros tipos de solución de las ecuaciones Diofantinas4.

Dentro de tal grupo de matemáticos puede citarse a: Bhaskara, Fermat, Lagrange, Euler, Hilbert, Gauss, Thue, Baker,
Peano, Pell, cuyos aportes han jalonado no sólo el campo de las ecuaciones Diofantinas sino también el de otras áreas de
las matemáticas.

Diofanto inició el estudio sistemático de las ecuaciones con coeficientes y soluciones enteras. Fue pionero en resolver
ciertas ecuaciones algebraicas indeterminadas, es decir, ecuaciones en las cuales las variables toman valores en el campo
de los enteros (positivos o negativos) y tienen un infinito pero enumerable conjunto de soluciones, como por ejemplo la
ecuación x+2y=3. Diofanto publicó sus resultados en el libro Aritmetica. De su obra Sobre números poligonales sólo se
conocen algunos fragmentos; el libro Porismata se perdió.

Para las ecuaciones Diofantinas lineales de la forma Ax + By = C el algoritmo de Euclides suministra una respuesta si la
solución existe (enteros x, y). Si D es el máximo común divisor (MCD) de A,B, y D es divisor de C, entonces existe una
solución. Tómese, por ejemplo, la ecuación 6x+15y = 12. El MCD de 6 y 15 es 3, y 12 es divisible exactamente por 3. Una
solución existe: x = -3, y =2 ( la cual da -18 + 30 = 12).

Diofanto conoció y empleó los numeros negativos y a él se atribuye la norma empírica de menos por menos da más, y
menos por más da menos, aplicada en Aritmética y en Álgebra modernas. Sin embargo la notación algebráica de Diofanto
fue sustituida más tarde, en el siglo XVII, por la que propuso el matemático francés Francois Viete (1540 - 1603), que es la
que se sigue actualmente. Sobre las ecuaciones Diofantinas de orden 2 y superiores se han realizado prolijos estudios,
algunos de los cuales son5:

• Solución de la ecuación cuadrática diofantina Ax2 + Bxy + Cy2 + Dx + Ey + F = 0, para la cual Lagrange en 1769
encontró un algoritmo completo.
• Ecuación de Pell. Es un caso especial de la ecuación cuadrática diofantina de la forma x2 - Dy2 = N, donde D es
un entero positivo que no es un cuadrado, N es un entero diferente de cero. Para el caso general de la ecuación
de Pell (cualquier ) hay por lo menos cinco buenos métodos de solución:: (1) - Búsqueda de «Fuerza bruta», que
0
4 Weisstein , Eric W.: «Diophantine Equation--2nd Powers», From MathWorld--A Wolfram Web Resource.
http://mathworld.wolfram.com/DiophantineEquation2ndPowers.html . // Lahanas, Michael: «Diophantus of Alexandria», 2005, http://mlahanas.de/.
5
Robertson, John P: 4«Solving the equation ax2 + bxy + cy2 + dx + ey + f = 0». May 8, 2003. Véase:
http://www.maths.nott.ac.uk/personal/jec/papers/index.html. Ver también: http://www.math.niu.edu/˜rusin/papers/research-math/legendre/. // Thien Do:
«Developing A General 2nd Degree Diophantine Equation x2 + p = 2n». Westmoore High School Science Department Oklahoma City, Oklahoma (USA).
http://www.biochem.okstate.edu/OAS/OJAS/thiendo.htm.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 2
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
es la base de los otros métodos; (2) - El algoritmo de Lagrange-Matthews-Mollin (LMM); (3) - Sistema de
reducciones de Lagrange; (4) - El método cíclico; (5) - El uso de de formas cuadráticas binarias.
• Dificultades en la elaboración de un algoritmo para resolver ecuaciones Diofantinas .
• Un ejercicio consistente en analizar una ecuación Diofantina desde diversas perspectivas: x2 + 7 = 8 pn, con p
primo.
• ¿Qué es el Método del descenso Infinito? (propuesto por Lagrange).
• El problema multigrados Tarry-Escott : dado un entero positivo n, hallar dos conjuntos de enteros a1, ..., ar y b1,
..., br, con r tan pequeño como sea posible, tal que suma (aj)k = suma (bj)k, para k = 1, 2, ..., n. Conjetura: r = n+1
para todo n.
• El problema multigrados (hallar conjuntos de enteros cuyas sumas sean iguales; sumas de cuadrados, sumas de
cubos,...).
• Nueva solución del problema Prouhet-Tarry-Escott para k=11; otras restricciones.
• Sugerido por el ordenamiento de números en un torneo de baloncesto: resolver ab = c + d, cd = a + b en
enteros.
• El rompecabeza Times : Hallar soluciones racionales para x3+y3 = 6. (una curva elíptica)
• Cuestiones relativas a una conjetura de Erdös: que 4/n = 1/x + 1/y + 1/z tiene solución para todo número natural
n.
• Soluciones para a6 + 5(a4)b + 6(a2)(b2) + b3 = 1 en enteros.
• Generar todas (pequeñas) ternas Pitagóricas
• Triángulos enteros con un ángulo de 120 grados
• Teorema de Runges: límite en el número de soluciones para ciertas ecuaciones Diofantinas en dos variables
• Un par de ecuaciones se convierten en una sola ecuación en enteros Gaussianos
• Ecuación de Fermat .
• Resolver xn + d yn = c: Ecuación de Thue6.
• Ecuaciones Diofantinas Exponenciales (e.g. 3x + 5y = yz+1 ).
• Completa parametrización de la superficie cúbica de Fermat: w3 + x3 + y3 + z3 = 0. Este es un famoso problema
Diofantino.

• Ecuaciones funcionales. Son aquellas en las cuales una función debe satisfacer ciertas relaciones entre sus valores
en todos los puntos. Por ejemplo, se puede estar interesado en encontrar las funciones que satisfacen
f(x*y)=f(x)+f(y) e indagar cuándo la función logaritmo f(x)=log(x) es la única solución (en realidad, no lo es). En
algunos casos, la naturaleza de la respuesta es diferente cuando se exige que la ecuación funcional debe cumplirse
para todos los valores reales del x, o para todos los valores complejos de x, o sólo para los valores de x en ciertos
dominios. Un caso especial es el de las ecuaciones diferenciales, es decir ecuaciones que comparan f(x) - f(x-1), por
ejemplo, con algunas expresiones que involucran x y f(x). En alguna medida dichas ecuaciones son analogías
discretas de ecuaciones diferenciales, por lo cual el análisis es similar para determinar la existencia y unicidad de las
soluciones, el comporatmiento global, y la eficiencia de los algoritmos y la estabilidad computacional.

• Ecuaciones Diferenciales. Una ecuación diferencial es una ecuación que involucra una función desconocida y una o
más de sus derivadas. Las ecuaciones diferenciales son ampliamente empleadas para modelar situaciones o
fenómenos físicos, y también en modelos utilizados en matemáticas7. La ecuación se denomina ecuación diferencial
ordinaria (EDO) si la función desconocida está relacionada con una única variable independiente. Algunos ejemplos
comunes de EDO son los siguientes8:

(3.7) ecuación del crecimiento

(3.8) ecuación del péndulo

(3.9) ecuación de van der Pol

0
6
Heuberger, Clemens: «Parametrized Thue Equations, A Survey». Institut fr Mathematik B. Technische Universitt Graz. Austria. January 29, 2005.
7
Mykola SHKIL: «On Asymptotic Methods in the Theory of Dierential Equations of Mathematical Physics». Nonlinear Mathematical Physics 1996, V.3, N
1-2, 40-50. Drahomanov Pedagogical University, Ukrania.
8
Drakos, Nikos: «Ordinary Differential Equations», 1995, University of Leeds, Computational Science Education Project
,http://csep1.phy.ornl.gov/ode/node1.html
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 3
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

(3.10) ecuación de un oscilador LCR

(3.11) ecuación de Riccati

(3.12) ecuación de d’Alembert para


un resorte vibrante

Historicamente, las ecuaciones diferenciales se han originado en áreas tan diversas como la Química, la Física, y la
Ingeniería9. Más recientemente también han surgido en los modelos que se emplean en Medicina, Biología, Antropología,
Aeronáutica, y otras disciplinas. Tres etapas inherentes al uso de las ecuaciones diferenciales son: (1) - el modelar una
situación específica o un problema particular por medio de una ecuación diferencial; (2) - la determinación de los valores
iniciales; (3) - los métodos de solución numérica. Ecuaciones del tipo 3.7 a 3.12 se estudiarán en el capítulo 11.

3.1 Historia, Función, Conceptos y Métodos para hallar raìces de f(x) = 0

Hasta el siglo XVII, la teoría de ecuaciones estuvo limitada pues los matemáticos no fueron capaces de
aceptar que los números negativos y complejos podían ser raíces de ecuaciones polinómicas. Sólo los
antiguos matemáticos indios, como Brahmagupta, conocían las raíces negativas, pero fuera de China e India
no se trabajaba con coeficientes negativos en los polinomios.

En vez de un solo tipo de ecuación de segundo grado, el mencionado más arriba, había seis tipos distintos, según cuáles
fueran los coeficientes negativos. Un método de resolución de ecuaciones que puede encontrarse en antiguos libros
egipcios y chinos, es el de la falsa posición.

Por ejemplo, para resolver la ecuación x + x/7 = 19, primero se toma una aproximación de la x que simplifique el cálculo
del primer término, como x = 7. Al sustituir la x por 7 en esta ecuación, el resultado es 8 en vez de 19. Por tanto, se
necesita un factor corrector que se obtiene dividiendo 19 por 8. Este factor, 2-, se multiplica por el primer valor, 7, con lo
que se encuentra que la raíz de la ecuación original es 16.

Los egipcios utilizaban el método de la falsa posición para encontrar una raíz en ecuaciones de segundo grado sencillas.
Para ecuaciones cuadráticas con un término en x, como x2- 5x = 6, las primeras soluciones no se encuentran hasta en los
libros de matemáticas babilonios del 2000 a.C.

Aunque los babilonios no conocían las raíces negativas ni las complejas, su método de búsqueda de las raíces positivas
reales es el mismo que se utiliza en la actualidad.

Otro importante descubrimiento del mundo antiguo, que se puede encontrar en los escritos del matemático y científico
griego Herón de Alejandría en el siglo I, es un método de aproximación de la raíz positiva de ecuaciones como x2 = 2. En
este método, primero se toma una aproximación como 3/2 para calcular una nueva aproximación utilizando la regla [3/2 +
2/(3/2)]/2, o 17/12. Si se repite este procedimiento se obtiene 577/408, que es una buena aproximación de la raíz de 2.
Estas aproximaciones y cálculos repetidos se denominan iteraciones. Un método iterativo muy útil, que se encuentra en
los trabajos de los matemáticos chinos Liu Hui (en el siglo III) y Chu Shih-Chieh (en el siglo XIII), fue redescubierto en
Europa hacia 1800 por el matemático inglés W. G. Horner. También había sido usado por el matemático árabe Yamschid
al-Kaschi. Entre otros matemáticos árabes que hicieron importantes contribuciones a la teoría de ecuaciones se incluyen

0
9
S. Vandewalle & J. Van lent: «Fast and Robust Solvers for Partial Differential Equations. Numerical Methods for Delay Partial Differential Equations.
Solution of a time-dependent partial differential equation», 2001, Katholieke Universiteit Leuven, http://www.cs.kuleuven.ac.be. // Osborne, Martin J.:
«Math Tutorial on Differentials Equations», University of Toronto, Canada, 1997-2003 , http://www.chass.utoronto.ca/~osborne/MathTutorial/DEE.HTM.
// «S.O.S. Math - Differential Equations», 1999-2005, MathMedics, LLC, El Paso, Texas, USA, http://www.sosmath.com/diffeq/diffeq.html. // G.
Longoni and A. Haghighat: «APPLICATION OF KRYLOV SUBSPACE METHODS FOR THE SOLUTION OF THE SPL EQUATIONS». 18’th
International Conference on Transport Theory (18 ICTT) Rio de Janeiro, RJ, Brazil, July 20 - 25, 2003. University of Florida 202 Nuclear Science
Building Gainesville, FL 32611 USA.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 4
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
Al-Jwarizmi y Omar Jayyam, que desarrollaron la primera teoría de las ecuaciones cúbicas. Sin embargo, esta teoría
estaba definida en términos geométricos y era, por tanto, incompleta.

En 1545 el matemático italiano Gerolamo Cardano publicó una solución algebraica para las ecuaciones de tercer grado en
función de sus coeficientes y Niccolò Tartaglia la desarrolló. Poco después, Ludovico Ferrari, alumno de Cardano,
encontró una solución algebraica para las ecuaciones de cuarto grado.

En 1629 el matemático francés Albert Girard aceptó raíces de ecuaciones tanto negativas como complejas y fue, por
tanto, capaz de finalizar el aún incompleto estudio que François Viète había realizado sobre la relación entre las raíces de
una ecuación algebraica y sus coeficientes. Viète había descubierto que si a y b son las raíces de x2 - px + q = 0, entonces
p = (a + b) y q = a·b. Generalizando, Viète demostró que si el coeficiente del término de mayor grado de la ecuación p(x) =
0 es la unidad, entonces el coeficiente del segundo término de mayor grado cambiado de signo es igual a la suma de
todas las raíces; el coeficiente del tercer término es igual a la suma de todos los productos formados al multiplicar las
raíces de dos en dos; el coeficiente del cuarto término cambiado de signo es igual a la suma de todos los productos que
resultan de multiplicar las raíces de tres en tres. Si el grado de la ecuación es par, el coeficiente del último término es igual
al producto de todas las raíces; si es impar, es el producto de todas las raíces cambiado de signo. Viète también aportó
importantes métodos numéricos para encontrar aproximaciones a las raíces de una ecuación.

En 1635 el matemático y filósofo francés René Descartes publicó un libro sobre la teoría de ecuaciones, incluyendo su
regla de los signos para saber el número de raíces positivas y negativas de una ecuación. Unas cuantas décadas más
tarde, el físico y matemático inglés Isaac Newton descubrió un método iterativo para encontrar las raíces de ecuaciones.
Hoy se denomina método Newton-Raphson, y el método iterativo de Herón mencionado más arriba es un caso particular
de éste.

A finales del siglo XVIII, el matemático alemán Carl Friedrich Gauss demostró que cualquier ecuación polinómica tiene al
menos una raíz. Sin embargo, quedaba aún por saber si era posible expresar esta raíz con una fórmula algebraica
utilizando los coeficientes de la ecuación, como se había encontrado para las de segundo, tercer y cuarto grado.

El astrónomo y matemático francés Joseph Lagrange dio un paso importante para resolver esta cuestión con su método de
permutación de las raíces de una ecuación para el estudio de sus soluciones. Este fructífero concepto, junto con los
trabajos del matemático italiano Paolo Ruffini, del noruego Niels Abel y del francés Évariste Galois, condujo a una teoría
completa de los polinomios. Entre otras cosas, esta teoría demuestra que un polinomio sólo se puede resolver utilizando
una fórmula algebraica general si es de cuarto grado o menor. El trabajo de Galois también sirvió para resolver dos
famosos problemas que se remontaban a los antiguos griegos: Galois demostró que es imposible dividir algunos ángulos
en tres partes iguales utilizando sólo el compás y la regla recta, y que es imposible construir un cubo cuyo volumen sea
dos veces el de un cubo dado.

FUNCIÓN
Función10, en matemáticas, término usado para indicar la relación o correspondencia entre dos o más cantidades11. El
término función fue usado por primera vez en 1637 por el matemático francés René Descartes para designar una potencia
xn de la variable x.
En 1694 el matemático alemán Gottfried Wilhelm Leibniz11 utilizó el término para referirse a varios aspectos de una curva,
como su pendiente. Hasta recientemente, su uso más generalizado ha sido el definido en 1829 por el matemático alemán
Peter Dirichlet. Dirichlet entendió la función como una variable y, llamada variable dependiente, cuyos valores son fijados o
determinados de una forma definida según los valores que se asignen a la variable independiente x, o a varias variables
independientes x1, x2, ..., xk. Los valores, tanto de la variable dependiente, como de las variables independientes, son
números reales o complejos.

La expresión y = f(x), leída “y es función de x” indica la interdependencia entre las variables x e y; f(x) se daba
normalmente en forma explícita, como f(x) = x2 - 3x + 5, o mediante una regla expresada en palabras, como f(x) es el
primer entero mayor que x para todos aquellos x que sean reales (ver número). Si a es un número, entonces f(a) es el
valor de la función para el valor x = a. Así, en el primer ejemplo, f(3) = 32 - 3 · 3 + 5 = 5, f(-4) = (-4)2 - 3(-4) + 5 = 33; en el
0
10
Kleiner, Israel: «Evolution of the Function Concept: A Brief Survey», The College Mathematics Journal, September 1989, Volume 20, Number 4, pp.
282–300.
11
Grant, Hardy: «Leibniz and the Spell of the Continuous», The College Mathematics Journal, September 1994, Volume 25, Number 4, pp. 291-294.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 5
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
segundo ejemplo, f(3) = f(3,1) = f(p) = 4. La aparición de la teoría de conjuntos primero extendió, y luego alteró
sustancialmente, el concepto de función.

El concepto de función en las matemáticas de nuestros días queda ilustrado a continuación. Sean X e Y dos conjuntos con
elementos cualesquiera; la variable x representa un elemento del conjunto X, y la variable y representa un elemento del
conjunto Y. Los elementos de ambos conjuntos pueden ser o no números, y los elementos de X no tienen que ser
necesariamente del mismo tipo que los de Y.

Por ejemplo, X puede ser el conjunto de los doce signos del zodíaco e Y el conjunto de los enteros positivos. Sea P el
conjunto de todos los posibles pares ordenados (x, y) y sea F un subconjunto de P con la propiedad de que si (x1, y1) y
(x2, y2) son dos elementos de F, entonces si y1 ? y2 implica que x1 ? x2 esto es, F contiene no más de un par ordenado
con una x dada como primer elemento. (Si x1 ? x2, sin embargo, puede ocurrir que y1 = y2 ). Una función queda ahora
definida como el conjunto F de pares ordenados, con la condición seńalada, y se escribe F: X ? Y. El conjunto X1 de las x
que aparecen como primer elemento de los pares ordenados de F se denomina dominio de la función F; el conjunto Y1 de
las y que aparecen como segundo elemento de los pares ordenados se denomina rango de la función F. De esta manera,
{(Piscis, 7), (Sagitario, 4), (Capricornio, 4)} es una función en la que X = conjunto de los doce signos del zodíaco e Y =
conjunto de los enteros positivos; el dominio son los tres signos mencionados y el rango son 4 y 7.

El concepto moderno de función está relacionado con la idea de Dirichlet. Dirichlet consideró que y = x2 - 3x + 5 era una
función; hoy en día, se considera que y = x2 - 3x + 5 es la relación que determina la y correspondiente a una x dada para
un par ordenado de la función ; así, la relación anterior determina que (3, 5), (-4, 33) son dos de los infinitos elementos de
la función. Aunque y = f(x) se usa hoy todavía, es más correcto si se lee “y está funcionalmente relacionado con x”. Las
funciones se denominan también transformaciones o aplicaciones en muchas ramas de las matemáticas. Si el conjunto Y1
es un subconjunto propio de Y (esto es, al menos una y pertenece a Y pero no a Y1), entonces F es una función,
transformación o aplicación del dominio X1 en Y; si Y1 = Y, F es una función, transformación o aplicación de X1 sobre Y.

CONCEPTOS BÁSICOS SOBRE LAS RAÍCES DE FUNCIONES


Al resolver problemas en ciencias e ingenierías, cuyo caso típico es hallar las raíces de una función, generalmente se
sigue una metodología cuyas etapas básicas se pueden sentitizar en cuatro, como se ilustra en la figura 3.1.1.

Cuando el problema es sencillo, o de baja complejidad, es suficiente que una persona con su experiencia y conocimientos
analice y describa el problema y lo resuelva, utilizando herramientas sencillas (una calculadora podría bastar). Pero
cuando la complejidad del problema aumenta se hace necesario la intervención de muchas otras personas, implicándose
un trabajo interdisciplinario y el empleo de enfoques y herramientas más sofisticadas (computadores, redes, software
especializado). En cualquier caso, es muy conveniente tener presente la metodología básica de resolución de problemas
en ciencias e ingenierías, Las cuatro etapas involucradas son las siguientes (véase la figura 3.1.1):

• Identificación y descripción o formulación del problema, que incluye las simplificaciones e hipótesis que la situación
amerita. El juicio experto, la experiencia y la experimentación ayudan en gran medida. También el conocimiento de la
solución de problemas similares.

• Desarrollar un Modelo Matemático del problema de tal manera que pueda ser resuelto de una manera numérica.
Normalmente, implica el uso del Álgebra, del Cálculo y de otras herramientas matemáticas que permitan modelar esa
parte de la realidad bajo estudio.

• Solucionar el Modelo Matemático planteado. Esto implica emplear métodos ecuacionales y algorítmicos para obtener
la solución del modelo matemático. Las herramientas actuales implican el uso de computadores, redes de
computadores y software especializado.

• Interpretación y análisis de los resultados obtenidos. Lo cual requiere experiencia, juicio experto enfocados en la
situación que generó el problema. Se presenta aquí un proceso de realimentación que puede llevar a repetir las
actividades metodológicas desde el paso 1.

__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 6
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

La obtención de las raíces de una función, f(x)=0 (3.13), es uno de los problemas más antiguo de las matemáticas y se le
encuentra con frecuencia tanto en la computación moderna como en las aplicaciones prácticas de ingeniería12.

FIGURA 3.1.1 Metodología básica para la solución de problemas en ciencias e ingenierías.

ALGUNOS EJEMPLOS TÍPICOS


Antes de estudiar los métodos de solución de ecuaciones de la forma (3.13) es conveniente dar un vistazo a algunos
casos prácticos donde se presenta la solución de tal tipo de ecuaciones, lo que implica hallar una o varias raíces de la
función f(x).

ESFERA SUMERGIDA EN UN LÍQUIDO


Considérese el problema físico que implica una esfera de radio r sumergida hasta una altura d en agua (vése la figura
3.1..2). Supóngase que la esfera está construída en madera, de una variedad de pino, cuya densidad es rho = 0.638 y que
el valor numérico del radio es r = 10 cms. ¿Hasta qué altura d alcanza el líquido cuando la esfera se sumerge en agua?13

FIGURA 3.1.2 La porción de esfera de radio r que es sumergida hasta


una altura d.

0
12
Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-
Hill, 2002.
13
Mathews, John H.: «Numerical Mthods for Mathematics, Science and Engineering», second edition, Prentice Hall, Englewood Cliffs, New Jersey
(USA),1992. ISBN 0-13-624990-6. Cap. 2, pp. 43-112.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 7
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

La masa Ma de agua desplazada cuando la esfera se sumerge en agua y ésta alcanza la altura d está dada por la
siguiente ecuación12:

(3.14)

Y la masa de la esfera, Me, es: (3.15)

Aplicando la Ley de Arquimedes14, segun la cual Ma = Me («volumen del líquido desplazado es igual al volumen del
cuerpo sumergido»), se genera la ecuación 3.16 que debe ser resuelta:

(3.16)

Reemplazando los valores r = 10, rho = 0.638, se obtiene la ecuación 3.17 cuya gráfica se esquematiza en la figura 3.1.3 .

(3.17)

FIGURA 3.1.3 Esquema de la función cúbica, ecuación 3.17,


para el problema de la figura 3.1.2.

De esta gráfica se puede apreciar que una raíz de la función f(d)


= 2552 - 30d2 + d3 está entre el valor d = 10 yel valor d = 15.

Existen varios métodos que permiten obtener las raíces de la


ecuación 3.17. Por ejemplo, por el método de bisección (véase
la 3.2) es fácil hallar las tres raíces de la ecuación 3.17: d1 = -
8.17607212, d2 = 11.86150151, y d3 = 26.31457061.

La primera raíz, d1, no es una solución factible para el problema planteado, pues la distancia ha de ser postiva; la tercera
raíz, d3, es mayor que el diámetro de la esfera (2r = 20); la segunda raíz, d2, está dentro del rango válido [0.0, 20.0] y es
una solución correcta para el problema. Además, es una magnitud razonable porque algo más que la mitad de la esfera
debe estar sumergida.

UNA ESCALERA EN UNA MINA


Considérese que en una mina15 hay dos túneles quese intersectan en un ángulo de 123o, como se muestra en la figura
3.1.4.

El túnel horizontal tiene un ancho de 7 pies, mientras que el tunel descendente tiene una anchura de 9 pies. ¿Cuál es el
máximo largo de la escalera que puede pasarse por la intersección?. Se asume que el grosor de la escalera es
despreciable con respecto a las dimensiones de los túneles.

La solución obtenida debe considerar el caso general en el cual el ángulo A es variable. Sea C el ángulo entre la escalera
y el muro cuando está en la posición crítica. Para hacer una exposición general de este problema, sean las variables C, A,
B, W1, W2.

0
14
Euclides de Alejandría, en «Gacetilla Matemática» (http://www.arrakis.es/~mcj/euclides.htm). La página de David E. Joyce, «Mathematics and
Computer Science», Clark University, presenta en Inglés «Los Elementos» de Euclides (http://aleph0.clarku.edu/~djoyce/home.html). También en
«Gacetilla Matemática» se ilustra los aportes de Herón de Alejandría (http://www.arrakis.es/~mcj/heron.htm) y Arquimedes.
15
Gerald, Curtis F. & Whetley, Patrick O.: «Applied Numerical Analysis», fourth edition, Addison-Wesley, 1990, ISBN 0-201-11583-2, Cap. 1, pp. 1-85.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 8
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.1.4 Esquema de dos tùneles que se


cruzan en una mina.

FUNCIÓN EN FORMA IMPLÍCITA


Aunque pueden surgir en cualquie otra área, los problemas de hallar las raíces de una ecuación normalmente surgen en
las áreas del diseño en ingeniería16. En la tabla 3.1.1 se resumen algunos de los principios básicos utilizados comúnmente
en el diseño ingenieril.

Como ya se ha visto en secciones anteriores, las ecuaciones matemáticas que surgen, como expresión de los modelos
derivados de la aplicación de los principios mostrados en la tabla 3.1.1, se emplean para obtener valores de la variable
dependiente como una función de la variable independiente, de funciones forzomotrices, y de los parámetros. En cada
modelo que se estipule, la variable dependiente refleja el estado o desempeño del sistema modelado, en tanto que los
parámetros representan las propiedades o composición del sistema bajo análisis.

Sin embargo, es necesario enfatizar que toda ecuación -por muy refinada que sea- sólo es una representación aproximada
de un fenómeno, de un sistema, o de una situación problemática bajo estudio. Esto constituye la esencia del enfoque
ecuacional (paradigma) entronizado en la ciencia de occidente por el aporte griego (véase, por ejemplo los aportes de
Euclides y Herón de Alejandría13). Adicionalmente, es preciso aclarar que el enfoque ecuacional sólo suministra una visión
estática, aunque muy útil, en el análisis de un problema.

TABLA 3.1.1 Algunos principos fundamentales utilizados en el diseño en áreas de ingeniería.


Principio básico Variable dependiente Variable independiente Parámetros
Propiedades térmicas del material,
Balance calorífico Temperatura Tiempo y posición constantes propias, geometría del
sistema en consideración
Resistencia del material, propiedades
Concentración o cantidad de
Balance de masa Tiempo y posición estructurales, constantes propias,
masa
geometría del sistema.
Comportamiento químico del material,
coeficientes de la transferencia de
Balance de fuerza Magnitud y dirección de fuerzas Tiempo y posición
masa, constantes propias, geometría
del sistema.
Cambios en los estados de la Propiedades térmicas del material,
Balance de energía energía potencial y cinética del Tiempo y posición constantes propias, geometría del
sistema sistema.
Masa del material, constantes propias,
Leyes newtonianas del Aceleración, velocidad, geometría del sistema, parámetros
Tiempo y posición
movimiento distancia (ubicación) disipativos como la fricción o la
resistencia.
Leyes de Kirchhof Corrientes y voltajes en Tiempo Propiedades eléctricas del sistema tales

0
16
Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-
Hill, 2002, pp. 105 – 111.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 9
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
circuitos eléctricos como resistencia, capacitancia,
inductancia; constantes propias;
geometría del sistema.

Un ejemplo del enfoque ecuacional es la ecuación, obtenida aplicando la segunda ley de Newton, para calcular la
velocidad de un cuerpo que cae, considerando la resistencia del aire:

(3.18)

donde v es la velocidad, como variable dependiente; t es el tiempo como variable independiente; la constante
gravitacional es g (como función forzomotriz); y los parámetros son el coeficiente de resistencia del aire,c, y la masa, m.

Si los parámetros son conocidos se puede utilizar la ecuación 3.18 para obtener la velocidad de caída del cuerpo en
función del tiempo, lo cual puede obtenerse en forma directa puesto que la variable v está expresada en forma explícita
como una función del tiempo, t.

Supóngase, ahora, que lo que interesa determinar (el problema bajo análisis) es el valor del coeficiente de la resistencia
del aire, c, para un cuerpo de masa m, que cae a una cierta velocidad v, en un cierto tiempo t. No es posible, de la
ecuación 3.18, organizar en un sólo lado el parámetro c para que sea expresado explícitamente en función de las otras
variables y parámetros.

Se está, entonces, frente a un problema típico del diseño en ingeniería que implica especificar las propiedades o
comportamiento de un sistema (modelado por sus parámetros) para determinar que el desempeño del sistema es de cierta
manera (representada por sus variables). Es usual decir que tales tipo de problemas requieren la determinación de
parámetros implícitos. La solución de este tipo de problemas se obtiene aplicando métodos numéricos para hallar las
raíces de funciones. En el caso de la caída de un cuerpo, la ecuación 3.18 se puede reexpresar así:

(3.19)

en donde se dice que el parámetro c está en forma implícita. Aquí, el valor, o valores de c, que hacen a f(c) = 0,
constituyen la raíz o las raíces de la función. Dichos valores, también resolverán el problema de diseño especificado.

En la tabla 3.1.2 se resumen otros ejemplos de funciones ímplicitas, que pueden reescribirse como del tipo f(x) = 0, y a
las cuales podríase aplicar los métodos descritos en las otras secciones de este capítulo.

TABLA 3.1.2 Otros ejemplos de funciones implícitas.


Función implícita Descripción Área donde surge

La rotación de un cuerpo sujeto a un mecanismo


amortiguador. Siendo D el desplazamiento, x el
Diseño mecánico
ángulo de rotación que produce dicho
(3.20) desplazamiento17.

Ecuación de estado de los gases. Ecuación de


Beattie-Bridgeman. P es la presión; V es el volumen
molar; T es la temperatura; beta, gamma y delta son Ingeniería
parámetros dependientes de la temperatura y Química.
(3.21) característicos del gas; R es la constante universal de
los gases, en unidades compatibles18.

0
17
Beer, Ferdinand P. & Johnston Jr., E. Russel: «Vector Mechanics for Engineers: Statics & Dynamics», McGraw-Hill, 1962.
18
Carnahan, Brice, et al: «Applied Numerical Methods», John Wiley and Sons, 1969, pp. 173-178.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 10
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
Ecuación para el crecimiento de un cristal individual a
partir del vapor, cuando el vapor del yodo y el helio
Ingeniería
(3.22) circulan sobre el germanio17. Es una ecuación
Química.
polinómica en Z, donde Z tiene relaciones con la
presión, la temperatura y el volumen.
Ecuación de van der Waals, para los gases ideales y
Ingeniería
no-ideales19. Donde v= V/n es el volumen molar, y a,
Química /
b son constantes empíricas que dependen de un gas
(3.23) Bioingeniería.
en particular.
Ecuación de continuidad para el flujo de agua en un
Ingeniería Civil /
canal abierto20. Donde Q es el flujo, H la altura del
Ingeniería
(3.24) canal; n, s, B son parámetros característicos del
Ambiental.
canal.
Ecuación que relaciona la variación de una carga
eléctrica con el tiempo, en un capacitor21. Donde q es
la carga, t es el tiempo, L es la inductancia, R e sla Ingeniería
resistencia eléctrica, C es la capacitancia, q0 es la eléctrica.
carga en el tiempo t = 0.
(3.25)

TIPOS Y EXISTENCIA DE LAS RAÍCES; CONVERGENCIA


En general, las raíces de una ecuación pueden ser reales o complejas. Sin embargo, esto depende dle tipo de función y
del área de interés donde se modela el sistema. También, es posible encontrar funciones con una única raíz, ó con
múltiples raíces. Excepto en el caso lineal, el proceso de hallar las raíces de una función siempre se basa en un método
iterativo, en el cual se empieza con un valor inicial, que es un valor aproximado de la solución, y el algoritmo mejora -en
cada ciclo- el valor de la solución inicial hasta que un cierto criterio de convergencia se satisfaga. De ahí, que se haga
necesario un análisis previo de la función, para lograr tener una clara idea de su comportamiento, y en especial de sus
singularidades. Es tradicional diferenciar dos áreas básicas de problemas en las cuales se aplican los métodos para hallar
raíces de funciones:

• La determinación de las raíces reales de funciones algebraicas y trascendentales. Las técnicas aquí se basan en el
conocimiento de un valor inicial aproximado de la raíz.

• Determinar todas las raíces reales y complejas de polinomios. Los métodos diseñados para esta parte hallan
sistemáticamente todas las raíces, en lugar de determinar una única raíz, en un cierto intervalo.

Cuando sea posible, es muy conveniente tener una representación gráfica de cómo la función se comporta en un cierto
intervalo. Con la capacidad de los computadores personales actuales esto casi siempre es fácil de lograr. Por ejemplo, la
figura 3.1.5(a) ilustra el caso en el cual hay una sola raíz en el intervalo [a,b], es decir un valor de x para el cual f(x)= 0.

(a) (c)
(b)
FIGURA 3.1.5 Gràficas esquemàticas de funciones f(x).

0
19
Chapra, Steven C. & Canale, Raymond P.: «Numerical Methods for Engineers, With Software and Programming applications", fourth edition, McGraw-
Hill, 2002, pp. 187 – 189.
20
Ibìd., pp. 190-191.
21
Ibìd., pp. 194 – 196.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 11
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

La figura 3.1.5(b) corresponde al caso en el cual se presentan varias raíces dentro del intervalo. La figura 3.1.5(c) es para
el caso de las raíces complejas, es decir no hay raíces en el campo de los reales.

En ocasiones, las funciones presentan comportamientos atípicos, singularidades, o discontinuidades dentro de un


intervalo. Por ejemplo, la figura 3.1.6 ilustra algunos de estos casos

FIGURA 3.1.6 Comportamiento anómalo de ciertas


funciones. (a) - f(x) es cuasi-infinito para c en las
cercanías de x. (b) - Esta función sólo cambia de signo en
el intervalo pi ± 10-667. (c) - Múltiples raíces en el
intervalo, sin cambio de signo, o se presentan raíces
complejas. (d) - Otro caso de raíces múltiples para f(x).
(e) - Hay una singularidad, no existe raíz22. [2], [3]

Ello implica que hallar las raíces de una función es un proceso de mucho cuidado en el cual es preciso analizar
previamente el comportamiento general de la función. Algunas consideraciones adicionales son las siguientes:

• Siempre que la función lo permita, trazar una gráfica de ella. Las técnicas computacionales ayudan al respecto.

• Aplicar el Teorema de Bolzano23 el cual establece que si una función, f(x), en un intervalo [a,b] cumple que f(a)*f(b)
< 0, es decir cambia de signo en el intervalo, entonces tiene al menos una raíz dentro de dicho intervalo.

• Al aplicar un método para hallar la raíz de f(x), en el intervalo [a,b], comprobar que el algoritmo no tome valores fuera
del intervalo. Tal es el caso de los métodos de Newton y el de la secante que eventualmente pueden calcular valores
fuera del intervalo establecido24.
0
22
Press, William H. et al: «Numerical Recipes in Fortran 77: The Art of Scientific Computation», Volume 1, Cambridge University Press, 1992. (libro
online en:http://www.library.cornell.edu/nr/nr_index.cgi#thebooks). // Press, William H. et al: «Numerical Recipes in Fortran 90: The Art of Scientific
Computation», Volume 2, Cambridge University Press, 1992. (libro online en:http://www.library.cornell.edu/nr/nr_index.cgi#thebooks).
23
University of Austria: «The Bernard Bolzano Pages Home» , July 12, 2000 (http://www.sbg.ac.at/fph/bolzano/bolzano.htm)
24
McCracken, D.D. & Dorn, W.S.: »Métodos Numéricos y Programación Fortran», Limusa-Wiley, México, 1968.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 12
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

• Las raíces múltiples, o las raíces muy cercanas representan un gran escollo para casi todos los métodos,
especialmente si la multiplicidad es en número par. En este caso, no es fácil ni de rápida obtención el cambio de
signo de la función, por lo cual es posible que el algoritmo implementado desborde los límites del intervalo
seleccionado.

• El algoritmo de Brent es muy eficiente para obtener un intervalo de una función no-lineal en una incógnita, cuando no
es fácil obtener su derivada. Igualmente bueno es el método de Ridders/, además de ser más compacto25.

• Cuando es fácil obtener la derivada de la función, el método de Newton es eficiente si se combina con controles
específicos para impedir que el algoritmo tome valores fuera del intervalo26.

• Obtener las raíces de un polinomio siempre es bastante problemático, ya que muchos polinomios presentan
singularidades («condiciones nulas»). Sin embargo, un buen comienzo es el método de Laguerre27.

CÁLCULO DE RAÍCES DE FUNCIONES NO-LINEALES


Calcular las raíces de funciones no-lineales se reduce al problema fundamental de obtener las raíces de una ecuación de
la forma genérica:
f(x) = 0

Es decir, que el problema consiste en determinar los valores de x, o los ceros de f(x), para los que se cumple f(x) = 0.
Normalmente, no es posible obtener una forma explícita en x por lo cual es preciso emplear una forma implícita, como la
explicada en secciones anteriores. Esto implica - a su vez- que es preciso emplear métodos aproximados. Por otro lado, la
determinación de las raíces de una ecuación f(x) = 0, correspondiente a una función no-líneal, es uno de los problemas
más antiguos y más estudiados en algunas áreas de las Matemáticas Aplicadas, de los Métodos Numéricos, y del Análisis
Numérico, y se han realizado un gran número de esfuerzos en para lograr métodos de solución que permitan obtener los
ceros de f(x) = 0.

Su importancia radica en que si podemos determinar las raíces de una ecuación, también podemos determinar máximos y
mínimos, valores propios de matrices, resolver sistemas de ecuaciones lineales y diferenciales, etc. Todo lo cual tiene
muchísimas aplicaciones en muy diversas áreas técnicas y de ingeniería, especialmente con el desarrollo de los
computadores y de las redes de computadores, en especial de la Internet, que han permitido abordar problemas que antes
eran inabordables con técnicas manuales. La determinación de las soluciones de la ecuación28 puede llegar a ser un
problema muy difícil, en especial cuando intervienen varios tipos de funciones (exponenciales, trigonoméricas,
polinómicas, logarítmicas, etc.).

Si f(x) es una función polinómica de grado 1 ó 2, conocemos expresiones simples que nos permitirán determinar sus
raíces. Para polinomios de grado 3 ó 4 es necesario emplear métodos complejos y laboriosos. Sin embargo, si f(x) es de
grado mayor de cuatro o bien no es polinómica, no hay ninguna fórmula conocida que permita determinar los ceros de la
ecuación, es decir sus raíces (con excepción de casos muy singulares). Existen una serie de reglas que pueden ayudar a
determinar las raíces de una ecuación:

• El Teorema de Bolzano, que establece que si una función continua, f(x), toma en los extremos del intervalo [a,b]
valores de signo opuesto, entonces la función admite, al menos, una raíz en dicho intervalo.

0
25
Numerical and Applied Analysis and Applications (http://www4.ncsu.edu/eos/users/s/slc/www/RESEARCH/NAAA.html). En algunos reportes o artículos
hay disponible un archivo en formato PDF, que se puede descargar libremente. // University of Leeds /Universidad de Valencia: «Métodos numéricos»,
(March 2nd, 1998) http://www.uv.es/~diaz/mn/node17.html. Originalmente por Nikos Drakos (nikos@cbl.leeds.ac.uk), CBLU, revisado y actualizado por:
Marcus Hennecke, Ross Moore, Herb Swan; con aportes significativos de: Jens Lippmann, Marek Rouchal, Martin Wilck y otros. // The Math Forum
Internet Mathematics Library, 1994-2005. The Math Forum is a research and educational enterprise of Drexel University, http://mathforum.org/
26
Numerical-methods.com http://www.scientific-computing.co.uk/numerme/nummeth.htm
27
Recktenwald, Gerald: «Numerical Methods with MATLAB: Implementations and Applications», 2000, Prentice Hall, ISBN: 0201308606. // John H.
Mathews and Kurtis D. Fink: «NUMERICAL METHODS: Using Matlab, Fourth Edition, 2004,
http://mathews.ecs.fullerton.edu/books/2004numerical/2004numerical.htm ISBN 0-13-065248-2, Prentice-Hall Pub. Inc. http://www.prenhall.com, Upper
Saddle River, NJ.
28
Carnahan, Brice, et al: «Applied Numerical Methods», John Wiley and Sons, 1969, pp. 173-17
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 13
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
• En el caso en que f(x) sea una función algebraica (polinómica) de grado n y coeficientes reales, podemos afirmar
que tendrá n raíces reales o complejas.

• La propiedad más importante que verifican las raíces racionales de una ecuación algebraica establece que si p/q
es una raíz racional de la ecuación de coeficientes enteros:

¡Error!Marcador no definido.

entonces el denominador q divide al coeficientes an y el numerador p divide al término independiente a0.

Ejemplo: Pretendemos calcular las raíces racionales de la ecuación: 3x3 + 3x2 - x - 1 = 0. Primero es necesario
efectuar un cambio de variable x = y/3:

y después multiplicamos por 32: y3 + 3y2 -3y -9 = 0 , con lo que los candidatos a raíz del polinomio son:

Sustituyendo en la ecuación, obtenemos que la única raíz real es y = -3, es decir,

que es además la única raíz racional de la ecuación. Lógicamente, este método es muy poco potente, por lo que sólo nos
puede servir a modo de orientación.

• La mayoría de los métodos utilizados para el cálculo de las raíces de una ecuación son iterativos y se basan en
modelos de aproximaciones sucesivas, que siempre suministran un valor muy aproximado de las raíces. Estos
métodos trabajan del siguiente modo: a partir de una primera aproximación al valor de la raíz, determinamos una
aproximación mejor aplicando una determinada regla de cálculo y así sucesivamente hasta que se determine el
valor de la raíz con el grado de aproximación deseado.

SOLUCIONES POR MÉTODOS NUMÉRICOS Y ANÁLISIS NUMÉRICO EN INGENIERÍA Y CIENCIA

El incremento en las últimas dos décadas de la tecnología computacional, tanto en hardware


como en software, ha propiciado -tanto en las ciencias como en las ingenierías- la aplicación de
Métodos Numéricos para simular fenómenos físicos y resolver problemas que antes eran de
díficil solución práctica. Los Métodos Numéricos se refieren -generalmente- a los
procedimientos, o algoritmos, empleados para hallar la solución computacional de un problema,
expresado matemáticamente mediante una función, o un sistema de funciones, que no se
puede resolver explícitamente29. Los Métodos Numéricos se dividen normalmente en dos
grandes categorías30:

0
29
Lappalainen , Harri en Finlandia, proporciona un curso on-line sobre Métodos Numéricos. Igualmente, una amplia bibliografía
(http://www.cis.hut.fi/harri/dityo/node26.html ,1996. // «The Mathematical Atlas: 65 - Numerical Analysis» by Dave Rusin, Dept of Mathematics,
Northern Illinois University, DeKalb IL, 60115, USA (http://www.math-atlas.org/welcome.html),2000-2005.
30
Net resources for numerical methods (http://stommel.tamu.edu/~baum/numerical.html). Incluye: Tutoriales y otros documentos; reportes técnicos; sitios
web con software disponible; "paquetes" de software, disponibles tanto de dominio público (gratis) como del tipo GPL. // Numerical methods
(http://emlib.jpl.nasa.gov/EMLIB/num_meth.html). Sitio bajo el liderazgo de NASA. La documentación proporcionada allí es de dominio público. // The
Numerical Analysis research in the Applied Mathematics Department at Tel Aviv University (http://www.math.tau.ac.il/am/research.html ,2005.

__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 14
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
Métodos numéricos elementales tales como hallar las raíces de funciones no-lineales, la integración numérica de
funciones, la solución de ecuaciones diferenciales ordinarias, o la solución de sistemas lineales de ecuaciones
simultáneas.

Métodos Numéricos intensivos tales como el Método de Elementos Finitos que tiene amplias y numerosas aplicaciones
en casi cualquier área de las ingenierías. Los Métodos Numéricos intensivos son necesario en la solución de problemas
prácticos de alta complejidad y normalmente requieren de la aplicación sistemática de métodos elementales,
frecuentemente miles o millones de veces hasta lograr una solución satisfactoria de un problema planteado31.

En el desarrollo de los Métodos Numéricos, utilizados para solución de problemas técnicos o de


ingeniería, es preciso efectuar simplificaciones y abstracciones con el fín de obtener una solución
práctica, que generalmente es muy aproximada a la solución exacta u óptima. Por ejemplo, ciertos
tipos de funciones pueden ser aproximadas mediante polinomios, y este hecho aunado a las
aproximaciones numéricas que internamente hacen los computadores dan como resultado que las
soluciones obtenidas mediante la aplicación de Métodos Numéricos sean aproximadas, o -en el
mejor de los caos- tienden a la solución exacta en cada paso iterativo.

Los Métodos Numéricos se emplean -generalmente- por medio de un enfoque algorítmico orientado a la implementación
mediante un Lenguaje de programación de Computadores (véase, por ejemplo: http://www.scientific-
computing.co.uk/proglang.htm). El estudio del comportamiento matemático de los Métodos Numéricos se denomina
Análisis Numérico (véase, por ejemplo: http://www.numerical-analysis.com/). Esta es un área de las matemáticas que se
centra en el modelamiento de los errores que se generan al procesar los Métodos Numéricos y en el subsecuente rediseño
del método aplicado. Usualmente se concatena con el estudio de la complejidad y eficacia de los algoritmos involucrados.

También puede decirse que el Análisis Numérico trata de las actividades que implica el analizar y
desarrollar métodos computacionales expresados como algoritmos y programas para calcular
soluciones numéricas de problemas formulados matemáticamente.

El empleo efectivo del Análisis Numérico implica un profundo conocimiento del dominio del problema
aunado a un amplio conocimiento y experiencia en la teoría de algoritmos, dominio de un lenguaje de programación y de
paquetes de software respectivos.

El conocimiento teórico implica el dominio del problema a resolver y de los Métodos Numéricos requeridos, incluyendo la
deducción de los algoritmos pertinentes, el análisis de los errores, y el análisis de la complejidad y eficiencia de los
algoritmos implicados. Puesto que muchos problemas prácticos son demasiado singulares y complejos, y no pueden ser
resueltos por la simple aplicación de un software estándar (algoritmos expresados como programas y el entorno de
programación respectivo), con frecuencia se requiere desarrollar nuevos métodos o adaptar los métodos existentes para
una situación dada. Esto también requiere una sólida fundamentación teórica y experiencia en la disciplina del Análisis
Numérico.

Las aplicaciones avanzadas del Análisis Numérico y de los Métodos Numéricos incluyen, por ejemplo, el cálculo de las
ecuaciones hiperbólicas en derivadas parciales, solución computacional para las ecuaciones de Navier-Stokes en
aerodinámica, construcción de métodos generales para tratar las condiciones de frontera en los procesos de absorción por
ósmosis. Otras áreas de aplicación incluyen:.

• Aplicación de elementos finitos para la solución de problemas elípticos.


• Aproximación e integración multidimensionales
• Simulación matemática de herramientas, dispositivos y vehículos.
• En muchas áreas de aplicaciones, especialmente en Física, los fenómenos pueden describirse empleando
Ecuaciones Diferenciales Parciales (EDP). El desarrollo de la teoría de dichas ecuaciones a menudo utiliza la
comprensión y experiencias obtenidas en aplicaciones específicas conjuntamente con los métodos de solución de las
ecuaciones particulares que surgen en tales aplicaciones. La investigación en EDP incluye tanto los desarrollos
teóricos matemáticos como los Métodos Numéricos requeridos y el análisis algorítmico pertinente. Problemas típicos
que se resuelven con estas técnicas incluyen:

0
31
Mathtools.net: Link Exchange for The Technical Computing Comunity, 2001-2005 The MathWorks Inc. (http://www.mathtools.net) // «Applied
Mathematics:Numerical Methods:Root-Finding», http://mathworld.wolfram.com/, 1999-2005 Wolfram Research, Inc.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 15
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/30/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
• Sistemas de leyes de conservación.
• Evolución de singularidades en sistemas hiperbólicos
• Métodos de energía para ecuaciones de difusión.
• Teoría de Dinámica de fluídos, en cuyas áreas se resuelven problemas típicos como:
• La dinámica de un fluído ideal incompresible.
• Soluciones débiles y comportamiento asintótico de fluídos bidimensionales.
• Flujo generalizado en fluídos.

MÉTODOS DE SOLUCIÒN

Si sólo se presenta una variable independiente en 3.13 entonces se emplean dos categorías de métodos de solución:

(a) - de intervalo cerrado como el método de bisección y el método «Regula Falsi» o de la «Falsa posición»;

(b) - de intervalo abierto32, que son los demás métodos.

Cuando se presenta más de una variable independiente, entonces habrá de resolverse un sistema de ecuaciones lineales
ó no-lineales (vèase el capìtulo 8). Por ahora, se tratarán raíces de funciones, para una ecuación f(x) = 0 (3.13), donde
sólo interviene una única variable independiente, y la función es no-lineal. La ecuación 3.13 tiene siempre en forma
implícita a la variable independiente. Este el tema de la siguiente sección. En la otra sección se tratará los temas: tipos de
raíces; la existencia de las raíces; y las condiciones de convergencia.

Particularmente, dado que este e sun curso introductorio al tema del Anàlisis Numèrico y de los Mètodos Numèricos se
veràn los siguientes Mètodos:

• El Método de Bolzano, llamado generalmente el Mètofdo de Bisección, que es de intervalo cerrado.


• El Mètodo de Regula Falsi, o de la Falsa Posición, que también es de intervalo cerrado.
• El Mètodo de Newton-Raphson, generalmente llamado Mètodo de Newton, que es de intervalo abierto.
• El Método de la Secante, como una variante del Método de Newton.
• Y se mencionaràn otros Métodos como: Punto Fijo, Steffensen, Graffe, Muller, Bernoulli, Factorizaciòn Iterativa de
polinomios, Método de Ward, Algoritmo QD de RutisHauser, Método de Bairstow para factores cuadràticos, Métodos
acelerativos.

El enfoque es bçasicamente operacional y aplicativo. Para cada método se explica su algoritmo, y se aplica aun ejemplo
específico.

0
32
The Free Dictionary , Copyright © 2006 Farlex, Inc. http://encyclopedia.thefreedictionary.com/Root-finding+algorithm
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 16
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/31/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.2 Método de Bolzano (bisección)

f(x) FIGURA 3.2.1 f(x) tiene una raìz en el intervalo [1.0, 1.5].

El Mètodo de Bolzano1, conocido popularmente como Método de Bisecciòn, es uno


b de los procedimientos más simples para hallar la raìz de una funciòn f(x) = 0 en un
intervalo dado, como en la figura 3.2.1. Precisamente, el Teorema de Bolzano2
suministra la base lógico-matemática que permite hallar dicha raíz. En tèrminos
sencillos, dicho Teorema establece que si una función f(x) es continua en el intervalo
[a,b] y se cumple que f(a)*(b) < 0, entonces f(x) tiene una raìz en dicho intervalo.
a Mediante métodos gráficos o mediante la tabulación de valores de f(x), es posible
determinar el intervalo, que es aquel en el cual la funciòn cambia de signo al ser
evaluada en el punto a y luego en el punto b.

El procedimiento, en sì, es bastante directo. Una vez determinado el intervalo que encierra la raìz a obtener, se calcula un
tercer valor c que es la mitad del intervalo, es decir que c = ½(a + b), bisectando el intervalo en dos subintervalos: [a,c]
y [c,b]; de ahì el nombre conque este método es conocido. Luego se verifica si este nuevo valor c es la raíiz, o en cuál de
los intervalos está, ahora, la raìz (véase la figura 3.2.2).

FIGURA 3.2.2 Diagrama esquemático de los


subintervalos involucrados en el Mètodo de
Bolzano.

Si la raìz se encuentra en el subintervalo [a,c],


entonces se cumplirà que f(a)*f(c) < 0; si, por el
contrario, al raìz se encuentra en el subintervalo
[c,b] se cumplirà que f(c)*f(c) < 0. En la figura
3.2.2 es cierto esto ùltimo.

El proceso de bisectar el intervalo y de verificar


en cuál subintervalo està la raìz se continúa
hasta que se encuentre que f(c) = 0, o que se
llegue a que |f( c )| se tan pequeño como se
estipule, según una tolerancia numérica, ε,
preestablecida.

Como este es un método de intervalo


cerrado, que tiene un estricto control de las operaciones dentro del intervalo [a,b] , es posible, mediante el Teorema del
Valor Medio de Bolzano3, determinar el número mínimo de iteraciones necesarias para lograr el nivel de precisión, ε.
Considèrese que an y bn son –respectivamente- los extremos del intervalo correspondiente a la enésima iteración
efectuada (con a1 = a y b1 = b), y considérese que rn es la enésima aproximación al valor exacto de la solución, por lo
0
1
R. E. White, Nonlinear Problems and Intermediate Values; the Bisection Method
Undergraduate Computational Engineering and Science, The Department of Energy (DOE), Krell Institute, Copyright ©1994. // Tam, Ming T.: «The
Bisection Method, Notes and Animation», Chemical Engineering Dept., Newcastle University upon Tyne, UK, 1999. // Houben, Stephan: «The
Bisection Method», Dept. of Math. & Comp. Sci., Eindhoven University of Technology, The Netherlands, 2000,
http://www.win.tue.nl/~stephanh/dictaat/solvers/node1.html.
2
Mathews, John H. And Finks, Kurtis: «Numericals Methods using Mathematica», 2004. // Arfken, G.: «Mathematical Methods for Physicists», 3rd ed.
Orlando, FL: Academic Press, pp. 964-965, 1985. // Press, W. H.; Flannery, B. P.; Teukolsky, S. A.; and Vetterling, W. T. «Bracketing and
Bisection», §9.1 in Numerical Recipes in FORTRAN: The Art of Scientific Computing, 2nd ed. Cambridge, England: Cambridge University Press, pp.
343-347, 1992.
3
Weisstein, Eric W.: «Bisection» From MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/Bisection.html, last modified March 1, 2004,
© 1999-2006 Wolfram Research, Inc.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 17
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/31/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
cual rn = ½( an + bn). Con sencillas manipulaciones aritmético-algebráicas, siguiendo la serie de bisecciones de los
intervalos, puede demostrarse que el subintervalo enésimo, bn - an , cumple la siguiente fórmula:
(3.2.1)

Con el fìn de que se cumpla en el enésimo subintervalo la condiciòn del error, |rn - r|, es decir, que dicho error sea < ε,
se cumplen las siguientes relaciones (a partir de 3.2.1):
(3.2.2)

Si se toma logaritmo natural a ambos lados de 3.2.2, entonces se llega a la siguiente inecuación:

(3.2.3)

(3.2.4)
De 3.2.3 se obtiene el valor mínimo para el número de iteraciones, n:

Para el caso de la figura 3.2.1, con a = 1.0, b = 1.5, ε = 0.00001, da que n > 16.6; es decir, que el algoritmo efectuará -
por lo menos- unas 17 iteraciones para obtener la raíz con el valor estipulado de precisión numérica.

UN ALGORITMO PARA EL MÉTODO DE BOLZANO


El problema con hallar la raíz de una función se puede estipular como: dada una función f: D ⊂ R Î R Se trata de
hallar un valor : {x0 ∈ D/f(x0) = 0}. Es decir, encontrar las soluciones de la ecuación f(x) = 0. Este procedimiento será
más o menos complicado dependiendo de la expresión algebraica de la función f(x). Como se ilustra en la figura 3.2.3, los
parámetros básicos a considerar incluyen: (i) - los extremos iniciales del intervalo, a, b; (ii) – el punto medio del intervalo,
c; (ii) – la evaluaciòn de la funciòn en estos tres puntos, f(a), f(b), f(c).
FIGURA 3.2.3 Diagrama esquemático de los parámetros
básicos involucrados en el Mètodo de Bolzano.

Los pasos básicos del algoritmo, en Lenguaje Natural


Estructurado (LNA)4, son los siguientes:

1. Conocer la función f(x) a la cual se le quiere conocer su


raíz.

2. Establecer el intervalo [a, b] a partir del cual se va a


iniciar el proceso y un ε > 0 (margen de error, o tolerancia
numérica).

3. Calcular el punto medio del intervalo: c = (a+b)/2

3.1 Si |f(c)| < ε entonces c es la raíz. Finalizar.

3.2 Si f(a)*f(c) < 0 entonces b = c. Es decir, el nuevo extremo superior del intervalo es b.

3.3 Si f(c)*f(b)<0 entonces a = c. Es decir, el nuevo extremo inferior del intervalo es b.


Repetir el proceso desde el paso 3.

0
4
Esta es una de las técnicas básicas de representación de algoritmos. Véase el capítulo 2 de «Algoritmos y Programación con Visual Basic», en
http://xue.unalmed.edu.co/~walvarem.
__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 18
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/31/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Como ejemplo de aplicación, considérese la siguiente función:


1 1
f ( x) = + −6 (3.2.5)
( x − 0.3) + 0.01 ( x − 0.9) 2 + 0.04
2

Cuyo esquema gráfico se presenta en la figura 3.2.4:

FIGURA 3.2.4 Diagrama esquemático de la función f(x)


de la ecuación 3.2.5.

De esta figura, se pued eobservar que la función, definida por


3.2.5, tiene una raíz en el intervalo [-0.5, 0.5] y otra raíz en el
intervalo [1.0, 2.0]. Aplicando la relación 3.2.4, para el primer
intervalo, se tiene que el valor mínimo de n, con una
tolerancia ε = 0.00000001 es 26.57; es decir, que el
algoritmo realizará por lo menos 27 iteraciones antes de
encontrar la raíz, con la tolerancia numérica estipulada.; igual
valor se calcula para el segundo intervalo, con el mismo nivel
de precisiòn numérica.

Para implementar el algoritmo descrito, en Visual Basic, en


primer lugar se elabora un procedimiento tipo Function,
ilustrado en la figura 3.2.5. El algoritmo en Visual Basic aparece en la figura 3.2.6.

Public Function F(X As Double) As Double FIGURA 3.2.5 Procedimiento tipo


F = 1 / ((X - 0.3) ^ 2 + 0.01) + 1 / ((X - 0.9) ^ 2 + 0.04) - 6 Function para la función f(x) de la
ecuación 3.2.5.
End Function

Dim A As Double, B As Double, N As Long FIGURA 3.2.6 Algoritmo en Visual Basic para hallar
Dim epsilon As Double, X As Double, C As Double una raíz de la función f(x) de la ecuación 3.2.5.
A = Val(Text1.Text): B = Val(Text2.Text)
epsilon = Val(Text3.Text): N = 0 Las variables se definen como de tipo Double, es
decir reales de precisiòn extendida.
Do
C = (A + B) / 2 Para controlar el número de iteraciones se
If Abs(F(C)) < epsilon Then emplea una estructura de iteraciòn indefinida así:
Exit Do
ElseIf F(A) * F(C) < 0 Then Do
B=C ......
Loop While (Abs(F(C) >= epsilon)
Else
A=C Y se emplea la estructura de selecciòn lògica del
End If tipo If ... ElseIf ... End If.
N=N+1
Loop While (Abs(F(C)) >= epsilon) En la figura 3.2.7 se presenta una interfaz
diseñada en Visual Basic, con los resultados para
Text4.Text = C: Text5.Text = N el intervalo [1.0, 2.0] de la función definida por la
ecuación 3.2.5..

__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 19
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 12/31/06
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.2.7 Interfaz en Visual Basic para hallar una raíz de


la función f(x) de la ecuación 3.2.5, en el intervalo [1.0, 2.0].

El nùmero de iteraciones, n, es consistente con el valor mínimo


calculado por medio de la fórmula 3.2.4. Es claro que al cambiar el
valor de la tolerancia numérica, ε, se tendrán más o menos
iteraciones, y un valor más o menos preciso de la raíz. La figura
3.2.8 presenta un algoritmo en MatLab.

Este Método de Bolzano, como todos los métodos numéricos para


hallar raíces de una función f(x), sólo da valores aproximados;
precisamente, la funcionalidad del nivel de precisión numérica, ε,
es establecer cuando se ha llegado a un valor suficientemente
aproximado –desde el punto de vista práctico- para una raíz
determinada de f(x), que resuelve un problema concreto de Ciencia
o de Ingeniería.

VENTAJAS Y DESVENTAJAS DEL MÉTODO DE BOLZANO


El Método de Bolzano para hallar una raíz de función f(x) en un intervalo especificado presenta ciertas ventajas , pero
también adolece de algunos inconvenientes. Dentro de sus principales ventajas están:

• Requerimientos mínimos de la función f(x), pues sólo es necesario que sea continua en el intervalo especificado.
• Se basa en un rigoroso principio matemático: el Teorema del Valor Medio de Bolzano.
• Es robusto y globalmente convergente. Siempre converge cuando se da un intervalo apropiado, pudiéndose
establecer de antemano el número mínimo de iteraciones.
• Se puede establecer el límite de error: |xn -x*|< (b-a)/2n-1, siendo xn el valor aproximado de la raíz y x* su valor
exacto.
• Es fácil de implementar.

Dentro de sus principales desventajas puede mencionarse:

• Para funciones complejas, que surgen en la pràctica al tratar de resolver problemas de Ingeniería, la determinación
del intervalo inicial puede ser un proceso no trivial. Igualmente, en estos casos no es obvio el criterio de finalización
del proceso iterativo, en cuanto a la precisión numérica; habrá que proceder por ensayo y error.
• Su velocidad de convergencia es lenta.
• No puede hallar raíces complejas.
• No se puede utilizar para hallar más de una raíz en un intervalo dado.
• Es difícil generalizarlo para dimensiones superiores.

FIGURA 3.2.8 Algoritmo implementado en Matlab para


hallar una raíz de una función f(x) = 0.

__________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 20
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.3 Método de Newton-Raphson (Newton)


Homenaje del Estado Alemán, en su timbrel postal, al matemàtico Sir Isaac Newton, que tanta
influencia ha tenido en el desarrollo de la Ciencia y la Ingeniería en Occidente. Fuente: John H.
Mathew, 2004, http://mathews.ecs.fullerton.edu/n2003/Newton'sMethodMod.html .
___________________________________________________________

El Método de Newton_Raphson1, conocido más comúnmente como


Método de Newton, es un Método de intervalo abierto, y sólo requiere un
valor inicial, cercano a la raíz, para obtener un valor más aproximado a la
raíz de una funciòn f(x) = 0 (3.3.1) . Este método es atribuído a Sir Isaac Newton (1643-1727) y a Joseph Raphson (1648-
1715)2.

Es de gran importancia resolver una ecuación de la forma f(x)=0 (3.3.1), en muchas áreas de Ciencia e Ingeniería, como
en Matemáticas, Física, Química, Eléctrica, etc., y también en el cálculo de algunas funciones o constantes matemáticas
como las raíces cuadradas y otros tipos de raíces.

Alrededor de 1669, Isaac Newton proporcionó un nuevo algoritmo para resolver una ecuación polinómica3 y lo ilustró con
el ejemplo y3 - 2y – 5 = 0 (3.3.2). Newton planteó que para hallar una raíz aproximada de esta ecuación, primero se
debería tener un valor inicial de ensayo, tal como y ≈ 2. En su escrito, Newton escribió y = 2 + p (3.3.3) y después de
sustituir 3.3.3 en 3.3.2, la ecuación inicialmente planteada se convierte en

p3 + 6p2 + 10p – 1 = 0. (3.3.4)

Como el valor de p se supone muy pequeño, se puede despreciar la suma p3 + 6p2 comparada con 10p – 1 (3.3.4) y,
por lo tanto, de 3.3.4 se puede obtener un valor aproximado de p, es decir que p ≈ 0.1, con lo cual una mejor
aproximación de la raíz es y ≈ 2.1. Es posible repetir el proceso y escribir p = 0.1 + q (3.3.5). Al sustituir 3.3.5 en 3.3.4,
la ecuación se convierte en

q3 + 6.3q2 + 11.23q + 0.061 = 0 (3.3.6),

pudiéndose tener un valor aproximado de q, q ≈ -0.061/11.23 = -0.0054. Siendo la nueva aproximación de la raíz de 3.3.2
y ≈ 2.0946. Y el proceso se repite hasta que se obtenga un suficiente número de cifras significativas para el valor de la
raíz.

En este método, Newton no utilizó explícitamente el concepto de derivada y sólo aplicó ecuaciones polinómicas.

Años más tarde, en 1690, Joseph Raphson propuso un método4 que evita las substituciones en el enfoque de Newton.
Raphson ilustró su algoritmo con la ecuación x3 – bx + c = 0 (3.3.7), y empezó con una aproximación de esta ecuación,
x ≈ g, obteniéndose una mejor aproximación con la fórmula siguiente:
c + g 3 − bg
x=g+ (3.3.8)
b − 3g 2
Osérvese que el denominador en 3.3.8 es el opuesto de la derivada del numerador.

0
1
Murison, Marc A.: «A Symbolic Newton-Raphson Method of Finding Roots», Astronomical Applications Department
U.S. Naval Observatory , http://arnold.usno.navy.mil/murison/, December 1996. // Pascal Sebah and Xavier Gourdon , «Newton’s method and high
order iterations», numbers.computation.free.fr/Constants/constants.html, October 3, 2001. // Recktenwald , Gerald: «Numerical Methods with
MATLAB: Implementations and Applications», © 2000, Prentice Hall
ISBN: 0201308606.
2
Tjalling J. Ypma: «Historical Development of the Newton-Raphson Method», SIAM Review, Vol. 37, No. 4 (Dec., 1995), pp. 531-551
3
Newton, Isaac: «Methodus fluxionum et serierum infinitarum», London, England, 1664-1671.
4 Raphson, Joseph: «Analysis Aequationum universalis», London, England, 1690.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 21
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

El proceso descrito con las ecuaciones 3.3.2 a 3.3.6 y la ecuación 3.3.8 constituyen los orígenes del Método Newton-
Raphson (llamado de Newton) empleado actualmente para hallar una aproximación a una raíz de una función no-lineal,
f(x) = 0.

Desde entonces, el Método Newton-Raphson se ha estudiado, se ha aplicado y se ha generalizado por muchos otros
matemáticos tales como Simpson (1710-1761), Mourraille (1720-1808), Cauchy (1789-1857), Kantorovich (1912-1986). La
cuestión crucial de escoger el valor inicial fue tratada primeramente por Mourraille in 1768; y la dificultad de escoger un
valor inicial correcto es una de las principales desventajas del algoritmo. Desde el siglo 19, el Método Newton-Raphson
se ha convertido en base de otros métodos, ha sido aplicado a muy diversos problemas, y se ha generalizado para
abordar problemas de muchas variables y muchas dimensiones matemáticas; incluso, el algoritmo Newton-Raphson se ha
empleado para implementar operaciones de máquina dentro de los chips que controlan el funcionamiento de las
computadoras.. La lista presentada al final de esta sección da una idea de la gran influencia que el Método Newton-
Raphson tiene en Ciencia y en Ingenierìa, tanto en la parte teórica como en las aplicaciones.

PARÁMETROS BÁSICOS DEL MÉTODO NEWTON-RAPHSON


FIGURA 3.3.1 Elementos básicos para
hallar una raíz de la función f(x) = 0 por
medio del Método de Newton-Raphson.

f ( Xn−1)
Xn = Xn−1 − , n ≥1 (3.3.9)
f ´(Xn−1)

La ecuación 3.3.9 es la relación básica del


Método Newton-Raphson5, como ilustra la
figura 3.3.2

La anterior función corresponde a la


intersección de la recta tangente de f(x) en
Xn-1 con el eje de las X. Dicha
intersección, llamada Xn, corresponde a una aproximación de la raíz para la función f(x), cuando f(Xn) = 0 ó f(Xn) ≤
epsilon.

FIGURA 3.3.2 Esquema gráfico de la relación


entre los puntos Xn y Xn-1 , según la ecuación
3.3.2, que es la fórmula algorítmica general
Xn-1)
f(X para hallar una raíz de la función f(x) = 0 por
medio del Método de Newton-Raphson.

f(X
Xn) EL CONCEPTO DE RAÍZ. Sea f: D → R, D ⊆ R, una
función dada6. Un número Xn ∈ D se dice una
raíz (en D) de la ecuación f(x)= 0 , o un cero (en
D) de la función f , si f(X
Xn) = 0.
Xn-1
Xn
Al intentar encontrar una raíz Xn de una ecuación f(x)= 0 , se generará una sucesión {x}i , i , = 1,2,... tal que

lim ( x i ) = x n
(3.3.10)
i→ ∞

0
5
Gray, Paul: «Lecture Notes For Numerical Analysis», Emory University, Mathematics and Computer Science, 1998 – 2006,
http://www.mathcs.emory.edu/ccs/ccs315/.
6
Asmar Ch., Ivan F.: «Métodos Numéricos», Universidad Nacional de Colombia – Sede Medellìn, 2000.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 22
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Cualquier método numérico permitirá, entonces, calcular los valores de cada término de la sucesión {x}i i = 1,2,...; así que
no se espera, en general, calcular directamente 3.3.10 sino que mediante un criterio razonablemente lógico, según el
problema que se esté intentando resolver con el método numérico, se podrá escoger un término específico de la sucesión
{x}i i = 1,2, ... como valor aproximado de la raíz que se pretende hallar, Xn.

El algoritmo del Método Newton-Raphson involucra un creterio para detener el proceso iterativo y un criterio para
determinar cuando es posible una división por cero.

UN ALGORITMO PARA EL MÉTODO DE NEWTON-RAPHSON


Los pasos básicos del Método Newton-Raphson, para hallar una raíz de f(x) = 0, son los siguientes:
1. Conocer la función f(x) a la cual se le quiere obtener su raíz. También su derivada f’(x).

2. Establecer un punto de inicio X0 a partir del cual se va a iniciar el proceso.

3. Si f’(X0) = 0 entonces habrá división por cero, finalizar; de lo contrario, continuar con paso 4..

4. Si f(X0) = 0 entonces la raíz es X0, finalizar, e ir al paso 5; de lo contrario:


f (X 0 )
• Calcule X1 mediante la ecuación: X = X − (3.3.11)
f ′(X 0 )
1 0

• Hacer X0 igual a X1.

5. Repetir el paso 3 hasta que |ff(X0)| ≤ epsilon.

6. Mostrar X0

La figura 3.3.3 ilustra el proceso de los sucesivos pasos que sigue el algoritmo del Mëtodo de Newton-Raphson para la
función f(x) = 25x2 – 10 x +1, tomándose como valor inical xo = 1.0.

FIGURA 3.3.3 Traza del


algoritmo para hallar una raíz
de la función f(x) = 25x2 – 10
x +1 = 0 por medio del Método
de Newton-Raphson.
Por
f(xo) se traza una tangente a f(x); dicha
tangente corta al eje x en x1 definido
por la ecuación 3.3.11; x1 se convierte
en el nuevo xo y por f(x1) se traza de
nuevo una tangente a f(x); y, así,
sucesivamente.

En este caso, el algoritmo converge en


20 iteraciones a un valor bastante
aproximado al valor real (2.0).

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 23
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

UN EJEMPLO DE APLICACIÓN PARA EL MÉTODO NEWTON-RAPHSON


Sea la función definida por 3.3.12. Su derivada está dada por 3.3.13. Una gráfica esquemática de f(x) se muestra en la
figura 3.3.4. 1 1
f ( x) = + −6 (3.3.12)
( x − 0 .3) + 0 .01
2
( x − 0 .9 ) + 0 .04
2

− 2 ( x − 0 . 3) 2 ( x − 0 .9 )
f ′( x ) = − (3.3.13)
(( x − 0 .3) 2
+ 0 .01 ) (( x − 0 .9)
2 2
+ 0 .04 )
2

FIGURA 3.3.4 Gráfica esquemática de la función f(x)


definida por medio de la fórmula 3.3.4.

Private Function f(X As Double) As Double


f = 1 / ((X - 0.3) ^ 2 + 0.01) + 1 / _
((X - 0.9) ^ 2 + 0.04) - 6
End Function

Private Function DF(X As Double) As Double


DF = -2 * (X - 0.3) / ((X - 0.3) ^ 2 + 0.01) ^ 2 - _
2 * (X - 0.9) / ((X - 0.9) ^ 2 + 0.04) ^ 2
End Function

Esta función tiene dos raíces: una en el intervalo [–0.5, 0.5] y otra en el intervalo [1.0, 1.5]. En lenguaje Visual Basic, la
función 3.3.12 y su derivada 3.3.13 son las arriba mostradas. La figura 3.3.5 es un algoritmo elaborado en Visual Basic, y
la figura 3.3.6 es una interfaz que muestra los resultados respectivos.
Dim X0 As Double, X1 As Double FIGURA 3.3.5 Algoritmo elaborado en Visual Basic para hallar una raíz
Dim epsilon As Double, N As Integer de la función f(x) definida por medio de la fórmula 3.3.4.
X0 = Val(Text1.Text) Las variables XO, X1, epsilon se definen como de tipo Double, es decir
epsilon = Val(Text2.Text) real extendido. Con la variable N, de tipo entero, se cuenta el número de
N=0 iteraciones que conlleva al algoritmo converger al valor aproximado de la
Do raíz, conforme a la tolerancia numérica estipulada con epsilon. Los
If (f(X0) = 0) Then Exit Do valores de las variables XO y epsilon se leen de sendas cajatexto como
X1 = X0 – F(X0)/DF(X0) se ilustra en la interfaz de la figura 3.3.5.
X0 = X1
N=N+1
Loop While(Abs(F(X0)) > epsilon)
Text3.Text = “Raíz = “ & X0

FIGURA 3.3.6 Interfaz en Visual Basic correspondiente al


algoritmo de la figura 3.3.5.

Un ejemplo del algortimo en MatLab es ilustrado en la figura


3.3.7. Y en la figura 3.3.8 se presenta un ejemplo en C.

En la sección 3.2 se obtuvo una raíz para la misma función


definida por la ecuación 3.3.12; el algoritmo realizó 29
iteraciones; para el Método de Newton-Raphson, el algoritmo
realiza sólo 5 iteraciones. Y esta es una característica del

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 24
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
Método Newton-Raphson: si el algoritmo, implementado para un función específica, converge, lo hace muy rápidamente.

FIGURA 3.3.7 Algoritmo en MatLab correspondiente a la figura 3.3.5 (John H. Mathews, 2004).

FIGURA 3.3.8 Algoritmo en el lenguaje C correspondiente a la


figura 3.3.5 (Paul A. Gray, 1998).

Como datos de entrada para este algoritmo se tienen: la


función f(x); su derivada f’(x); el valor inicial de
aproximación, xo; el máximo número de iteraciones,
MAXIT; tolerancia numérica para la división por cero, ε1 ; y
la tolerancia numérica para la aproximación de la raíz, ε2,
que termina el algoritmo.

A continuación, figura 3.3.9, se presenta un programa en FORTRAN para la función x2 + 2x - 3.

C DF(X)=DERIVADA;X VALOR INICIAL;E TOLERANCIA;N # MÁXIMO ITERACIONES FIGURA 3.3.9


F(X) = X**2+2.*X-3. Programa
DF(X) = 2.*X+2 FORTRAN.
READ (5,10) X, E, N
DO 1 I = 1,N
D=DF(X)
IF(D.EQ.0) GO TO 2
X1 = X-F(X)/D
IF (ABS(X-X1).LT.E) GO TO 3
1 X = X1
WRITE (6,20) N
GO TO 4
3 WRITE(6,40) X1, I
10 FORMAT( )
20 FORMAT (//2X, 'NO HAY SOLUCIÓN DESPUÉS DE ', I5, ' ITERACIONES')
30 FORMAT (//2X, 'PARA X = ', F8.4, ' DF(X)=0')
40 FORMAT (//2X, 'SE LLEGÓ A LA SOLUCIÓN, X = ', F8.4, ' DESPUES DE'
1,I5, ' ITERACIONES')
4 STOP
END
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 25
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

VENTAJAS Y DESVENTAJAS DEL MÉTODO NEWTON-RAPHSON


El Método de Newton-Raphson para hallar una raíz de función f(x) = 0, presenta ciertas ventajas , pero también adolece
de algunos inconvenientes. La tabla 3.3.1 presenta una comparación entre las ventajas y las desventajas del Método de
Newton-Raphson.

TABLA 3.3.1 Ventajas y desventajas del Método Newton-Raphson.


Ventajas Desventajas
• La derivación del método puede obtenerse por medio • Determinar un punto de inicio, xo, adecuado puede ser
de Series de Taylor y técnicas gráficas. una labor difícil, especialmente en la práctica donde
surgen funciones muy complicadas.
• Cuando el punto de inicio, xo, se escoge • No se puede garantizar la convergencia cuando el
correctamente, entonces el Método de Newton- punto de inicio, xo, no está cerca de la raíz
Raphson converge muy rápidamente.
• Algunas veces, para funciones específicas, el Método • La convergencia no siempre se puede garantizar. Y no
de Newton-Raphson converge con muy pocas hay convergencia cuando la raíz es un punto de
iteraciones. inflexión, o está cercana a él; también, cuando la raíz
es un máximo o un mínimo, o está cernaca a uno de
ellos.
• Es posible tener una estimación del error bajo • La convergencia puede ser muy lenta; y –en
supuestos razonables. ocasiones- hay oscilaciones alrededor de un punto.
• Relativamente fácil de implementar, si la derivada se • No siempre es fácil calcular la derivada; y en cada
puede calcular. iteración hay que calcularla.
• Es un método muy eficiente para hallar raíces de • Bajo ciertas circunstancias y con ciertas funciones
polinomios. específicas no resulta obvio escoger la condición que
finaliza el algoritmo.
• Este método pued utilizarse para hallar raíces • Requiere un valor inicial de tipo complejo para hallar
complejas de una función. una raíz compleja, lo cual no siempre fácil de obtener.
• Este método se ha extendido para el tratamiento • Es tarea ardua construir las derivadas (o matrices
multidimensional. Jacobianas) en el enfoque multidimensional.

CONVERGENCIA DEL MÉTODO NEWTON-RAPHSON


En la mayoría de los casos, encontrados y documentados en la práctica ingenieril, el Método Newton Raphson converge
rápidamente, es decir con muchas menos iteraciones que otros métodos para hallar raíces de funciones, f(x) = 0, y en
tales casos no requiere de un valor inicial particularmente bueno, o muy cercano a la raíz exacta. Sin embargo, existen
ecuaciones del tipo f(x) = 0 con las cuales el Método Newton-Raphson falla, o tiene un comportamiento extraño, o
converge muy lentamente7. Un ejemplo es la ecuación quíntica siguiente:
5x5 - 10x4 - 31x3 + 4x2 + 111x + 205 = 0 (3.3.14)

Cuando se escoge un valor inicial x0 = 1.0 se llega a la solución rápidamente, con 7 iteraciones, como se ilustra en la
figura 3.3.10; pero si se escoge como valor inicial diferente el algoritmo se relentiza, o se comporta extrañamente lléndose
a obtener una raíz diferente a la que se pretende. Este comportamiento de la función 3.3.14 quizás se explica al anlizar su
gráfica que aparece en la figura 3.3.11.

Obsérvese que la función presenta tres raíces reales en el intervalo [-3, 4 ], y entre –1 y 1 la funcón tiene una zona de
“pandeo”, en la cual muy posiblemente estén las otras dos raíces, pues la función tiene 5 raíces; dichas raíces son
complejas (imaginarias) y la versión que se está utilizando del Método Newton-Raphson no calcula raíces complejas. Las
tres raíces reales son –2.26432223767659, 1.98110017271273, y 3.39219813764743 . Para valores de X menores que –

0
7
Tatum, J.B.: « Physics topics, Celestial Mechanics, Chapter 1: Numerical Methods», 2000 - 2005,
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 26
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
2.26432223767659 la función definida por 3.3.14 decrece indefinidamente; para valores mayores de 3.39219813764743,
la función crece indefinidamente.

FIGURA 3.3.10 Resultados del proyecto Visual Basic, con el Método Newton Raphson, para la
función definida por 3.3.14.

FIGURA 3.3.11 Gráfica esquemática de la función definida por 3.3.14.

El eje horizontal tiene una escala normal, pero el eje vertical tiene una escala
comprimida para facilitar su visualización; no obstante, se puede apreciar la forma
general de la función.

En la tabla 3.3.2 se listan algunos valores para X0 con las raíces halladas, valores
de X1, y el número de iteraciones que el algoritmo emplea para llegar al nivel de
precisión 0.000001. Se observa que hay una especie de “bamboleo” u oscilación
en el intervalo [-3, 4 ], pero el algoritmo se comporta bien calculando las raíces
reales de la función en dicho intervalo.

TABLA 3.3.2 Ejemplo de valores X0 empleados para hallar raíces de 3.3.14 por el Médoto Newton-Raphson
No. Iteraciones, N Valor inicial X0 Raíz hallada, X1
11 -0.995 3,39219813764743
7 -4.0 -2,26432223767663
36 -2344.0 -2,26432223767659
15 0.5 3,39219813764743
4 1.5 1,98110017271273
4 2.5 1,98110017271273
16 -0.1 -2,26432223767659
15 0.1 -2,2643222376766
6 4.0 3,39219813764743
36 2344.0 3,39219813764743
15 0.0 -2,26432223767659
11 -1.0 3,39219813764743

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 27
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Otro ejemplo de función que presenta dificultades al aplicar el Método Newton-Raphson es la función f(x) = x - tan x,
una ecuación que surge en la teoría óptica de la difracción. Se tiene que f(x) = x – tan(x) = 0 (3.3.15), y la primera
derivada está dada por f '(x) = 1 – sec2(x) = -tan2(x) (3.3.16). Para la función 3.3.15, la fórmula genérica en el
Método Newton-Raphson , al utilizar 3.3.16, es así:
x − tan( x)
x= x+ (3.3.17)
tan 2 ( x)
La solución es X1 = 4.493409, pero para obtenerla el valor inicial X0 debe estar entre 4.3 y 4.7. Por ejemplo, con un valor
inicial X0 = 4.45, el algoritmo da la raíz en 4 iteraciones. Pero con X0 = 1.25, el algoritmo da como raíz el valor de X1 =
5,15682388981189E-03 en 15 iteraciones, que se sabe no es el valor correcto. Y con un X0 = 3.245, después de 22
iteraciones, falla, pues tanto X1 como f(X1) adquieren valores muy grandes.

La ecuación f(x) = 1- 4x + 6x2 - 4x3 + x4 = 0 (3.3.18) también presenta serias dificultades con el Método Newton-
Raphson, pues aunque sus cuatro raíces son todas iguales a 1, con un valor inicial X0 = 1.0, f(1) = 0 y f’(1) = 0; a medida
que el valor de X1 se acerca a 1.0, el algoritmo falla con un mensaje de división porcero. La ecuación 3.3.18 deberá
resolverse por otro método o por el Método Newton-Raphson Modificado.

EL CONCEPTO DE ORDEN DE CONVERGENCIA. Sean x0, x1, x2, . . . xn ≡ ⎨xi⎬ i = 1,2,..,n una secuencia que converge, es decir
se aproxima o tiende, a r ; y sea en = xn – r ⇒ r = xn – en (3.3.19). Si existe un número m y una constante C ≠ 0
(distinta de cero), tal que sumple el siguiente límite8:
e n +1
lim m
= C (3.3.20)
n→ ∞ en

entonces m es llamado orden de convergencia de la secuencia, y C el error asintótico constante. Para m = 1,2,3, la
convergencia se dice lineal, cuadrática y cúbica, respectivamente.

ANÁLISIS DE CONVERGENCIA DEL MÉTODO NEWTON-RAPHSON. Sean x0, x1, x2, xi,. . , xn, xn+1 las aproximaciones
en las sucesivas iteraciones del Método Newton-Raphson. Sea r el verdadero valor de la raíz. Llámese al error en la n-
ésima iteración como en. Entonces, se cumple que: en = xn – r (3.3.21); por lo tanto, también se puede escribir que:

f (xn ) f (xn ) f (xn ) (e f ′(xn ) − f (xn )) (3.3.22)


en+1 = xn+1 - r = xn − − r = xn − r − = en − = n
f ′(xn ) f ′(xn ) f ′(xn ) f ′( xn )
Por otro lado, con la expansión de f(xn - en) en serie de Taylor se obtiene que:
f(xn - en) = f(xn) - f'(xn)en + (f"(c)/2) en2 (3.323); y empleando 3.3.19 y 3.3.21 da que:
f(r) = f(xn) - en f'(xn) + (f"(c)/2)en2, pero si r es la raíz, entonces:
0 = f(xn) - en f'(xn) + (f"(c)/2)en2 ⇒ enf'(xn) - f(xn) = (f"(c)/2)en2 (3.3.23)
De las ecuaciones 3.322 y 3.3.23 se puede escribir que:

en+1 = (f"(c)/2)en2/f'(xn) = (1/2)(f"(c)/ f'(xn))en2 ⇒ en+1 = C en2, siendo C = (1/2)(f"(c)/f'(xn))

Lo cual implica que: en+1| <= |C| |en|2 ⇒ |xn+1 - r| ≤ |C| |xn - r|2 (3.3.24)

La relación 3.3.24 implica que el Método Newton-Raphson tiene convergencia cuadrática. Es decir, que si se empieza
con una aproximación que tiene 3 cifras significativas, se obtiene -en una sola iteración- una nueva aproximación con 6
cifras significativas. Esto contrasta con el Método Bisección, el cual que requiere –al menos- 3 iteraciones para agregar
una cifra significativa màs a la aproximación de la raíz.

0
8
Donley, H. Edwuard: «Lectures on Numerical Methods, Newton Method», Indiana University of Pennsylvania, 2001,
http://www.ma.iup.edu/projects/CalcDEMma/newton. // Smith, Mark D.: «Newton-Raphson Technique», 1998, CBLU, University of Leeds,
http://web.mit.edu/10.001/Web/Course_Notes/NLAE. // Weisstein, Eric W.: «Newton's Method» From MathWorld--A Wolfram Web Resource, 1999 -
2006. http://mathworld.wolfram.com/NewtonsMethod.html.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 28
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

OTRAS APLICACIONES DEL MÉTODO DE NEWTON-RAPHSON


• En la tabla 3.3.2 se presenta los resultados de aplicar el algoritmo del Método Newton-Raphson apara hallar una raíz
de la función f(x) = x6 – x – 1 = 0; el valor inicial, xo, es xo = 1; el nivel de precisión es ε ≤ 10-8.

TABLA 3.3.2 Raíz de f(x) = x6 – x – 1 = 0 con el Método Newton-Raphson (Paul Gray, 1998).

• Aplicando el Método Newton-Raphson a las raíces de cualquier polinomio de grado dos o mayor , da un Mapa
Racional de C, campo de los números complejos, y el Conjunto Julia9 de dicho mapa es un Fractal (véase la
figura 3.3.7)10 cuando hayan tres o más distintas raíces. Iterando el método para las raíces de la ecuación Zn – 1 = 0
, con el punto inicial zo, da la siguiente ecuación11:
(3.3.14)

Puesto que la ecuación 3.3.6 (Mandelbrot 1983, Gleick 1988, Peitgen and Saupe 1988, Press et al. 1992, Dickau 1997) es
un polinomio de orden n, hay n raíces a las cuales el algoritmo puede converger. Coloreando «la base de atracción»,es
decir el conjunto de puntos iniciales zo que converge a la misma raíz, para cada raíz se obtiene un color diferente,
obteniéndose este fractal mostrado en la figura 3.3.7.

FIGURA 3.3.7 Fractales formados con el Método


de Newton-Raphson.

0
9
Tomova, Anna : «The application of Julia set to Newton-secants method», Applications of mathematics in engineering and economics (Sozopol, 1999),
94--95, Heron Press, Sofia, 2000, Math. Sci. Net.
10
Cartwright,J.H.E.: «Newton maps: fractals from Newton's method for the circle map», Computers and Graphics, August 1999, vol. 23, no. 4, pp. 607-
612(6), Ingenta.
11
Eric W. Weisstein: «Newton's Method», From MathWorld--A Wolfram Web Resource, 199-2005. http://mathworld.wolfram.com/NewtonsMethod.html
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 29
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Los fractales también surgen de mapas no-polinómicos. La figura 3.3.8 muestra el número de iteraciones necesarias que
requiere la convergencia del mëtodo de Newton-Raphson para la función Z2 – 2z (3.3.15), figura 3.3.8(a), (D. Cross, pers.
comm., Jan. 10, 2005) y Z3 – 3z (3.3.16), figura 3.3.8 (b). La figura 3.3.9 presenta otro ejemplo de fractales.

(a) (b)

FIGURA 3.3.8 Fractales formados (a) con la ecuación 3.3.15; (b) con la ecuación 3.3.16.

La figura 3.3.9 es otro ejemplo de la generación de fractales12.

FIGURA 3.3.9 Otro ejemplo de Fractales.

• La siguiente lista presenta una selección de aplicaciones y desarrollos teóricos basados en el Método Newton-
Raphson13. Realmente, sólo dan idea del inmenso efecto y de las investigaciones que se prosiguen con base al
Método Newton-Raphson.

• Recursos de la Internet:

1. Roots and Newton's Algorithm


Undergraduate Computational Engineering and Science, The Department of Energy (DOE), Krell Institute
0
12
Weisstein, Eric: «World of Mathematics», a Wolfram web resources, 2003, mathworld.wolfram.com. // Donley, H. Edward: «Fractals and Newton
Method», Mathematical Department, Indiana University of Pennsylvania, USA, http://www.ma.iup.edu/projects/CalcDEMma/newton/, 2001 – 2006.
13
The Free Dictionary by Farlex, Copyright © 2006 Farlex, Inc., http://encyclopedia.thefreedictionary.com/Root-finding+algorithm. // Mathews, John H.
And Fink, Kurtis D.: «Numerical Methods, Numerical Analysis Project», Department of Mathematics, California State University Fullerton, , 2004 - 2006.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 30
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
2. Método de Newton-Raphson para la búsqueda de raíces
Jamie Campos, Escuela de Ingeniería, Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile
3. Método de Newton
Carlos Bertulani, Instituto de Fisica, Universidade Federal do Rio de Janeiro, Brasil
4. Newton's Method
J. C. Diaz, Univerisity of Tulsa, Tulsa, Oklahoma
5. Newton's Method
John Burkardt, Pittsburgh Supercomputing Center, Carnegie Mellon University, Pittsburgh, PA
6. Newton's Iteration Method for Solution of Nonlinear Equations
U.S.Geological Survey Water-Resources Investigations Report 96-4240
7. A Symbolic Newton-Raphson Method of Finding Roots
Marc A. Murison, Astronomical Applications Department, U.S. Naval Observatory
8. Locating Roots of Functions Using the Newton-Raphson Method
Saul I. Drobnies, San Diego State University, San Diego, CA
9. Newton's Method
H. Edward Donley, Indiana University of Pennsylvania, Indiana, PA
10. Visual Calculus, Newton's Method
Lawrence S. Husch, University of Tennessee, Knoxville, TN
11. Finding the Minimum Using Newton’s Method
Food and Resource Economics, University of Florida, Gainesville, FL
12. Newton's Method for solving equations
Harel Barzilai, University of Minnesota, Minneapolis, MN
13. Newton-Raphson Technique
Mark D Smith, Math. Dept., Massachusetts Institute of Technology, Cambridge, MA
14. Converging Rate of Newton and Secant method
Jin Wenlong, Math. Dept., University of California Davis, CA
15. The Newton Fractal
Saul I. Drobnies, San Diego State University, San Diego, CA
16. Newton Basins for a cubic
David E. Joyce, Clark University, Worcester, Massachusetts
17. Newton's method
William A.Cooper, National Center for Atmospheric Research, Boulder, CO
18. Newton-Raphson Method
Stephen Holst, Dept. of Civil Engineering, University of Colorado, Boulder, CO
19. Solution of Systems of Equations, The Newton-Raphson method
William A.Cooper, National Center for Atmospheric Research, Boulder, CO
20. Newton's Method
Stephan Houben, Dept. of Math. & Comp. Sci., Eindhoven University of Technology, The Netherlands
21. Newton Raphson Method (N-R Method)
Juan Restrepo, Math. Dept., University of Arizona, Tucson, AZ
22. Solving the cubic equation by the Newton-Raphson method
Dept. of Chemistry and Biochemistry, University of South Carolina, Columbia, SC
23. Newton-Raphson
Stuart Dalziel, University of Cambridge, Cambridge, England
24. The Newton-Raphson iterative method
R. J. Hosking, Mahidol University, Mahidol University, Bangkok, Thailand
25. Newton's Method
David Austin, Department of Mathematics, University of British Columbia, Vancouver, B.C., Canada
26. Newton-Raphson Method using derivatives
Informatics and Telematics Institute, Thermi-Thessaloniki, Greece
27. Newton-Raphson method for nonlinear systems of equations
Informatics and Telematics Institute, Thermi-Thessaloniki, Greece

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 31
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

• Otros Recursos biliográficos:

1. Some variant of Newton's method with third-order convergence


Frontini M.; Sormani E.
Applied Mathematics and Computation, 10 August 2003, vol. 140, no. 2, pp. 419-426(8), Ingenta.
2. Dynamics of Newton's method for solving some equations
Jeong M.; Ok Kim G.; Kim S.
Computers and Graphics, April 2002, vol. 26, no. 2, pp. 271-279(9), Ingenta.
3. Kepler equation and accelerated Newton method
Palacios M.
Journal of Computational and Applied Mathematics, 15 January 2002, vol. 138, no. 2, pp. 335-346(12), Ingenta.
4. An acceleration of Newton's method: Super-Halley method
Gutierrez J.M.; Hernandez M.A.
Applied Mathematics and Computation, 25 January 2001, vol. 117, no. 2, pp. 223-239(17), Ingenta.
5. Variable dimension Newton-Raphson method
Ng, S. W.; Lee, Y. S.
IEEE Trans. Circuits Systems I Fund. Theory Appl. 47 (2000), no. 6, 809--817, Math. Sci. Net.
6. The theory of Newton's method
Galantai A.
Journal of Computational and Applied Mathematics, 1 December 2000, vol. 124, no. 1, pp. 25-44(20), Ingenta.
7. From Square Roots to n-th Roots: Newton's Method in Disguise
W. M. Priestley
College Math Journal: Volume 30, Number 5, (1999), Pages: 387-388.
8. Computing Square Roots Fast: Illustrating the Cubic Order of Convergence
John Mathews; Russell Howell
International Journal of Mathematics Education in Science and Technology, 1999, Vol. 30, No. 2, pp. 289-293.
9. Variations on a Theme of Newton
Robert M. Corless
Mathematics Magazine: Volume 29, Number 1, (1998), Pages: 34-41.
10. The Newton and Halley Methods for Complex Roots
Lily Yau and Adi Ben-Israel
American Mathematical Monthly, Vol. 105, No. 9, (November, 1998), pp. 806-818, Jstor.
11. A Continuous Version of Newton's Method
Steve Hetzler
College Math Journal: Volume 28, Number 5, (1997), Pages: 348-35.
12. An improvement of convergence in Newton's method
Lopez S.
Computer Methods in Applied Mechanics and Engineering, 30 June 1997, vol. 145, no. 3, pp. 323-327(5),
Ingenta.
13. Accelerated Convergence in Newton's Method (in Classroom Notes)
William F. Ford, James A. Pennline
SIAM Review, Vol. 38, No. 4. (Dec., 1996), pp. 658-659, Jstor.
14. Newton's Method for Resolving Affected Equations
Chris Christenson
College Math Journal: Volume 27, Number 5, (1996), Pages: 330-340.
15. An example of the secant method of iterative approximation in a fifteenth-century Sanskrit text
Plofker, Kim
Historia Math. 23 (1996), no. 3, 246--256, Math. Sci. Net.
16. The Dynamics of Newton's Methos for Cubic Polynomials
James A. Walsh
College Math Journal: Volume 26, Number 1, (1995), Pages: 22-27.
17. On the Geometry of Halley's Method
T. R. Scavo, J. B. Thoo
American Mathematical Monthly, Vol. 102, No. 5. (May, 1995), pp. 417-426, Jstor.
18. Historical Development of the Newton-Raphson Method
Tjalling J. Ypma
SIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 32
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
19. Average-Case Optimality of a Hybrid Secant-Bisection Method
Erich Novak, Klaus Ritter, Henryk Wozniakowski
Mathematics of Computation, Vol. 64, No. 212. (Oct., 1995), pp. 1517-1539, Jstor
20. A generalized Newton-Raphson method using curvature
Lee, In-Won; Jung, Gil-Ho
Comm. Numer. Methods Engrg. 11 (1995), no. 9, 757--763, Math. Sci. Net.
21. Newton Raphson method, scaling at fractal boundaries and Mathematica
Bisoi, A. K.
Math. Comput. Modelling 21 (1995), no. 10, 91--102, Math. Sci. Net.
22. Historical Development of the Newton-Raphson Method
Tjalling J. Ypma
SIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.
23. Approximate Zeros of Quadratically Convergent Algorithms
Pengyuan Chen
Mathematics of Computation, Vol. 63, No. 207. (Jul., 1994), pp. 247-270, Jstor.
24. Accelerated Convergence in Newton's Method (in Classroom Notes)
Jurgen Gerlach
SIAM Review, Vol. 36, No. 2. (Jun., 1994), pp. 272-276, Jstor.
25. Pathological Functions for Newton's Method
George C. Donovan, Arnold R. Miller, Timothy J. Moreland
American Mathematical Monthly, Vol. 100, No. 1. (Jan., 1993), pp. 53-58, Jstor.
26. The Secant Method and the Golden Mean (in Notes)
Melvin J. Maron, Robert J. Lopez
American Mathematical Monthly, Vol. 100, No. 7. (Aug. - Sep., 1993), pp. 676-678, Jstor.
27. Using the Secant Method to Approximate the Roots of an Equation
Peter Lochiel Glidden
School Science and Mathematics, Vol. 93, No. 1, (1993), pp. 5-8.
28. On the Superlinear Convergence of the Secant Method
Marco Vianello, Renato Zanovello
American Mathematical Monthly, Vol. 99, No. 8. (Oct., 1992), pp. 758-761, Jstor
29. The Modified Newton Method in the Solution of Stiff Ordinary Differential Equations
Roger Alexander
Mathematics of Computation, Vol. 57, No. 196. (Oct., 1991), pp. 673-701, Jstor.
30. A Gauss-Newton Method for Nonlinear Regression
M. N. Ediger, Food and Drug Administration
The Mathematica Journal, Vol. 1, No. 2, (Fall 1990), pp 42-44.
31. On the R-Order of Newton-Like Methods for Enclosing Solutions of Nonlinear Equations
Andreas Frommer, Gunter Mayer
SIAM Journal on Numerical Analysis, Vol. 27, No. 1. (Feb., 1990), pp. 105-116, Jstor.
32. A parabolic extension of Newton's method
Sheldon P. Gordon and Ellis R. Von Eschen
Int. J. Math. Educ. Sci. Technol.,Vol. 21, No. 4, (1990), pp. 519-525.
33. An Improved Newton's Method
John Mathews
The AMATYC Review, Vol. 10, No. 2, (Spring, 1989), pp. 9-14.
34. On Halley-Like Algorithms for Simultaneous Approximation of Polynomial Complex Zeros
Miodrag S. Petkovic
SIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 740-763, Jstor.
35. A Pointwise Quasi-Newton Method for Integral Equations
C. T. Kelley; J. I. Northrup
SIAM Journal on Numerical Analysis, Vol. 25, No. 5. (Oct., 1988), pp. 1138-1155, Jstor.
36. Newton's nth Root Method Without Derivatives
David A. Smith
College Math Journal: Volume 18, Number 5, (1987), Pages: 403-406.
37. Complex Roots of Polynomials by Newton-Raphson Method
R. D. Murphy
Journal of Computers in Mathematics and Science Teaching, (1987), pp. 44-45.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 33
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
38. A Nonmonotone Line Search Technique for Newton's Method
L. Grippo, F. Lampariello, S. Lucidi
SIAM Journal on Numerical Analysis, Vol. 23, No. 4. (Aug., 1986), pp. 707-716, Jstor.
39. Newton's Method and the Jenkins-Traub Algorithm
R. N. Pederson
Proceedings of the American Mathematical Society, Vol. 97, No. 4. (Aug., 1986), pp. 687-690, Jstor.
40. Attracting Orbits in Newton's Method
Mike Hurley
Transactions of the American Mathematical Society, Vol. 297, No. 1. (Sep., 1986), pp.143-158, Jstor.
41. Complex Roots: The Bairstow-Hitchcock Method
Clark Kimberling
The Mathematics Teacher, Vol. 79, No. 4, (April, 1986), pp. 278-282.
42. Pitfalls in the Use of Computers for the Newton-Raphson Method
D. Mackie and T. Scott
The Mathematical Gazette, Vol. 69, no. 450, (Dec., 1985), pp. 252-257.
43. Newton-Raphson in reverse
Davies, M.
Math. Student 47 (1979), no. 2-4, 149--150 (1985), Math. Sci. Net.
44. On Halley's Iteration Method (in Notes)
Walter Gander
American Mathematical Monthly, Vol. 92, No. 2. (Feb., 1985), pp. 131-134, Jstor.
45. An Approximate Newton Method for Coupled Nonlinear Systems
Tony F. Chan
SIAM Journal on Numerical Analysis, Vol. 22, No. 5. (Oct., 1985), pp. 904-913, Jstor.
46. A generalization of Newton Raphson
MacLeod, Allan J.
Internat. J. Math. Ed. Sci. Tech. 15 (1984), no. 1, 117--120, Math. Sci. Net.
47. Newton's Method and Symbolic Dynamics
Sherman Wong
Proceedings of the American Mathematical Society, Vol. 91, No. 2. (Jun., 1984), pp. 245-253, Jstor.
48. On the Convergence of some Interval-Arithmetic Modifications of Newton's Method
G. Alefeld
SIAM Journal on Numerical Analysis, Vol. 21, No. 2. (Apr., 1984), pp. 363-372, Jstor.
49. Newton's Method, Circle Maps, and Chaotic Motion
Donald G. Saari, John B. Urenko
American Mathematical Monthly, Vol. 91, No. 1. (Jan., 1984), pp. 3-17, Jstor.
50. Aitken Sequences and Fibonacci Numbers
G. M. Phillips
American Mathematical Monthly, Vol. 91, No. 6. (Jun. - Jul., 1984), pp. 354-357, Jstor.
51. A Nonconverging Newton Sequence
Peter Petek
Mathematics Magazine: Volume 14, Number 1, (1983), Pages: 43-45.
52. A New Acceleration Method for Newton's Method at Singular Points
C. T. Kelley, R. Suresh
SIAM Journal on Numerical Analysis, Vol. 20, No. 5. (Oct., 1983), pp. 1001-1009, Jstor.
53. Convergence Rates for Newton's Method at Singular Points
D. W. Decker, H. B. Keller, C. T. Kelley
SIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 296-314, Jstor.
54. Analysis of Newton's Method at Irregular Singularities
A. Griewank, M. R. Osborne
SIAM Journal on Numerical Analysis, Vol. 20, No. 4. (Aug., 1983), pp. 747-773, Jstor.
55. Local Convergence of Difference Newton-Like Methods
T. J. Ypma
Mathematics of Computation, Vol. 41, No. 164. (Oct., 1983), pp. 527-536, Jstor.
56. Finding a Multiple Zero by Transformations and Newton-Like Methods
T. J. Ypma
SIAM Review, Vol. 25, No. 3. (Jul., 1983), pp. 365-378, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 34
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
57. Global Convergence of a Modified Newton Iteration for Algebraic Equations
Kazuo Murota
SIAM Journal on Numerical Analysis, Vol. 19, No. 4. (Aug., 1982), pp. 793-799, Jstor.
58. Newton-Raphson Extended
Neville W. Richards
The Mathematical Gazette, Vol. 65, no. 434, (Dec., 1981), pp. 294-295.
59. On the Convergence of Halley's Method (in Classroom Notes)
G. Alefeld
American Mathematical Monthly, Vol. 88, No. 7. (Aug. - Sep., 1981), pp. 530-536, Jstor.
60. Optimal Partitioning of Newton's Method for Calculating Roots
Gunter Meinardus, G. D. Taylor
Mathematics of Computation, Vol. 35, No. 152. (Oct., 1980), pp. 1221-1230, Jstor.
61. Be Careful When You Dodge Round Newton
F. M. Arscott
The Mathematical Gazette, Vol. 63, no. 425, (Oct., 1979), pp. 169-172.
62. Inverse Iteration, Ill-Conditioned Equations and Newton's Method
G. Peters, J. H. Wilkinson
SIAM Review, Vol. 21, No. 3. (Jul., 1979), pp. 339-360, Jstor.
63. Affine Invariant Convergence Theorems for Newton's Method and Extensions to Related Methods
P. Deuflhard, G. Heindl
SIAM Journal on Numerical Analysis, Vol. 16, No. 1. (Feb., 1979), pp. 1-10, Jstor.
64. On Newton's Method for Singular Problems
G. W. Reddien
SIAM Journal on Numerical Analysis, Vol. 15, No. 5. (Oct., 1978), pp. 993-996, Jstor.
65. Ideas and examples for presenting the Newton-Raphson method
Hart, V. G.; Howard, L. N.
Austral. Math. Soc. Gaz. 5 (1978), no. 3, 73--89, Math. Sci. Net.
66. Sufficient conditions for elementary Newton-Raphson convergence
Speck, G. P.
New Zealand Math. Mag. 14 (1977), no. 1, 34--36, Math. Sci. Net.
67. On Halley's Variation of Newton's Method (in Classroom Notes)
George H. Brown, Jr.
American Mathematical Monthly, Vol. 84, No. 9. (Nov., 1977), pp. 726-728, Jstor.
68. A Stable Variant of the Secant Method for Solving Nonlinear Equations
W. B. Gragg, G. W. Stewart
SIAM Journal on Numerical Analysis, Vol. 13, No. 6. (Dec., 1976), pp. 889-903, Jstor.
69. A Note on the Convergence of Newton's Method
L. B. Rall
SIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 34-36, Jstor.
70. Cycling in the Newton-Raphson algorithm
Ascher, Marcia
Internat. J. Math. Ed. Sci. Tech. 5 (1974), no. 2, 229--235, Math. Sci. Net.
71. The Use of the Secant Method in Econometric Models
J. Phillip Cooper, Stanley Fischer
The Journal of Business, Vol. 46, No. 2. (Apr., 1973), pp. 274-277, Jstor.
72. The Kantorovich Theorem for Newton's Method (in Classroom Notes)
R. A. Tapia
American Mathematical Monthly, Vol. 78, No. 4. (Apr., 1971), pp. 389-392, Jstor.
73. Global Convergence of Newton-Gauss-Seidel Methods
Jorge J. More
SIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 325-336, Jstor.
74. The Simultaneous Newton Improvement of a Complete Set of Approximate Factors of a Polynomial
A. A. Grau
SIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 425-438, Jstor.
75. Generalized Logarithmic Error and Newton's Method for the mth Root
David L. Phillips
Mathematics of Computation, Vol. 24, No. 110. (Apr., 1970), pp. 383-389, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 35
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
76. On Aitken' s d^2 Method (in Mathematical Notes)
Simeon Reich
American Mathematical Monthly, Vol. 77, No. 3. (Mar., 1970), pp. 283-284, Jstor.
77. Geometrical Aspects of Newton's Method
Walter Jennings
Mathematics Magazine, Vol. 42, No. 5. (Nov., 1969), pp. 262-266, Jstor.
78. Optimal Starting Approximations for Newton's Method
P. H. Sterbenz, C. T. Fike
Mathematics of Computation, Vol. 23, No. 106. (Apr., 1969), pp. 313-318, Jstor.
79. A Quadratically Convergent Newton-Like Method Based Upon Gaussian Elimination
Kenneth M. Brown
SIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 560-569, Jstor.
80. On the Kantorovich Hypothesis for Newton's Method
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 493-507, Jstor.
81. A Modified Newton-Raphson Iteration (in Classroom Notes)
Walter Jennings
American Mathematical Monthly, Vol. 75, No. 6. (Jun. - Jul., 1968), pp. 652-654, Jstor.
82. On Steffensen's Method
L. W. Johnson, D. R. Scholz
SIAM Journal on Numerical Analysis, Vol. 5, No. 2. (Jun., 1968), pp. 296-302, Jstor.
83. Optimal Starting Values for the Newton-Raphson Calculation of Inverses of Certain Functions
D. G. Moursund, G. D. Taylor
SIAM Journal on Numerical Analysis, Vol. 5, No. 1. (Mar., 1968), pp. 138-150, Jstor.
84. On Newton-Raphson Iteration (in Classroom Notes)
J. F. Traub
American Mathematical Monthly, Vol. 74, No. 8. (Oct., 1967), pp. 996-998, Jstor.
85. Monotone Iterations for Nonlinear Equations with Application to Gauss-Seidel Methods
James M. Ortega, Werner C. Rheinboldt
SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 171-190, Jstor.
86. Newton's Method for Convex Operators in Partially Ordered Spaces
James S. Vandergraft
SIAM Journal on Numerical Analysis, Vol. 4, No. 3. (Sep., 1967), pp. 406-432, Jstor.
87. On Newton's Method and Nonlinear Simultaneous Displacements
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 4, No. 1. (Mar., 1967), pp. 103-108, Jstor.
88. A Stationary Newton Method for Nonlinear Functional Equations
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 222-232, Jstor.
89. Note on Newton's Method
L. M. Weiner
Mathematics Magazine, Vol. 39, No. 3. (May, 1966), pp. 143-145, Jstor.
90. On a Discrete Version of the Newton-Raphson Method
Leon Wegge
SIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 134-142, Jstor.
91. Nonlinear Difference Equations and Gauss-Seidel Type Iterative Methods
James M. Ortega, Maxine L. Rockoff
SIAM Journal on Numerical Analysis, Vol. 3, No. 3. (Sep., 1966), pp. 497-513, Jstor.
92. On Discretization and Differentiation of Operators with Application to Newton's Method
James M. Ortega, Werner C. Rheinboldt
SIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 143-156, Jstor.
93. Convergence of the Newton-Raphson method for arbitrary polynomials
Lancaster, P.
Math. Gaz. 48, (1964), 291--295, Math. Sci. Net.
94. On the Utility of Newton's Method for Computing Complex Roots of Equations (in Technical Notes and Short
Papers)
I. M. Longman
Mathematics of Computation, Vol. 14, No. 70. (Apr., 1960), pp. 187-189, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 36
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
95. Taylor's Theorem and Newton's Method (in Classroom Notes)
F. D. Parker
American Mathematical Monthly, Vol. 66, No. 1. (Jan., 1959), p. 51, Jstor.
96. A modified Newton-Raphson process for approximation of multiple roots of polynomials
Milnes, Harold Willis
Indust. Math. 9, (1958), no. 2, 17--26, Math. Sci. Net.
97. Newton's Method and Multiple Roots
Thomas E. Mott
American Mathematical Monthly, Vol. 64, No. 9. (Nov., 1957), pp. 635-638, Jstor.
98. Newton's Method for Trigonometry Students (in Classroom Notes)
J. P. Ballantine
American Mathematical Monthly, Vol. 63, No. 10. (Dec., 1956), p. 722, Jstor.
99. Newton's Method in Banach Spaces
Robert G. Bartle
Proceedings of the American Mathematical Society, Vol. 6, No. 5. (Oct., 1955), pp. 827-831, Jstor.
100. Another Variation of Newton's Method (in Classroom Notes)
J. K. Stewart
American Mathematical Monthly, Vol. 58, No. 5. (May, 1951), pp. 331-334, Jstor.
101. A Type of Variation on Newton's Method
H. J. Hamilton
American Mathematical Monthly, Vol. 57, No. 8. (Oct., 1950), pp. 517-522, Jstor.
102. Notes on the Graeffe Method of Root Squaring (in Mathematical Notes)
G. C. Best
American Mathematical Monthly, Vol. 56, No. 2. (Feb., 1949), pp. 91-94, Jstor.
103. A Modification of Newton's Method (in Classroom Notes)
H. S. Wall
American Mathematical Monthly, Vol. 55, No. 2. (Feb., 1948), pp. 90-94, Jstor.
104. On the Newton-Raphson method of approximation
Richmond, H. W.
Edinburgh Math. Notes 1944 (1944). no. 34, 5--8, Math. Sci. Net.
105. New Criteria for Accuracy in Approximating Real Roots by the Newton-Raphson Method
Myron G. Pawley
National Mathematics Magazine, Vol. 15, No. 3. (Dec., 1940), pp. 111-120, Jstor.
106. On the Graeffe Method of Solution of Equations
L. L. Cronvich
American Mathematical Monthly, Vol. 46, No. 4. (Apr., 1939), pp. 185-190. Jstor.
107. Haley's Methods for Solving Equations
Harry Bateman
American Mathematical Monthly, Vol. 45, No. 1. (Jan., 1938), pp. 11-17, Jstor.
108. On the Convergence of Newton's Method of Approximation (in Questions, Discussions, and Notes)
G. T. Coate
American Mathematical Monthly, Vol. 44, No. 7. (Aug. - Sep., 1937), pp. 464-466, Jstor.
109. Graeffe's Method and Complex Roots (in Questions, Discussions, and Notes)
B. A. Hausmann
American Mathematical Monthly, Vol. 43, No. 4. (Apr., 1936), pp. 225-229. Jstor.
110. On Graeffe's Method for the Numerical Solution of Algebraic Equations
C. A. Hutchinson
American Mathematical Monthly, Vol. 42, No. 3. (Mar., 1935), pp. 149-161, Jstor.
111. On Newton's Method of Approximation
Henry B. Fine
Proceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 9. (Sep. 15, 1916),
pp. 546-552, Jstor.
112. Newton's Method in General Analysis
Albert A. Bennett
Proceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 10. (Oct. 15,
1916), pp. 592-598, Jstor.
113. Historical Note on the Newton-Raphson Method of Approximation
Florian Cajori
American Mathematical Monthly, Vol. 18, No. 2. (Feb., 1911), pp. 29-32, Jstor.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 37
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
114. On Newton's Method of Approximation (in Notes)
F. Franklin
American Journal of Mathematics, Vol. 4, No. 1/4. (1881), pp. 275-276, Jstor.
115. On Sir Isaac Newton's Method of Finding the Limits of the Roots of Equations. [Abstract]
Herbert Panmure Ribton
Abstracts of the Papers Communicated to the Royal Society of London, Vol. 5. (1843 - 1850), p. 630, Jstor.

• Desarrollos Teóricos y Aplicaciones:

1. On a theorem of L.V. Kantorovich concerning Newton's method


Argyros I.K.
Journal of Computational and Applied Mathematics, 15 June 2003, vol. 155, no. 2, pp. 223-230(8), Ingenta.
2. Predictor-Corrector Smoothing Newton Method, Based on a New Smoothing Function, for Solving the Nonlinear
Complementarity Problem with a P0 Function
Huang Z.H.; Han J.; Chen Z.
Journal of Optimization Theory and Applications, April 2003, vol. 117, no. 1, pp. 39-68(30), Ingenta.
3. The Inexact Newton-Like Method for Inverse Eigenvalue Problem
Chan R.H.; Chung H.L.; Xu S.-F.
Bit Numerical Mathematics, March 2003, vol. 43, no. 1, pp. 7-20(14), Ingenta.
4. Structured Secant Method Based on a New Quasi-Newton Equation for Nonlinear Least Squares Problems
Zhang J.Z.; Xue Y.; Zhang K.
Bit Numerical Mathematics, March 2003, vol. 43, no. 1, pp. 217-229(13), Ingenta.
5. A penalty/Newton/conjugate gradient method for the solution of obstacle problems
Glowinski R.; Kuznetsov Y.A.; Pan T.-W.
Comptes Rendus Mathematique, 1 March 2003, vol. 336, no. 5, pp. 435-440(6), Ingenta.
6. Global Linear and Quadratic One-step Smoothing Newton Method for P0-LCP
Zhang L.; Zhang X.
Journal of Global Optimization, April 2003, vol. 25, no. 4, pp. 363-376(14), Ingenta.
7. Some variant of Newton's method with third-order convergence
Frontini M.; Sormani E.
Applied Mathematics and Computation, 10 August 2003, vol. 140, no. 2, pp. 419-426(8), Ingenta.
8. The Newton-arithmetic mean method for the solution of systems of nonlinear equations
Galligani E.
Applied Mathematics and Computation, 10 January 2003, vol. 134, no. 1, pp. 9-34(26), Ingenta.
9. Simultaneous Point Estimates for Newton's Method
Batra P.
Bit Numerical Mathematics, 2002, vol. 42, no. 3, pp. 467-476(10), Ingenta.
10. Modified Newton method for reactive dispatching
da Costa G.R.M.
International Journal of Electrical Power and Energy Systems, December 2002, vol. 24, no. 10, pp. 815-819(5),
Ingenta.
11. Solving a Boundary Value Problem by a Newton-Like Method
Ezquerro J.A.; Herna´ndez M.A.; Salanova M.A.
International Journal of Computer Mathematics, 1 January 2002, vol. 79, no. 10, pp. 1113-1120(8), Ingenta.
12. Iteratively regularized Gauss-Newton method for atmospheric remote sensing
Doicu A.; Schreier F.; Hess M.
Computer Physics Communications, 15 October 2002, vol. 148, no. 2, pp. 214-226(13), Ingenta.
13. The Geometry of the Newton Method on Non-Compact Lie Groups
Mahony R.; Manton J.H.
Journal of Global Optimization, August 2002, vol. 23, no. 3-4, pp. 309-327(19), Ingenta.
14. On the solution of three-dimensional inverse obstacle acoustic scattering problems by a regularized Newton
method
Farhat C.; Tezaur R.; Djellouli R.
Inverse Problems, 2002, vol. 18, no. 5, pp. 1229-1246(18), Ingenta.
15. On the Gauss--Newton method for l1 orthogonal distance regression
Watson G.A.
IMA Journal of Numerical Analysis, July 2002, vol. 22, no. 3, pp. 345-357(13), Ingenta.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 38
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
16. Dynamics of Newton's method for solving some equations
Jeong M.; Ok Kim G.; Kim S.
Computers and Graphics, April 2002, vol. 26, no. 2, pp. 271-279(9), Ingenta.
17. A Globally Convergent Smoothing Newton Method for Nonsmooth Equations and Its Application to
Complementarity Problems
Taji K.; Miyamoto M.
Computational Optimization and Applications, April 2002, vol. 22, no. 1, pp. 81-101(21), Ingenta.
18. Smoothing Functions and Smoothing Newton Method for Complementarity and Variational Inequality Problems
Qi L.; Sun D.
Journal of Optimization Theory and Applications, April 2002, vol. 113, no. 1, pp. 121-147(27), Ingenta.
19. Modelling the three-way catalytic converter with mechanistic kinetics using the Newton-Krylov method on a
parallel computer
Mukadi L.S.; Hayes R.E.
Computers and Chemical Engineering, 15 March 2002, vol. 26, no. 3, pp. 439-455(17), Ingenta.
20. Bifurcation analysis of incompressible flow in a driven cavity by the Newton-Picard method
Tiesinga G.; Wubs F.W.; Veldman A.E.P.
Journal of Computational and Applied Mathematics, 1 March 2002, vol. 140, no. 1, pp. 751-772(22), Ingenta.
21. Kepler equation and accelerated Newton method
Palacios M.
Journal of Computational and Applied Mathematics, 15 January 2002, vol. 138, no. 2, pp. 335-346(12), Ingenta.
22. A direct Newton method for calculus of variations
Levin1 Y.; Nediak M.; Ben-Israel A.
Journal of Computational and Applied Mathematics, 15 February 2002, vol. 139, no. 2, pp. 197-213(17), Ingenta.
23. Newton-Raphson Method and Stability of Nonlinear Information Image-Recovery Techniques
Bajkova A.T.
Radiophysics and Quantum Electronics, October 2001, vol. 43, no. 10, pp. 805-816(12), Ingenta.
24. A Newton method for systems of m equations in n variables
Levin Y.; Ben-Israel A.
Nonlinear Analysis, August 2001, vol. 47, no. 3, pp. 1961-1971(11), Ingenta.
25. An acceleration of Newton's method: Super-Halley method
Gutierrez J.M.; Hernandez M.A.
Applied Mathematics and Computation, 25 January 2001, vol. 117, no. 2, pp. 223-239(17), Ingenta.
26. Modified Newton and secant methods for solving an order O(¡Error!Marcador no definido.) finite-difference
problem
Lin, Zhenghua; Yu, Xiaolin; Sheng, Zhongping
Ann. Differential Equations 16 (2000), no. 2, 134--144, Math. Sci. Net.
27. Variable dimension Newton-Raphson method
Ng, S. W.; Lee, Y. S.
IEEE Trans. Circuits Systems I Fund. Theory Appl. 47 (2000), no. 6, 809--817, Math. Sci. Net.
28. Newton's Method in Shape Optimisation: A Three-Dimensional Case
Novruzi A.; Roche J.R.
Bit Numerical Mathematics, 2000, vol. 40, no. 1, pp. 102-120(19), Ingenta.
29. Theoretical Efficiency of an Inexact Newton Method
Deng N.Y.; Wang Z.Z.
Journal of Optimization Theory and Applications, April 2000, vol. 105, no. 1, pp. 97-112(16), Ingenta.
30. A Variant of Newton's Method with Accelerated Third-Order Convergence
Weerakoon S.; Fernando T.G.I.
Applied Mathematics Letters, November 2000, vol. 13, no. 8, pp. 87-93(7), Ingenta.
31. Newton's Method for Zero Points of a Matrix Function and its Applications to Queueing Models
Nishimura S.; Harashima A.
Journal of the Operations Research Society of Japan, September 2000, vol. 43, no. 3, pp. 396-416(21), Ingenta.
32. The theory of Newton's method
Galantai A.
Journal of Computational and Applied Mathematics, 1 December 2000, vol. 124, no. 1, pp. 25-44(20), Ingenta.
33. Improved Newton method for optimal power flow problem
da Costa G.R.M.; Costa C.E.U.
International Journal of Electrical Power and Energy Systems, 1 October 2000, vol. 22, no. 7, pp. 459-462(4),
Ingenta.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 39
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
34. Construction of the Jordan decomposition by means of Newton's method
Schmidt D.
Linear Algebra and its Applications, 15 July 2000, vol. 314, no. 1, pp. 75-89(15), Ingenta.
35. A new continuation Newton-like method and its deformation
Wu X.-Y.
Applied Mathematics and Computation, 1 June 2000, vol. 112, no. 1, pp. 75-78(4), Ingenta.
36. Newton's method and generation of a determinantal family of iteration functions
Kalantari B.; Gerlach J.
Journal of Computational and Applied Mathematics, 1 April 2000, vol. 116, no. 1, pp. 195-200(6), Ingenta.
37. From Square Roots to n-th Roots: Newton's Method in Disguise
W. M. Priestley
College Math Journal: Volume 30, Number 5, (1999), Pages: 387-388.
38. Computing Square Roots Fast: Illustrating the Cubic Order of Convergence
John Mathews; Russell Howell
International Journal of Mathematics Education in Science and Technology, 1999, Vol. 30, No. 2, pp. 289-293.
39. The application of Julia set to Newton-secants method
Tomova, Anna
Applications of mathematics in engineering and economics (Sozopol, 1999), 94--95, Heron Press, Sofia, 2000,
Math. Sci. Net.
40. Newton maps: fractals from Newton's method for the circle map
Cartwright J.H.E.
Computers and Graphics, August 1999, vol. 23, no. 4, pp. 607-612(6), Ingenta.
41. A Newton method for three-dimensional fretting problems
Stromberg N.
International Journal of Solids and Structures, 1 May 1999, vol. 36, no. 14, pp. 2075-2090(16), Ingenta.
42. A practical choice of parameters in improved SOR-Newton method with orderings
Ishiwata E.
Journal of Computational and Applied Mathematics, 26 February 1999, vol. 102, no. 2, pp. 315-331(17), Ingenta.
43. Numerical solutions for orthogonal wavelet filters by Newton method
Chang L.-W.; Shen Y.-E.
Signal Processing: Image Communication, August 1999, vol. 14, no. 10, pp. 879-887(9), Ingenta.
44. Application of Galerkin Finite-Element Method with Newton Iterations in Computing Steady-State Solutions of
Unipolar Charge Currents in Corona Devices
Feng J.Q.
Journal of Computational Physics, May 1999, vol. 151, no. 2, pp. 969-989(21), Ingenta.
45. Strong consistency of robust nonlinear regression estimates using Newton-Raphson algorithms. (Chinese)
Yuan, Jun Zhu
J. Baoji College Arts Sci. Nat. Sci. 19 (1999), no. 4, 50--53, Math. Sci. Net.
46. Variations on a Theme of Newton
Robert M. Corless
Mathematics Magazine: Volume 29, Number 1, (1998), Pages: 34-41.
47. The Newton and Halley Methods for Complex Roots
Lily Yau and Adi Ben-Israel
American Mathematical Monthly, Vol. 105, No. 9, (November, 1998), pp. 806-818, Jstor.
48. A global Newton method for the zeros of cylinder functions
Segura J.
Numerical Algorithms, 1998, vol. 18, no. 3/4, pp. 259-276(18), Ingenta.
49. A parallel quasi-Newton method for Gaussian data fitting
Caprioli P.; Holmes M.H.
Parallel Computing, October 1998, vol. 24, no. 11, pp. 1635-1651(17), Ingenta.
50. A statistically-based Newton method for pose refinement
Pece A.; Worrall A.
Image and Vision Computing, June 1998, vol. 16, no. 8, pp. 541-544(4), Ingenta.
51. nth Root extraction: Double iteration process and Newton's method
Dubeau F.
Journal of Computational and Applied Mathematics, 4 May 1998, vol. 91, no. 2, pp. 191-198(8), Ingenta.
52. A generalization of the Newton-Raphson method. (Japanese)
Fukushima, Katsuhiko; Kitagawa, Seinosuke
Sugaku 50 (1998), no. 2, 211--214, Math. Sci. Net.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 40
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
53. A Continuous Version of Newton's Method
Steve Hetzler
College Math Journal: Volume 28, Number 5, (1997), Pages: 348-35.
54. An Inexact Newton Method for Systems Arising from the Finite Element Method
Capon P.J.; Jimack P.K.
Applied Mathematics Letters, May 1997, vol. 10, no. 3, pp. 9-12(4), Ingenta.
55. An improvement of convergence in Newton's method
Lopez S.
Computer Methods in Applied Mechanics and Engineering, 30 June 1997, vol. 145, no. 3, pp. 323-327(5),
Ingenta.
56. Accelerated Convergence in Newton's Method (in Classroom Notes)
William F. Ford, James A. Pennline
SIAM Review, Vol. 38, No. 4. (Dec., 1996), pp. 658-659, Jstor.
57. Newton's Method for Resolving Affected Equations
Chris Christenson
College Math Journal: Volume 27, Number 5, (1996), Pages: 330-340.
58. An example of the secant method of iterative approximation in a fifteenth-century Sanskrit text
Plofker, Kim
Historia Math. 23 (1996), no. 3, 246--256, Math. Sci. Net.
59. A Newton method for solving the inverse scattering problem for a sound-hard obstacle
Mnch L.
Inverse Problems, 1996, vol. 12, no. 3, pp. 309-323(15), Ingenta.
60. A Stepsize Control for the Botsaris-Newton Method
Sturm T.F.
Journal of Mathematical Analysis and Applications, April 1996, vol. 199, no. 1, pp. 59-74(16), Ingenta.
61. The Dynamics of Newton's Methos for Cubic Polynomials
James A. Walsh
College Math Journal: Volume 26, Number 1, (1995), Pages: 22-27.
62. On the Geometry of Halley's Method
T. R. Scavo, J. B. Thoo
American Mathematical Monthly, Vol. 102, No. 5. (May, 1995), pp. 417-426, Jstor.
63. Historical Development of the Newton-Raphson Method
Tjalling J. Ypma
SIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.
64. Average-Case Optimality of a Hybrid Secant-Bisection Method
Erich Novak, Klaus Ritter, Henryk Wozniakowski
Mathematics of Computation, Vol. 64, No. 212. (Oct., 1995), pp. 1517-1539, Jstor
65. A generalized Newton-Raphson method using curvature
Lee, In-Won; Jung, Gil-Ho
Comm. Numer. Methods Engrg. 11 (1995), no. 9, 757--763, Math. Sci. Net.
66. Newton Raphson method, scaling at fractal boundaries and Mathematica
Bisoi, A. K.
Math. Comput. Modelling 21 (1995), no. 10, 91--102, Math. Sci. Net.
67. Remarks on the convergence of the Newton-Raphson method
Berinde, Vasile
Rev. Anal. Numér. Théor. Approx. 24 (1995), no. 1-2, 15--21, Math. Sci. Net.
68. Historical Development of the Newton-Raphson Method
Tjalling J. Ypma
SIAM Review, Vol. 37, No. 4. (Dec., 1995), pp. 531-551, Jstor.
69. Approximate Zeros of Quadratically Convergent Algorithms
Pengyuan Chen
Mathematics of Computation, Vol. 63, No. 207. (Jul., 1994), pp. 247-270, Jstor.
70. Accelerated Convergence in Newton's Method (in Classroom Notes)
Jurgen Gerlach
SIAM Review, Vol. 36, No. 2. (Jun., 1994), pp. 272-276, Jstor.
71. Combining binary search and Newton's method to compute real roots for a class of real functions.
Ye, Yinyu
J. Complexity 10 (1994), no. 3, 271--280, MathSciNet.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 41
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
72. Pathological Functions for Newton's Method
George C. Donovan, Arnold R. Miller, Timothy J. Moreland
American Mathematical Monthly, Vol. 100, No. 1. (Jan., 1993), pp. 53-58, Jstor.
73. The Secant Method and the Golden Mean (in Notes)
Melvin J. Maron, Robert J. Lopez
American Mathematical Monthly, Vol. 100, No. 7. (Aug. - Sep., 1993), pp. 676-678, Jstor.
74. Using the Secant Method to Approximate the Roots of an Equation
Peter Lochiel Glidden
School Science and Mathematics, Vol. 93, No. 1, (1993), pp. 5-8.
75. On the Superlinear Convergence of the Secant Method
Marco Vianello, Renato Zanovello
American Mathematical Monthly, Vol. 99, No. 8. (Oct., 1992), pp. 758-761, Jstor
76. Newton-Raphson's method and convexity
Hernández Verón, Miguel A.
Zb. Rad. Prirod.-Mat. Fak. Ser. Mat. 22 (1992), no. 1, 159--166, Math. Sci. Net.
77. A combined method for polynomial roots using modified Newton-Raphson with minimum searching
Lynge, Walter C.
J. Comput. Appl. Math. 42 (1992), no. 3, 339--355, Math. Sci. Net.
78. The Modified Newton Method in the Solution of Stiff Ordinary Differential Equations
Roger Alexander
Mathematics of Computation, Vol. 57, No. 196. (Oct., 1991), pp. 673-701, Jstor.
79. Convergence of the Newton-Raphson algorithm in elastic-plastic incremental analysis
Caddemi, S.; Martin, J. B.
Internat. J. Numer. Methods Engrg. 31 (1991), no. 1, 177--191, Math. Sci. Net.
80. On the Newton-Raphson iterative method for the computation of the square root
Badea, C at alin; Buze teanu, Serban N.
An. Univ. Bucurec sti Mat. Inform. 39/40 (1990/1991), no. 3, 3--13, Math. Sci. Net.
81. A Gauss-Newton Method for Nonlinear Regression
M. N. Ediger, Food and Drug Administration
The Mathematica Journal, Vol. 1, No. 2, (Fall 1990), pp 42-44.
82. On the R-Order of Newton-Like Methods for Enclosing Solutions of Nonlinear Equations
Andreas Frommer, Gunter Mayer
SIAM Journal on Numerical Analysis, Vol. 27, No. 1. (Feb., 1990), pp. 105-116, Jstor.
83. A parabolic extension of Newton's method
Sheldon P. Gordon and Ellis R. Von Eschen
Int. J. Math. Educ. Sci. Technol.,Vol. 21, No. 4, (1990), pp. 519-525.
84. Convergence of the Newton-Raphson method for boundary value problems of ordinary differential equations
Guenther, Ronald B.; Lee, John W.
Computational solution of nonlinear systems of equations (Fort Collins, CO, 1988), 257--264, Lectures in Appl.
Math., 26, Amer. Math. Soc., Providence, RI, (1990), Math. Sci. Net.
85. Newton-Raphson behaving chaotically
Robin, A. C.
Bull. Inst. Math. Appl. 26 (1990), no. 3, 34--35, Math. Sci. Net.
86. An Improved Newton's Method
John Mathews
The AMATYC Review, Vol. 10, No. 2, (Spring, 1989), pp. 9-14.
87. On Halley-Like Algorithms for Simultaneous Approximation of Polynomial Complex Zeros
Miodrag S. Petkovic
SIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 740-763, Jstor.
88. An Approximate Newton Method for the Solution of the Basic Semiconductor Device Equations
C. Ringhofer; C. Schmeiser
SIAM Journal on Numerical Analysis, Vol. 26, No. 3. (Jun., 1989), pp. 507-516, Jstor.
89. An asynchronous Newton-Raphson method
Lootsma, Freerk A.
Supercomputing (Trondheim, 1989), 367--376, NATO Adv. Sci. Inst. Ser. F Comput. Systems Sci., 62, Springer,
Berlin, 1989, Math. Sci. Net.
90. Gauss-Newton versus Newton-Raphson algorithm for the recursive generalized least-squares identification
Weinfeld, Roman; Unton, Fryderyk Z.
Control Cybernet. 18 (1989), no. 2, 171--178, Math. Sci. Net.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 42
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
91. The Projected Newton Method has Order 1 + 2^1/2 for the Symmetric Eigenvalue Problem
R. A. Tapia; David L. Whitley
SIAM Journal on Numerical Analysis, Vol. 25, No. 6. (Dec., 1988), pp. 1376-1382, Jstor.
92. A Pointwise Quasi-Newton Method for Integral Equations
C. T. Kelley; J. I. Northrup
SIAM Journal on Numerical Analysis, Vol. 25, No. 5. (Oct., 1988), pp. 1138-1155, Jstor.
93. Newton's nth Root Method Without Derivatives
David A. Smith
College Math Journal: Volume 18, Number 5, (1987), Pages: 403-406.
94. Complex Roots of Polynomials by Newton-Raphson Method
R. D. Murphy
Journal of Computers in Mathematics and Science Teaching, (1987), pp. 44-45.
95. A Quasi-Newton Method for Elliptic Boundary Value Problems
C. T. Kelley; E. W. Sachs
SIAM Journal on Numerical Analysis, Vol. 24, No. 3. (Jun., 1987), pp. 516-531, Jstor.
96. A Nonmonotone Line Search Technique for Newton's Method
L. Grippo, F. Lampariello, S. Lucidi
SIAM Journal on Numerical Analysis, Vol. 23, No. 4. (Aug., 1986), pp. 707-716, Jstor.
97. Newton's Method and the Jenkins-Traub Algorithm
R. N. Pederson
Proceedings of the American Mathematical Society, Vol. 97, No. 4. (Aug., 1986), pp. 687-690, Jstor.
98. Attracting Orbits in Newton's Method
Mike Hurley
Transactions of the American Mathematical Society, Vol. 297, No. 1. (Sep., 1986), pp.143-158, Jstor.
99. Newton's Method for the Matrix Square Root
Nicholas J. Higham
Mathematics of Computation, Vol. 46, No. 174. (Apr., 1986), pp. 537-549, Jstor.
100. Complex Roots: The Bairstow-Hitchcock Method
Clark Kimberling
The Mathematics Teacher, Vol. 79, No. 4, (April, 1986), pp. 278-282.
101. Pitfalls in the Use of Computers for the Newton-Raphson Method
D. Mackie and T. Scott
The Mathematical Gazette, Vol. 69, no. 450, (Dec., 1985), pp. 252-257.
102. Newton-Raphson in reverse
Davies, M.
Math. Student 47 (1979), no. 2-4, 149--150 (1985), Math. Sci. Net.
103. On Halley's Iteration Method (in Notes)
Walter Gander
American Mathematical Monthly, Vol. 92, No. 2. (Feb., 1985), pp. 131-134, Jstor.
104. Orthogonal Projections on Convex Sets for Newton-Like Methods
Stanislaw M. Grzegorski
SIAM Journal on Numerical Analysis, Vol. 22, No. 6. (Dec., 1985), pp. 1208-1219, Jstor.
105. An Approximate Newton Method for Coupled Nonlinear Systems
Tony F. Chan
SIAM Journal on Numerical Analysis, Vol. 22, No. 5. (Oct., 1985), pp. 904-913, Jstor.
106. Global analysis of continuous analogues of the Levenberg-Marquardt and Newton-Raphson methods for solving
nonlinear equations
Tanabe, Kunio
Ann. Inst. Statist. Math. 37 (1985), no. 1, 189--203, Math. Sci. Net.
107. Convergence of Newton Method in Nonlinear Network Analysis
Altman T.; Boulos P.F.
Mathematical and Computer Modelling, February 1995, vol. 21, no. 4, pp. 35-41(7), Ingenta.
108. Newton Raphson Method, Scaling at Fractal Boundaries and Mathematica
Bisoi A.K.
Mathematical and Computer Modelling, May 1995, vol. 21, no. 10, pp. 91-102(12, Ingenta.
109. A generalization of Newton Raphson
MacLeod, Allan J.
Internat. J. Math. Ed. Sci. Tech. 15 (1984), no. 1, 117--120, Math. Sci. Net.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 43
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
110. Newton's Method and Symbolic Dynamics
Sherman Wong
Proceedings of the American Mathematical Society, Vol. 91, No. 2. (Jun., 1984), pp. 245-253, Jstor.
111. On the Convergence of some Interval-Arithmetic Modifications of Newton's Method
G. Alefeld
SIAM Journal on Numerical Analysis, Vol. 21, No. 2. (Apr., 1984), pp. 363-372, Jstor.
112. Newton's Method, Circle Maps, and Chaotic Motion
Donald G. Saari, John B. Urenko
American Mathematical Monthly, Vol. 91, No. 1. (Jan., 1984), pp. 3-17, Jstor.
113. Aitken Sequences and Fibonacci Numbers
G. M. Phillips
American Mathematical Monthly, Vol. 91, No. 6. (Jun. - Jul., 1984), pp. 354-357, Jstor.
114. Newton-Type Minimization Via the Lanczos Method
Stephen G. Nash
SIAM Journal on Numerical Analysis, Vol. 21, No. 4. (Aug., 1984), pp. 770-788, Jstor.
115. On the Local Convergence of a Quasi-Newton Method for the Nonlinear Programming Problem
Thomas F. Coleman; Andrew R. Conn
SIAM Journal on Numerical Analysis, Vol. 21, No. 4. (Aug., 1984), pp. 755-769, Jstor.
116. A Nonconverging Newton Sequence
Peter Petek
Mathematics Magazine: Volume 14, Number 1, (1983), Pages: 43-45.
117. A New Acceleration Method for Newton's Method at Singular Points
C. T. Kelley, R. Suresh
SIAM Journal on Numerical Analysis, Vol. 20, No. 5. (Oct., 1983), pp. 1001-1009, Jstor.
118. Convergence Rates for Newton's Method at Singular Points
D. W. Decker, H. B. Keller, C. T. Kelley
SIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 296-314, Jstor.
119. Analysis of Newton's Method at Irregular Singularities
A. Griewank, M. R. Osborne
SIAM Journal on Numerical Analysis, Vol. 20, No. 4. (Aug., 1983), pp. 747-773, Jstor.
120. Local Convergence of Difference Newton-Like Methods
T. J. Ypma
Mathematics of Computation, Vol. 41, No. 164. (Oct., 1983), pp. 527-536, Jstor.
121. Finding a Multiple Zero by Transformations and Newton-Like Methods
T. J. Ypma
SIAM Review, Vol. 25, No. 3. (Jul., 1983), pp. 365-378, Jstor.
122. A Quasi-Newton Method Employing Direct Secant Updates of Matrix Factorizations
George W. Johnson; Nieves H. Austria
SIAM Journal on Numerical Analysis, Vol. 20, No. 2. (Apr., 1983), pp. 315-325, Jstor.
123. Newton's Method with a Model Trust Region Modification
D. C. Sorensen
SIAM Journal on Numerical Analysis, Vol. 19, No. 2. (Apr., 1982), pp. 409-426, Jstor.
124. Global Convergence of a Modified Newton Iteration for Algebraic Equations
Kazuo Murota
SIAM Journal on Numerical Analysis, Vol. 19, No. 4. (Aug., 1982), pp. 793-799, Jstor.
125. Convergence Acceleration for Newton's Method at Singular Points
D. W. Decker, C. T. Kelley
SIAM Journal on Numerical Analysis, Vol. 19, No. 1. (Feb., 1982), pp. 219-229, Jstor.
126. Une approche combinatoire pour l'itération de Newton\mhy Raphson. (French)
[A combinatorial approach for Newton-Raphson iteration]
Décoste, H.; Labelle, G.; Leroux, P.
Adv. in Appl. Math. 3 (1982), no. 4, 407--416, Math. Sci. Net.
127. Newton-Raphson Extended
Neville W. Richards
The Mathematical Gazette, Vol. 65, no. 434, (Dec., 1981), pp. 294-295.
128. On the Convergence of Halley's Method (in Classroom Notes)
G. Alefeld
American Mathematical Monthly, Vol. 88, No. 7. (Aug. - Sep., 1981), pp. 530-536, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 44
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
129. On Computation of Eigenvalues for Differential Equations by Newton's Method
Zeev Nehari
Transactions of the American Mathematical Society, Vol. 263, No. 2. (Feb., 1981), pp. 397-409, Jstor.
130. Newton's Method for Singular Problems when the Dimension of the Null Space is > 1
Andreas Griewank, M. R. Osborne
SIAM Journal on Numerical Analysis, Vol. 18, No. 1. (Feb., 1981), pp. 145-149, Jstor.
131. A Globally Convergent Ball Newton Method
Karl L. Nickel
SIAM Journal on Numerical Analysis, Vol. 18, No. 6. (Dec., 1981), pp. 988-1003, Jstor.
132. A generalization of the Newton Raphson method. (Catalan)
Gasull, Armengol
Publ. Sec.Mat. Univ. Autònoma Barcelona No. 23 (1981), 133--138, Math. Sci. Net.
133. Optimal Partitioning of Newton's Method for Calculating Roots
Gunter Meinardus, G. D. Taylor
Mathematics of Computation, Vol. 35, No. 152. (Oct., 1980), pp. 1221-1230, Jstor.
134. Newton's Method at Singular Points. II
D. W. Decker, C. T. Kelley
SIAM Journal on Numerical Analysis, Vol. 17, No. 3. (Jun., 1980), pp. 465-471, Jstor.
135. Newton's Method at Singular Points. I
D. W. Decker, C. T. Kelley
SIAM Journal on Numerical Analysis, Vol. 17, No. 1. (Feb., 1980), pp. 66-70, Jstor.
136. Parameter Selection for Newton-Like Methods Applicable to Nonlinear Partial Differential Equations
R. E. Bank, D. J. Rose
SIAM Journal on Numerical Analysis, Vol. 17, No. 6. (Dec., 1980), pp. 806-822, Jstor.
137. Be Careful When You Dodge Round Newton
F. M. Arscott
The Mathematical Gazette, Vol. 63, no. 425, (Oct., 1979), pp. 169-172.
138. Inverse Iteration, Ill-Conditioned Equations and Newton's Method
G. Peters, J. H. Wilkinson
SIAM Review, Vol. 21, No. 3. (Jul., 1979), pp. 339-360, Jstor.
139. A Modified Newton's Method for Unconstrained Minimization
Shmuel Kaniel, Achiya Dax
SIAM Journal on Numerical Analysis, Vol. 16, No. 2. (Apr., 1979), pp. 324-331, Jstor.
140. Affine Invariant Convergence Theorems for Newton's Method and Extensions to Related Methods
P. Deuflhard, G. Heindl
SIAM Journal on Numerical Analysis, Vol. 16, No. 1. (Feb., 1979), pp. 1-10, Jstor.
141. A faster modified Newton-Raphson iteration
Crisfield, M. A.
Comput. Methods Appl. Mech. Engrg. 20 (1979), no. 3, 267--278, Math. Sci. Net.
142. Continuous Newton-Raphson method for solving an underdetermined system of nonlinear equations
Tanabe, Kunio
Nonlinear Anal. 3 (1979), no. 4, 495--503, Math. Sci. Net.
143. On Newton's Method for Singular Problems
G. W. Reddien
SIAM Journal on Numerical Analysis, Vol. 15, No. 5. (Oct., 1978), pp. 993-996, Jstor.
144. Ideas and examples for presenting the Newton-Raphson method
Hart, V. G.; Howard, L. N.
Austral. Math. Soc. Gaz. 5 (1978), no. 3, 73--89, Math. Sci. Net.
145. On the Convergence of a Quasi-Newton Method for Sparse Nonlinear Systems
Binh Lam
Mathematics of Computation, Vol. 32, No. 142. (Apr., 1978), pp. 447-451, Jstor.
146. Revision of a Derivative-Free Quasi-Newton Method
John Greenstadt
Mathematics of Computation, Vol. 32, No. 141. (Jan., 1978), pp. 201-221, Jstor.
147. Sufficient conditions for elementary Newton-Raphson convergence
Speck, G. P.
New Zealand Math. Mag. 14 (1977), no. 1, 34--36, Math. Sci. Net.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 45
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
148. On Halley's Variation of Newton's Method (in Classroom Notes)
George H. Brown, Jr.
American Mathematical Monthly, Vol. 84, No. 9. (Nov., 1977), pp. 726-728, Jstor.
149. A Stable Variant of the Secant Method for Solving Nonlinear Equations
W. B. Gragg, G. W. Stewart
SIAM Journal on Numerical Analysis, Vol. 13, No. 6. (Dec., 1976), pp. 889-903, Jstor.
150. A Note on the Convergence of Newton's Method
L. B. Rall
SIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 34-36, Jstor.
151. Newton's Method for Optimization Problems with Equality Constraints
R. A. Tapia
SIAM Journal on Numerical Analysis, Vol. 11, No. 5. (Oct., 1974), pp. 874-886, Jstor.
152. Newton's Method for Problems with Equality Constraints
R. A. Tapia
SIAM Journal on Numerical Analysis, Vol. 11, No. 1. (Mar., 1974), pp. 174-196, Jstor.
153. A Globally Converging Secant Method with Applications to Boundary Value Problems
E. Polak
SIAM Journal on Numerical Analysis, Vol. 11, No. 3. (Jun., 1974), pp. 529-537, Jstor.
154. Cycling in the Newton-Raphson algorithm
Ascher, Marcia
Internat. J. Math. Ed. Sci. Tech. 5 (1974), no. 2, 229--235, Math. Sci. Net.
155. Cayford, J. K.; Fimple, W. R.; Unger, D. G.; White, S. P.
A finite-difference Newton-Raphson solution of the two-center electronic Schrödinger equation.
J. Computational Phys. 16 (1974), 259--270, Math. Sci. Net.
156. The Use of the Secant Method in Econometric Models
J. Phillip Cooper, Stanley Fischer
The Journal of Business, Vol. 46, No. 2. (Apr., 1973), pp. 274-277, Jstor.
157. A Quasi-Newton Method with No Derivatives
John Greenstadt
Mathematics of Computation, Vol. 26, No. 117. (Jan., 1972), pp. 145-166, Jstor.
158. A note on some properties of the Newton-Raphson's method
Cheng, M. C.
Nanta Math. 5 (1972), no. 3, 10--17, Math. Sci. Net.
159. A note on Newton-Raphson's method. (Japanese)
Sakashita, Hideo; Sasaya, Fumio
Bull. Kyoto Univ. Ed. Ser. B No. 42 (1973), 1--2, Math. Sci. Net.
160. The Kantorovich Theorem for Newton's Method (in Classroom Notes)
R. A. Tapia
American Mathematical Monthly, Vol. 78, No. 4. (Apr., 1971), pp. 389-392, Jstor.
161. Global Convergence of Newton-Gauss-Seidel Methods
Jorge J. More
SIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 325-336, Jstor.
162. The Simultaneous Newton Improvement of a Complete Set of Approximate Factors of a Polynomial
A. A. Grau
SIAM Journal on Numerical Analysis, Vol. 8, No. 2. (Jun., 1971), pp. 425-438, Jstor.
163. Parameter Selection for Modified Newton Methods for Function Minimization
D. F. Shanno
SIAM Journal on Numerical Analysis, Vol. 7, No. 3. (Sep., 1970), pp. 366-372, Jstor.
164. Generalized Logarithmic Error and Newton's Method for the mth Root
David L. Phillips
Mathematics of Computation, Vol. 24, No. 110. (Apr., 1970), pp. 383-389, Jstor.
165. On Aitken' s d^2 Method (in Mathematical Notes)
Simeon Reich
American Mathematical Monthly, Vol. 77, No. 3. (Mar., 1970), pp. 283-284, Jstor.
166. Application of a Modified Newton's Iteration Method to Construct Solutions of Eigenvalue Problems of Nonlinear
Partial Differential Operators
Y. M. Chen; P. L. Christiansen
SIAM Journal on Applied Mathematics, Vol. 18, No. 2. (Mar., 1970), pp. 335-345, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 46
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
167. Modification of a Quasi-Newton Method for Nonlinear Equations with a Sparse Jacobian
L. K. Schubert
Mathematics of Computation, Vol. 24, No. 109. (Jan., 1970), pp. 27-30, Jstor.
168. Modified Newton-Raphson methods for preliminary orbit determination
Pitkin, Edward T.; Carpenter, Gilbert C.
Celestial Mech. 1, (1969/1970), 72--90, Math. Sci. Net.
169. A modification of the Newton-Raphson algorithm in the application to the identification of dynamic objects.
(Polish)
Latarnik, Michal
Zeszyty Nauk. Politech. Slpolhk ask. Automat. No. 16 (1970), 35--49, Math. Sci. Net.
170. Geometrical Aspects of Newton's Method
Walter Jennings
Mathematics Magazine, Vol. 42, No. 5. (Nov., 1969), pp. 262-266, Jstor.
171. Optimal Starting Approximations for Newton's Method
P. H. Sterbenz, C. T. Fike
Mathematics of Computation, Vol. 23, No. 106. (Apr., 1969), pp. 313-318, Jstor.
172. A Quadratically Convergent Newton-Like Method Based Upon Gaussian Elimination
Kenneth M. Brown
SIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 560-569, Jstor.
173. Jacobi and Gauss-Seidel Methods for Nonlinear Network Problems
T. A. Porsching
SIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 437-449, Jstor.
174. On the Kantorovich Hypothesis for Newton's Method
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 6, No. 3. (Sep., 1969), pp. 493-507, Jstor.
175. The Weak Newton Method and Boundary Value Problems
Richard A. Tapia
SIAM Journal on Numerical Analysis, Vol. 6, No. 4. (Dec., 1969), pp. 539-550, Jstor.
176. A Modified Newton-Raphson Iteration (in Classroom Notes)
Walter Jennings
American Mathematical Monthly, Vol. 75, No. 6. (Jun. - Jul., 1968), pp. 652-654, Jstor.
177. On Steffensen's Method
L. W. Johnson, D. R. Scholz
SIAM Journal on Numerical Analysis, Vol. 5, No. 2. (Jun., 1968), pp. 296-302, Jstor.
178. Optimal Starting Values for the Newton-Raphson Calculation of Inverses of Certain Functions
D. G. Moursund, G. D. Taylor
SIAM Journal on Numerical Analysis, Vol. 5, No. 1. (Mar., 1968), pp. 138-150, Jstor.
179. On Newton-Raphson Iteration (in Classroom Notes)
J. F. Traub
American Mathematical Monthly, Vol. 74, No. 8. (Oct., 1967), pp. 996-998, Jstor.
180. Monotone Iterations for Nonlinear Equations with Application to Gauss-Seidel Methods
James M. Ortega, Werner C. Rheinboldt
SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 171-190, Jstor.
181. Newton's Method for Convex Operators in Partially Ordered Spaces
James S. Vandergraft
SIAM Journal on Numerical Analysis, Vol. 4, No. 3. (Sep., 1967), pp. 406-432, Jstor.
182. On Newton's Method and Nonlinear Simultaneous Displacements
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 4, No. 1. (Mar., 1967), pp. 103-108, Jstor.
183. A Stationary Newton Method for Nonlinear Functional Equations
J. E. Dennis, Jr.
SIAM Journal on Numerical Analysis, Vol. 4, No. 2. (Jun., 1967), pp. 222-232, Jstor.
184. Note on Newton's Method
L. M. Weiner
Mathematics Magazine, Vol. 39, No. 3. (May, 1966), pp. 143-145, Jstor.
185. On a Discrete Version of the Newton-Raphson Method
Leon Wegge
SIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 134-142, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 47
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
186. Nonlinear Difference Equations and Gauss-Seidel Type Iterative Methods
James M. Ortega, Maxine L. Rockoff
SIAM Journal on Numerical Analysis, Vol. 3, No. 3. (Sep., 1966), pp. 497-513, Jstor.
187. On Discretization and Differentiation of Operators with Application to Newton's Method
James M. Ortega, Werner C. Rheinboldt
SIAM Journal on Numerical Analysis, Vol. 3, No. 1. (Mar., 1966), pp. 143-156, Jstor.
188. Error analysis for the Newton-Raphson method
Lancaster, P.
Numer. Math. 9, (1966), 55--68, Math. Sci. Net.
189. A Newton-Raphson method for the solution of systems of equations
Ben-Israel, Adi
J. Math. Anal. Appl. 15, (1966), 243--252, Math. Sci. Net.
190. A modified Newton-Raphson method for the solution of systems of equations
Ben-Israel, Adi
Israel J. Math. 3, (1965), 94--98, Math. Sci. Net.
191. Convergence of the Newton-Raphson method for arbitrary polynomials
Lancaster, P.
Math. Gaz. 48, (1964), 291--295, Math. Sci. Net.
192. Some Applications of the Newton-Raphson Method to Non-Linear Matrix Problems
P. Lancaster
Proceedings of the Royal Society of London. Series A, Mathematical and Physical Sciences, Vol. 271, No. 1346.
(Jan. 22, 1963), pp. 324-331, Jstor.
193. Erratum: Sufficient Conditions for the Convergence of Newton's Method in Complex Banach Spaces
Marvin L. Stein
Proceedings of the American Mathematical Society, Vol. 13, No. 6. (Dec., 1962), p. 1000, Jstor.
194. Errata: Newton's Method for the Characteristic Value Problem Ax = lambda Bx
L. B. Rall
Journal of the Society for Industrial and Applied Mathematics, Vol. 10, No. 1. (Mar., 1962), p. 228, Jstor.
195. Newton's Method for the Characteristic Value Problem Ax = lambda Bx
L. B. Rall
Journal of the Society for Industrial and Applied Mathematics, Vol. 9, No. 2. (Jun., 1961), pp. 288-293, Jstor.
196. On the Utility of Newton's Method for Computing Complex Roots of Equations (in Technical Notes and Short
Papers)
I. M. Longman
Mathematics of Computation, Vol. 14, No. 70. (Apr., 1960), pp. 187-189, Jstor.
197. Taylor's Theorem and Newton's Method (in Classroom Notes)
F. D. Parker
American Mathematical Monthly, Vol. 66, No. 1. (Jan., 1959), p. 51, Jstor.
198. A modified Newton-Raphson process for approximation of multiple roots of polynomials
Milnes, Harold Willis
Indust. Math. 9, (1958), no. 2, 17--26, Math. Sci. Net.
199. Newton's Method and Multiple Roots
Thomas E. Mott
American Mathematical Monthly, Vol. 64, No. 9. (Nov., 1957), pp. 635-638, Jstor.
200. Newton's Method for Trigonometry Students (in Classroom Notes)
J. P. Ballantine
American Mathematical Monthly, Vol. 63, No. 10. (Dec., 1956), p. 722, Jstor.
201. Amélioration du procédé de division numérique utilisant l'itération de Newton-Raphson. (French)
Storrer, F.
Acad. Roy. Belg. Bull. Cl. Sci. (5) 42 (1956), 30--33, Math. Sci. Net.
202. Newton's Method in Banach Spaces
Robert G. Bartle
Proceedings of the American Mathematical Society, Vol. 6, No. 5. (Oct., 1955), pp. 827-831, Jstor.
203. Sufficient Conditions for the Convergence of Newton's Method in Complex Banach Spaces
Marvin L. Stein
Proceedings of the American Mathematical Society, Vol. 3, No. 6. (Dec., 1952), pp. 858-863, Jstor.
204. Another Variation of Newton's Method (in Classroom Notes)
J. K. Stewart
American Mathematical Monthly, Vol. 58, No. 5. (May, 1951), pp. 331-334, Jstor.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 48
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/02/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
205. A Type of Variation on Newton's Method
H. J. Hamilton
American Mathematical Monthly, Vol. 57, No. 8. (Oct., 1950), pp. 517-522, Jstor.
206. Notes on the Graeffe Method of Root Squaring (in Mathematical Notes)
G. C. Best
American Mathematical Monthly, Vol. 56, No. 2. (Feb., 1949), pp. 91-94, Jstor.
207. A Modification of Newton's Method (in Classroom Notes)
H. S. Wall
American Mathematical Monthly, Vol. 55, No. 2. (Feb., 1948), pp. 90-94, Jstor.
208. On the Newton-Raphson method of approximation
Richmond, H. W.
Edinburgh Math. Notes 1944 (1944). no. 34, 5--8, Math. Sci. Net.
209. New Criteria for Accuracy in Approximating Real Roots by the Newton-Raphson Method
Myron G. Pawley
National Mathematics Magazine, Vol. 15, No. 3. (Dec., 1940), pp. 111-120, Jstor.
210. On the Graeffe Method of Solution of Equations
L. L. Cronvich
American Mathematical Monthly, Vol. 46, No. 4. (Apr., 1939), pp. 185-190. Jstor.
211. Haley's Methods for Solving Equations
Harry Bateman
American Mathematical Monthly, Vol. 45, No. 1. (Jan., 1938), pp. 11-17, Jstor.
212. On the Convergence of Newton's Method of Approximation (in Questions, Discussions, and Notes)
G. T. Coate
American Mathematical Monthly, Vol. 44, No. 7. (Aug. - Sep., 1937), pp. 464-466, Jstor.
213. Graeffe's Method and Complex Roots (in Questions, Discussions, and Notes)
B. A. Hausmann
American Mathematical Monthly, Vol. 43, No. 4. (Apr., 1936), pp. 225-229. Jstor.
214. On Graeffe's Method for the Numerical Solution of Algebraic Equations
C. A. Hutchinson
American Mathematical Monthly, Vol. 42, No. 3. (Mar., 1935), pp. 149-161, Jstor.
215. On Newton's Method of Approximation
Henry B. Fine
Proceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 9. (Sep. 15, 1916),
pp. 546-552, Jstor.
216. Newton's Method in General Analysis
Albert A. Bennett
Proceedings of the National Academy of Sciences of the United States of America, Vol. 2, No. 10. (Oct. 15,
1916), pp. 592-598, Jstor.
217. Historical Note on the Newton-Raphson Method of Approximation
Florian Cajori
American Mathematical Monthly, Vol. 18, No. 2. (Feb., 1911), pp. 29-32, Jstor.
218. On Newton's Method of Approximation (in Notes)
F. Franklin
American Journal of Mathematics, Vol. 4, No. 1/4. (1881), pp. 275-276, Jstor.
219. On Sir Isaac Newton's Method of Finding the Limits of the Roots of Equations. [Abstract]
Herbert Panmure Ribton
Abstracts of the Papers Communicated to the Royal Society of London, Vol. 5. (1843 - 1850), p. 630, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 49
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.4 Método de La Secante


El Método de La Secante1, es –en realidad- una variante del Método Newton-Raphson. Como se vió en la sección 3.3, el
Método Newton-Raphson tiene muchos aspectos positivos, pero una de sus principales falencias es que requiere la
evaluación de dos funciones diferentes en cada iteración, f(x) y su derivada f’(x). Cuando la función f(x) es
relativamente simple, es fácil calcular ambas funciones iterativamente; pero cuando f(x) es una función complicada –como
sucede en la práctica en muchas àreas técnicas y de ingenierías- el cálculo de la derivada no es fácil, y en el mejor de los
casos es un proceso tedioso. En estos casos, resulta muy útil tener a la mano un método que no requiera la evaluación de
la derivada, f’(x). Uno de estos métodos es el Método Secante, o Método de La secante, que en lugar de la derivada
utiliza una aproximación lineal en cada iteración. Este método es de intervalo abierto.

Este método empieza con dos valores iniciales xo, x1, como se ilustra en la figura 3.4.1.
FIGURA 3.4.1 Esquema gráfico que muestra los
parámetros básicos del Método Secante.

En este método, la función f(x) es aproximada por


medio de una linea recta, la cual es una
extrapolación basada en dos puntos xo y x1 de la
función f(x). Los dos puntos (x0,f(x0)) y
(x1,f(x1)) definen una linea recta secante (de ahí
el nombre del método) cuya ecuación es la
siguiente:

(3.4.1)

Al resolver en 3.4.1 para el valor de x cuando y = 0, se llega a la siguiente fórmula general del Método Secante:

para k = 1, 2, ... (3.4.2)

En el ejemplo que se esquematiza en la figura 3.4.1, la fórmula 3.4.2 adquiere la siguiente forma:
x1 − x0 x1 − x0
x2 = x1 − f ( x1 ) (3.4.3) (3.4.4)
f ( x1 ) − f ( x0 ) f ( x1 ) − f ( x0 )
Siendo la fracción definida por 3.4.4 una aproximación de la inversa de la derivada de la función f(x). X2 es una mejor
aproximación de la raíz. Un algoritmo en Visual Basic se muestra en la figura 3.4.2. La función f(x) es la definida por 3.4.5.
Los dos puntos, xo y x1 , pueden estar a un mismo lado de la raíz, como en las figuras 3.4.3, 3.4.4 y 3.4.5.
X0 = 1.7: X1 = 1.5: n = 0 FIGURA 3.4.2 Un algoritmo, en Visual Basic, para
EPSILON = 0.00001 implementar el Método Secante.
Do
X2 = X1 - f(X1) * ((X1 - X0) / (f(X1) - f(X0)))
1 1
X0 = X1: X1 = X2 f ( x) = + −6
( x − 0 . 3 ) 2 + 0 . 01 ( x − 0 . 9 ) 2 + 0 . 04
n=n+1
Loop Until (Abs(f(X2)) <= EPSILON) (3.4.5)
Text1 = “RAÍZ, X2 = “ & X2 & VBCRLF & _
“No. ITERACIONES, N = & N

0
1 Dyer, Charles and Ip, Peter S.S.: «An Elementary Introduction to Scientific Computing», Division of Physical Sciences
University of Toronto at Scarborough, http://pathfinder.scar.utoronto.ca/~dyer/» 2000, 2002 – 2006. // Press, W. H.; Flannery, B. P.; Teukolsky, S. A.;
and Vetterling, W. T. «Secant Method, False Position Method, and Ridders' Method», §9.2 in Numerical Recipes in FORTRAN: The Art of Scientific
Computing, 2nd ed. Cambridge, England: Cambridge University Press, pp. 347-352, 1992. // Recktenwald , Gerald: «Numerical Methods with
MATLAB: Implementations and Applications», © 2000, Prentice Hall ISBN: 0201308606.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 50
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

En la figura 3.4.3 se ilustra una interfaz diseñada en Visual Basic para implementar el algoritmo de la figura 3.4.2. La figura
3.4.4 es un ejemplo de resultados obtenidos.

FIGURA 3.4.3 Una interfaz en Visual Basic para implementar el Método Secante.

FIGURA 3.4.4 Resultados del algoritmo de la figura 3.4.2 en la interfaz 3.4.3.

Si en el programa de la figura 3.4.2 se toma X0 = 1.5 y X1 = 1.3, entonces el resultado es la raíz en 3 iteraciones.
Aumentando la tolerancia numérica, por ejemplo Epsilon = 0.000000000001, el número de iteracione se aumenta; en este
caso, el número de iteraciones es 9 y la raíz es X2= 1,299549682584830. La figura 3.4.5 muestra una traza de la sucesión
de puntos X0, X1, X2 que el algoritmo de la figura 3.4.2 efectúa al calcular la raíz de la función definida por 3.4.5.
Obsérvese, en la figura 3.4.4, que el valor de |f(X2)| es suficientemente pequeño comparado con la tolerancia numérica
estipulada con la variable Epsilon.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 51
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.4.5 Traza de ejecución del


algoritmo de la figura 3.4.2 en la
interfaz 3.4.3.

El esquema de esta traza es consistente


con los resultados mostrados en la
figura 3.4.4. La 8 iteraciones se
aglomeran alrededor del valor de la raíz.
En este caso, los puntos, xo y x1, se
escogen al lado derecho de la raíz.

Esta traza se ha logrado empleando las


instrucciones gráficas de Visual Basic
(véase la clase 6 en la pàgina web
http://xue.unalmed.edu.co/~walvarem ).

La figura 3.4.6 muestra un algoritmo en


Pascal para implementar el Método de
La Secante. Este algoritmo llama a la
función f() que debe estar
implementada como un procedimiento
aparte.

PROCEDURE Secante(ea, b, eps:Real;


VAR xsol:Real); FIGURA 3.4.6 Un algoritmo en Pascal que implementa el
VAR c, fb:Real; Método Secante.
BEGIN
{ df(x) = valor de la primera derivada de f(x) } Aquí, los puntos iniciales son a y b; y el tercer punto que se
{ eps = accuracy of the root, e.g.: 0.000001 } calcula es c.El criterio de finalización del proceso iterativo se
REPEAT
estipula como |a-b| ≤ eps, siendo la variable eps al
fb=f(b);
tolerancia numérica especificada (bien sea a través de una
c:=a-(b-a)*fb/(fb-f(a));
constante, o por medio de su lectura).
a:=b;
b:=c; En la figura 3.4.7 el código fuente, que implementa el
UNTIL Abs(a-b)<= eps; algoritmo del Método Secante, está en C++.
xsol:=c
END; {Método Secante – Código fuente en Pascal }

int Secante(double x1, double x2,double precision,double&


root) FIGURA 3.4.7 Un algoritmo en C++ que
{ implementa el Método Secante.
if(x1==x2 || f(x2)==f(x1)){
root=0;
return 0;
} En este procedimiento se emplea la recursión,
double x = x1 - f(x1)*(x2-x1)/(f(x2)-f(x1)); soportada por C++, para hacer el código más
if( fabs(f(x)) < precision){ compacto2. Aquí la tolerancia numérica se
root = x; maneja con la variable precision.
return 1;
} else { Por su parte, la figura 3.4.8 presenta el
return Secante(x2,x,precision,root); algoritmo del Método Secante en Matlab. Y la
} figura 3.49 es un algoritmo en C.
}

0
2
Martin, Alex: «Modern Computing in Physical Science, Lecture 6: Finding Roots of Functions», Queen Mary University of London, January 2006,
http://hepwww.ph.qmul.ac.uk/mcps/.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 52
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

function [X1,err,k,y]=secante(f,X0,X1,delta,epsilon,max1) FIGURA 3.4.8 Un algoritmo en MatLab que


implementa el Método Secante.
%Input - f es la función que se ingreso como un string 'f'
% - X0 , X1 aproximaciones iniciales a la raíz de f
% - X2 es una mejor aproximación de la raíz de f
% - delta es la tolerancia para X1
% - epsilon es la tolerancia para los valores y
% - max1 es el máximo número de iteraciones
%Output - X1 es el valor aproximado de la raíz
% - err es el error absoluto estimado para X1
% - relerr es el error relativo estimado para X1
% - k es el índice del número de iteraciones
% - y es la función f evaluada en X1, f(X1)
for k=1:max1
X2 = X1-feval(f,X1)*(X1-X0)/(feval(f,X1)-feval(f,X0));
err = abs(X2-X1);
relerr = 2*err/(abs(X2)+delta);
X0 = X1;
X1 = X2;
y = feval(f,X1);
if (err<delta)|(relerr<delta)|(abs(y) < epsilon),break,end
end

#include <stdio.h>
#include <math.h>
double f(double x)
{
return cos(x) - x*x*x;
}
double MetodoSecante(double xn_1, double xn, double e, int m)
{
int n;
double d;
for (n = 1; n <= m; n++)
{
d = (xn - xn_1) / (f(xn) - f(xn_1)) * f(xn);
if (fabs(d) < e)
return xn;
xn_1 = xn;
xn = xn - d;
}
return xn;
}
int main(void)
{
printf("%0.15f\n", SecantMethod(0, 1, 5E-11, 100));
return 0;
}

FIGURA 3.4.9 Un algoritmo en el lenguaje C que implementa el Método Secante para


f(x) = Cos(x) – x3.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 53
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

CONVERGENCIA DEL MÉTODO SECANTE


En forma similar a la deducción que se hizo para el Método Newton-Raphson, se puede deducir la relación para la
convergencia del Método Secante3. La siguiente relación sintetiza el orden de convergencia del Método Secante:

(3.4.6) (3.4.7)

donde C ≠ 0 es una constante y φ es la razón àurea defina por 3.4.7.

El valor de 3.4.7 es φ = 1.618 y representa el orden de convergencia para hallar una raíz real. En la práctica, para
ecuaciones f(x) = 0 muy cumplicadas, para las cuales no hay métodos analíticos para obtener la derivada, f’(x), o cuyo
proceso de obtención de la derivada es muy engorroso, el Método Secante es preferible al Método Newton-Raphson y el
orden de convergencia no es tan diferente: 1.618 (superlineal) vs 2.0 (cuadrática).

Otra forma de expresar el orden de convergencia del Método Secante es sabiendo que el error de la n-ésima iteración
está dado por en+1 = xn+1 – r, donde r es la raíz exacta, lo cual da la relación 3.4.8.

(3.4.8)
.

VENTAJAS Y DESVENTAJAS DEL MÉTODO SECANTE


En la tabla 3.4.1 se presentan las ventajas y desventajas del Método Secante.

TABLA 3.4.1 Principales ventajas e inconvenientes del Método Secante.


Ventajas Desventajas
• Este método sólo requiere la evlauación de f(x) en • Requiere dos valores iniciales cercanos a la raíz.
cada iteración; no requiere calcular f’(x).
• La convergencia es rápida cuando los valores iniciales • La convergencia no se puede grantizar cuando los
están cercanos a la raíz; su orden de convergencia es valores iniciales no están cercanos a la raíz.
φ = 1.618, la razón áurea.
• La estimación del error está disponible, bajo supuestos • El método puede tener una convergencia muy lenta o
razonables, según la función f(x) bajo estudio. puede fallar.
• Mucho más fácil de implementar que el Método • Para funciones muy complicadas no es trivial
Newton-Raphson. determinar los dos valores iniciales.
• Dos iteraciones del Método Newton-Raphson son • En la pràctica de las áreas técnicas y de ingenierías el
competitivas frente a una iteración del Método Newton- el criterio de finalizar el proceso iterativo suele ser
Raphson. crucial; en ocasiones no es trivial.
• Puede utilizarse para hallar raíces complejas. • Requiere de dos valores iniciales imaginarios, que
pueden no ser fáciles de hallar.
• El Método Secante puede extenderse y aplicarse al • Se precisa resolver grandes sistemas diferentes de
campo multidimensional (sistemas de ecuaciones ecuaciones lineales en cada iteración
lineales).

0
3
Craw, Ian: «Numerical Methods», 1999. // Naiman, AaronE.: «Numerical Methods», Jerusalem College of Technology, 2003 - 2006,
http://www.math.jct.ac.il.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 54
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.5 Método Regula Falsi (Falsa Regla)


El Método Regula Falsi es un método de intervalo cerrado que sigue los lineamientos generales del Método Bisección,
pero que emplea -como tercer punto- la intersección con el eje X de la línea que une los dos extremos del intervalo [a, b],
en cada paso del proceso iterativo1. La figura 3.5.1 presenta los parámetros básicos a considerar en este método.

FIGURA 3.5.1 Parámetros básicos en el Método


Regula Falsi.

En el Método Regula Falsi, en lugar de emplearse el punto


medio del intervalo [a,b] en cada iteración, se utiliza como
nuevo punto, o punto c, el intercepto con el eje-x de la recta
que une los puntos (a,f(a)) y (b,f(b)). Dicho intercepto,
dentro del concepto de intervalo cerrado, es una especie de
falsa posición, en latin Regula Falsi, de ahí el nombre del
método. Este método se conoce desde muy antiguo, pues
ya los matemáticos babilonios lo empleaban en sus cálculos
(véase el capítulo 1).

De la figura 3.5.1, hallar el punto c implica calcular la ecuación de la recta que pasa por los puntos (a,f(a)) y (b,f(b)), que
se calcula de la siguiente manera:
(3.5.1)

Si en 3.5.1 se hace y = 0 y se resuelve para x = c, entonces el valor del nuevo punto, c, se calcula así:

(3.5.2)

Y al igual que en el Método Bisección se indaga en cuál subintervalo está, ahora, la raíz, y se aplica el mismo criterio de
terminación del proceso de iteraciones. Un algoritmo genérico para el Método Regula Falsi se muestra en la figura 3.5.2.
1. Seleccionar un intervalo [a,b] donde se FIGURA 3.5.2 Algoritmo genérico para implementar el
encuentre un cero, una raíz, de f(x), y establecer Método Regula Falsi.
una tolerancia numérica Epsilon.
2. Calcular un nuevo punto, c, que es la intersección
con el eje-x de la siguiente forma: En Visual Basic, figura 3.5.3, para la función f(x) = x3 +
f (a) f (b) f (b)(b − a ) 4x2 – 10, en el intervalo [1.0, 2.0], cuya gráfica es la
= ⇒c =b− figura 3.5.4, se tiene el siguiente algoritmo y la función f():
c−a b−c f (b) − f (a )
a = 1.0 : b = 2.0 : Epsilon = 0.0000001 : N = 0
3. Comprobar si hay cambio de signo en los
Do
subintervalos: si f(a)*f(c) < 0 ⇒ b = c; si se c = b – f(b)*(b - a)/(f(b) – f(a))
cumple que f(c)*f(b) < 0 ⇒ a = c. If(f(a)*f(c) < 0) Then b = c
4. Si |f(c) | < Epsilon ⇒ c es la raíz; de lo If(f(c)*f(b) < 0)Then a = c
contrario volver al paso 2. N = N +1
Loop Until (abs(f(c)) < Epsilon)

FIGURA 3.5.3 Algoritmo en Visual Basic para Public Function f(x as Double)As Double
implementar el Método Regula Falsi. f = x^3 + 4.0*x^2 – 10.0
End Function

0
1
Eric W. Weisstein, Eric W.: «Method of False Position», From MathWorld--A Wolfram Web Resource, © 1999-2007 Wolfram Research, Inc.,
http://mathworld.wolfram.com/MethodofFalsePosition.html // Szyszkowicz, Mieczyslaw: «Computer Art from Numerical Methods», North-Holland,
Computer Graphics Forum, Vol. 10, (1991), pp. 255-259,delivered by EuroGraphics Digital Libray, www.eg.org, diglib.eg.org. // Pitman, E. Bruce:
«Numerical Methods», 1998.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 55
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.5.4 Gráfica de f(x) y


resultados obtenidos con el programa
de la figura 3.5.3.

Cuando se ejecuta el algoritmo del Método Regula Falsi, inclusive con diferentes funciones f(x), se observa que –aunque
la aproximación es muy buena y la convergencia es rápida, las aproximaciones permanecen casi siempre a un solo lado
de la raíz, de modo que un extremo del intervalo permanece invariable, como se ilustra en los resultados de la figura 3.5.4
y en forma esquemática en la figuras 3.5.5 y 3.5.6. Este comportamiento del algoritmo es muy común en el Método Regula
Falsi. La figura 3.5.7 es un programa en Pascal; la figura 3.5.8 presenta un programa en MatLab, y la figura 3.5.9 presenta
un rpograma en FORTRAN.

FIGURA 3.5.5 Gráfica de f(x) y las


aproximaciones a un solo lado de la raíz.

FIGURA 3.5.6 Esquemas gráficos de f(x) y las aproximaciones a un solo lado de la raíz, en el Método
Regula Falsi.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 56
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

PROCEDURE RegulaFalsi(a,b,eps:Real; VAR xsol:Real); FIGURA 3.5.7 Algoritmo en PASCAL


{ Condición requerida: f(a)*f(b) < 0 } para implementar el Método Regula
{ eps = Tolerancia numérica, por ejemplo: 0.000001 } Falsi.
VAR c, fa, fb:Real;
BEGIN
REPEAT
fa:=f(a); fb:=f(b);
c:=b - (b-a)*fb/(fb-fa);
IF fa*f(c)<0 THEN b:=c
ELSE a:=c
UNTIL b-a<eps;
xsol:=c
END; {Método Regula Falsi - código en Pascal}

FIGURA 3.5.8 Algoritmo en MATLAB para implementar el Método Regula Falsi.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 57
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/03/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

1234567890123456789012345678901234567890
SUBROUTINE
& REGULA(F,A,B,Delta,Epsilon,Max,C,YC,D,K,Cond)
PARAMETER(Big=1E5)
INTEGER Cond,K,Max
REAL A,B,C,D,Delta,DX,Epsilon,YC
EXTERNAL F
K=0
YA=F(A)
YB=F(B)
D=B-A
K=0; Cond=0
IF (YA*YB.GE.0) THEN
Cond=1
RETURN
ENDIF
WHILE ((Cond.EQ.0).AND.(K.LT.Max))
DXA=YA*(B-A)/(YB-YA)
DXB=YB*(B-A)/(YB-YA)
IF ABS(DXA).LT.ABS(DXB) THEN
C=A-DXA
D=ABS(DXA)
ELSE
C=B-DXB
D=ABS(DXB)
ENDIF
YC=F(C)
IF (D.LT.Delta) Cond=3
IF (ABS(YC).LT.Epsilon) THEN
A=C
B=C
Cond=4
ELSEIF ((YB*YC).GT.0) THEN
B=C
YB=YC
ELSE
A=C
YA=YC
ENDIF
K=K+1
WRITE(9,1000) K,A,C,B
REPEAT
IF (YC.EQ.0) Cond=2
IF (D.LT.Delta).AND.(Cond.NE.2) Cond=3
IF (Cond.EQ.3).AND.(ABS(YC).LT.Epsilon) Cond=5
IF (ABS(YA).GT.Big).AND.(ABS(YB).GT.Big) Cond=6
IF (Cond.EQ.0).AND.(ABS(YC).LT.Epsilon) Cond=4
PAUSE
RETURN
1000 FORMAT(I2,4X,F15.7,4X,F15.7,4X,F15.7)
FIGURA 3.5.9 Algoritmo en FORTRAN para implementar el Método Regula Falsi.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 58
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.6 Método del Punto Fijo

El Método del Punto Fijo1 es un método en el cual, dada la ecuación f(x) = 0, continua en [a, b], entonces la idea central
del Método Punto Fijo es reorganizar algebráicamente f(x) = 0 en la forma x = g(x), donde g(x) denota una función de x.
Luego, simplemente se toma un valor inicial, x0, y se aplica la fórmula de iteración
xn = g(xn-1) para n = 1, 2, ...(3.6.1). El Método Punto Fijo se cataloga como un método de intervalo abierto.
.
TEORÍA BÁSICA DEL PUNTO FIJO. En Matemáticas, un Punto Fijo (algunas veces llamado, en la literatura
especializada, fixpoint, o PuntoFix) de una función, es un punto que es mapeado a sí mismo por la función2; es decir, que
2
el punto es igual al valor de la función en dicho punto. Por ejemplo, si f(x) es la función dada por f(x) = x − 3x + 4,
entonces el valor 2 es un Punto Fijo de f(x), ya que f(2) = 2.

En general, no hay una única forma de obtener x = g(x), a partir de f(x) = 0. Para esta función: f (x) = x2 - x - 2,
entonces algunas de las diversas formas que pueden resultar de x = g(x) son las siguientes:

• x = g(x) = x2 - 2,
• x = g(x) = sqrt(2 + x),
• x = g(x) = 1 + 2/x.
• x = g(x) = x - (x2 - x - 2).
• x = g(x) = x - (x2 - x - 2)/(2x - 1).

Como ejemplo ilustrativo de cómo funciona el Método Punto Fijo para hallar una raíz de f(x) = 0, considérese la función
definida así: f(x) = x2 - 2x - 3 = 0 (3.6.2). Una de las formas de obtener, en forma implícita, la función x = g(x) es la
siguiente: x = (2x + 3) 1/2 (3.6.3). Ahora, supòngase que se asume un valor inicial x0 = 4, y se realiza el proceso iterativo
con la ecuación iterativa que resulta de utilizar 3.6.1 y 3.6.3, lo que da la ecuación siguiwente: xn = (2xn-1 + 3) 1/2 .
Considerando las primeras cuatro iteraciones se llega a los siguientes valores :

x1 = (2* x0 + 3)1/2 = (2*4 + 3)1/2 =111/2 = 3.32


x2 = (9.63325)1/2 = 3.1
x3 = 3.01144
x4 = (2*3.01144 + 3) 1/2 = 3.00381091, etc. ...

Es obvio que la secuencia x1, x2, x3, x4,..., converge a 3.0. En forma analítica, se puede comprobar que las dos raíces
exactas de 3.6.2 son x = -1 y x = 3. La figura 3.6.1 muestra como progresa x hacia la raíz exacta.

FIGURA 3.6.1 Diagrama esquemático de cómo el valor de x


progresa hacia la raíz exacta.

x x0
0
1
Leader, Jeffrey J.: «Numerical Analysis and Scientific Computation», Addison-Wesley, 2004, ISBN 0201734990, Chapter 1: «Nonlinear Equations».//
«Tutorial: Fixed-point iteration method for solving nonlinear equations», University of Texas, http://www.cfdlab.ae.utexas.edu/~ase211. //
Lappalainen, Harri: «Fixed point iteration of winning strengths», CBLU, University of Leeds, 1996, http://www.cis.hut.fi/harri/dityo. // Arévalo, Carmen:
«Numerical Amalisys, An Introduction», Numerisk Analys, Matematikcentrum, Lunds Universitet, 2006, www.maths.lth.se/na/courses/FMN011.
2 TheFreeDictionary by Farlex, «Fixed point (mathematics) Theory», http://www.thefreedictionary.com. // Brown, Robert F. «Theory of Fixed-
Point»,UCLA, Department of Mathematics, 2006

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 59
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Supóngase, ahora, que en lugar de utilizar x = g(x), definida por 3.6.3, se utiliza x = g(x) = (x2 - 3) / 2 (3.6.4). Si se
ejecuta – ahora- todo el proceso iterativo con el mismo valor inicial usado anteriormente, x0 = 4 , siendo ahora la ecuación
iterativa xn = (x2n-1 - 3) / 2 (3.6.5), se tiene la siguiente secuencia de resultados:

x1 = (16 - 3) / 2 = 6.5
x2 = 19.625
x3 = 191.07, etc.

Obsérvese que en la secuencia de valores obtenidos x1, x2, x3,..., los xi son cada vez mayores, con lo cual el método
diverge. En la figura 3.6.2 se ilustra dicha divergencia.

g(x) = (x2 - 3) / 2
FIGURA 3.6.2 Diagrama esquemático de cómo el valor de x
diverge de la raíz exacta.

Además, si se escoge como valor inicial x0 = 0, y se itera


empleando la ecuación 3.6.4, la secuencia de resultados es así
x1 = -1.5, x2 = -0.375, x3 = -1.4297, ... etc. El proceso iterativa
converge, ahora, al valor x = -1, que es el valor exacto de la
otra raíz de la función 3.6.2.

En muchos campos, de las Ciencias y de las ingenierías, y en el Análisis Numérico3, equilibrio o estabilidad son conceptos
fundamentales que pueden ser descritos en términos de Puntos Fijos. Tal es el caso en Economía, del concepto equilibrio
Nash4 de un juego, que es un Punto Fijo de la mejor correspondencia de respuesta en el juego (de la estrategia que da
más rendimiento inmediato). En el diseño de compiladores, dentro de la Ingeniería de Software, cálculos de Punto Fijo
se emplean para efectuar el análisis holístico de programas (software) como un requerimiento para lograr la optimización
del código (de máquina). El vector de los valores del Rango de Página, de todas las páginas web (que son más de 8100
millones, según Google5), es un Punto Fijo de una transformación lineal derivada de la propia estructura de enlcaes de la
red mundial (World Wide Web). El Matemático Saul Kripke, especializado en Lógica, utiliza la técnica del Punto Fijo en su
influente Teoría de la Verdad.

Normalmente, la Teoría del Punto Fijo se presenta basada en una serie de definiciones conceptuales, con cierto rigor
lógico-matemático, en un conjunto de Teoremas, y con aplicaciones mediante ejemplos operativos. El Método Punto Fijo,
al igual que el Método Newton-Raphson, ha trascendido el ámbito del Análisis Numérico y de los Métodos Numéricos, para
ser desarrollado y aplicado en otras áreas técnicas y de ingenierías, así como de las Matemáticas puras y aplicadas.
Incluso, se ha demostrado analíticamente que el Método de Newton-Raphson es un caso particular del Método Punto
Fijo.

• DEFINICIÓN #1. Un punto fijo de una función g(x) es un número real X tal que X = g(X). Una iteración de punto fijo está
dada por el siguiente conjunto de ecuaciones: Xn+1 = g(Xn), n =0,1,2,...

0
3
Trefethen, Lloyd N.: «Numerical Analysis», Lecture at Oxford University, May 2006.
4
Milnor, John: «John Nash and a “A Beautiful Mind”», Notices of The AMS, November 1998, Volume 45., No. 10, pp. 1329 - 1332. // Nasar, Sylvia: «A
beautiful mind: A biography of John Forbes Nash Jr.», Simon & Schuster, 1998, 459 pages, ISBN 0684819066. Basada en este biografía se hizo una
película llamada «A Beautiful Mind». Harold W. Kuhn and Sylvia Nasar,«The Essential John Nash», Princeton University Press, 2001.
5
Google, 2007, http://www.google.com.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 60
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
• DEFINICIÓN #2. Si g(x) es una función continua y {Xn}n=0,1,... es la secuencia generada por una iteración de Punto
Fijo. Y si
lim ( X n ) = X (3.6.2)
n→ ∞

entonces X es un punto fijo de g(x).

• DEFINICIÓN #3. Una función continua f(x) es contractiva si existe un L < 1 tal que se cumple:
|f(x) − f(y)| ≤ L|x − y|, para todo x, y en el dominio de f(x).

• DEFINICIÓN #4. Si |f′(x)| < 1 para todo x ∈ [a, b], entonces f(x) es contractiva en [a, b], es decir su punto fijo en [a, b]
es atractor.

• PRIMER TEOREMA DEL PUNTO FIJO. Si g∈C[a, b] y si el rango del mapeo y = g(x) satisface a ≤ y ≤ b para todo x tal
que a < x < b, entonces (i) - g tiene un punto fijo en [a, b]. (ii) - Si, además, g’(x) está definida sobre (a, b) y que una
constante positiva K < 1 existe tal que |g’(x)| ≤ K < 1 para todo x ∈(a, b), entonces la función g tiene un único punto
fijo en (a, b). (iii) - g : C [a, b] → R tiene un único punto si: g : [a, b] → [a, b] (asegura existencia del punto fijo), y
además g is contractiva, el punto fijo es atractor (asegura unicidad).

• SEGUNDO TEOREMA DEL PUNTO FIJO. Asúmase que las funciones g(x) y g’(x) son continuas en un intervalo
balanceado (a, b) = (X - δ, X + δ) que contiene el único punto fijo X, y que un valor inicial X0 se escoge en dicho
intervalo. (i) - Si |g’(x)| ≤ K < 1 para todo a ≤ x ≤ b, entonces la iteración Xn = g(Xn-1) converge a X. En este caso, X
es un Punto Fijo atractor. Véase las figuras 3.6.3 y 3.6.4. (ii) – Si |g’(x)| > 1 para todo a ≤ x ≤ b, entonces la
iteración Xn = g(Xn-1) no converge a X.. En este caso, X es un Punto Fijo repulsor. Véase las figuras 3.6.5 y 3.6.6.

FIGURA 3.6.3 Diagrama esquemático de un Punto Fijo


atractor. En este caso hay convergencia.

FIGURA 3.6.4 Proceso de las iteraciones de un Punto Fijo


atractor.
TABLA 3.6.1 Iteración de punto fijo para 3.6.2

En este caso, la función es f(x) = x – e-x (3.6.2), y el


proceso iterativo de punto fijo converge a 0.567143
(véase tabla 3.6.1).

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 61
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.6.5 Proceso de las iteraciones de un Punto


Fijo repulsor.

En este caso, es posible que para una función x = g(x) el


Punto Fijo es repulsor (alejando de la raíz cada valor de
X), haciendo que en el proceso iterativo no se presente
convergencia.

FIGURA 3.6.6 Ejemplo un Punto Fijo atractor y de


otro Punto Fijo repulsor.

Aquí, ambas funciones con lineales, pero la pendiente de ğ(x)


es mayor que la de g(x). Esto hace que se presente
convergencia con el valor inicial X0, pero que X~ 0 se
presente con divergencia.

Otro ejemplo de un Punto Fijo atractor se muestra en la figura 3.6.7.

FIGURA 3.6.7 La iteración de Punto Fijo Xn+1 = Sin(Xn)


con un valor inicial X1 = 2. Aquí el punto fijo es atractor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 62
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

ATRACTORES Y REPULSORES EN EL MÉTODO PUNTO FIJO


Algunas explicaciones adicionales con relación a la convergencia del Método Punto Fijo6 , es decir con respecto a los
atractores y repulsores, son las siguientes7, esquematizadas en las figuras 3.6.8 a 3.6.12:
y=x
FIGURA 3.6.8 Interpretación geométrica de un Punto Fijo atractor.

Geométricamente, un Punto Fijo puede conceptualizarse como la intersección de


una función con la diagonal y=x. Cuando la función es no-lineal pueden existir muchos
puntos fijos. En la figura 3.6.8, hay sólo un punto fijo, con la característica de que cada
iteración, en la ecuencia {Xn}n=0,1,..., se acerca al valor del Punto Fijo, haciendo que
las sucesivas aproximaciones converjan a la raíz. Este tipo de Punto Fijo se denomina
g = g(x) atractor.

FIGURA 3.6.9 Punto Fijo atractor correspondiente a la función f(x) = cos(x).

Un medio de representar iteraciones gráficamente es utilizar el Método Geométrico


Cartesiano, para visualizar los parámetros básicos d elas iteraciones y la forma
general de compoortamiento (véase figura3.68 y anteriores). Otro modo, que no
requiere el entendimiento de la iteración geométrica, es el de las series de tiempo.
Este consiste, simplemente, en un gráfico del valor de la función después de n
iteraciones, siendo n el eje horizontal y f(xn) el eje vertical. La figura 3.6.9 ilustra el
caso de la función f(x)=cos(x). Este gráfico es típico de las series de tiempo. Aquí, la función es no-lineal pero ilustra muy
bien un Punto Fijo atractor.
x = g(x)
FIGURA 3.6.10 Interpretación geométrica de un Punto Fijo repulsor .
y=x
Este es otro ejemplo de la interpretación geométrica de un Punto Fijo, pero aquí las
itereciones sucesivas se alejan más y más del valor de la raíz; se dice, entonces, que
se trata de un Punto Fijo repulsor. La diferencia de esta gráfica con la de la figura
3.6.8 radica en la pendiente de la función, o –en general- del valor de su derivada; en
el primer ejemplo (figura 3.6.8) la pendiente está entre -1 y 0, pero en esta gráfica la
pendiente es menor que -1.

Obsérvese que en el primer caso, la espiral es hacie adentro, y en este caso la espiral
es hacia fuera. Así, se presenta siempre el caso típico de las iteraciones de una
función con pendiente (derivada), m, negativa.

y=x FIGURA 3.6.11 Otro caso de un Punto Fijo atractor .

En este ejemplo, aunque la pendiente (derivada) es positiva, la forma que tiene la


serie de sucesivas aprocimaciones no es espiral.

Este también es un Punto Fijo atractor, denominado tipo escalera; a partir de un


valor iniicial, x0, las sucesivas aproximaciones convergen a la raíz (punto fijo). La
x = g(x) pendiente, m, está entre 0 y 1.

0
6
Berland, Håvard: «Numerical Analisys: FIXED POINTS: ATTRACTORS AND REPELLERS», Norwegian University of Science and Technology,
Department of Mathematics, 2004 – 2007, TRONDHEIM, NORWAY ,http://www.stud.ntnu.no/~berland/math/feigenbaum/fixed.html.
7
Gray, Paul: «Fixed Point iteration», 1998, http://www.mathcs.emory.edu/ccs/ccs315. // Danziger, P.: «Fixed Point iteration», Ryerson University,
Canada,1998, http://www.scs.ryerson.ca/~danziger/labs. // Hood, Alan: «Numerical Analisys, Vonvergence of Fixed Point iteration», 2000- 2007,
http://www-solar.mcs.st-and.ac.uk/~alan/MT2003/Numerical.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 63
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

FIGURA 3.6.12 Otro caso de un Punto Fijo repulsor .

En este ejemplo la pendiente también es positiva, pero el resultado es un Punto


y=x Fijo repulsor. la pendiente (derivada), m, es mayor que 1, y la forma es de
escalera.
x0

x = g(x)

Sumarizando los caos presentados en las figuras 3.6.8 a 3.6.12 se tiene que, siendo m la pendiente o derivada, g’(x):

m = g ′( x ) =
dg
< − 1 ⇒ Punto Fijo repulsor, espiral hacia fuera, fig. 3.6.10.
dx

− 1 < m = g ′(x ) =
dg
< 0⇒ Punto Fijo atractor, espiral hacia adentro, fig. 3.6.8.
dx

0 < m = g ′ (x ) =
dg Punto Fijo atractor, escalera hacia adentro, fig. 3.6.11.
< 1⇒
dx

m = g ′ (x )= dg Punto Fijo repulsor, escalera hacia fuera, fig. 3.6.12.


> 1 ⇒
dx

De una manera, más general: |m| < 1 ⇒ Punto Fijo atractor; 1 < |m| ⇒ Punto fijo repulsor; si m = 0 ⇒ significa que
todos los puntos son atractores o ninguno lo es.

El siguiente proceso es una prueba algebráica de cuando un Punto Fijo es atractor. Igualmente puede hacerse para
probar un Punto Fijo repulsor:

0 < m = f ′( x ) =
df
• Sea un Punto Fijo x* y se demostrará que es un atractor si <1
dx
• Sea un número k escogido entre m = f'(x*) y 1, es decir f’(x) < k < 1.

lim ⎛ f (x) − f (x*) ⎞


• De acuerdo con la definición de derivada se tiene que: ⎜⎜ ⎟⎟ = f ( x * )
x → x* ⎝ x − x* ⎠

• Se escoge un intervalo simétrico (balanceado), (x* - δ, x* + δ), alrededor de x*, de modo que para x dentro del
intervalo se cumple que:
( )
f (x ) − f x*
0< <k
x − x*
• De la expresión anterior se tiene que: |f(x) - f(x*)| < k|x-x*|

• Empiécese, ahora, las iteraciones con el valor inicial x0, x0∈(x* - δ, x* + δ); y recordando que x* es un Punto Fijo y
que por lo tanto f(x*) = x*, se tiene lo siguiente: |x1 - x*| = |f(x0) - f(x*)| < k|x0 - x*| de lo cual es claro que el
punto x1 está más cercano a x* que el punto x0. Por lo tanto, se conlcuye que x* es un punto atractor.
• Más iteraciones serían así: |x2 - x*| < 2k|x0 - x*| , ... , |xn - x*| < nk|x0 - x*|.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 64
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/06/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

• Cuando 0 < k < 1 se tendrá el siguiente límite:

(
lim xn − x* = 0
n→∞
)
Esto significa, efectivamente, que xn = x* después de un número infinito de iteraciones.

La figura 3.6.13 sintetiza gráficamente los casos que se presentan en la iteración de punto fijo, {Xn}n=0,1,... (3.6.3). En el
lado izquierdo se presentan los dos casos con pendiente positiva que ilustran la convergencia monotónica (llamada
también de escalera) cuando 0 < g’(x) < 1, y la divergencia monotónica (o de escalera) cuando g’(x) > 1. En el lado
derecho de la figura 3.6.8 se presenta la convergencia oscilante (o de espiral) cuando –1 < g’(x) < 0; y la divergencia
oscilante (o de espiral) cuando g’(x) < -1.

La parte superior de la figura 3.6.13 presenta los dos casos de convergencia: la convergencia monotónica (o de
escalera) implica un atractor fuerte, es decir, que el proceso iterativo de punto fijo –definido por 3.6.2 y 3.6.3- converge
ráopidamente a la raíz; por su parte, la convergencia oscilante (o de espiral) implica un atractor débil, es decir, que la
secuencia de valores X0, X1, X2, ..., Xn, -definida por 3.6.2 y 3.6.3- converge muy lentamente a la raíz.

Los dos páneles inferiores, en la figura 3.6.13, representan la divergencia, o un Punto Fijo repulsor; el panel de la
izquierda inferior implica un repulsor fuerte, es decir que la secuencia –definida por 3.6.2 y 3.6.3- se aleja rápidamente de
la raíz; y el panel inferior derecho representa un repulsor débil, es decir que la secuencia –definida por 3.6.2 y 3.6.3- se
aleja muy lentamente de la raíz.

FIGURA 3.6.13 Síntesis de los


casos de la iteración de
punto fijo.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 65
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

CONVERGENCIA Y ANÁLISIS DEL ERROR EN EL MÉTODO PUNTO FIJO

La convergencia del Método Punto Fijo1 se puede analizar considerando que al aplicar el esquema iterativo xi = g(xi-1)
para i = 1, 2, ..., n (3.6.4), se llega a que
x n = r − ε n , x n +1 = r − ε n +1 (3.6.5)

donde r es el valor exacto de la raíz, xn es el valor de la n-ésima iteración, y εn es el error después de n iteraciones. De
ahí, que la Iteración de Punto Fijo, definida por 3.6.4, puede escribirse - a partir de 3.6.5- como:

xn+1 = g (xn ) ⇒ r − ε n+1 = g (r − ε n ) (3.6.6)

Si εn es suficientemente pequeño se puede expandir, utilizando Serie de Taylor, la función g(r - εn) en 3.66, alrededor del
la raíz exacta (Punto Fijo), r:

g ′′(r )
r − ε n+1 = g (r ) − ε n g ′(r ) + ε n2 + ... (3.6.7)
2
Sin embargo, recordando que la raíz, r, es un Punto Fijo que cumple la ecuación r = g(r), y tomando los términos más
influyentes de 3.6.7 se obtiene
ε n +1 ≈ g ′(r )ε n (3.6.8)

La ecuación 3.6.8 demuestra que la Iteración Punto Fijo es un esquema de primer orden (lineal) si se cumple g ′( x ) ≠ 0

También se puede utilizar 3.6.8 para determinar si el proceso iterativo, definido por 3.6.4, converge o no. Asúmase que el
error inicial está dado por ε0 , entonces la aplicación de 3.6.8 da:

ε1 ≈ g’(r)ε0 ;
ε2 ≈ g’(r)ε1 ≈ [g’(r)]2ε0 ;
ε3 ≈ g’(r)ε2 ≈ [g’(r)]3ε0 ;
ε4 ≈ g’(r)ε3 ≈ [g’(r)]4ε0 , ...
En general, se tendrá que:

εn ≈ [g’(r)]nε0 (3.6.9)
La ecuación 3.6.9 implica que:

• El error, |xn - r| , disminuye si |g’(r)| < 1 lo cual implica que el Método Punto Fijo converge.

• El error, |xn - r| , aumenta si |g’(r)| > 1 lo cual implica que el Método Punto Fijo diverge.

La ecuación 3.6.9 también implica que si el Método Punto Fijo converge, entonces

• El error, |xn - r| , decrece monotónicamente si 0 ≤ g’(r)| < 1 (en forma de escalera, véase figura 3.6.13).
• El error, |xn - r| , decrece oscilatoriamente si -1 < g’(r)| < 0 (en forma de espiral, véase figura 3.6.13).

0
1 Hood, Alan: «Fundamentals of Applied Mathematics: Convergence of Fixed-Point Iteration, Error Analysis», University of St Andrews, School of
Mathematics and Statistics, Scotland, 2000 - 2007, http://www-solar.mcs.st-and.ac.uk/~alan/MT2003. // Pardhanani, Anand: «Fixed-point iteration
method for solving nonlinear equations», The University of Texas at Austin, TX , http://www.cfdlab.ae.utexas.edu/~ase211/wip/tutorials/fpi.html. //
Stewart, G.W.: «Afternotes on Mumerical Analisys», SIAM, 1996.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 66
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

EJEMPLO 3.6.1.Considérese la función f(x) = x – e-x, utilizando la iteración definida por xn+1 = e xn = g ( xn )
Se llega al valor r = 0.567143 (figura 3.6.3 y tabla 3.6.1). Con lo cual g’(r) = -e-x ⇒ g’(r) = -e-0.567143 = -0.567143. Es
decir, que |g’(r)| < 1 y el proceso iterativo converge.

Sin embargo, si se utiliza la iteración xn+1 = -log( xn) = g(xn), se tendrá que g’(x) = -1 / x ⇒ g’(r) = -1 /0.567143
= - 1.7637, con lo cual |g’(r)| > 1 y el proceso iterativo no converge (diverge).

EJEMPLO 3.6.2.Considérese la función f(x) = x2 – 2x - 3, y utilizándosen tres diferentes esquemas iterativos,


analizar si hay convergencia o no.

• El primer esquema iterativo es: x2 = 2x – 3 ⇒ x = (2x + 3)1/2 ⇒ xn+1 = (2 xn + 3)1/2 , con lo cual se tiene
que g(x) = (2x + 3)1/2 . Por lo tanto, g’(x) = (½)(2)(2x + 3)-1/2 ⇒ g’(-1) = 1 y el esquema no converge a la
raíz exacta –1; g’(3) = 1/3 , y el esquema converge a la raíz exacta 3.
3 3
• El segundo esquema iterativo es: g(x) = x(x – 2) –3 = 0 ⇒ x= ⇒ xn +1 =
x−2 xn − 2

⇒ ⇒ g ′( x ) = −
3
g’(-1) = -1/3, y el esquema converge a x = -1.
(x − 2)2
⇒ g’(3) = -3, y el esquema no converge a x = 3;

x2 − 3 x2
• El tercer esquema iterativo es así: g(x) = x2 – 3 = 2x ⇒ x= ⇒ xn+1 = n
2 2
x −3
2
⇒ g ( x) = ⇒ g ′( x ) = x ⇒ g’(-1) = -1, y el esquema no converge a x = -1;
2
⇒ g’(3) = 3, y el esquema converge a x = 3.

ALGORITMO PARA EL MÉTODO PUNTO FIJO

En la figura 3.6.14 se presenta un algoritmo genérico para el Método Punto Fijo. La función es f(x) = x3 – 3x +1 cuyo
esquema gráfico se muestra en la figura 3.6.15. Un esquema iterativo es g(x) = (x3 +1)/3 .

Leer x0, Epsilon, nMax


1. x = x0, g=g(x), n = 0
2. HAGA
2.1 x = g
2.2 g = g(x)
2.3 n = n +1
HASTA QUE (|x-g| > Epsilon ó n ≥ nMax)
3.3 Mostrar x, g, o un mensage de error

FIGURA 3.6.14 Algoritmo genérico para el Método Punto FIGURA 3.6.15 Esquema gráfico para f(x)
Fijo empleada en el algoritmo de la figura 3.6.14.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 67
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

El algoritmo Punto Fijo para la función f(x) de la figura 3.6.15, elaborado en Visual Basic, se presenta en la figura 3.6.16;
la figura 3.6.17 es una muestra de los resultados obtenidos con X0 = -1.0 (g’(-1.0) = 0). El método también converge con
X0 = 1.0 ( g’(1.0) = 2/3 < 1). Sin embargo, no converge con X0 = 2.0 ( g’(2.0) = 3 > 1) ; tampoco converge para el valor de
X0 = -2.0 ( g’(-2.0) = -7/3 < -1). Si se emplea un esquema iterativo diferente, por ejemplo g(x) = (3x – 1)1/3, los
resultados de convergencia cambian.

Private Sub Command1_Click()


X0 = -1#: Epsilon = 0.0000000001
X = X0: gx = g(X): n = 0
Text1 = "MÉTODO PUNTO FIJO, X0 = -1.0, f(x) = x^3 - 3x + 1" & vbCrLf & String(65, "_") & vbCrLf & _
vbCrLf & "ITER." & vbTab & "... X ... " & vbTab & vbTab & _
"... gx ..." & vbTab & vbTab & "... X-gx ..." & vbCrLf & String(65, "_") & vbCrLf
Do
n=n+1
Text1 = Text1 & n & vbTab & Format(X, "#00.000000000000") & vbTab & _
Format(gx, "#00.000000000000") & vbTab & Format(Abs(X - gx), "#00.0000000000000000000") & vbCrLf
X = gx
gx = g(X)
Loop Until (Abs(X - gx) <= Epsilon Or n >= nMax)
Text1 = Text1 & vbCrLf & String(65, "_") & vbCrLf & "No. iteraciones = " & n & vbTab & _
"Epsilon = " & Format(Epsilon, "#0.00000000000") & vbCrLf & _
"Raíz, X =" & X
End Sub

FIGURA 3.6.16 Algoritmo en Visual Basic para la función f(x) de la figura 3.6.15.

FIGURA 3.6.17 Resultados obtenidos para la función f(x) de la figura 3.6.15.

En la figura 3.6.18 se puede apreciar un algoritmo en lenguaje FORTRAN2. El programa en PASCAL2 se presenta en la
figura 3.6.19. Un programa en C2 es el presentado en la figura 3.6.20. En la figura 3.6.21 se muestra un programa en
MATLAB.

0
2
Mathews, John H.: «Fixed-Point Method», Dept. of Mathematics, California State University, Fullerton, 2004,
http://mathews.ecs.fullerton.edu/n2003/fixedpoint/
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 68
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

REAL FUNCTION G(X)


REAL X
G=0.9 + X - 0.4*X*X
RETURN
END

SUBROUTINE PUNTOFIJO(G,Pterm,Max,Tol,Pnew,Cond,K)
PARAMETER(Big=1E10,Small=1E-20)
INTEGER Cond,K,Max
REAL Pnew,Pterm,Tol
REAL Dx,Dg,Pold,RelErr,Slope
K=0
RelErr=1
Pnew=G(Pterm)
WHILE (RelErr.GE.Tol).AND.(K.LE.Max)
& .AND.(ABS(Pnew).LT.Big)
Pold=Pterm
Pterm=Pnew
Pnew=G(Pterm)
Dg=Pnew-Pterm
RelErr=ABS(Dg)/(ABS(Pnew)+Small)
K=K+1
WRITE(9,1000) K,Pnew
REPEAT
IF (Dg.EQ.0) THEN
Slope=0
ELSE
Dx=Pterm-Pold
IF (Dx.NE.0) THEN
Slope=Dg/Dx
ELSE
Slope=6.023E23
ENDIF
ENDIF
IF (ABS(Slope).LT.1) THEN
Cond=1
IF (Slope.LT.0) Cond=2
ELSE
Cond=3
IF (Slope.LT.0) Cond=4
ENDIF
IF (RelErr.LT.Tol) THEN
IF ((Cond.EQ.3).OR.(Cond.EQ.4)) Cond=5
ENDIF
PAUSE
RETURN
1000 FORMAT(I2,4X,F15.7)
END

FIGURA 3.6.18 Programa FORTRAN del algoritmo expuesto en la figura 3.6.14.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 69
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

procedure FixedPoint({function G(X:real):real;}


var Pterm:real; Max:integer; Tol:real;
var Pnew:real; var Cond,Kcount:integer);
label 999;
const Big = 1E10; Small = 1E-20;
var Dx,Dg,Pold,RelErr,Slope:real;
begin
RelErr := 1;
Pnew := G(Pterm);
Kcount := 0;
while ((RelErr>=Tol) and (KCount<=Max)) do
begin
if Kcount <= 2 then P[Kcount] := Pterm;
Pold := Pterm;
Pterm := Pnew;
Pnew := G(Pterm);
Dg := Pnew - Pterm;
RelErr := ABS(Dg)/(ABS(Pnew)+Small);
Kcount := Kcount+1;
if (Pnew < -Big) or (Big < Pnew) then goto 999;
end;
999:
if Kcount <= 2 then P[Kcount] := Pterm;
if Dg = 0 then
Slope := 0
else
begin
Dx := Pterm - Pold;
if Dx <> 0 then
Slope := Dg/Dx
else
Slope := 6.023E23;
end;
if ABS(Slope) < 1 then
begin
Cond := 1;
if Slope < 0 then Cond := 2;
end
else
begin
Cond := 3;
if Slope < 0 then Cond := 4;
end;
if RelErr < Tol then
if (Cond = 3) or (Cond = 4) then Cond := 5;
Kcount := Kcount+1;
end;

FIGURA 3.6.19 Programa PASCAL del algoritmo expuesto en la figura 3.6.14.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 70
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

#include<stdio.h>
#include<stdlib.h>
#include<math.h>
/* define prototype for USER-SUPPLIED function g(x) */
double gfunction(double x);
double gfunction(double x)
{
return ( 1 + x - pow(x,2)/4 );
}
void main()
{
double MaxPnew = 1E+200; /* highest absolute value for Pnew */
double Tol = 0.000001; /* Termination criterion */
int Max = 200; /* Maximum number of iterations */
double Small = 0.000001; /* Initialize the variable */
int K = 0; /* Initialize the counter */
double RelErr = 1; /* Initialize the variable */
double Pterm; /* INPUT : The initial approximation */
double Pnew; /* Result of a iteration */
double Pold,Dg,Delta,Dx,Slope;
int iwarn = 0; /* Initialize warning flag */
printf("Please enter START-value for iteration :\n");
scanf("%lf", &Pterm);
printf("START-value for iteration : Pterm = %lf\n", Pterm);
printf("");
Pnew = gfunction(Pterm); /* First iteration */
while( (RelErr >= Tol) && (K <= Max) ) {
K++; /* Increment the counter */
Pold = Pterm; /* Previous iterate p_(k+1) */
Pterm = Pnew; /* Current iterate p_k */
Pnew = gfunction(Pterm); /* Compute new iterate p_(k+1) */
if( fabs(Pnew) > MaxPnew){ /* Check for +/-INF before
the end of the while-loop */
iwarn = 1; /* set flag for warning */
break; /* break out of while-loop */
}
Dg = Pnew - Pterm; /* Difference in gfunction */
Delta = fabs(Dg); /* Absolute Error */
RelErr = 2 * Delta / ( fabs(Pnew) + Small ); /* Relative Error */
} /* End of the 'while'-loop */
Dx = Pterm - Pold; /* Difference in x */
Slope = Dg / Dx; /* g'(p_k) */
printf("-----------------------------------------------\n");
if(iwarn){ /* Tell that Pnew has grown dramatically and stop */
printf("Number of iterations : %d\n",K);
printf("Iteration walks out of precision range !!\n");
printf("Value of x = Pnew = %G\n", Pnew);
printf("The sequence appears to be diverging !\n");
exit(0);
}
printf("Number of iterations : %d\n",K);
printf("The computed fixed point of g(x) is %lf\n",Pnew);
printf("Consecutive iterations are within %lf\n", Delta);
if( fabs(Slope) > 1 ) printf("The sequence appears to be diverging.\n");
else printf("The sequence appears to be converging.\n");
} /* End Main Program */

FIGURA 3.6.20 Programa en C del algoritmo expuesto en la figura 3.6.14.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 71
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

function [k,p,err,P] = PuntoFijo(g,p0,tol,max1)

% Input - g is the iteration function


% - p0 is the initial guess for the fixed-point
% - tol is the tolerance
% - max1 is the maximum number of iterations
% Output - k is the number of iterations that were carried out
% - p is the approximation to the fixed-point
% - err is the error in the approximation
% - P'contains the sequence {pn}

P(1)= p0;
for k=2:max1
P(k)=feval(g,P(k-1));
err=abs(P(k)-P(k-1));
relerr=err/(abs(P(k))+eps);
p=P(k);
if (err<tol) | (relerr<tol),break;end
end

if k == max1
disp('maximum number of iterations exceeded')
end

P=P';

FIGURA 3.6.21 Programa en MATLAB del algoritmo expuesto en la figura 3.6.14.

RECURSOS BIBLIOGRÁFICOS Y WEBGRÁFICOS DEL MÉTODO PUNTO FIJO

1. Type, fixed point iteration, and mean value theorems


Mercer, Peter R.
Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.
2. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.
Osilike, M. O.; Udomene, A.
Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.
3. A new convergence result for fixed-point iteration in bounded interval of R^n
Huang, Zhenyu
Comput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.
4. Convergence results for fixed point iterations in R
Herceg, D.; Kreji'c, N.
Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.
5. On the Approximation of Fixed Points For Locally Pseudo-Contractive Mappings
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423.
6. On a Fixed Point Theorem of Kirk
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.
7. Bounded fixed-point iteration
Nielson, Hanne Riis; Nielson, Flemming
J. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.
8. Asymptotic Iteration
Vladimir Drobot and Lawrence J. Wallen
Mathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 72
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
9. Some Interesting Fixed Points
John Mathews, Soo Tang Tan
Mathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.
10. A Historical Survey of Solution of Functional Iteration
D.F. Bailey
Mathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.
11. Fixed Point Iteration with Inexact Function Values
Peter Alfeld
Mathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.
12. Fixed point iteration - An interesting way to begin a calculus course
Thomas Butts
College Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.
13. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point Theorem
C. A. Rogers
American Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.
14. A characterization of local convergence for fixed point iterations in R^1
Stepleman, Robert S.
SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.
15. Fixed Points by a New Iteration Method
Shiro Ishikawa
Proceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.
16. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)
V. W. Bryant
American Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.
17. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)
J. G. Baron
American Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.
18. The Approximation of Fixed Points of a Continuous Mapping
Herbert Scarf
SIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.
19. An Elementary Fixed Point Theorem (in Classroom Notes)
R. H. Cowen
American Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.
20. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)
A. B. Brown
American Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.
21. A Fixed Point Theorem (in Mathematical Notes)
L. E. Ward, Jr.
American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.
22. Type, fixed point iteration, and mean value theorems
Mercer, Peter R.
Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.
23. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.
Osilike, M. O.; Udomene, A.
Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.
24. A new convergence result for fixed-point iteration in bounded interval of R^n
Huang, Zhenyu
Comput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.
25. Convergence results for fixed point iterations in R
Herceg, D.; Kreji'c, N.
Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.
26. On the Approximation of Fixed Points For Locally Pseudo-Contractive Mappings
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423, Jstor.
27. On a Fixed Point Theorem of Kirk
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 73
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
28. Bounded fixed-point iteration
Nielson, Hanne Riis; Nielson, Flemming
J. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.
29. Asymptotic Iteration
Vladimir Drobot and Lawrence J. Wallen
Mathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.
30. Some Interesting Fixed Points
John Mathews, Soo Tang Tan
Mathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.
31. A Historical Survey of Solution of Functional Iteration
D.F. Bailey
Mathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.
32. Fixed Point Iteration with Inexact Function Values
Peter Alfeld
Mathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.
33. Fixed point iteration - An interesting way to begin a calculus course
Thomas Butts
College Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.
34. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point Theorem
C. A. Rogers
American Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.
35. A characterization of local convergence for fixed point iterations in R^1
Stepleman, Robert S.
SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.
36. Fixed Points by a New Iteration Method
Shiro Ishikawa
Proceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.
37. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)
V. W. Bryant
American Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.
38. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)
J. G. Baron
American Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.
39. The Approximation of Fixed Points of a Continuous Mapping
Herbert Scarf
SIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.
40. An Elementary Fixed Point Theorem (in Classroom Notes)
R. H. Cowen
American Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.
41. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)
A. B. Brown
American Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.
42. A Fixed Point Theorem (in Mathematical Notes)
L. E. Ward, Jr.
American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.
43. Type, fixed point iteration, and mean value theorems
Mercer, Peter R.
Internat. J. Math. Ed. Sci. Tech. 32 (2001), no. 2, 308--312, Math. Sci. Net.
44. Short proofs of stability results for fixed point iteration procedures for a class of contractive-type mappings.
Osilike, M. O.; Udomene, A.
Indian J. Pure Appl. Math. 30 (1999), no. 12, 1229--1234, Math. Sci. Net.
45. Fixed point iteration for pseudocontractive maps
Chidume, C. E.; Moore, Chika
Proc. Amer. Math. Soc. 127 (1999), no. 4, 1163--1170, Math. Sci. Net.
46. Nonlinear hybrid procedures and fixed point iterations
Brezinski, C.; Chehab, J.-P.
Numer. Funct. Anal. Optim. 19 (1998), no. 5-6, 465--487, Math. Sci. Net.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 74
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
47. A modified fixed point iteration method for solving exchange models
Nenakhov, E. I.; Primak, M. E.
Optimization 39 (1997), no. 1, 43--52, Math. Sci. Net.
48. A new convergence result for fixed-point iteration in bounded interval
Huang, Zhenyu
Comput. Math. Appl. 34 (1997), no. 12, 33--36, Math. Sci. Net.
49. Random relaxation of fixed-point iteration
Verkama, Markku
SIAM J. Sci. Comput. 17 (1996), no. 4, 906--912, Math. Sci. Net.
50. Convergence results for fixed point iterations in R
Herceg, D.; Kreji\'c, N.
Comput. Math. Appl. 31 (1996), no. 2, 7--10, Math. Sci. Net.
51. Stability results for fixed point iteration procedures
Osilike, M. O.
J. Nigerian Math. Soc.14/15 (1995/96), 17--29, Math. Sci. Net.
52. Fixed point iterations for a certain class of nonlinear mappings
Osilike, M. O.
Soochow J. Math. 21 (1995), no. 4, 441--449, Math. Sci. Net.
53. Stability results for the Ishikawa fixed point iteration procedure
Osilike, M. O.
Indian J. Pure Appl. Math. 26 (1995), no. 10, 937--945, Math. Sci. Net.
54. Intermediate Value Theorems and Fixed Point Theorems For Semi-Continuous Functions in Product Spaces
Jean Guillerme
Proceedings of the American Mathematical Society, Vol. 123, No. 7. (Jul., 1995), pp. 2119-2122. Jstor.
55. On the Approximation of Fixed Points For Locally Pseudo-Contractive Mappings
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 2. (Feb., 1995), pp. 417-423, Jstor.
56. On a Fixed Point Theorem of Kirk
Claudio H. Morales, Simba A. Mutangadura
Proceedings of the American Mathematical Society, Vol. 123, No. 11. (Nov., 1995), pp. 3397-3401. Jstor.
57. Fixed Point Iteration Processes for Asymptotically Nonexpansive Mappings
Kok-Keong Tan, Hong-Kun Xu
Proceedings of the American Mathematical Society, Vol. 122, No. 3. (Nov., 1994), pp. 733-739, Jstor.
58. Approximation of Fixed Points of Strongly Pseudocontractive Mappings
C. E. Chidume
Proceedings of the American Mathematical Society, Vol. 120, No. 2. (Feb., 1994), pp. 545-551, Jstor.
59. Fixed point iteration processes for asymptotically nonexpansive mappings
Tan, Kok-Keong; Xu, Hong Kun
Proc. Amer. Math. Soc. 122 (1994), no. 3, 733--739, Math. Sci. Net.
60. Approximation of Fixed Points of Strongly Pseudocontractive Mappings
C. E. Chidume
Proceedings of the American Mathematical Society, Vol. 120, No. 2. (Feb., 1994), pp. 545-551, Jstor.
61. Fixed point iterations in R
Herceg, Dragoslav; Krejic, Natavsa
IX Conference on Applied Mathematics (Budva, 1994), 21--27, Univ. Novi Sad, Novi Sad, 1995, Math. Sci. Net.
62. Fixed point theorems and stability results for fixed point iteration procedures. II
Rhoades, B. E.
Indian J. Pure Appl. Math. 24 (1993), no. 11, 691--703, Math. Sci. Net.
63. Some fixed point iterations
Rhoades, B. E.
Soochow J. Math. 19 (1993), no. 4, 377--380, Math. Sci. Net.
64. Stabilization of Unstable Procedures: The Recursive Projection Method
Gautam M. Shroff, Herbert B. Keller
SIAM Journal on Numerical Analysis, Vol. 30, No. 4. (Aug., 1993), pp. 1099-1120, Jstor.
65. Correction to the paper: "Fixed point iterations for a class of nonlinear mappings"
Moore, Chika
Math. Japon. {37} (1992), no. 5, 955--960, Math. Sci. Net.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 75
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
66. Bounded fixed-point iteration
Nielson, Hanne Riis; Nielson, Flemming
J. Logic Comput. 2 (1992), no. 4, 441--464, Math. Sci. Net.
67. Fixed Point Iteration for Local Strictly Pseudo-Contractive Mapping
Xinlong Weng
Proceedings of the American Mathematical Society, Vol. 113, No. 3. (Nov., 1991), pp. 727-731, Jstor.
68. Asymptotic Iteration
Vladimir Drobot and Lawrence J. Wallen
Mathematics Magazine: Volume 64, Number 3, (1991), Pages: 176-180.
69. Fixed Point Iteration for Local Strictly Pseudo-Contractive Mapping
Xinlong Weng
Proceedings of the American Mathematical Society, Vol. 113, No. 3. (Nov., 1991), pp. 727-731, Jstor.
70. Approximation of Fixed Points of Asymptotically Nonexpansive Mappings
Jurgen Schu
Proceedings of the American Mathematical Society, Vol. 112, No. 1. (May, 1991), pp. 143-151, Jstor.
71. Some Interesting Fixed Points
John Mathews, Soo Tang Tan
Mathematics Magazine: Volume 63, Number 4, (1990), Pages: 263-269.
72. Stability of the Fixed Point Property and Universal Maps
Jose M. R. Sanjurjo
Proceedings of the American Mathematical Society, Vol. 105, No. 1. (Jan., 1989), pp. 221-230. Jstor.
73. An Iteration Process for Nonexpansive Mappings with Applications to Fixed Point Theory in Product Spaces
W. A. Kirk
Proceedings of the American Mathematical Society, Vol. 107, No. 2. (Oct., 1989), pp. 411-415, Jstor.
74. A Historical Survey of Solution of Functional Iteration
D.F. Bailey
Mathematics Magazine: Volume 62, Number 3, (1989), Pages: 155-166.
75. Approximation Theorems and Fixed Point Theorem in Cones
Tzu-Chu Lin
Proceedings of the American Mathematical Society, Vol. 102, No. 3. (Mar., 1988), pp. 502-506. Jstor.
76. Iterative Approximation of Fixed Points of Lipschitzian Strictly Pseudo-Contractive Mappings
C. E. Chidume
Proceedings of the American Mathematical Society, Vol. 99, No. 2. (Feb., 1987), pp. 283-288., Jstor.
77. Fixed Point Iteration with Inexact Function Values
Peter Alfeld
Mathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.
78. On the Continuous Realization of Iterative Processes
Moody T. Chu
SIAM Review, Vol. 30, No. 3. (Sep., 1988), pp. 375-387, Jstor.
79. Fixed Point Iteration with Inexact Function Values
Peter Alfeld
Mathematics of Computation, Vol. 38, No. 157. (Jan., 1982), pp. 87-98, Jstor.
80. Fixed point iteration - An interesting way to begin a calculus course
Thomas Butts
College Math Journal: Volume 12, Number 1, (1981), Pages: 2-7.
81. A Less Strange Version of Milnor's Proof of Brouwer's Fixed-Point Theorem
C. A. Rogers
American Mathematical Monthly, Vol. 87, No. 7. (Aug. - Sep., 1980), pp. 525-527. Jstor.
82. Weak Convergence to the Fixed Point of an Asymptotically Nonexpansive Map
S. C. Bose
Proceedings of the American Mathematical Society, Vol. 68, No. 3. (Mar., 1978), pp. 305-308. Jstor.
83. Fixed point iterations using linear mappings
Kasahara, Shouro
Math. Sem. Notes Kobe Univ. 6 (1978), no. 1, 87--90, Math. Sci. Net.
84. Approximation to Fixed Points of Generalized Nonexpansive Mappings
Chi Song Wong
Proceedings of the American Mathematical Society, Vol. 54, No. 1. (Jan., 1976), pp. 93-97, Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 76
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/07/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
85. Fixed Points and Iteration of a Nonexpansive Mapping in a Banach Space
Shiro Ishikawa
Proceedings of the American Mathematical Society, Vol. 59, No. 1. (Aug., 1976), pp. 65-71, Jstor.
86. Comments on two fixed point iteration methods
Rhoades, B. E.
J. Math. Anal. Appl. 56 (1976), no. 3, 741--750, Math. Sci. Net.
87. A characterization of local convergence for fixed point iterations in R^1
Stepleman, Robert S.
SIAM J. Numer. Anal. 12 (1975), no. 6, 887--894, Jstor.
88. Fixed point iterations of nonexpansive mappings
Reich, Simeon
Pacific J. Math. 60 (1975), no. 2, 195--198, Math. Sci. Net.
89. Fixed Points by a New Iteration Method
Shiro Ishikawa
Proceedings of the American Mathematical Society, Vol. 44, No. 1. (May, 1974), pp. 147-150. Jstor.
90. Fixed Point Iterations Using Infinite Matrices
B. E. Rhoades
Transactions of the American Mathematical Society, Vol. 196. (Sep., 1974), pp. 161-176. Jstor.
91. On the Approximation of Fixed Points of Nonlinear Compact Operators
Richard Weiss
SIAM Journal on Numerical Analysis, Vol. 11, No. 3. (Jun., 1974), pp. 550-553, Jstor.
92. A Remark on a Fixed-Point Theorem for Iterated Mappings (in Classroom Notes)
V. W. Bryant
American Mathematical Monthly, Vol. 75, No. 4. (Apr., 1968), pp. 399-400. Jstor.
93. Simplicial Approximation of Fixed Points
Harold W. Kuhn
Proceedings of the National Academy of Sciences of the United States of America, Vol. 61, No. 4. (Dec. 15,
1968), pp. 1238-1242, Jstor.
94. On Cowen's Note "An Elementary Fixed Point Theorem" (in Classroom Notes)
J. G. Baron
American Mathematical Monthly, Vol. 74, No. 3. (Mar., 1967), pp. 302-303. Jstor.
95. The Approximation of Fixed Points of a Continuous Mapping
Herbert Scarf
SIAM Journal on Applied Mathematics, Vol. 15, No. 5. (Sep., 1967), pp. 1328-1343, Jstor.
96. An Elementary Fixed Point Theorem (in Classroom Notes)
R. H. Cowen
American Mathematical Monthly, Vol. 72, No. 2. (Feb., 1965), pp. 165-167. Jstor.
97. Stability and Asymptotic Fixed-Point Theory
G. Stephen Jones
Proceedings of the National Academy of Sciences of the United States of America, Vol. 53, No. 6. (Jun. 15,
1965), pp. 1262-1264. Jstor.
98. Extensions of the Brouwer Fixed Point Theorem (in Mathematical Notes)
A. B. Brown
American Mathematical Monthly, Vol. 69, No. 7. (Aug. - Sep., 1962), p. 643. Jstor.
99. The Application of a Fixed-Point Theorem to a Variety of Nonlinear Stability Problems
Arnold Stokes
Proceedings of the National Academy of Sciences of the United States of America, Vol. 45, No. 2. (Feb. 15,
1959), pp. 231-235. Jstor.
100. A Fixed Point Theorem (in Mathematical Notes)
L. E. Ward, Jr.
American Mathematical Monthly, Vol. 65, No. 4. (Apr., 1958), pp. 271-272. Jstor.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 77
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.7 Método de Graeffe

El problema de resolver una ecuación polinómica, en una variable, p(x) = p0 + p1x + p2x2 + : : : + pnxn = 0 data de
muy antiguo, habida cuenta que ya era conocido y aplicado por la cultura sumeria (tercer milenio a.c.) y ha influenciado
grandemente el desarrollo de las matemáticas, de los Métodos Numéricos, del Anáslisis Numérico, y de las numerosas
aplicaciones en ciencias e ingenierías, a través de los siglos1. Los matemáticos sumerios y babilonios resolvieron el
problema de hallar las raíces de un polinomio p(x) para grados pequeños con coeficientes específicos. La solución de
ecuaciones cuadráticas (p(x) de grado 2) por parte de los babilonios (cerca del año 200 a.c.) y de los egipcios (soluciones
halladas en el papiro Rhind, del escriba Ahmes, del segundo milenio a.c.; véase el capítulo 1) corresponden al uso de la
siguiente fórmula de la ecuación cuadrática p0 + p1x + p2x2 = 0:

− p1 ± p12 − 4 p0 p2 (3.7.0)
x1, 2 =
2 p2
Un cabal entendimiento de esta fórmula requiere el profundo conocimiento de la teoría y aplicaciones de los números
negativos, de los números irracionales y de los números complejos, campos de la Teoría de Números que sólo desde el
siglo 17 comenzó a desarrollarse en occidente. Algunos intentos de encontrar solución a la fórmula 3.7.0, con sólo el
tratamiento aritmético de radicales, se dieron desde el siglo 16 para polinomios de grado 3 y 4, labor que ocupó a los
matemáticos italianos. Tomó más de 250 años hasta que Gauss2 dió una rigorosa demostración de la existencia de las
raíces (posiblemente complejas) de cualquier ecuación real.

Sin embargo, para polinomios de grado mayor al 4, no fue posible hallar soluciones mediante la sola aplicación de
operaciones aritméticas y sucesivamente resolver ecuaciones puras, como lo demostró el matemático Abel3 en 1827. La
teoría de Galois se desarrolló motivada por el mismo problema de resolver la ecuación cuadrática e incluyó la prueba de la
inexistencia de soluciones con sólo la aritmética del campo de los racionales. Después de otros 100 años, en el siglo 19, y
después de la existencia de muchas pruebas sofisticadas, que la solucionabilidad de ecuaciones generales con
coeficientes complejos (imaginarios) fue adecuadamente reconocida e implementada -esta vez – en términos algorítmicos.

En 1924, H. Weyl dio una prueba constructiva4 del Teorema Fundamental del Álgebra. En el lenguaje moderno del análisis
recursivo, su razonamiento esencialmente muestra que los ceros (las raíces) de un polinomio complejo (coeficientes y/o
raíces en el campo de los números complejos, o imaginarios) dependen recursivamente de sus coeficientes;
suministrando, además, el primer algoritmo robusto de solución de ecuaciones polinómicas5. En términos
computacionales, existe una máquina o un autómata finito (una máquina de Turing, por ejemplo), implementada como un
algoritmo, que cuando se le suministra un entero s y criterios suficientemente buenos de aproximación para los
coeficientes de un polinomio de grado n, dará como respuesta los ceros (o raíces) del polinomio, en forma aproximada,

dentro de una cota de error de 2 s. En términos de la complejidad complutacional el problema se ha centrado desde
entonces en determinar cuán rápido y exacto puede funcionar un algoritmo que obtenga las raíces de un polinomio de
grado n.

Así, pues, a pesar de no encontrarse solución a 3.7.0 con los radicales, el Teorema Fundamental del Álgebra6 establece
que la ecuación 3.7.0 siempre tiene solución en el campo de los números complejos para cualquier polinomio p(x) de
cualquier grado positivo n. Debido al problema de no encontrarse, en general, soluciones exactas a 3.7.0, la Ciencia
Matemática moderna desarrolló los Métodos Numéricos, con algoritmos iterativos para obtener soluciones aproximadas,
0
1
Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Section 1. «Introduction», Exeter College, University of Oxford, A thesis submitted
for the degree of MSc in Mathematical Modelling and Scientific Computing, Trinity, 2001.
2
Gauss, C.F.: «Demonstratio nova theorematis omnem functionem algebraicam rationalem integram unius variabilis in factores reales primi vel secundi
gradus resolvi posse», Gesammelte Werke III, pp. 1–30, 1799.
3
Abel, N.H.: «Beweis der Unmöglichkeit algebraische Gleichungen von höheren Graden als dem vierten allgemein aufzulösen. J. reine u. ang. Math. 1,
pp. 65–84, 1826.
4
Weyl, H.: «Randbemerkungen zu Hauptproblemen der Mathematik, II. Fundamentalsatz der Algebra und Grundlagen der Mathematik», Math. Z. 20,
131–150 (1924). // Wilf, H.S.: «A global bisection algorithm for computing the zeros of polynomials in the complex plane», JACM Vol. 25, pp. 415–
420, 1978. // Smale, S.: «The fundamental theorem of algebra and complexity theory», Bull. AMS (New Ser.) Vol. 4, pp. 1–36, 1981.
5
Gourdon, Xavier: «Combinatoire Algorithmique et Geometrie des Polynomes», Escuela Politécnica Informática, Paris, 1996 (tesis doctoral).
6
Schönhage, Arnold: «The Fundamental Theorem of Algebra in Terms of Computational Complexity», Preliminary Report, Mathematisches Institut der
Universität Tübingen, August 1982.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 78
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
con el consecuente desarrollo de variadas técnicas numéricas. Se cuentan por centenares los algoritmos iterativos para
hallar el conjunto de soluciones u1, u2, u3, ..., un de 3.7.0, desarrollados en los últimos 4 milenios7. En síntesis, este
problema de hallar los ceros (raíces) de una ecuación polinómica ha motivado la introducción y desarrollo de conceptos y
áreas fundamentales en las ciencias matemáticos, tales como los números irarcionales, negativos y complejos, los grupos
algebráicos, las teorías de campos e ideales, y ha jalonado fuertemente el desarrollo de la computación numérica.

El Método Graffe permite hallar raíces (ceros) de polinomios univariados (una sola variable), y fue uno de los más
populares en los siglos 19 y 208. Aunque, tradicionalmente, este método se ha llamado «Método de Graeffe» fue
inventado independientemente por Graeffe, Dandelin, y Lobachevsky9.

A pesar que el Método Graffe tiene cierto número de desventajas, entre las cuales se destacan: (i) - el no desempeñarse
bien ante raíces complejas, (ii) - que su formulación estándar lleva a exponentes que desbordan la capacidad de la
aritmética de punto-flotante (de los computadores medianos y pequeños donde se implementa su algoritmo), y (iii) - que –
además- puede mapear polinomios bien-condicionados en polinomios mal-condicionados, es decir, en polinomios en los
cuales pequeñas variaciones en los coeficientes, ai, dan grandes diferencias en los valores de las raíces. Sin embargo,
dichas limitaciones son evitadas en una eficiente implementación realizada por Malajovich y Zubelli (1999)2.

El problema de hallar las raíces de un polinomio, normalmente se plantea así10: Dado un polinomio de grado n, con
n+1 coeficientes reales (conocidos) ai, siendo 0 ≤ i ≤ n, hallar las n raíces de este polinomio.

Es decir, en términos más formales algebráicamente, dado el polinomio f(x) = an xn + an-1 xn-1 + ........ + a1 x + a0,
el problema es hallar las n raíces reales, {ui}, 0 ≤ i ≤ n, tales que cada una cumpla f(ui) = 0; o en forma equivalente,
n el
problema es hallar las n raíces reales, {ui}, 0 ≤ i ≤ n, tales que f(x) = (x - u1)(x - u2) ...... (x - un) ≡ ∏ ( x − .i
u )
i =1

Aquí es conveniente recalcar que los métodos para hallar raíces de una función f(x) = 0 se clasifican en una de dos
categorías:

• Aquellos métodos que hallan una sola raíz, como los estudiados en las secciones 3.2 a 3.6: Bisección, Newton-
Raphson, Secante, Regula Falsi, Punto Fijo, que encuentran una raíz u1 de f(x) proporcionando un intervalo donde
está la raíz, o un valor inicial cercano a la misma, o dos valores iniciales. La convergencia de tales métodos depende
tanto de la función y del algoritmo empleado como de la cercanía del valor inicial escogido. Dichos métodos
repetidamente mejoran la aproximación encontrada según cierta tolerancia numérica (precisión) escogida. Algunos de
estos métodos tienen buena velocidad de convergencia, es decir cuadrática o cercana a ella (recuérdese que la
convergencia del Método Newton Raphson es cuadrática, o sea 2.0, y la del Método Secante es de 1.618). Pero si se
desea hallar otras raíces de un polinomio, empleando estos tipos de métodos, hay que hallarlas una por una,
empleando el método una y otra vez, utilizando el polinomio reducido f(x)/(x-ui), determinando en cada aplicación
el intervalo donde se encuentra la raíz, o los valores iniciales cercanos a la raíz. Esta labor, así planteada, suele ser –
por lo menos- demasiado tediosa para muchas aplicaciones prácticas de las áreas técnicas y de ingenierías, en las
cuales las funciones son algebráicamente muy complicadas.

• Métodos que hallan todas las raíces simultáneamente. Estos métodos determinan -a la vez- todas las raíces reales
de un polinomio, mediante buenas aproximaciones de las mismas, mejorando la precisión numérica si es necesario.

0
7
McNamee, J.M.: «A bibliography on roots of polynomials». J. Comp. Appl. Math., Vol. 47, pp. 391-394, 1993.
8
Chung, S.P.: «An algorithm for the zeros of transcendental functions», Numer. Math. 32 (1979) 359--371. // Weisstein, Eric W.: «Graeffe's Method»,
MathWorld -- A Wolfram Web Resource, 1999 – 2007, http://mathworld.wolfram.com/GraeffesMethod.html. // Householder, A.S.: «The Numerical
Treatment of a Single Nonlinear Equation», McGraw-Hill, New York, 1970. // Carnahan, Brice; Luther, H.A.; Wilkes, James O.: «Applied Numerical
Methods», John Wiley & Sons, Inc., New York, USA, 1969, SBN 471-13507-0, Chapter 3: «Solution of Equations, Graeffe’s Method», pp. 141-142.
9
Malajovich, Gregorio and Zubelli, Jorge P.: «Tangent Graeffe Iteration», Dep. de Matemática Aplicada, Universidade Federal do Rio de Janeiro,
Agosto de 1999. // Householder, A.S.: «Dandelin, Lobachevskii, or Graeffe?», Amer. Math. Monthly 66 (1959) 464--466. // Malajovich, Gregorio and
Zubelli , Jorge P.: «On the Geometry of Graeffe Iteration», Dep. de Matemática Aplicada, Universidade Federal do Rio de Janeiro, 2000.
10
Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++» , Department of Computer Science and Engineering,
Indian Institute of Technology, Powai, Mumbai 400076, India, September 2006.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 79
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
El Método Graeffe está precisamente en esta categoría11, pues permite hallar todas las raíces reales de un polinomio
de grado n.

Una implementación teórica del Método Graeffe empieza multiplicando los polinomios f(x) y f(-x), y teniendo en cuenta
que

f(x) = (x – a1)(x – a2) ... (x - an)

f(-x) = (-1)n(x + a1)(x + a2) ... (x + an)

∏ (x )
n

por lo cual f(x) f(-x) = (-1)n(x2 - a1 )(x2 - a2) ... (x2 - an) ≡
2
− ai
i =1

Cuando este procedimiento se repite ν veces, entonces se puede escribir de la forma:

yn + b1yn-1 + ... + bn = 0, siendo y ≡ x2ν


Puesto que los coeficientes están dados por las fórmulas de Vieta, entonces:

b1 = -(y1 + y2 + ... + yn),


b2 = (y1y2 + y1y3 + ... + yn-1yn), ...
bn = (-1)n(y1y2...yn))

y debido a que el procedimiento repetido de elevar las raíces al cuadrado da una amplia separación de las raíces, los
primeros términos son mucho mayores que el resto, y sepuede escribir:

b1 ≈ - y1, b2 ≈ y1y2 , ... , bn ≈ (-1)n(y1y2...yn))

despejando los valores yi se tiene que: y1 ≈ -b1, y2 ≈ -b2 /b1, ..., yn ≈ -bn /bn-1

Y resolviendo para las raíces originales: a1 ≈ (-b1)1/2ν, a2 ≈ (-b2 /b1) 1/2ν, ..., an ≈ (-bn /bn-1) 1/2ν
Este método trabaja especialmente bien cuando todas las raíces son reales.

EJEMPLO ILUSTRATIVO. El Método Graeffe se puede explicar en detalle mediante el siguiente ejemplo: considérese el
polinomio

p(x) = x 3 - 5x 2 -17x + 21 = 0 (3.7.1)


que es un polinomio de grado 3 y cuyas raíces se sabe que son 1, -3 y 7 (en este caso, el valor de las raíces es para
explicar el algoritmo; en el caso general, las raíces no se saben, pues son las que se deben calcular); también se conocen
los valores de los cuatro coeficientes ai , con i = 1,4, así: a3 = 1.0, a2 = -5.0, a1 = -17.0, a0 = 21.0.

Por lo cual, el polinomio se puede expresar como: p(x) = x 3 - 5x 2 -17x + 21 = (x -1)(x+3)(x-7) (3.7.2).

PASO #1. Agrupar todos los términos pares en un lado de 3.7.1 y todos los términos impares en el otro lado; y elevando al
cuadrado (x 3 -17x)2 = (5x 2 - 1)2 , lo cual – despés de reagrupar términos- puede escribirse como:

x6 - 59 x4 + 499x2 - 441 = 0 (3.7.3)

PASO #2. Empleando, ahora, y = x2 ⇒ x = y1/2 (3.7.4) y reemplazando en la ecuación 3.7.3, da un polinomio p(y) del
mismo grado que p(x), mostrado como la ecuación 3.7.5 a continuación:
0
11
Froberg, C.E.: «An Introduction to Numerical Analysis», Addison Wesley Publishing Company, 1969. // Pan, Victor Y.: «Univariate Polynomials: Nearly
Algorithms for Numerical Factorization and Root-finding», Mathematics and Computer Science Department, Lehman College, CUNY, Bronx, NY
10468, U.S.A., 2002. // Pan, V.Y.: «Solving a polynomial equation: Some history and recent progresses», SIAM Review Vol. 39, pp. 187-220, 1997.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 80
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

p(y) = y 3 - 59 y 2 +499 y – 441 (3.7.5)


La relación fundamental entre las raíces de los polinomios p(x) y p(y) es que las raíces del polinomio p(y) son las mismas
raíces que las del polinomio p(x) pero elevadas al cuadrado. O, la inversa, las raíces del polinomio p(x) son las raíces
cuadradas de las del polinomio p(y). De modo que si se hallan las raíces del polinomio p(y), entonces se pueden hallar las
raíces del polinomio p(x) empleando la ecuación 3.7.4.

PASO #3. Se puede demostrar que –en general – si el polinomio p(x) se puede expresar como p(x) = (x-a)(x-b)(x-c)
entonces se podrá hacer lo mismo con el polinomio p(y), teniendo en cuenta 3.7.4, y por lo tanto se podrá escribir lo
siguiente: p(y) = (x - a2)(x - b2)(x - c2) es decir, los procesos de los pasos 1 y 2 dan como resultado un nuevo
polinomio del mismo grado que el original pero cuyas raíces son los cuadrados de las raíces del polinomio original.

PASO #4. Repetir los pasos 1, 2 y 3, obteniendo una serie de polinomios, todos del mismo grado que el original, como –por
ejemplo- los siguientes polinomios:

p(z) = z3 - 2483z 2 + 196963z - 194481 = (x - a4)(x - b4)(x - c4) (3.7.6)

p(u) = u3 - 5771363u2 + 37828630723u – 3782285936 = (x - a8)(x - b8)(x - c8) (3.7.7)

El polinomio p(u), en 3.7.7, tiene raíces que son las raíces del polinomio original elevadas a la octava potencia, puesto que
el proceso de elevar al cuadrado se ha efectuado tres veces ( ⇒ 23 = 8); y – en general-, si el proceso de elevar las
raíces al cuadrado (pasos 1 y 2) se aplica ν veces, entonces las nuevas raíces, del polinomio resultante, serán elevadas
ν
a la potencia 2 de las raíces originales.

Este proceso, elevar las raíces al cuadrado, lleva aque las raíces originales y las del nuevo polinomio que se forma tienen
una amplia separación en sus valores numéricos, como se ejemplifica en la tabla 3.7.1 mostrada a continuación:

TABLA 3.7.1 Diferencia numérica entre las raíces de los polinomios.


______________________________________________________
Polinomios Raíces
-----------------------------------------------------------------------------------------
p(x) 1, -3, 7

p(y) 1, 9, 49

p(z) 1, 81, 2401

p(u) 1, 6561, 5764801


-------------------------------------------------------------------------------------------

Una vez que las raíves tienen suficiente separación, es relativamente fácil extraer las raíces del último polinomio generado;
en el ejemplo que se está tratando, polinomio definido por 3.7.1, se pueden extraer las tres raíces del polinomil p(u). El
algoritmo, para el Método Graeffe, asume que las raíces iniciales, las del polinomio original p(x), son todas distintas y en
orden crecien, por ejemplo |a| > |b| > |c| (|7| > |-3| > |1|).

De ahí, que para el polinomio p(u), sus raíces cumplan la relación a8 >> b8 >> c8 (3.7.8), donde el símboloe >> significa
muchísimo mayor, como se puede apreciar en la tabla 3.7.1 en la cual, para el polinomio p(u), 5764801 >> 6561 >> 1.
Precisamente, aprovechando el valor de los coeficientes ai y la relación existente entre las raíces de los polinomios, en
particular entre las raíces del polinomio original y las del último polinomio generado, se pueden extrarer las raíces, o –por
lo menos – sus valores aproximados, utilizando el paso #5.

PASO #5. A partir de los coeficientes del polinomio p(u) = u3 -5771363 u 2 + 37828630723u - 3782285936, se
obyenen, entonces, tres ecuaciones que relacionan a sus coeficientes a, b, c, de la manera siguiente:

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 81
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

-(a8 + b8 + c8 ) = -5771363

a8*b8 + b8 *c8 + a8 * c8 = 37828630723 (3.7.9)

-a8*b8*c8 = - 3782285936

Utilizando las relaciones 3.7.8 (a8 es muchísimo mayor que b8, el cual –a su vez- es muchísimo mayor que c8) las
ecuaciones 3.7.9 se pueden utilizar para aproximar los valores a, b, c, considerando sólo los términos dominantes e
ignorando los términos menores:
a8 ≈ 5771363

a8*b8 ≈ 37828630723 (3.7.10)

a8*b8*c8 ≈ 3782285936

Los valores aproximados de las raíces originales a, b y c pueden obtenerse empleando las ecuaciones 3.7.9 y 3.7.10:

|a| = (5771363)1/8 = 7.001

|b| = (37828630723/ 5771363)1/8 = 2.999 (3.7.11)

|c| = (3782285936/ 37828630723)1/8 = 0.9998

Compárese con las raíces exactas: 7.0, -3.0 y 1.0. Para efectos prácticos, los valores obtenidos, en 3.7.11, de las raíces
del polinomio original p(x), definido por 3.7.1, representan una buena aproximación. Obsérvese –también- que en 3.7.11
todas las raíces son possitivas, puesto que – en el proceso de elevar las raíces al cuadrado (pasos 1 y 2)- las raíces
negativas se convierten en positivas (por ejemplo, (-3)2 = 9). Con el fín de determinar el signo correcto de las raíces
originales, para cada raíiz hallada, r, se calcula el valor del polinomio para el punto x = r y también para el punto x = -r
y cualquiera de los dos valores, p(r) o p(-r), que sea cero, con un nivel de precisión numérica estipulado, da el signo
correcto de la raíz, r.

Es conveniente anotar que si el proceso iterativo - de elevar las raíces al cuadrado - se continuara, se tendría el polinomio
p(w) = w3 + A2 w2 + A1w+A0, después de ν veces de aplicar el proceso (pasos 1 y 2) de elevar las raíces al
cuadrado, entonces las 3 raíces reales (por ejemplo, a > b > c ) se pueden obtener directamente de las siguientes
ecuaciones:
|a| = (|A2|)(1/2ν), como la mayor raíz en valor absoluto; |b| = (|A2/ A1|)(1/2ν) es la siguiente raíz en (3.7.12
ν
valor absoluto (téngase en cuenta que a > b), y |c| = (|A3/ A2|)(1/2 ) como la menor de las raíces.

CRITERIO DE FINALIZACIÓN DEL ALGORITMO: En el ejemplo que se está considerando, se termina el proceso iterativo
después de la iteración 3, o sea que se ha ejecutado tres veces la elevación de las raíces al cuadrado. En general, el
criterio de terminación del Método Graeffe se hace on una tolerancia numérica establecida, en forma similar a como se
hace en todo algoritmo que implementa un proceso iterativo (véase las secciones 3.2 a 3.6). Para este método se calcula
la diferencia entre las sucesivas aproximaciones de una misma raíz; y cuando dicha diferencia es menor que una
tolerancia numérica (nivel de precisión) especificada, entonces el algoritmo finaliza, y los valores aproximados de las
raíces se calculan por medio de las ecuaciones 3.7.12.. Por ejemplo, para el polinomio p(x), definido por 3.7.1, en la tabla
3.7.2 se listan las sucesivas diferencias entre los valores de las mismas raíces.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 82
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

TABLA 3.7.2 Listado de las diferencias sucesivas entre los valores de las raíces de p(x) definido por 3.7.1.
___________________________________________________________________________________________
Iteración Polinomio ai bi ci |ai+1 - ai| |bi+1 - bi| |ci+1 - ci|
--------------------------------------------------------------------------------------------------------------------------------------------------------
1 p(y) 7.68 2.91 0.94 ----- ------ -------
2 p(z) 7.06 2.98 0.997 0.58 0.07 0.057
3 p(u) 7.001 2.999 0.9998 0.059 0.019 0.0028
---------------------------------------------------------------------------------------------------------------------------------------------------------

En la tabla 3.7.2, iteración hace referencia al número de veces que se ha aplicado el proceso de elevar las raíces al
cuadrado. En la tercera vez (ν = 3) se llega al nivel de precisión estipulado. Si se requiere una mayor precisión, entonces
el algoritmo generará más iteraciones.

UN ALGORITMO GENERAL PARA EL MÉTODO GRAEFFE. Para el caso general, se tiene un polinomio f(x) = 0, con n
raíces relaes, es decir, {ui}, 0 ≤ i ≤ n, y cuyos n+1 coeficientes son, por ejemplo, a0, a1, ....., an-1, an; el problema –
entonces- consiste en obtener los coeficientes del nuevo polinomio generado con el proceso de elevar las raíces al
cuadrado. Si los coeficientes del nuevo polinomio son, a modo de ejemplo, b0, b1, ....., bn-1, bn, por medio de un simple
tratamiento algebráico se puede establecer las relaciones entre los coeficientes ai y bi, mostradas a continuación:

b0 = - a02

b1 = a12 - 2a0a2
(3.7.13)
b2 = -a22 + 2a1a3 - 2a0a4

b3 = a32 - 2a2a4 + 2 a1a5 - 2a0a6

Las relaciones 3.7.13 revelan un patrón de formación generalizable para obtener los coeficientes bi , del nuevo polinomio
formado en cada iteración, a partir de los coeficientes ai . Dicha relación general es la siguiente12:

⎛ 2 min ( n − k , k )

bk = (− 1) ⎜ a k + 2 ∑ (− 1) j a k − j a k + j ⎟, k = 0,1, 2,..., n
n−k
(3.7.14)
⎜ ⎟
⎝ j =1 ⎠

La ecuación 3.7.14 es la base para elaborar el algoritmo genérico mostrado en la figura 3.7.1.

1. Obtener el grado del polinomio (n), los coeficientes ai, y la precisión numérica (ξ).
2. Valores iniciales de las raíces, prevRaices(i) = 1.0, i = 1, n
3. Mientras (no convergencia)
3.1 Elevar raíces al cuadrado
3.2 Hallar los mejores valores de las raíces, newRaices(i), i = 1, n. Aplicar 3.7.14
3.3 Determinar criterio de finalización, {|newRaices(i) – prevRaices(i)| < ξ}, i = 1, n.
4. Mostrar los valores de las raíces y otros párametros.

FIGURA 3.7.1 Algoritmo genérico para el Método Graeffe.

0
12
Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++», Op. Cit. // IQBAL, M.: «NUMERICAL SOLUTIONS
OF NAGUMO’S EQUATION», Department o.f Mathematical Sciences, King Fahd University of Petroleum and Minerals, Dhahran, Saudi Arabia;
Journal of Applied Mathematics & Decision Sciences, Vol. 3, No. 2, pp. 189-193, 1999. // Mekwi, Wankere R. : «Iterative Methods for Roots of
Polynomials», Section 2.4 «Graeff's Root-squaring Method», Exeter College, University of Oxford, A thesis submitted for the degree of MSc in
Mathematical Modelling and Scientific Computing, Trinity 2001.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 83
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Listado del Programa en C++13:

/* filename : graeffe.C
i/p : degree and coefficients of a real polynomial
o/p : all roots found simultaneously.
method : a) uses a root squaring method devised by Graeffe
b) New coefficients are to be determined at each
root squaring step, also compute approximations
to all the roots.
c) stop the process when convergence criteria is reached.
d) all roots are assumed positive in this version, needs
to be extended for both -ve and +ve roots.
*/
#include &lt;iostream&gt;
#include &lt;math.h&gt;

using namespace std;

// finding real roots of a n-degree polynomial with real coefficients


// The coefficients are a[0] to a[n], where a[0]is the constant term
// and the coefficient of x**k is a[k], 0 &lt;= k &lt;= n-1;
// The value of a[n], i.e., the coefficient of x**n, is assumed to be 1.
//
const int SIZE = 100;

bool test ( float*, float*, int );


void rootsquare ( float*, float*, int);
int main() {
float a[SIZE], b[SIZE];
float roots[SIZE], oldroots[SIZE];
int degree;
// give the degree of the polynomial
cout &lt;&lt; " Grado del polinomio ( &lt;= 100 ) :" ;
cin &gt;&gt; degree; cout &lt;&lt; endl;
if ( degree &gt; 100 )
{ cerr &lt;&lt; " el grado del polinomio debe ser menor o igual que 100 : error "
&lt;&lt; endl;
return 0;
};
// supply the coefficients, a[0] to a[degree]
cout &lt;&lt; " Give the coefficients from lowest to highest :";
for ( int i = 0; i &lt;= degree; i++ )
{ cin &gt;&gt; a[i]; cout &lt;&lt; endl;
cout &lt;&lt; " The coefficient of x power "
&lt;&lt; i &lt;&lt; " is : " &lt;&lt; a[i] &lt;&lt; endl;
};
// assume some dummy approx values of roots to start with, say 1

for ( int i = 0; i &lt;= degree; i++ ) oldroots[i] = 1.0;


// now compute the new polynomials repeatedly till the coefficients
// agree to the first point after decimal
bool converge = false;
int iter = 0;
float nthroot = 1;
while ( ! converge )
{ rootsquare ( a, b, degree);
0
13 Supratim Biswas: «CEP CERTIFICATE COURSE ON ADVANCED PROGRAMMING IN C++» , Appendix C, Op. Cit.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 84
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
// find better approximate values of the n roots
nthroot = nthroot/2;
cout &lt;&lt; "*********** roots after iteration "
&lt;&lt; ++iter &lt;&lt; " ************" &lt;&lt; endl;
for ( int k = 1; k &lt;= degree; k++ )
{ roots[k] = fabsf(b[degree-k]/b[degree-k+1]);
roots[k] = pow(roots[k], nthroot);
cout &lt;&lt; " roots[" &lt;&lt; k &lt;&lt; "] = "
&lt;&lt; roots[k] &lt;&lt; endl;
}
converge = test ( oldroots,roots, degree);
// copy array b in array a - store new coefficients
// and destroy old coefficients

for ( int i = 0; i &lt;= degree; i++ )


{ a[i] = b[i];
oldroots[i] = roots[i];
};
};
// The coefficients of the polynomial after these values have
// stabilized in array a

// display the last root squared polynomial

cout &lt;&lt; " ****************************************** "


&lt;&lt; endl;
cout &lt;&lt; " Los coeficientes finales son los siguientes " &lt;&lt; endl;
cout &lt;&lt; " ****************************************** "
&lt;&lt; endl;
for ( int i = 0; i &lt;= degree; i++ )
{ cout &lt;&lt; " The coefficient of x power "
&lt;&lt; i &lt;&lt; " is : " &lt;&lt; a[i] &lt;&lt; endl;
};
// Now display the roots
cout &lt;&lt; " ****************************************** "
&lt;&lt; endl;
cout &lt;&lt; " Las raíces finales son las siguientes " &lt;&lt; endl;
cout &lt;&lt; " ****************************************** "
&lt;&lt; endl;
for ( int i = 1; i &lt;= degree; i++ )
cout &lt;&lt; " Root " &lt;&lt; i &lt;&lt; " is = " &lt;&lt; roots[i]
&lt;&lt; endl;
cout &lt;&lt; endl
&lt;&lt; " Se ha efectuado la elevación d elas raíces al cuadrado "
&lt;&lt; iter &lt;&lt; " veces para convergencia " &lt;&lt; endl;

// Program incomplete -- sign of the root problem


}

bool test ( float*x, float*y, int deg )


{
bool result = false;
for (int i = 1; i &lt;= deg; i++ )
if ( fabsf(x[i] - y[i]) &gt; 0.05 ) return result;
result = true;
return result;
}

void rootsquare ( float *x, float *y, int deg )


_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 85
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
{
for ( int j = 0; j &lt;= deg; j++ )
{ float first = 0;
first = x[j]*x[j];
// upper contains the min of j and deg-j
int upper;
if ( j &lt;= deg -j ) upper = j;
else
upper =deg - j;
float second = 0;
for ( int k = 1; k &lt;= upper; k++)
{ second = second + 2*x[j-k] * x[j+k];
if ( k%2 != 0) second = -second;
};
y[j] = first + second;
if ( (deg - j)%2 != 0 ) y[j] = -y[j];
};
return;
}

Programa en MATLAB14 que haya raíces de 100 polinomios de grado 10.

% rts10.m -
% This program calculates the roots of 100 random
% degree 10 polynomials, reading coefficients
% from c10fs using roots
clear
format long
mtime = 0;
pol = 100; % Number of polynomials
deg = 10; % Degree of each polynomial
num = pol*deg; % Total number of zeros
n = deg-1; % step
load c10fs;
z = c10fs(:);
x = z(1:2:end);
y = z(2:2:end);
cofs = x + i*y;
fid = fopen('mp10','w');
for i=1:deg:num
p1 = cofs(i:i+n);
p = [1;p1];
tic
zer = roots(p);
mtime = mtime + toc;
for k=1:deg
fprintf(fid,'%28.20f %28.20f\n',real(zer(k)),imag(zer(k)));
end
end
mtime
fclose(fid);

0
14
Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Appendix C, 2001. Op. Cit.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 86
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/08/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Programa FORTRAN15 para el Método Graeffe

C This reads coefficients of random polynomials, and tries out C02AFF


C on them. Saves results in another file for comparison with MATLAB
IMPLICIT NONE
INTEGER NX,NCOUNT,FIN,FOUT,FOUT2,POL
PARAMETER (NX=10,FIN=10,FOUT=12,POL=100)
55
DOUBLE PRECISION ACO(2,NX+1),Z(2,NX),W(4*(NX+1)),DTIME,TTIME
INTEGER I,N,IFAIL,IGO,J
REAL TX,TIME(2)
EXTERNAL C02AFF
C
C ....Executable statements ....
C
OPEN(FIN,FILE='c10fs')
OPEN(FOUT,FILE='fp10')
N = NX
NCOUNT=0
DO 300 IGO=1,POL
ACO(1,1)=1.D0
ACO(2,1)=0.D0
C Read in coefficients from 'c10fs'
C
DO 77 I=2,N+1
READ(FIN,*)ACO(1,I)
READ(FIN,*)ACO(2,I)
77 CONTINUE
IFAIL=-1
TX = DTIME(TIME)
CALL C02AFF(ACO,N,.TRUE.,Z,W,IFAIL)
TTIME = TTIME + DTIME(TIME)
NCOUNT = NCOUNT + 1
WRITE(FOUT,120)(Z(1,J),Z(2,J),J=1,N)
100 FORMAT(2I8,2F12.5)
120 FORMAT(D28.20,3X,D28.20)
300 CONTINUE
WRITE(*,*) 'NCOUNT=',NCOUNT
WRITE(*,*) 'TIME = ',TTIME
CLOSE(FIN)
CLOSE(FOUT)
STOP
END

0
15
Mekwi, Wankere R. : «Iterative Methods for Roots of Polynomials», Appendix C, 2001. Op. Cit.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 87
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/10/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.8 Método de Muller


Los métodos para hallar una raíz de una ecuación funcional f(x) = 0 se pueden clasificar en una de dos categorías:

• (i)– MÉTODOS ABIERTOS. O métodos de intervalo abierto, emplean una o varias aproximaciones iniciales a la raíz para
obtener un nuevo estimado del valor de la raíz (cero de f(x)), efectuando una sustitución o interpolación (lineal,
cuadrática, o polinómica). En esta categoría se encuentran los métodos Punto fijo (sustitución sucesiva o directa),
Newton-Raphson (linea recta, empleando información del gradiente o derivada), Secante (linea recta empleando dos
puntos), Muller (aproximación cuadrática, por medio de una párabola, empleando tres puntos).

• (ii) – MÉTODOS CERRADOS. O métodos de intervalo cerrado, emplean los extremos de un intervalo [a, b], donde se
sabe que f(x) tiene una raíz, ya que se cumple que f(a)*f(b) < 0, según el Teorema de Bolzano. Aquí se ubican los
métodos de Bisección, Regula Falsi.

En realidad, el Método Muller generaliza el Método Secante para hallar una raíz de f(x) = 0, utilizando interpolación
cuadrática de tres puntos; este método fue primeramente presentado por D.E. Muller en 1956, y utiliza tres valores
aproximados iniciales para la raíz1. Un mejor valor aproximado para la raíz de f(x) = 0 se obtiene calculando la intersección
con el eje-x con la parábola que se ajusta a los valores de f(x) para las tres aproximaciones iniciales f(x0), f(x1), f(x2)
(figura 3.8.1), con las cuales define la siguiente relación:
x2 − x1
q= (3.8.1)
x1 − x0

Luego calcula los valores A, B y C con las siguientes fórmulas:

A = qf ( x 2 ) − q (1 + q ) f ( x 1 ) + q 2 f ( x 0 )
B = (2 q + 1 ) f ( x 2 ) − (1 + q ) f ( x 1 ) + q 2 f ( x 0 )
2
(3.8.2)
C = (1 + q ) f ( x 2 )

El valor de la nueva aproximación se obtiene con la fórmula siguiente:

x 3 = x 2 − ( x 2 − x1 )
2C
max B ± ( B 2 − 4 AC ) (3.8.3)

Figura 3.8.1 Esquema gráfico que ilustra los


parámetros básicos del Método Muller.

El algoritmo para este método emplea las ecuaciones


X3 3.8.1, 3.8.2 y 3.8.3, para calcular una nueva aproximación
y luego hace las siguientes asignaciones

x0 = x1, x1 = x2, x2 = x3,


y calcula otra nueva aproximaxión; el crtiterio de
Parábola
finalización se basa en una tolerancia numérica
estipulada, ξ, y cuando f(x3) < ξ entonces finaliza el
proceso iterativo. En la figura 3.8.2 se presentan las
fórmulas para el caso en el cual la función se referencia
0
1
Weisstein, Eric W.: «Muller's Method», From MathWorld--A Wolfram Web Resource, 1999 – 2007, http://mathworld.wolfram.com/MullersMethod.html //
Zimmerman, W.: «Computing, Root Finding – Muller’s Method», Lecture 2, University of Sheffield, 1999, http://eyrie.shef.ac.uk/lec2/. // «NUMERICAL
RECIPES IN FORTRAN 77: THE ART OF SCIENTIFIC COMPUTING», (ISBN 0-521-43064-X), Copyright (C) 1986-1992 by Cambridge University
Press. Programs Copyright (C) 1986-1992 by Numerical Recipes Software.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 88
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/10/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
como un polinomio P(x) y los tres puntos de la aproximaxión inicial se nombren como xn, xn-1, xn-2. La figura 3.8.3
presenta un algoritmo genérico para el Método Muller.

Figura 3.8.2 Ecuaciones para el Método


≡ Muller referidas al polinomio P(x) y a los
puntos nombrados como xn, xn-1, xn-2.

1. Obtener tres puntos iniciales de aproximaxión x0, x1, x2 y una precisión


Figura 3.8.3 Algoritmo
numérica ξ. genérico para el Método
2. Repetir Muller.
2.1 Calcular q con la ecuación 3.81
2.2 Calcular los valores A, B, C con las ecuaciones 3.8.2
2.3 Calcular la nueva aproximación, x3, con la fórmula 3.8.3
2.4 Contar el número de iteraciones, n = n +1
Hasta que |f(x3)| < ξ
3. Mostrar la raíz, x3, el número de iteraciones, n.

El Método Muller puede hallar las raíces complejas (imaginarias) de un polinomio f(x) = 0. En este sentido, el algoritmo de
la figura 3.8.2 debe refinarse para incluir el tratamiento de la variable compleja.

En muchos prácticos las raíces de una función desciben la dinámica de un sistema físico, siendo gobernada dicha
dinámica por el polinomio característico del sistema; si las raíces de dicho polinomio son positivas, el sistema es inestable;
si las raíces son negativas el “ruido” o perturbación del sistema decae, si las raíces son complejas, el “ruido” o perturbación
tiene un comportamiento oscilatorio, con amplitud que aumenta o disminuye. El Método Muller al hallar los ceros (las
ráices) de la ecuación cudrática que surge, véase la ecuación 3.8.3, también puede hallar los pares complejos conjugados

FIGURA 3.8.4 Esquema gráfico de f(x) = x3-5x2+2x+10.

correspondientes a las raíces del polinomio original.

Al emplear los tres valores iniciales: X0 = 2.75, X1 = 3.15, X2 = 3.5 en 220


iteraciones se obtiene la raíz X3= 3,76167360315801, empleando un nivel de
precisión Epsilon = 0.001. Si no se escogen bien los tres valores de inicio, el
Método Muller genera desbordamiento aritmético o –de todas meneras- converge
lentamente.

Un programa en Visual Basic, con el cual se logró los resultados descritos, es que se muestra en la figura 3.8.5. Un
programa en MATLAB se muestra en la figura 3.8.62.

0
2
John H. Mathews and Kurtis D. Fink: «NUMERICAL METHODS: Using Matlab», Fourth Edition, (c) 2004, ISBN: 0-13-065248-2, Prentice-Hall Pub.
Inc., Upper Saddle River, NJ 07458, USA.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 89
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/10/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Dim aux As Double, aX0 As Double, bX1 As Double, cX2 As Double


X0 = 0.25: X1 = 0.5: X2 = 1#: Epsilon = 0.001: N = 0
aX0 = X0: bX1 = X1: cX2 = X2
Do
q = (X2 - X1) / (X1 - X0)
A = q * f(X2) - q * (1# + q) * f(X1) + (q ^ 2) * f(X0)
B = (2# * q + 1#) * f(X2) - ((1# + q) ^ 2) * f(X1) + (q ^ 2) * f(X0)
C = (1# + q) * f(X2)
X3 = X2 - (X2 - X1) * ((2# * C) / (Maximo(B, Sqr(B ^ 2 - 4# * A * C))))
N = N + 1: aux = f(X3)
X0 = X1: X1 = X2: X2 = X3
Loop Until (Abs(f(X3)) < Epsilon)
Text1 = "RAIZ, X3= " & X3 & vbCrLf & vbCrLf & "f(x3) = " & _
Format(Abs(f(X3)), "###0.0000000000000000000") & _
vbTab & "Epsilon = " & Epsilon & vbCrLf & "No. iteraciones = " & N & vbCrLf & vbCrLf & _
"X0 = " & aX0 & vbTab & " X1 = " & bX1 & vbTab & " X2 = " & cX2

FIGURA 3.8.5 Un algoritmo en Visual Basic para obtener una raíz f(x) = x3-5x2+2x+10,
empleando el Método Muller. La función se define como el procedimiento f().

function [p,y,err]=muller(f,p0,p1,p2,delta epsilon,max1)


P=[p0 p1 p2];
Y=feval(f,P);
for k=1:max1
h0=P(1)-P(3);h1=P(2)-P(3);e0=Y(1)-Y(3);e1=Y(2)-Y(3);c=Y(3);
denom=h1*h0^2-h0*h1^2;
a=(e0*h1-e1*h0)/denom;
b=(e1*h0^2-e0*h1^2)/denom;
if b^2-4*a*c > 0
disc=sqrt(b^2-4*a*c);
else
disc=0;
end
if b < 0
disc=-disc;
end
z=-2*c/(b+disc);
p=P(3)+z;
if abs(p-P(2))<abs(p-P(1))
Q=[P(2) P(1) P(3)];
P=Q;
Y=feval(f,P);
end
if abs(p-P(3))<abs(p-P(2))
R=[P(1) P(3) P(2)];
P=R;
Y=feval(f,P);
end
P(3)=p;
Y(3) = feval(f,P(3));
y=Y(3);
err=abs(z);
relerr=err/(abs(p)+delta);
if (err<delta)|(relerr<delta)|(abs(y)<epsilon)
break
end
end

FIGURA 3.8.6 Un programa en MATLAB para el algoritmo de la figura 3.8.3.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 90
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/10/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

RECURSOS WEBGRÁFICOS Y BIBLIOGRÁFICOS SOBRE EL MÉTODO MULLER

1. Muller's Method
John Burkardt, Pittsburgh Supercomputing Center, Carnegie Mellon University, Pittsburgh, PA
2. Muller's Method
Mike Sussman, Mathematician at the Bettis Atomic Power Lab in West Mifflin, PA
3. Muller's Method
Przemyslaw Bogacki, Math. Dept., Old Dominion University, Norfolk, VA
4. Muller's Method
Eric Weisstein, MathWorld, Wolfram Research, Inc., Champaign, IL
5. Muller's method to find the roots of a polynomial
Eric R. Pardyjak, Mechanical Engineering, Univ. of Utah, Salt Lake City, UT
6. Complex Roots: Muller's Method
Andrea Burgoyne; Will Zimmerman, Chemical Engineering, University of Sheffield, UK
7. Muller's Method
Gerald Roskes, Queens College, The City University of New York, Flushing, NY
8. Muller's Method
Kerry Wilson, Math. Dept., North Georgia College & State University, Dahlonega, GA
9. Polynomial zerofinding by elementary operations on Frobenius companion matrix.
Karbassi, S. M.; Shariatnejad, M.
Far East J. Appl. Math. 7 (2002), no. 1, 25--33, MathSciNet.
10. Optimisation of modified Mueller and Muller algorithm
Danesfahani, G.R.; Jeans, T.G.
Electronics Letters, v 31, n 13, Jun 22, 1995, p 1032-1033, Compendex
11. On the use of Davidenko's method in complex root search
Hejase, Hassan A.N.
IEEE Transactions on Microwave Theory and Techniques, v 41, n 1, Jan, 1993, p 141-143,
Compendex
12. A method of Muller's method for computing the zeros of a function. (Italian)
Frontini, M.; Tognoni, A.
Istit. Lombardo Accad. Sci. Lett. Rend. A 125 (1991), no. 1, 69--75 (1992), MathSciNet.
13. A study on new Muller's method.
Park, Bong-kyu; Hitotumatu, Sin
Publ. Res. Inst. Math. Sci. 23 (1987), no. 4, 667--672, MathSciNet.
14. A modified Muller routine for finding the zeroes of a nonanalytic complex function.
Dyer, Charles C.
J. Comput. Phys. 53 (1984), no. 3, 530--534, MathSciNet.
15. Convergence of Muller's method for finding roots. (Chinese)
Xie, Shen Quan
Knowledge Practice Math. No. 2 (1980), 18--25, MathSciNet.
16. A stable method of inverse interpolation.
Blatt, J. M.
Austral. Comput. J. 7 (1975), no. 2, 51--57, MathSciNet.
17. Tangent methods for nonlinear equations.
King, Richard F.
Numer. Math. 18 (1971/72), 298--304, MathSciNet.
18. A procedure for solving polynomial equations by Muller's method. (Russian)
Lozovskiui, V. S.
Vyvcisl. Sistemy No. 44 (1971), 155--161, MathSciNet.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 91
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/11/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.9 Método de Bernoulli


El Método Bernoulli para hallar una raíz de la ecuación polinómica p(z) = 0, definida como 1
k
p( z ) = a0 z k + a1 z k −1 + ... + ak = ( z − z1 )( z − z 2 )...( z − z k ) = ∏ (z − zi ) (3.9.1)
i =1

siendo k ≥ 1 and a0ak ≠ 0, y siendo el conjunto {zi}i = 1,2,..., k, los ceros de p(z), construye la siguiente ecuación de
diferencias:
(3.9.2)
a0 xn + a1 xn−1 + ... + an xn−k = 0

que se sabe tiene la solución definida numéricamente por la siguiente relación recurrente:

xn = −
1
(a1 xn−1 + a2 xn−2 + ... + ak xn−k ), n = k , k + 1, k + 2,... (3.9.3)
a0

En la ecuación 3.9.1, el polinomio p(z) es de grado k if a0 ≠ 0. Si el polinomio p(z) tiene un factor (z - zj)r se dice
entonces que zj es una raíz de multiplicidad2 r. En el análisis inicial del Método Bernoulli se considera multiplicidad
unitaria (r = 1), es decir que las raíces no están repetidas (son distintas a las demás).

El Terorema Fundamental del Álegbra establece que un polinomio p(z), como el definido por la ecuación 3.9.1, tiene
precisamente n raíces reales o complejas si las raíces de multiplicidad r están repetidas r veces. En esta sección se
efectuará el análisis del Método Bernoulli para determinar una o más raíces de un polinomio con coeficientes reales.

Aunque los coeficientes del polinomio p(z) en 3.9.1 sean todos reales, pueden aparecer raíces complejas en pares
conjugados; es decir que si µ + iλ es una raíz compleja, entonces otra raíz compleja es µ - iλ. El polinomio p(z) puede
factorizarse en factores cuadráticos con coeficientes reales, excepto cuando n es impar, y en tal caso uno de los factores
es lineal. Por lo tanto, cualquier polinomio de grado n, siendo n impar, con coeficientes reales, tiene por lo menos una
raíz real.

Si en 3.9.3 se dan los valores iniciales (que pueden ser arbitrarios) x0, x1, ..., xk-1 se pueden hallar los valores de z1, z2,
..., zn que son las raíces del polinomio original 3.9.1. Para calcular la mayor raíz en valor absoluto de la ecuación 3.9.1,
es decir su cero dominante3, o raíz dominante, se aplica repetidamente de la ecuación 3.9.2, y la relación de dos términos
consecutivos, en dicha secuencia, tiende –en general – a un límite que se demuestra es la mayor raíz en valor absoluto, su
cero dominante, de la ecuación polinómica original4 (ecuación 3.9.1).

En otras palabras, el Método Bernoulli aprovecha la conexión existente entre una ecuación de diferencias lineales y los
ceros de su polinomio característico con el fín de hallar las raíces de un polinomio5, como el definido por 3.9.1, sin conocer
explícitamente un valor inicial aproximativo de manera exacta.

Si se supone que los valores z1, z2, ..., zk, los ceros de f(z) en 3.9.1, tienen multiplicidad 1, es decir son raíces distintas,
entonces la solución de 3.9.2 puede expresarse en la forma:
xn = w1 z1n + w2 z 2n + ... + wk z kn (3.9.4)

0
1
Weisstein, Eric W. "Bernoulli's Method." From MathWorld--A Wolfram Web Resource, 1999 – 2007,.
http://mathworld.wolfram.com/BernoullisMethod.html // Mandel, Jan, «Lecture Notes on Essential Numerical Analysis», University of Colorado at
Denver, November 30, 2003.
2
O’Donohoe, M.R.: «Numerical Analysis II», 2005, (lectures), www.cl.cam.ac.uk/Teaching/2003/NumAnal2/na2seq.ps.
Si un polinomio f(x), ó p(x), de grado k tiene ceros z1, z2, ..., zk, no necesariamente distintos, entonces el cero zj se le denomina cero dominante si
3

su módulo es estrictamente mayor que el módulo de los otros ceros, es decir, si se cumple que | zj | > | zi | para i ≠ j.
4
Spencer, Melvin R.: «Polinomial Real Root Finding», a doctoral Dissertation presented to the Department of Civil Engineering at Brigham Young
University, August 1994.
5
Mekwi, Wankere R.: «Iteratives Methods for Roots of polynomio», 2001, Op. Cit., pp. 5 – 7.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 92
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/11/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Donde los wj pueden ser calculados si se conocen los ceros de p(z), ecuación 3.9.1; pero los ceros no son conocidos, por
lo tanto tampoco lo son los wj; sin embargo los cocientes, qn, entre valores concecutivos de 3.9.4 son así:

xn+1
qn = (3.9.5)
xn
Y utilizando 3.9.4, la ecuación 3.9.5 puede reescribirse de la siguiente forma:

w1 z1n+1 + w2 z 2n+1 + ..wk z kn+1


qn = (3.9.6)
w1 z1n + w2 z 2n + ... + wk z kn

Además, supóngase que el polinomio p(z), ecuaciòn 3.9.1, tiene un cero dominante, y sea dicho cero z1 en este caso (z1
es real si los coeficientes de p(z) son reales). Igualmente, asúmase que los valores de inicio x0, x1, ...... xk-1 de la solución
{xn} de 3.9.4 se escogen de modo que w1 ≠ 06. Bajo tales supuestos, se puede reescribir la ecuación 3.9.6 así:

n +1 n +1
w ⎛ z2 ⎞ wk ⎛ zk ⎞
1+ 2 ⎜⎜ ⎟⎟ + ... + ⎜⎜ ⎟⎟
q n = z1
w1 ⎝ z1 ⎠ w1 ⎝ z1 ⎠ (3.9.7
n n
w2 ⎛ z 2 ⎞ wk ⎛ z k ⎞
1+ ⎜ ⎟ + ... + ⎜ ⎟⎟
w1 ⎜⎝ z1 ⎟⎠ w1 ⎜⎝ z1 ⎠
Ahora, puesto que z1 es un cero dominante, se cumple que | zj | > | zi | para i ≠ j y –por lo tanto- cuando n → ∞ en
3.9.7 se cumple el siguiente límite7:
n
⎛ zj ⎞
lim ⎜⎜ ⎟⎟ → 0 , j = 2 , 3 ,.., k (3.9.8)
n→ ∞
⎝ z1 ⎠

Y aplicando 3.9.8 a la ecuación 3.9.7 se cumple este otro límite cuando n → ∞ : lim (qn ) = z1 (3.9.9)
n→∞

Entonces z1 es aproximado por la ecuación 3.9.5, y habiéndose obtenido este cero, el polinomio p(z), definido por 3.9.1,
es reducido y el procedimiento se repite en el polinomio reducido, por el factor (z – z1). Así, el Método Bernoulli sólo
puede hallar uno o dos ceros (una o dos raíces) –a la vez- de un polinomio dado, como p(z) definido por la ecuación 3.9.1,
y dicho(s) cero(s) son el (los) de mayor o de menor magnitud dentro del conjunto {zi}i = 1,2,..., k, que constituye las raíces
del polinomio.

Para hallar, por ejemplo, un cero (o raíz) de módulo (valor absoluto) intermedio, es necesario calcular todos los ceros
mayores (o menores) y luego removerlos dejando sólo los valores intermedios.

Los anteriores cálculos, ecuaciones 3.9.1 a 3.9.9, se han efectuado bajo el supuesto que el cero dominante, z1, es de tipo
real y distinto de los demás ceros (único); también puede demostrarse que los cálculos se cumplen cuando z1 tiene
multiplicidad mayor que 1, pero cada uno de sus valores es de tipo real8. Sin embargo, si el cero dominante es de tipo
complejo las relaciones 3.97 y 3.9.8 no se cumplen. Por otra parte, si, por ejemplo, la raíz z2 tiene una magnitud cercana
a la raíz z1 entonces la convergencia es muy lenta. Y estas son llas principales desventajas del Método Bernoulli.

0
6
Puede demostrarse que esta condición siemore se satisface si los valores iniciales x0, x1, ...... xk-1 se escogen de modo que se cumpla que xk+1 = xk+2 =
... = x1 = 0, x0 = 1.
7
Carnahan, Brice; Luther, H.A.; Wilkes, James O.: «Applied Numerical Methods», John Wiley & Sons, Inc., New York, USA, 1969, SBN 471-13507-0,
Chapter 3: «Solution of Equations, Bernoulli’s Method», pp. 142-143.
8
Henrici, P.: «Essentials of Numerical Analysis», Wiley and Sons, 1964. // Hansen, E. and M. Patrick, M.: «A family of root -finding methods», Numer.
Math., Vol. 27, pp. 257-269, 1977. // K.F. RILEY, M.P. HOBSON and S. J. BENCE: «Mathematical Methods for Physics and Engineering», Third
Edition, 2006, Chapter 27: «Numerical Methods», pp. 894 – 140, Cahepter 24: «Complex variables», pp. 824 – 870, Cambridge University Press,
Cambridge, England, 2006, ISBN-10 0-521-86153-5.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 93
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/11/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
Una extensión del Método Bernoulli se debe a Rutishauser9, y es el algoritmo QD (Quotient-Difference) que tiene la
ventaja de calcular -a la vez- todos los ceros de una ecuación polinómica como la definida por 3.9.1. No obstante, el
algoritmo QD es lento, pues sólo tiene –en su versión estándar- convergencia lineal (véase la sección 3.10).

RECURSOS WEBGRÁFICOS Y BIBLIOGRÁFICOS SOBRE EL MÉTODO BERNOULLI


1. "Numerical Mathematics in Scientific Computation", Germud Dahlquist, Åke Björck, 2005,
//www.mai.liu.se/~akbjo
2. "The Java Programmer's Guide to Numerical Computation", Ronald Mak, Prentice-Hall.
//www.apropos-logic.com/nc/
3. "Numerical Analysis Topics Outline", S.-Sum Chow, 2002, //www.math.byu.edu/~schow/work
4. A.C. Aitken, Further numerical studies in algebraic equations and matrices, Proc. Roy. Soc. Edinburgh
Sect. A 51 (1931) 80--90.
5. A.C. Aitken, On Bernoulli's numerical solution of algebraic equations, Proc. Roy. Soc. Edinburgh 46
(1926) 289--305.
6. A.C. Aitken, The contributions of E.T. Whittaker to algebra and numerical analysis, Proc. Edinburgh
Math. Soc. 11 (1958) 31--38.
7. G. Baker and P. Graves-Morris, Padé approximants I (Addison-Wesley, London, 1981) 96--102.
8. G. Baker, Recursive calculation of Padé approximants, in: P.R. Graves-Morris, Ed., Padé approximants
and their applications (Springer, Berlin, 1972) 83--92.
9. M. Balfour and A.J. McTernan, The Numerical Solution of Equations (Heinemann, London, 1st ed., 1967).
10. F.L. Bauer, Beiträge zur Entwicklung numerischer Verfahren für programmgesteuerte Rechenanlagen, I.
Quadratisch konvergente Durchführung der Bernoulli--Jacobischen Methode zur Nullstellenbestimmung
von Polynomen, Sitzungsber. Math.-Natur. Kl. Bayer. Acad. Wiss. (1954--1955) 275--303; II. Direkte
Factorisierung eines Polynoms, Sitzungsber. Math.-Natur. Kl. Bayer. Akad. Wiss. (1956--1957) 163--203.
11. F.L. Bauer, The g-algorithm, J. Soc. Indust. Appl. Math. 8 (1960) 1--17.
12. F.L. Bauer and Kl. Samelson, Polynomkerne und Iterationsverfahren, Math. Z. 67 (1957) 93--98.
13. F.L. Bauer, The quotient-difference algorithm and epsilon-algorithms, in: On Numerical Approximation
(Univ. of Wisconsin Press, Madison, WI, 1959) 361--370.
14. F.L. Bauer, Quadratische Konvergenz der Bernoullischen Methode, Z. Angew. Math. Mech. 34 (1954)
287.
15. F.L. Bauer, Das Verfahren der abgekürtzen Iteration für algebraische Eigenwerteprobleme, insbesondere
zur Nullstellenbestimmung eines Polynoms, Z. Angew. Math. Phys. 7 (1956) 17--32.
16. F.L. Bauer, Nonlinear sequence transformations, in: Approximation of Functions (Elsevier, Amsterdam,
1965) 134--151.
17. L. Berg, Numerisches Faktorisierung von Polynomen, Z. Angew. Math. Mech. 58 (1978) 245--249.
18. W.G. Bickley, On Smith's method for calculation of the roots of polynomial equations, Math. Gaz. 46
(1962) 32.
19. D. Bini, Complexity of parallel polynomial computations, in: D.J. Evans, Ed., Parallel Computation:
Methods, Algorithms and Applications (Adam Hilger, 1989) 115--126.
20. P.A. Brooker, The solution of algebraic equations on the Edsac, Proc. Cambridge Philos. Soc. 48 (1952)
255--270.
21. R.A. Buckingham, Numerical Methods (Pitman, London, 1957) 251--304.
22. A. Bultheel, Zeros of a rational function defined by its Laurent expansion, in: H. Werner and H.J. Bunger,
Eds., Padé Approximation and its Applications, Bad Honnef, 1983, Lecture Notes in Math. 1071
(Springer, New York, 1984) 34--48.
23. F. Cajori, A History of Mathematics (Macmillan, New York, 2nd ed., 1919).
24. B. Carnahan, H.A. Luther and J.O. Wilkes, Applied Numerical Methods (Wiley, New York, 1969) 141--
209.
25. L. Cerlienco and F. Piras, Successioni ricorrenti lineari e algebra dei polinomi, Rend. Mat. Ser. 7 1 (2)
(1981) 305--318.

0
Henrici, P. And Watkins, Bruce O.: «Finding zeros of a polynomial by the Q-D algorithm», Communications of the ACM
9

Volume 8 , Issue 9, September 1965, Pages: 570 – 574, ISSN:0001-0782, ACM Press New York, NY, USA, Univ. of California, Los Angeles, and
Technische Hochschule, Zurich, Switzerland, Utah State Univ., Logan. // Wilkinson, J.H.: «Convergence of the LR, QR, and Related Algorithms»,
The Computer Journal, No. 4, 1965, pp. 77-84. // Volpi, Leonardo, «Notes of Numerical Calculus», January 2006, by Foxes Team, ITALY, First
Edition, pp. 17 - 26.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 94
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/11/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
26. F. Cohn, Über die in recurrirender Weise gebildeten Grössen und ihren Zusammenhang mit den
algebraischen Gleichungen, Math. Ann. 44 (1894) 473--538.
27. P.D. Crout, A procedure for obtaining the zeros of functions or their derivatives by Lagrangean
interpolation, J. Math. and Phys. 39 (1960) 141--150.
28. A. Cuyt, in: A. Cuyt and L. Wuytack, Eds., Nonlinear Methods in Numerical Analysis, North-Holland
Math. Stud. 136, Stud. Comput. Math. 1 (North-Holland, Amsterdam, 1987) 220--237.
29. M. D'Ocagne, Mémoire sur les suites récurrentes, J. École Poly. 64 (1894) 151--224.
30. J.E. Dennis, J.F. Traub and R.P. Weber, Algorithms for solvents of matrix polynomials, SIAM J. Numer.
Anal. 15 (1978) 523--533.
31. B. Dimsdale, On Bernouilli's method for solving algebraic equations, Quart. Appl. Math. 6 (1948) 77.
32. D. Dobbs and R. Hanks, A modern course on the theory of equations (Polygonal Publishers., 2nd ed.,
1992).
33. D.E. Dobbs and R. Hanks, A Modern Course on the Theory of Equations (Polygonal Publ. House, Passic,
NJ, 1980).
34. H. Eltermann, Die Lösung algebraischer und transzendenter Gleichungen mit Hilfe von rekursiven Folgen,
Z. Angew. Math. Mech. 32 (1952) 231--232.
35. L. Euler, Introductio in Analysii Infinitorum, I (1748) Chapter 17.
36. C.M. Fiduccia, An efficient formula for linear recurrences, SIAM J. Comput. 14 (1985) 106--112.
37. C.E. Fröberg, Introduction to Numerical Analysis (Addison-Wesley, Reading, MA, 1969).
38. T.C. Fry, Some numerical methods for locating roots of polynomials, Quart. Appl. Math. 3 (1945) 89--
105.
39. C.F. Gerald, Applied Numerical Analysis (Addison-Wesley, Reading, MA, 1984) 1--79.
40. W.B. Gragg, The Padé table and its relation to certain algorithms of numerical analysis, SIAM Rev. 14
(1972) 1--62.
41. W.B. Gragg and A.S. Householder, On a theorem of Koenig, Numer. Math. 8 (1966) 465--468.
42. D. Greenspan, On popular methods and extant problems in the solution of polynomial equations, Math.
Mag. 31 (1957--1958) 239--253.
43. D. Gries and G. Levin, Computing Fibonacci numbers (and similarly defined functions) in log time,
Inform. Process. Lett. 11 (2) (1980) 68--69.
44. W. Heitzinger, I. Troch and G. Valentin, Praxis Nichtlinearer Gleichungen (Hanser Verlag, München,
1985).
45. P. Henrici, Essentials of Numerical Analysis (Wiley, New York, 1982) 90--103; 136--168.
46. P. Henrici, Quotient-difference algorithms, in: A. Ralston and H.S. Wilf, Eds., Mathematical Methods for
Digital Computers, Vol. II (Wiley, New York, 1967) 35--62.
47. P. Henrici, Applied and Computational Complex Analysis, Vol. I (Wiley, New York, 1974) 433--552.
48. E. Isaacson and H.B. Keller, Analysis of Numerical Methods (Wiley, New York, 1966) 85--133.
49. G. Jacobi, Observatiunculae ad theoriam aequationum pertinentes, J. Reine Angew. Math. 13 (1835) 340--
352.
50. M.A. Jenkins, Bernouilli's method with implicit shifting, J. Assoc. Comput. Mach. 20 (1973) 539--544.
51. W. Jennings, First Course in Numerical Methods (MacMillan, New York, 1964) 5--12; 23--39.
52. W.B. Jones and A. Magnus, Computation of poles of two-point Padé approximants and their limits, J.
Comput. Appl. Math. 6 (2) (1980) 105--119.
53. J. König, Über eine Eigenschaft der Potenzreihen, Math. Ann. 23 (1884) 447--449.
54. J. König, Ein allgemeiner Ausdruck für die ihrem absoluten Betrage nach kleinste Wurzel der Gleichung
nten Grades, Math. Ann. 9 (1876) 530--540.
55. D. Kershaw, An analysis of the method of L. Fox and L. Hayes for the factorization of a polynomial,
Linear Algebra Appl. 86 (1987) 179--187.
56. S. Kulik, On the solution of algebraic equations, Proc. Amer. Math. Soc. 10 (1959) 185--192.
57. G.N. Lance, Numerical Methods for High Speed Computers (Iliffe, London, 1960) 123--137.
58. G.R. Lindfield and J.E.T. Penny, Microcomputers in Numerical Analysis (Wiley, New York, 1989)
Chapter 2.
59. F. Locher, A stability test for real polynomials, Numer. Math. 66 (1993) 33--40.
60. K. Margaritis and D.J. Evans, A systolic ring architecture for solving polynomial equations, Internat. J.
Comput. Math. 25 (1988) 189--201.
61. K. Margaritis and D.J. Evans, A systolic ring architecture for solving polynomial equations, in: David J.
Evans, Ed., Systolic Algorithms (Gordon and Breach, 1991) 55--68.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 95
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/11/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
62. K. Margaritis and D.J. Evans, Systolic designs for Bernoulli's method, Parallel Comput. 15 (1990) 227--
240.
63. D. Markovitch, On a new method of calculating the roots of algebraic equations, Math. Gaz. 49 (1965)
388.
64. N.S. Mendelsohn, The computation of complex proper values and vectors of a real matrix with
applications to polynomials, Math. Comp. 11 (1957) 91--94.
65. M. Mignotte, Note sur la méthode Bernoulli, Numer. Math. 26 (1976) 325--326.
66. M. Mignotte, Some problems about polynomials, in: R.D Jenks, Ed., Proc. 1976 ACM Symp. on Symbolic
and Algebraic Computation (1976) 227-- 228.
67. D.G. Moursund, Examination of multiple roots and root clusters of a polynomial using the Bernoulli
procedure, J. Assoc. Comput. Mach. 12 (1965) 169--174.
68. I. Munro, Some results concerning efficient and optimal algorithms, in: Third Annual ACM Symp. on the
Theory of Computers, Shaker Heights (1971) 40--44.
69. W.D. Munro, Some iterative methods for determining zeros of functions of a complex variable, Pacific J.
Math. 9 (1959) 555--566.
70. E. Netto, Vorlesungen über Algebra (Teubner, Leipzig, 1896).
71. F.W.J. Olver, The evaluation of zeros of high-degree polynomials, Philos. Trans. Roy. Soc. London Ser. A
244 (1952) 385--415.
72. R. Perrin, Sur la résolution des équations numériques au moyen des suites récurrentes, C.R. Acad. Sci.
Paris 120 (1894) 990--993.
73. A. Ralston and P. Rabinowitz, A First Course in Numerical Analysis (McGraw-Hill, New York, 2nd ed.,
1987) 354.
74. J.R. Rice, Numerical Methods, Software and Analysis (McGraw-Hill, New York, 1983) 217--264.
75. J.R. Rice and S. Rosen, NAPSS -- a numerical analysis problem solving system, in: Proc. ACM 21st
National Conf. (1966) 51--56.
76. C. Runge, Separation und Approximation der Wurzeln, in: Encyklopädie der Mathematischen
Wissenschaften, I, 1 (Teubner, Leipzig, 1898) 404--448.
77. G.S. Smith, A new method of calculating roots of algebraic equations, Math. Gaz. 44 (1960) 241--245;
ibid. 51 (1967) 233--236.
78. G.W. Stewart, On a companion operator for analytic functions, Numer. Math. 18 (1971) 26--43.
79. E.L. Stiefel, An Introduction to Numerical Mathematics (Academic Press, New York, 1963).
80. A.N. Stokes, A stable quotient-difference algorithm, Math. Comp. 34 (1980) 515--519.
81. W.C. Taylor, A neglected method for resolution of polynomial equations, J. Franklin Inst. 257 (1954)
459--464.
82. R.F. Thomas Jr, Corrections to numerical data on Q-D algorithm, Letter to Editor, Comm. ACM 9 (1966)
322--323.
83. D.D. Tosic and D.V. Tosic, A modification of Bernoulli's method for evaluations of zeros of polynomials,
in: D. Herceg, Ed., Numerical Methods and Approximation Theory, Novi Sad, 1985 (University of Novi
Sad, 1985) 149--154.
84. F.J. Urbanek, An O(logn) algorithm for computing the nth element of the solution of a difference equation,
Inform. Process. Lett. 11 (1980) 66--67.
85. J. Van Iseghem, Convergence of the vector QD-algorithm. Zeros of vector orthogonal polynomials, J.
Comput. Appl. Math. 25 (1) (1989) 33--46.
86. H. Weber, Traité d'Algèbra Supérieure (Gauthier-Villars, Paris, 1898).
87. H. Weber, Lehrbuch der Algebra (Chelsea, New York).
88. E.T. Whittaker and G. Robinson, The Calculus of Observations (London, 4th ed., 1944) 78--131.
89. H.S. Wilf, Mathematics for the Physical Sciences (Wiley, New York, 1962) 82--107.
90. H.S. Wilf, The numerical solution of polynomial equations, in: A. Ralston and H.S. Wilf, Eds.,
Mathematical Methods for Digital Computers (Wiley, New York, 1960) 233--241.
91. T.C. Wilson and J. Shortt, An O(logn) algorithm for computing general order-k Fibonacci numbers,
Inform. Process. Lett. 10 (1980) 68--75.
92. D.M. Young and R.T. Gregory, A Survey of Numerical Mathematics, Vol. I (Addison-Wesley, Reading,
MA, 1972) 93--245.
93. V.L. Zaguskin, Handbook of Numerical Methods for the Solution of Algebraic and Transcendental
Equations (Pergamon, Oxford, 1961).
94. V. Zakian, Evaluation of largest or smallest zero of a polynomial, Electron. Lett. 6 (1970) 217--219.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 96
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.10 Método de Rutishauser: Algoritmo QD


El Método Rutishauser1, o Algoritmo QD2, para hallar una raíz de la ecuación polinómica p(z) = 0, definida como 3
n
p ( z ) = a n z n + a n −1 z n −1 + ... + a 0 = ( z − z1 )( z − z 2 )...( z − z k ) = ∏ ( z − z i ) (3.10.1)
i =1

siendo n ≥ 1 and a0ak ≠ 0, y siendo el conjunto {zi}i = 1,2,..., k, los ceros de p(z).

El Algoritmo QD (Quotient-Difference) es una brillante generalización del Método Bernoulli (denominado a veces Método
de las Potecncias), y ha sido desarrollado por Rutishauser4. Este algoritmo permite calcular – a la vez- todas las raíces de
un polinomio, como el definido por 3.10.1, y –además- no requiere ningún valore inicial, pués sólo hace uso de los
coeficientes ai, i = 0, n.. Bajo condiciones apropiadas y razonables el Algoritmo QD converge suministrando las raíces
reales y una estimación de la precisión alcanzada. Con una ligera variante se puede adoptar el Algoritmo QD para
obtener las raíces complejas. Como la convergencia del Algoritmo QD es lineal, y especialmente lenta cuando n es muy
grande, la utilización principal es proveer una buena aproximación inicial para algoritmos de rápida convergencia, como el
Newton-Rapshon mejorado o el de Halley.

El Algoritmo QD, en sus detalles de cálculos, es bastante complicado y existen diversas y diferentes variantes tanto en su
parte teórica como en su implementación. En la versión utilizada por Rutishauser, se emplea un enfoque matricial de los
párametros básicos de trabajo del algoritmo: la fila i-ésima representa la correspondiente iteración, y la columnas
contienen las diferencias (di) y los cocientes (qi).

Par ilustrar el proceso iterativo del Algoritmo QD, considérese el siguiente polinomio de grado 5:

p(x) = x5 + 22x4 + 190x3 + 800x2 + 1369x + 738 (3.10.2)

Para el polinomio 3.10.2 se tiene que: a5 = 1.0, a4 = 22.0, a3 = 190.0, a2 = 800.0, a1 = 1369.0, a0 = 738.0. La tabla QD
consta de 11 columnas, nombradas así, d1 , q1, d2 , q2, d3 , q3, d4 , q4, d5 , q5, d6. Las columnas d1 y d6 son
auxiliares y siempre se llenan con cero (0). Como cada fila corresponde a un paso del proceso iterativo, la convención que
se adopta es llamar d(i), q(i) los coeficientes del paso i-ésimo; así, por ejemplo, los coeficientes del paso inicial 0 (cero)
serán:
d1( 0 ) , q1( 0) , d 2( 0 ) , q2( 0) , d 3( 0) , q3( 0 ) , d 4( 0) , q4( 0 ) , d 5( 0) , q5( 0 ) , d 6( 0 )

y los coeficientes del paso 1 serán:

y, así, sucesivamente para cada paso d (1) , q (1) , d (1) , q (1) , d (1) , q (1) , d (1) , q (1) , d (1) , q (1) , d (1) iterativo.
1 1 2 2 3 3 4 4 5 5 6

INICIALIZACIÓN DE LA TABLA QD. La primera fila, indicada por el índice 0 (cero), se utiliza para iniciar la iteración QD y se
llena solamente con los coeficientes originales del polinomio p(x), definido por 3.10.2, de la siguiente forma:

(3.10.3)

0
1
Andersen ,CHR.: «The QD-Agorithm as A Method for Findinf the Roots of a Polynomial Equation when All Roots are Positive». Technical Report CS9,
June 8, 1964, Computer Science Division, School of Humanities and Sciences, Stanford University. // Henrici, P. And Watkins, Bruce O.: «Finding
zeros of a polynomial by the Q-D algorithm», Communications of the ACM, Volume 8 , Issue 9, September 1965, Pages: 570 – 574, ISSN:0001-0782,
ACM Press New York, NY, USA. // O’Donohoe , M.R.: «Numerical Analysis II», (Lectures notes), pp. 33 – 35, 2005.
2
Henrici, P. And Watkins, Bruce O.: «Finding zeros of a polynomial by the Q-D algorithm», Communications of the ACM, Volume 8 , Issue 9, September
1965, Pages: 570 – 574, ISSN:0001-0782, ACM Press New York, NY, USA. // Volpi , Leonardo: «Note of Numerical Calculus: Non Linear Equations,
Practical methods for roots finding, Part II - Zeros of Polynomials», Jan. 2006, by Foxes Team, ITALY, 1. Edition, pp. 22 – 26.
3
Weisstein, Eric W. "Bernoulli's Method." From MathWorld--A Wolfram Web Resource, 1999 – 2007,.
http://mathworld.wolfram.com/BernoullisMethod.html // Mandel, Jan, «Lecture Notes on Essential Numerical Analysis», University of Colorado at
Denver, November 30, 2003.
4
Rutishauser,H.: «Der Quotienten-Differenzen-Algorithmus», Z. Angew. Math. Phys. 5 (1954) 233—251.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 92
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Al observar las ecuaciones 3.10.3, se deduce que –en general- el polinomio no debe tener coeficientes iguales a 0 (cero).
Esta es una de las restricciones fuertes del Algoritmo QD. Sin embargo, desde que Rutishauser publicó su primera versión
en 1954, se han desarrollado mejoras y variantes que no tienen dicha restricción. La primera fila de la tabla es la siguiente:
TABLA 3.10.1 Primera fila del Algoritmo QD para el polinomio definido por 3.10.2.

Las siguientes filas , a partir d ela fila 0 (cero), se generan por medio d elas relaciones características, debido a las cuales
el algoritmo toma su nombre (cocientes (Q) – diferencias(D)):

(3.10.4)

De 3.10.4, se obtiene la expresión genérica para el coeficiente q( i+1) del paso i +1:

para k = 1,2,.., 5 (3.10.5)

Igualmente, de 3.10.4 se obtiene la expresión genérica para los coeficientes d( i+1) del paso i +1:

para k = 2,3,.., 5 (3.10.6)

Los valores de los coeficientes d1( i+1) = d6( i+1) = 0. En resumen, para generar una nueva fila (i + 1), en la tabla QD, se
emplea el siguiente esquema, mostrado en la figura 3.10.1:

FIGURA 3.10.1 Esquema para obtener los cocientes (qi) y las diferencias (di) en el Algoritmo QD.
Para calcular q( i+1) se emplean los valores de fila inmediatamente anterior. Para calcular d(i+1) se utiliza los valores
adyacentes de la misma fila y el valor d( i ) de la fila anterior. Las primeras 8 iteraciones del Algoritmo QD para el
polinomio definido por la ecuación 3.10.2 se muestran en la tabla 3.102:
TABLA 3.10.2 Primeras 8 iteraciones del Algoritmo QD para el polinomio definido por 3.10.2. .

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 93
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

En la tabla 3.10.2, a primera vista, se observa que los valores de las columnas q1, q4, q5 tienenuna secuencia
convergente a las raíces reales; mientras que los valores de las columnas q2, q4 no parecen tener ninguna secuencia
convergente. Esto puede ser indicio de la presencia de dos raíces que son un par complejo conjugado. El polinomio p(x),
definido por la ecuación 3.10.2, tendría –entonces- cinco raíces (como establece el Teorema Fundamental del Álgebra),
tres reales y dos complejas.

Las etapas siguientes en el Algoritmo QD consisten en determinar como extrarer las rañices de la tabla QD. El criterio
utilizado para ello se basa en los errores estimados calculados.

Raíces reales simples – El error estimado5 se calcula por medio de la fórmula siguiente:

ei e i = 10 (d i ,k + d i +1,k ) (3.10.7)
Si se cumple que <ε
qi
siendo ε la tolerancia numérica estipulada, entonces se acepta la raíz qi.

Raíces complejas conjugadas – se calculan las dos nuevas secuencias {si} y {pi} definidas como:

si = q i, k + q i, k+1 (3.10.8)
pi = q i-1, k * q i, k+1

Y el error en la aproximación de las raíces se calcula con las siguientes fórmulas:

esi = |si − si-1 | (3.10.9)


epi = |pi - pi-1 |1/2
De las ecuaciones 3.10.8 y 3.10.9 si se cumple que
esi ep
< ε, y i < ε
si pi

siendo ε una tolerancia numérica estipulada, entonces se toman los dos valores s = si , p = pi y se resuelve la siguiente
ecuación cuadrática: x2 + s·x + p = 0, cuyas raíces se obtienen así:

De las últimas dos filas en la tabla 3.10.2, tabla QD, se calcula:


s = q 2( 8 ) + q 3( 8 ) ≅ − 10 . 0
( )
p = ( q 2( 7 ) ) q 3( 8 ) ≅ 43
Con lo cual las raíces complejas se obtienen al resolver la ecuación cuadrática x2 -10x + 43 = 0, ⇒ x1,2 ≈ 5 ± 4.2 i.

De las ecuaciones 3.10.8 y 3.10.9 la estimación del error promedio es ≈ 0.076, con un error absoluto aproximado de ε ≈
0.07 (52 + 4.22 )1/2 ≈ 0.5.

Coeficientes nulos. El Algoritmo QD no puede iniciarse si uno o más de los coeficientes ai, i = 0, n, son ceros (nulos).
En tal caso, el método utilizado es el de la sustitución de raíces, en el cual se emplea, para el polinomio p(z) definido por
3.10.1, la suttiución xi = zi - λ, con i = 1, n, siendo λ un valor tomado aleatoriamente (ayuda el poder generar un
conjunto de números aleatorios, dentro del rango estimado d ela sraíces, para poder escoger λ . Dicha transformación

0
5
Acton, Forman S.: «Numerical Methods That Work», Harper and Row, New York, 1970. ISBN 0-88385-450-3. xviii+541 pp. Reprinted by Mathematical
Association of America, Washington, D.C., with new preface and additional problems, 1990. // Ashenhurst , R.L. and N. Metropolis, N.: «Error
estimation in computer calculation», American Mathematical Monthly, Vol. 72, No. 2, pp. :47 - 58, 1965.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 94
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
elimina los coeficientes nulos del polinomio p(z), como el definido por 3.10.1, y permite iniciar el Algoritmo QD para hallar
las raíces de p(z).
Después de tal proceso transfromativo, y al obtener los valores xi, es suficiente realizar el cambio inverso zi = xi + λ
para obtene rlas raíces originales del polinomio p(z).

Por ejmplo, el polinomio de grado 5 : z5 – 8z2 – 10z - 1 tiene coeficientes nulos a4, a3, por locual se tranforma en otro
polinomio diferente, efectuando la sustitución z = x +1 con la cual se obtiene el siguiente polinomio de inicio para el
Algoritmo QD:

(x +1)5 –8*(x +1)2 –10*(x +1) - 1 = x5 + 5x4 + 10x3 + 2x2 – 21x - 18


al solucionar este polinomio, hallar sus ceros, entonces las raíces del polinomio original se encuentran aumentando en 1
cada raíz xi encontrada.

Raíces reales y distintas. Las raíces de un polinomio son distintas si la multiplicidad de cada una es 1, es decir no hay
raíces repetidas. Considérese, por ejemplo, el polinomio Wilkinson6 de grado 5, definido así:

p ( x) = x 5 − 15 x 4 + 85 x 3 − 225 x 2 + 274 x − 120 (3.10.10)

y cuyo esquema gráfico se muestra en la figura 3.10.2. Se sabe que el polinomio definido en 3.10.10 tiene todas sus raíces
reales y distintas x = 1, 2, 3, 4, 5 Es conveniente observar cómo el Algoritmo QD se comporta en este caso; las primeras
12 iteraciones, tabla QD, se muestran en la tabla 3.10.3.

FIGURA 3.10.2 Esquema gráfico del polinomio 3.10.10.

TABLA 3.10.3 Primeras 12 iteraciones del Algoritmo QD para el polinomio definido por 3.10.10.

0
6
En el Análisis Numérico, el Polinomio Wilkinson es un polinomio específico, el cual fue utilizado por el matemático James H. Wilkinson en 1963 para
ilustrar la dificultad que se presenta al hallar las raíces: el valor de las raíces puede variar y ser muy sensitivo a las perturbaciones (cambios, o
redondeos) en los valores de los coeficientes, clo que caracteriza a los polinomios mal-condicionados (Wikipedia, the free encyclopedia,
http://en.wikipedia.org/wiki/Wilkinson's_polynomial), November 2006. // Zeng, Zhonggang: «On Ill-Conditioned eigenvalues, multiple roots of
polynomials, antheir accurated computations»,Department of Mathematics, Northeastern Illinois University, Chicago, September 1998. // Malyshev,
A.N.: «On Wilkinson's problem», 1997. // Zeng, Zhonggang: «The Perfidious Polynomial and Elusive Roots», Department: Department of
Mathematics, Northeastern Illinois University, 1997. // Rump, Siegfried M.:«Ten Methdos to Bound Multiple Roots of Polynomials», Technical
University Hamburg-Harburg, Hamburg, Germany, Journal of Computation and Applied Mathematics (JCAM), Vol. 156, pp. 403-432, 2003.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 95
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

Como puede observarse en la tabla 3.10.3, todas las columnas di tienden a cero, mientras que los valores de las
columnas qi tienden a los valores de las raíces. En este caso el Algoritmo QD actúa efcieintemente. Sin embargo,
considérese el siguiente polinomio6:
(3.10.11

que obviamente tiene 20 raíces, cuyos valores son x = 1, 2, …, 20. Esta s raíces, teóricamente, son todas distintas, reales
y están suficientemente separadas en el campo de los números reales. Sin embargo, como lo demostró Wilkinson7, este
polinomio definido por 3.10.11 está mal-condicionado. Al expandirlo se tiene que:

FIGURA 3.10.3 Expansión del polinomio definido por la ecuación 3.10.11.


Y al resolver el polinomio, las raíces obtenidas se muestran en la tabla 3.10.4:

TABLA 3.10.4 Raíces obtenidas para el polinomio definido por 3.10.11 y cuya expansión se muestra en la figura 3.10.3.
x1 = 1.00000 x2 = 2.00000 x3 = 3.00000 x4 = 4.00000 x5 = 5.00000
x6 = 6.00001 x7 = 6.99970 x8 = 8.00727 x9 = 8.91725 x10 = 20.84691
x11 = 10.09527 + x12 = 11.79363 + x13 = 13.99236 + x14 = 16.73074 + x15 = 19.50244 +
0.64350i 1.65233i 2.51883i 2.81262i 1.94033i
x16 = 10.09527 - x17 = 11.79363 - x18 = 13.99236 - x19 = 16.73074 - x20 = 19.50244 -
0.64350i 1.65233i 2.51883i 2.81262i 1.94033i

Como se observa en la tabla 3.10.4, las raíces del polinomio definido por 3.10.11, se apartan de las obtenidas por los
factores teóricos, dando –incluso- valores imaginarios (campo de los números complejos) que no deberían aparecer; se
dice que este tipo polinomios presenta un comportamiento de extremo mal-condicionamiento. Los métodos, como el
Algoritmo QD, no son suficientes para obtener las raíces exactas de polinomios como el 3.10.11; en la recursos
webgráficos y bibliográficos se presentan diversas propuestas de algoritmos que lidian con este tipo de problemas.

RECURSOS WEBGRÁFICOS Y BILIOGRÁFICOS


1. H. Bandemer, Zur Berechnung der Nullstellen von Polynomen mit dem QD-Algorithmus von Rutishauser, Z. Angew.
Math. Mech. 42 (1962) 566--568.
2. L. Fox and L. Hayes, Polynomial factorization and the QD algorithm, Linear Algebra Appl. 1 (1968) 445--463.
3. P. Henrici, Some applications of the quotient-difference algorithm, Proc. Sympos. Appl. Math. 15 (1963) 159--183.
4. P. Henrici, The quotient-difference algorithm, Nat. Bur. Standards Appl. Math. Ser. 49 (1958) 23--46.
5. P. Henrici, New developements concerning the quotient-difference algorithm, in: H. Werner et al., Eds., Computational
Aspects of Complex Analysis (Reidel, Boston, 1983) 149--168.
6. P. Henrici and B.O. Watkins, Finding zeros of a polynomial by the Q-D algorithm, Comm. ACM 8 (1965) 570--574.
7. A.S. Householder, The Numerical Treatment of a Single Nonlinear Equation (McGraw-Hill, New York, 1970).
8. A.S. Householder, Principles of Numerical Analysis (McGraw-Hill, New York, 1953) 86--132.

0
7
Peters G and Wilkinson J H.: «Practical Problems Arising in the Solution of Polynomial Equations», J. Inst. Math. Appl. 8, pp. 16–35, 1971.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 96
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________
9. A.S. Householder, The Padé table, the Frobenius identities, and the QD algorithm, Linear Algebra Appl. 4 (1971) 161--
174.
10. A.S. Householder, Multigradients and the zeros of transcendental functions, Linear Algebra Appl. 4 (1971) 175--182.
11. A.S. Householder, Schröder and Trudi: A historical excursion, SIAM Rev. 16 (1974) 344--348.
12. A.S. Householder and G.W. Stewart III, Bigradients, Hankel determinants, and the Padé table, in: B. Dejon and P.
Henrici, Eds., Constructive Aspects of the Fundamental Theorem of Algebra (Wiley/Interscience, New York, 1969)
131--150.
13. G.M. Megson, O. Brudaru and D. Comish, Systolic designs for Aitken's root-finding methods, Parallel Comput. 18
(1992) 415--429.
14. H. Rutishauser, On a modification of the QD-algorithm with Graeffe-type convergence, Z. Angew. Math. Phys. 13
(1962) 493--496; also: in: C.M. Popplewell, Ed., Proc. IFIP Congress 62 (North-Holland, Amsterdam, 1963) 93--96.
15. H. Rutishauser, Eine Formel von Wronski und ihre Bedeutung für den Quotienten-Differenzen-Algorithmus, Z. Angew.
Math. Phys. 7 (1956) 164--169.
16. H. Rutishauser, Anwendungen des Quotientin-Differenzen Algorithms, Z. Angew. Math. Phys. 5 (1954) 496--508.
17. H. Rutishauser, Der Quotienten-Differenzen-Algorithmus, Z. Angew. Math. Phys. 5 (1954) 233--251.
18. H. Rutishauser, Stabile Sonderfälle des Quotienten-Differenzen-Algorithmus, Numer. Math. 5 (1963) 95--112.
19. H. Rutishauser, Ein infinitesimales Analogon zum Quotient-Differenzen Algorithmus, Arch. Math. (Basel) 5 (1954) 132-
-137.
20. K. Samelson, Faktorisierung von Polynomen durch funktionale Iteration, Bayer. Akad. Wiss. Math.-Natur. Kl. Abh. 95
(1959) 1--25.
21. J. Schröder, Factorization of polynomials by generalized Newton procedures, in: B. Dejon and P. Henrici, Eds.,
Constructive Aspects of the Fundamental Theorem of Algebra (Wiley/Interscience, New York, 1969) 295--320.
22. W. Seewald, Quotient-differnece algorithm: proof of Rutishauser's rule, Numer. Math. 40 (1982) 93--98.
23. J. Shortt, An iterative algorithm to calculate Fibonacci numbers in O(logn) arithmetic operations, Inform. Process. Lett.
7 (1978) 299--303.
24. F.L. Bauer, The quotient-difference algorithm and epsilon-algorithms, in: On Numerical Approximation (Univ. of
Wisconsin Press, Madison, WI, 1959) 361--370.
25. F. L. Bauer. Inclusion sets for roots of polynomials. Numerische Mathematik, 9:173 - 176, 1966. ISSN 0029-599X.
26. H. J. Hamilton, Roots of equations by functionaliteration, Duke Math. J., 13 (1946), 113-121.
27. F. L. Hitchcock, Finding complex roots of equations, J. Math. Physics, 17 (,1938), 55-
28. F. L. Hitchcock, Algebraic equations with complex roots, J. Math. Phys., 18 (1939), 202-220.
29. S. Lin. A Method of successive approximations for evaluating real and complex roots of cubic and higher order
equations, J. Math. Phys., 20 (1941), 231-242.
30. . T. Whittaker, A formula for the solution of algebraic and transcendental equa- tions, Proc. Edinburgh Math. Soc, 36
(1918), 103-106.
31. C. Bekas, E. Kokiopoulou, Yousef Saad, Polynomial filtered Lanczos iterations with applications in Density Functional
Theory, Computer Science & Engineering Dept., University of Minnesota, Twin Cities, July 15, 2005.
32. Munro , W.D.: SOME ITERATIVE METHODS FOR DETERMINING ZEROS OF FUNCTIONS OF A COMPLEX
VARIABLE, June 16, 1958, Office of Naval Research, USA, UNIVERSITY OF CALIFORNIA, LOS ANGELES,
UNIVERSITY OF MINNESOTA.
33. Bond, C.: A Method for Finding Real and Complex Roots of Real Polynomials With Multiple Roots, July 10, 2003.
34. Bond, C.: A Robust Strategy for Finding All Real and Complex Roots of Real Polynomials, March 30, 2004,
http://www.crbond.com
35. Schroder, Ernst: On Infinitely Many Algorithms for Solving Equations, Translated by G.W.Stewart, january 1993,
University of Maryland, Institute for Advanced Computer Studies, departmente of Computer Science.
36. Volpi, Leonardo: Note di Calcolo Numerico Equazioni Non Lineari Metodi iterativi pratici per l'approssimazione di
radici, Foxes Team, Dic. 2005, Italy, First edition.

_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 97
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.
Métodos Numéricos y Programación Visual Basic 01/14/07
Ingeniero William Alvarez-Montoya http://xue.unalmed.edu.co/~walvarem
__________________________________________________________________________________

3.11 Método de Steffensen


El Método Steffensen1 para hallar una raíz de la ecuación no-lineal f(x) = 0, que no requiere del cálculo de la derivada y
que – en general – es de convergencia rápida.y sólo requiere un punto inicial, xn, de aproximación a la raíz. Sin embargo,
requiere calcular dos veces la función en cada iteración. La fórmula general del Método Steffensen es la siguiente:

f ( xn + f ( xn )) − f ( xn )
g ( xn ) =
f ( xn ) (3.11.1)
f ( xn )
xn+1 = xn +
g ( xn )
que se puede comvertir en una sola fórmula al efectuar las operaciones del caso:

xn+1 = xn +
[ f (xn )]2 (3.11.2)
f ( xn + f ( xn )) − f (xn )

Se trata de un método muy popular y muy enfatizado no sólo en la parte teórica sino también en las aplicaciones prácticas
de Métodos Numéricos. Con las fórmulas 3.11.1 ó 3.11.2 es fácil implementar este algoritmo. Es similar al Método Newton-
Rapson pero no necesita calcular la derivada de f(x).

Una variante utiliza la fórmula de aceleración de Aitken2, de ahí –también- que a este método se le denomine Aitken-
Steffensen. Los pasos son los siguientes:

1. Obtener un valor inicial P0, una tolerancia numérica ξ y un número máximo de iteraciones nMax.
2. N=1
3. Haga
3.1 P1 = g(P0)
3.2 P2 = g(P1)
3.3 Calcular
p = p0 −
( p − p )2 1 0
p2 − 2 p1 + p0
3.4 P0 = P
3.5 N = N + 1

Hasta Que |P - P0| < ξ ó N ≥ nMax

4. Mostrar P, N

En esta variante, se requiere que a partir de f(x) se tenga una funcón g(x), véase el Método Punto Fijo al respecto.

0
1
Volpi, Leonardo: «Note di Calcolo Numerico, Equazioni Non Lineari, Metodi iterativi pratici per l'approssimazione di radici», Dic. 2005, by Foxes Team
ITALY, 1. Edition, pp. 64. // Méthode de Steffensen, Département de mathématiques et de statistique (DMS) de l'Université Laval. Québec, Canadà,
1996.
2
Mathews, John H.: «Aitken's Method and Steffensen's Acceleration», 2004. // Kohn, M. C.: «Practical Numerical Methods: Algorithms and Programs»,
Macmillan Publishing Company, New York, New York, 1987.
_________________________________________________________________________________
walvarem@unalmed.edu.co Página 3 - 98
Capitulo 3.- Solución de Ecuaciones no-lineales, f(x) = 0.

También podría gustarte