Está en la página 1de 3

* Método de Newton-Raphson.

OBJETIVO.
Este método consiste de proporcionar un Xi inicial de aproximación
a la raíz analítica r en seguida se evalúa la función en Xi obteniendo
se f(Xi) se traza una recta tangente que intercepta en Xi+1al eje de
las X. A este punto se le llama raíz nueva de aproximación a la r.
Algoritmo:
1. Dada una función f(X)=0 Obtener la Primera y Segunda derivada.
2. Elegir un valor inicial X0. Este valor inicial debe cumplir con el
criterio de convergencia:
3. Obtener una nueva aproximación evaluando la formula general
del método:
Xn+1=Xn - f(Xn)/ f ´(Xn)
4. Evaluar la aproximación relativa
| (Xn+1 - Xn) / Xn+1 | < Tolerancia
No. (Falso) Repetir el paso 3 y 4
Si . (Verdadero) Entonces Xn+1 Es la Raíz
Si existe una función f(x)=0 y un intervalo [a,b], tenemos una raiz y
xo una aproximación de , se extrae de la llamada Serie de Taylor
(tomando hasta la 2ª potencia) :

Despejando , se tiene:
Siguiendo esto como una sucesión, se tiene:
Tenemos la fórmula de Newton-Raphson. Además, existe un estudio
de la convergencia del método, en donde G(x) se acota, teniendo la
fórmula de convergencia como:
Cabe señalar que el método de Newton-Raphson es convergente
en forma cuadrática, es decir, que el número de cifras decimales
correctas se duplica aproximadamente en cada iteración, o el error
es aproximadamente proporcional al cuadrado del error anterior.
La ventaja de este método es que, al ser un método iterativo, éste
entrega una sucesión , resoluciones aproximadas, convergiendo
más rápidamente al valor buscado y se usan menos operaciones
aritméticas.

Mejor respuesta - Elegida por la comunidad


El método de Newton es un método que se usa para encontrar aproximaciones
numéricas de ceros de funciones. ¿Qué quiere decir eso? Pues que tenemos una función
f(x) y queremos encontrar una solución aproximada de la ecuación f(x) = 0.

Por ejemplo, como no tenemos manera de encontrar la solución exacta de Log (x) - sin
(x) = 0, buscamos una solución aproximada usando este método.

Como funciona: Tenemos una primera aproximación, a la que llamaremos x0. El valor
de esta aproximación se suele calcular en la práctica con otros métodos numéricos
(normalmente el método de la bisección). En caso de no tener ninguna aproximación del
valor que queremos calcular y no querer usar otros métodos... puedes probar el método
de Newton igualmente y cruzar los dedos, "seguramente" funcionará.

A partir de esta primera aproximación, calculamos otra mejor con la siguiente fórmula:
x1 = x0 - f (x0) / f ' (x0)
(f ' es la derivada de f). E iteramos: x2 = x1 - f (x1) / f ' (x1), x3 = x2 - f (x2) / f ' (x2),
etc. El método (si la aproximación inicial era buena) se va acercando cada vez más a la
solución real. Cuando tienes una aproximación suficientemente buena (en la práctica,
cuando los valores que estás calculando tienen "suficientes" dígitos iguales), paras.

Por que se escoge esa fórmula? Hay varias maneras de ver el motivo de esa fórmula. La
más sencilla es usar la serie de Taylor:

Si f es suficientemente regular, el teorema de Taylor dice que f (x) es aproximadamente


f (x0 ) + f ' (x0) (x - x0) si x está cerca de x0. Supongamos que esta aproximación fuera
exacta: f (x) = f (x0) + f ' (x0) (x - x0). Queremos encontrar un valor x1 tal que f (x1) =
0. Así, substituyendo:
f (x1) = 0 = f (x0) + f' (x0) (x1 - x0)
De donde sale la fórmula de antes.

Comentarios adicionales:
- El método de Newton funciona mal cuando el cero que buscamos también es cero de
la derivada de f.

- Hay una generalización de este método si la función f depende de más variables. La


idea es la misma pero en la fórmula tienes que cambiar la derivada que está dividiendo
por la inversa de la matriz jacobiana.

- En este método hemos tomado solo el desarrollo de Taylor hasta orden 1. Podríamos
hacer un método tomando más términos, y obtendríamos otros métodos de calcular
ceros.

También podría gustarte