Está en la página 1de 9

Universidad industrial de santander

Facultad de ingenierías fisicoquímicas


Escuela de ingenieria de petroleos
Metodos numericos

MÉTODOS ABIERTOS

Oscar alberto Estevez real

Universidad industrial de santander


Métodos numéricos
2010
MÉTODOS ABIERTOS

En los métodos de bisección y falsa posición , la raíz se encuentra dentro de


un intervalo, fijado por un límite inferior y un límite superior. Repetir la
aplicación de estos métodos siempre resulta en estimaciones más cerca del
valor real de la raíz. Estos métodos se dice que son convergentes, ya que se
acercan a la verdad a medida que la computación avanza. Fig. 1.0

Por el contrario, los métodos abiertos descritos en este capítulo son basados
en fórmulas que requieren sólo un valor único de x o dos valores de partida que
que no son necesarios.

FIG 1.0
La grafica muestra la diferencia fundamental entre el a)entre fronteras y b) y c)
métodos abiertos para localización de raíces .

a) El cual es el método de bisección y la raíz se encuentra entre el intervalo


xl y xu . Lo contrario para los métodos abiertos , la figura en b ) y c) , una
formula es usada para proyectar xi a xi +1 en una manera iterativa . Asi
lo métodos pueden o b) diverger o C) converger rápidamente según el
valor dado inicialmente.

METODO DE NEWTON RAPHSON

En análisis numérico, el método de Newton (conocido también como el método


de Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente
para encontrar aproximaciones de los ceros o raíces de una función real.
También puede ser usado para encontrar el máximo o mínimo de una función,
encontrando los ceros de su primera derivada.

Ilustración de una iteración del método de Newton (la función f se demuestra en


azul y la línea de la tangente está en rojo). Vemos que xn + 1 es una
aproximación mejor que xnpara la raíz x de la función f.

DESCCRIPCION DEL METODO

El método de Newton-Raphson es un método abierto, en el sentido de que su


convergencia global no está garantizada. La única manera de alcanzar la
convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz
buscada. Así, se ha de comenzar la iteración con un valor razonablemente
cercano al cero (denominado punto de arranque o valor supuesto). La relativa
cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia
función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en
el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja
aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una
vez se ha hecho esto, el método linealiza la función por la recta tangente en
ese valor supuesto. La abscisa en el origen de dicha recta será, según el
método, una mejor aproximación de la raíz que el valor anterior. Se realizarán
sucesivas iteraciones hasta que el método haya convergido lo suficiente.

Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b].
Empezamos con un valor inicial x0 y definimos para cada número natural n

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones


de una sola variable con forma analítica o implícita cognoscible. Existen
variantes del método aplicables a sistemas discretos que permiten estimar
las raíces de la tendencia, así como algoritmos que extienden el método
de Newton a sistemas multivariables, sistemas de ecuaciones, etc.
ALGORITMO

Tres son las formas principales por las que tradicionalmente se ha obtenido el
algoritmo de Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto,


atendiendo al desarrollo geométrico del método de la secante, podría pensarse
en que si los puntos de iteración están lo suficientemente cerca (a una
distancia infinitesimal), entonces la secante se sustituye por la tangente a la
curva en el punto. Así pues, si por un punto de iteración trazamos la tangente a
la curva, por extensión con el método de la secante, el nuevo punto de iteración
se tomará como la abscisa en el origen de la tangente (punto de corte de la
tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se
reemplaza por una recta tal que contiene al punto (x0, f (x0)) y cuya pendiente
coincide con la derivada de la función en el punto, f'(x0). La nueva aproximación
a la raíz, x1, se logra la intersección de la función lineal con el eje X de
ordenadas. Matemáticamente:

En la ilustración adjunta del método de Newton se puede ver que xn + 1 es una


mejor aproximación que xn para el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x)


enserie de Taylor, para un entorno del punto xn:
Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en xn + 1:

Si además se acepta que xn + 1 tiende a la raíz, se ha de cumplir que f(xn + 1) =


0, luego, sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede


interpretarse como un método de iteración de punto fijo. Así, dada la
ecuación f(x) = 0, se puede considerar el siguiente método de iteración de
punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson


CONVERGENCIA DEL METODO

El orden de convergencia de este método es, por lo menos, cuadrático. Sin


embargo, si la raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una
raíz doble, triple, ...), el método de Newton-Raphson pierde su convergencia
cuadrática y pasa a ser lineal de constante asintótica de convergencia 1-1/m,
con m la multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los
métodos de aceleración de la convergencia tipo Δ² de Aitken o elmétodo de
Steffensen. Derivados de Newton-Raphson destacan el método de Ralston-
Rabinowitz, que restaura la convergencia cuadrática sin más que modificar el
algoritmo a:

Evidentemente, este método exige conocer de antemano la multiplicidad de la


raíz, lo cual no siempre es posible. Por ello también se puede modificar el
algoritmo tomando una función auxiliar g(x) = f(x)/f'(x), resultando:

Su principal desventaja en este caso sería lo costoso que pudiera ser hallar
g(x) y g'(x) si f(x) no es fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el


caso más habitual en base a tratar el método como uno de punto fijo: si g'(r)=0,
y g' '(r) es distinto de 0, entonces la convergencia es cuadrática. Sin embargo,
está sujeto a las particularidades de estos métodos.

Nótese de todas formas que el método de Newton-Raphson es un método


abierto: la convergencia no está garantizada por un teorema de convergencia
global como podría estarlo en los métodos de falsa posición o de bisección.
Así, es necesario partir de una aproximación inicial próxima a la raíz buscada
para que el método converja y cumpla el teorema de convergencia local.

VER : http://www.youtube.com/watch?v=PrJsNAR-rhA
METODO DE LA SECANTE

En análisis numérico el método de la secante es un método para encontrar los


ceros de una función de forma iterativa.

Es una variación del método de Newton-Raphson donde en vez de calcular la


derivada de la función en el punto de estudio, teniendo en mente la definición
de derivada, se aproxima la pendiente a la recta que une la función evaluada
en el punto de estudio y en el punto de la iteración anterior. Este método es de
especial interés cuando el coste computacional de derivar la función de estudio
y evaluarla es demasiado elevado, por lo que el método de Newton no resulta
atractivo.
Dos primeras iteraciones del método de la secante.

EL METODO

El método se define por la relación de recurrencia:

Como se puede ver, este método necesitará dos aproximaciones iniciales de la


raíz para poder inducir una pendiente inicial.
DERIVACION DEL METODO

El método se basa en obtener la ecuación de la recta que pasa por los puntos
(xn−1, f(xn−1)) y (xn, f(xn)). A dicha recta se le llama secantepor cortar la gráfica
de la función. Posteriormente se escoge como siguiente elemento de la
relación de recurrencia, xn+1, la intersección de la recta secante con el eje de
abscisas obteniendo la fórmula.

VER : http://www.youtube.com/watch?v=X6zixq7_SZQ

MÉTODO DEL PUNTO FIJO

Un punto fijo de una función g , es un número p tal que g(p)=p. El problema


de encontrar las soluciones de una ecuación f(x)=0 y el de encontrar los puntos
fijos de una función h(x)son equivalentes en el siguiente sentido: dado el
problema de encontar las soluciones de una ecuación f(x)=0, podemos definir
una función g con un punto fijo p de muchas formas; por ejemplo,f(x)=x-g(x) .
En forma inversa, si la función g tiene un punto fijo en p, entonces la función
definida por f(x)=x-g(x) posee un cero en p.
Las graficas a) y b) convergen y c) y d) divergen . Las graficas a) y c) son
llamadas patrones monótonos mientras b) y d) son llamados osciladores o
patrones o patrones en espiral . Note que la convergencia ocurre cuando
.

El método de punto fijo inicia con una aproximación inicial y


genera una sucesión de aproximaciones la cual converge a la solución
de la ecuación f(x)=0. A la función g se le conoce como función iteradora. Se
puede demostrar que dicha sucesión converge siempre y cuando

.
Ejemplo
Usando el método de punto fijo vamos a aproximar la solución de la
ecuación dentro del intervalo .

Lo primero es buscar una función g(x) adecuada

Y claramente elegimos como función iteradora a

además observe que

para toda , lo cual garantiza que la sucesión que vamos a construir va


a ser convergente.

Algoritmo

Fuction fixpt(xo.es.imax.iter.ea)
Xr=Xo
Iter=0
Do
Xrold=Xr
Xr= g(Xrold)
Iter=iter+1
If Xr 0 then
Ea=((Xr-Xrold)/Xr)*100
End if
If ea <es or iter imax exit
End do
Fixpt=Xr
End fixpt

Ver: http://www.youtube.com/watch?v=cdgwMSa8EII