2.1.

Métodos basados en intervalos
Los métodos de los intervalos utilizan una propiedad muy importante, consistente en el hecho del cambio de signo de una función en inmediaciones de una raíz. Se llaman métodos de los intervalos porque se necesitan como mínimo dos valores que forman un intervalo que encierra la raíz

En la gráfica 2.1 se observa como la función cambia de +f(x) a - f(x), cuando pasa por la raíz c .Esto ocurre porque f (c)= 0 y necesariamente la función pasa del cuadrante positivo al negativo de x. En algunos casos , que se verán más adelante esto no ocurre así, por ahora se asumirá como se ha mostrado. Los métodos abiertos utilizan estos cambios de signo para poder ubicar el la raíz (punto c), pero es necesario entonce establecer un intervalo (como el [a,b]). De igual manera sucede cuando la función pasa por el punto e, el cambio ocurre de -f(x) a + f(x), para hallar la raíz el método necesita un intervalo como el [d,f].

2.2 Método de bisección
Es un método de búsqueda incremental donde el intervalo se divide siempre en 2. Si la función cambia de signo sobre un intervalo, se evalúa el valor de la función del punto medio. La posición de la raíz se determina situándola en el punto medio del sub-intervalo dentro del cual ocurre un cambio dentro del cual ocurre un cambio de signo. El proceso se repite hasta tener una mejor aproximación. Supóngase que queremos resolver la ecuación f(x) = 0 (donde f es continua). Dados dos puntos a y b tal que f(a) y f(b) tengan signos distintos, sabemos por el Teorema de Bolzano que f debe tener, al menos, una raíz en el intervalo [a, b]. El método de bisección divide el intervalo en dos, usando un tercer punto c = (a+b) / 2. En este momento, existen dos posibilidades: f(a) y f(c), ó f(c) y f(b) tienen distinto signo. El algoritmo de bisección se aplica al subintervalo donde el cambio de signo ocurre.

3 Método de aproximaciones sucesivas El método de las aproximaciones sucesivas es uno de los procedimientos más importantes y más sencillos de codificar. la solución x es . Se sustituye f(x) por la ecuación equivalente Se estima el valor aproximado de la raíz x0. Este proceso se puede sintetizar en la fórmula. obtendremos un nuevo número x2. Poniendo x1 como argumento de j(x). y se sustituye en el segundo miembro de la ecuación para obtener x1. Si esta secuencia es convergente es decir.2. tiende hacia un límite. Supongamos la ecuación donde f(x) es una función continua que se desea determinar sus raíces reales. y así sucesivamente.

1. se tiene: ˜ f 0 (x0 ) 0 ≈ f (x0 ) + (s− x ) 1! Ahora podemos despejar s para obtener: f (x0 s ≈x − 0 (x ) 0 Si lo expresamos en t´ rminos del m´ todo iterativo univariable. M´ todos basados en interpolaci n e M´ todo de Newton-Raphson e Entre los m´ todos e m´ s a populares en matematicas computacionales ten.2. la e e funci´ n a iterar es: o f (xn ) xn+1 = xn − 0 (x f . El atractivo de ´ ste m´ todo es su rapidez cuadr´ tica de e e a convergencia. b] y existe una s ∈ [a. tal que o f (x) ∈ C 2 [a.4. b]. ı Dada una funci´ n f (x) definida en un intervalo [a.4. como veremos mas adelante. podemos utilizar un polinomio interpolador de Taylor para aproximar la funcion f (x) por: f 0 (x0 ) f 00 (c) f (s) = f (x0 ) (s − x )2 (s− x ) + 1! 2! + Haciendo f (s) = 0 y asumiendo que el t´ rmino de segundo grado e es muy pequeno. b] tal que f (s) = 0 entonces si escojemos un valor inicial de x cercano a s. as´ como su derivada. 2.emos al creado por Isaac Newton2 y Joseph Raphson3 . Una desventaja es que para la aplicaci´ n del m´ todo se requiere tener tanto la funci´ n f (x) o e o que quiere resolverse.

) (2.4) .

xi-maciones iniciales a la soluci´ n de la ecuaci´ n f (x) = 0. resolviendo la siguiente ecuaci´ n de la o secante.5) .4. M´ todo de la secante e Este m´ todo se basa en la utilizacion de dos puntos x0 y x1 e como apro.2.2. para y = 0 y x2 = x: y − f (x1 ) = para obtener: x2 = x1 − f (x1 ) − f (x0 ) x1 − (x − x1 ) x0 (x1 − x0 )f (x1 ) f (x ) − f (x (2. o o y calcula el tercer punto x2 .

1 0 .

Sign up to vote on this title
UsefulNot useful