Está en la página 1de 14

El método de bisección

 
Si f es una función continua sobre el intervalo [a;b] y si f(a).f(b)<0, entonces f
debe tener un cero en (a;b). Dado que f(a).f(b)<0, la función cambia de signo en el
intervalo [a;b] y, por lo tanto, tiene por lo menos un cero en el intervalo. Ésta es una
consecuencia del teorema del valor intermedio para funciones continuas.
El método de bisección explota esta idea ya que los extremos del intervalo se van
a ir acercando sistemáticamente hasta obtener un intervalo de longitud
suficientemente pequeña en el que se localiza un cero. El proceso de decisión para
subdividir el intervalo consiste en tomar el punto medio del intervalo c = (a+b)/2 y
luego analizar las tres posibilidades que pueden darse:
 Si f(a) y f(c) tienen signos opuestos, entonces hay un cero en [a;c].
 Si f(c) y f(b) tienen signos opuestos, entonces hay un cero en [c;b].
 Si f(c)=0, entonces c es un cero.
Si ocurre la primera opción, o bien la segunda, entonces se ha encontrado un
intervalo de mitad de ancho que el original que contiene una raíz. Para continuar el
proceso, se renombra el nuevo intervalo más pequeño como [a;b] y se repite el
proceso hasta que el intervalo sea tan pequeño como se desee. Puesto que el proceso
de bisección genera una sucesión de intervalos encajados, con sus correspondientes
puntos medios, se usará la siguiente notación para tener registro de los detalles del
proceso:
 [a1;b1] es el intervalo de partida y c1=(a1+b1)/2 es su punto medio.
 [a2;b2] es el segundo intervalo y c2=(a2+b2)/2 es su punto medio; el
intervalo [a2;b2] es la mitad de ancho que [a1;b1].
 Después de llegar al intervalo [an;bn], en el que también se localiza un
cero y cuyo punto medio está dado por c n=(an+bn)/2, se construye el intervalo
[an+1;bn+1], en el que también se localiza un cero, y que mide la mitad que
[an;bn]
Animación del método
 
 
Análisis del error
 
Con el objeto de analizar el método de la bisección, se llamará [a i;bi], con i = 1,
2, 3, …, a los intervalos que surgen en el proceso. Se pueden hacer las siguientes
observaciones sobre estos números:

 a1≤a2≤...≤an≤b1 la sucesión {an} converge porque es creciente y


está acotada superiormente.

 b1≥b2≥...≥bn≥a1  la sucesión {bn} converge porque es decreciente


y está acotada inferiormente.

 bn+1-an+1 = (bn-an)/2, n≥1 (bn-an)= (b1-a1)/2(n-1) n≥1. (*)


Si se aplica límite a esta última igualdad se obtiene:

Entonces, resulta que los límites de ambas sucesiones son iguales:


Tomando el límite en la desigualdad f(a n).f(bn) ≤ 0, encontramos que [f(r)] 2 ≤ 0,
por lo tanto, debe ser f(r) = 0.

Se llamará [an,bn] al intervalo obtenido en el paso n-1. Si en este momento se


detiene el proceso, la raíz se encontrará en ese intervalo. En este paso, la mejor
aproximación será el punto medio del intervalo,

El error en el paso n es:

 
(1) Dado que r (la raíz buscada) está en una de las dos mitades del intervalo [a n,
bn], la distancia del punto medio del intervalo a r debe ser menor o igual que la
mitad de la longitud del intervalo.
(2) Por la igualdad demostrada en (*)
 
Ventajas y desventajas
 
Una gran ventaja de este método es que siempre converge para funciones
continuas f(x). Además, proporciona el tamaño exacto del intervalo en cada iteración
(en ausencia de errores de redondeo). Para aclarar esto, se puede observar que en
este método después de cada iteración el tamaño del intervalo se reduce a la mitad;
después de n iteraciones, el intervalo original se habrá reducido 2 n veces. Por lo
anterior, si el intervalo original es de tamaño M y el criterio de convergencia aplicado al
valor absoluto de la diferencia de dos aproximaciones sucesivas es ε, se puede saber
de antemano el número de iteraciones que se requieren:

No obstante, una de las grandes desventajas que presenta este método es su


velocidad de convergencia, la cual es bastante baja.
 
Orden de convergencia
 
Un algoritmo converge linealmente si existe una constante positiva K<1 tal
 que  para todo n suficientemente grande. Tal K recibe el nombre de factor de
convergencia.
Como se puede observar, el método de la bisección es un método lineal debido a
que el error en la iteración siguiente es la mitad del error de la iteración previa
solamente.
 
Aproximación inicial y criterios de convergencia
 
El método de la bisección depende de la determinación de un intervalo inicial
[a;b] en el que f(a) y f(b) tengan distinto signo. Una vez encontrado este intervalo, no
importa lo grande que sea, se podrá empezar a iterar hasta que se encuentre una raíz
con la precisión deseada. Por esta razón, se dice que este método es globalmente
convergente.
Sin embargo, si f(x)=0 tiene varias raíces en [a;b], entonces se debe encontrar
un intervalo de partida distinto para hallar cada raíz y no suele ser fácil hallar estos
intervalos más pequeños en los que el signo de f(x) cambia.
En la sección Conceptos básicos se encuentran otros métodos que requieren,
como garantía de su convergencia, que el punto inicial esté cerca de la raíz buscada,
por lo que se dice que son localmente convergentes. Estos métodos suelen converger
más rápidamente que los métodos globales, de manera que existen algoritmos híbridos
que empiezan con un método de convergencia global y, cuando las aproximaciones
obtenidas en las distintas iteraciones se hallan cerca de la raíz, cambian a un método
de convergencia local.
 
Comprobación de la convergencia
 
Es imprescindible establecer un criterio de parada para que el algoritmo detenga
las iteraciones cuando haya obtenido una aproximación suficientemente precisa
Como el objetivo es resolver f(x)=0, el valor xn debería verificar que:

 
Así, el proceso iterativo producirá puntos Pi= (xi; f(xi)) hasta que el último punto
Pn se encuentre en la banda horizontal comprendida entre las rectas de ecuaciones y=ε
e y=-ε.    
Otro criterio de parada involucra las abscisas. Se trata de determinar si la
sucesión {xn} converge y, para ello, se dibujan dos rectas verticales de ecuaciones
x=P+β y x=P-β a cada lado de x=P. De esta manera, el proceso se detendrá cuando P n
está entre ambas rectas.

 
El método de Newton
 

Uno de los métodos más conocidos y aplicados en el análisis numérico es el


método de Newton. Para hallar la raíz de una ecuación no lineal, el método de Newton
aproxima localmente a la función f(x) asociada a la ecuación por medio de una función
lineal.
Se supondrá que f(x) es de clase C2[a, b], y que r es un cero de f(x) en ese
intervalo.

Se toma una aproximación r0 del cero p en el intervalo [a, b], tal que f´(r 0) ≠ 0 y
|r0- r| es pequeño. Entonces, se puede construir el primer polinomio de Taylor de f(x)
alrededor de r0:

con ζx entre x y r0.

Como se puede observar, el polinomio de Taylor de primer grado de f(x)


desarrollado alrededor de r0 es precisamente la ecuación de la recta tangente a la
gráfica de f(x) en el punto (r0, f(r0)).

Si se evalúa esta expresión en x = r, como r es un cero de f(x) se obtiene:

Como se supuso que |r0- r| es pequeño, entonces el término (r – r 0)2 es mucho


menor, por lo tanto, es posible despreciarlo y escribir:

Si se despeja r de esta ecuación, se obtiene:

Esta expresión es la que nos genera la sucesión de aproximaciones {r n} del


método de Newton, partiendo de una aproximación inicial p0, y donde:
 
Animación del método
 

Análisis del error


 

En el método de Newton el error cometido en la iteración n está dado por e n = rn


– r. Suponiendo que f´´(x) es continua y que r es un cero simple de f, tal que f´(r) ≠
0, se tiene:

 
Por el teorema de Taylor, se sabe que:
con ζn entre rn y r. Despejando de esta ecuación, resulta:

Reemplazando lo obtenido en la ecuación (1), se obtiene:

Esto significa que la convergencia del método, cuando el cero es simple, es


cuadrática.
 
Ventajas y desventajas
 
Una de las principales ventajas del método de Newton es la mayor velocidad de
convergencia respecto de otros métodos. Sin embargo, existen situaciones donde este
método se comporta en forma ineficiente. Esto sucede, por ejemplo, cuando la
aproximación inicial r0 está demasiado lejos de la raíz deseada y la sucesión {r n}
diverge debido a que la pendiente f´(r0) es pequeña y la recta tangente a la curva
y=f(x) es casi horizontal. También, cuando el cero se halla en la vecindad de un punto
de inflexión, un mínimo o máximo local. De esta manera, no hay un criterio general de
convergencia para el método de Newton. Su convergencia depende de la naturaleza de
la función y de la exactitud del valor inicial.
Otra de las desventajas que presenta este método es el cálculo de la derivada
primera de f(x). En la mayoría de los problemas reales, la función f(x) está dada en
forma tabular. Por esa razón, es importante disponer de otros métodos que no
requieran el cálculo de f´(x) pero que tengan algunas de las propiedades favorables de
convergencia del método de Newton.
 
Orden de convergencia
 
Si r es una raíz simple de f(x)=0, entonces el método de Newton converge
cuadráticamente, de modo que en cada iteración, aproximadamente, se dobla el
número de cifras decimales exactas. Si por el contrario r es una raíz múltiple, entonces
el error en cada paso es una fracción del error en el paso anterior. Es decir, en estos
casos, el método converge linealmente.
 
El método de la secante
 

Un problema potencial en la implementación del método de Newton es la


evaluación de la derivada. Aunque esto no es un inconveniente para los polinomios no
para muchas otras funciones, existen algunas funciones cuyas derivadas en ocasiones
resultan muy difíciles de calcular. En dichos casos, la derivada se puede aproximar
mediante el siguiente cociente incremental:
Entonces, la fórmula para calcular el valor aproximado de la raíz en la iteración
n+1 es:

El algoritmo que se obtiene al aplicar esta fórmula se conoce como el método de


la secante. Si bien este método requiere de dos valores iniciales, no es necesario que
f(x) cambie de signo entre los valores dados.

Gráficamente, el método de la secante, en lugar de aproximar la función en cada


iteración por una recta tangente para determinar un cero, lo hace utilizando una recta
secante.

Animación del método


 
Análisis del error
 

Se puede demostrar que el error en la iteración n+1 está dado por:

Como se puede apreciar, el error en la iteración n+1 es proporcional al producto de los


errores de las dos iteraciones previas. Además, este error es ligeramente mayor que el
que se comete en el método de Newton. Por lo tanto, su orden de convergencia será
menor.

Diferencia entre los métodos de la secante y de Regula - Falsi


 
Como se puede observar, las expresiones que permiten calcular cada
aproximación en los métodos de la secante y Regula - Falsi son idénticas en todos los
términos. Ambas usan dos valores iniciales para calcular una aproximación de la
pendiente de la función que se utiliza para proyectar hacia el eje x una nueva
aproximación de la raíz. Sin embargo, existe una diferencia importante entre ambos
métodos. Esta diferencia radica en la forma en que uno de los valores iniciales se
reemplaza por la nueva aproximación. En el método de Regula - Falsi, la última
aproximación ri de la raíz reemplaza cualquiera de los valores iniciales que dé un valor
de la función con el mismo signo que f(r i). En consecuencia, las dos aproximaciones
siempre encierran a la raíz. Por lo tanto, para todos los casos, el método siempre
converge debido a que la raíz se encuentra dentro del intervalo.
En contraste, el método de la secante reemplaza los valores en secuencia
estricta: el nuevo valor ri+1 sustituye a ri y ri reemplaza a ri-1. Por lo tanto, algunas
veces los dos valores están en el mismo lado de la raíz, lo que puede llevar, en ciertos
casos a divergencias.
 
Ventajas y desventajas
 
Aunque el método de la secante puede ser divergente en algunos casos, cuando
converge lo hace más rápido que el método de Regula - Falsi. La inferioridad de este
último se debe a que un extremo permanece fijo, para mantener a la raíz dentro del
intervalo.
 
Orden de convergencia
 
Cuando la raíz es simple, el orden de convergencia del método de la secante es:

 
Los métodos cuyo orden de convergencia es mayor que uno pero menor que dos
reciben el nombre de superlineales.
 
El método de Regula - Falsi
 
Otro algoritmo popular para resolver ecuaciones no lineales es el método de
Regula - Falsi o método de la posición falsa.
Al igual que en el método de bisección, se supondrá que f(a) y f(b) tienen distinto
signo. Si bien en el método de bisección se usa el punto medio del intervalo [a;b] para
llevar a cabo el siguiente paso, es posible conseguir una mejor aproximación usando el
punto (c;0) en el que la recta secante L que pasa por los puntos (a;f(a)) y (b;f(b))
cruza el eje OX.
Para hallar el punto c, se igualan las dos fórmulas para la pendiente m de la recta
L:

que resulta de usar los puntos (a;f(a)) y (b;f(b)), y

que resulta de usar los puntos (c;0) y (b;f(b)). Igualando las dos expresiones
anteriores resulta:

de donde c puede despejarse fácilmente, obteniéndose:

Se pueden presentar tres posibilidades:


 Si f(a) y f(c) tienen signos opuestos, entonces hay un cero en [a;c].
 Si f(c) y f(b) tienen signos opuestos, entonces hay un cero en [c;b].
 Si f(c)=0, entonces c es un cero.
De esta manera, la fórmula anterior junto con el proceso de decisión descripto
anteriormente permite generar una sucesión de intervalos {[a n;bn]} cada uno de los
cuales contiene un cero. En cada paso, la aproximación al cero obtenida es:

y puede probarse que la sucesión {c n} converge a un cero r de la función. Si bien el


ancho del intervalo bn-an se hace más pequeño, es posible que no tienda a cero. Si la
curva y=f(x) es convexa cerca de (r;0), entonces uno de los extremos a n o bn
permanece estacionario y el otro tiende a la solución.
 
Animación del método
 

Cota del error


 
Si M es una cota inferior de |f´(x)| en ]a;b[, una cota del error es:

 
Ventajas y desventajas
 
La ventaja del método de Regula - Falsi, al igual que el de bisección, es que es
siempre convergente para funciones continuas f(x). Aunque en general, converge más
rápidamente que el método de la bisección, su velocidad de convergencia es baja.
 
Orden de convergencia
 
Se puede demostrar que bajo ciertas condiciones el método de Regula - Falsi
tiene orden de convergencia lineal. Esto sucede cuando la función f(x) es cóncava
entre a y b y el punto a es siempre uno de los dos puntos usados para la siguiente
iteración. Lo mismo ocurriría si fuese convexa en las inmediaciones de la raíz.
 

También podría gustarte