Está en la página 1de 10

1 Obtención de las raı́ces de una ecuación no lineal 1

RAÍCES REALES DE FUNCIONES REALES

En la matemática aplicada frecuentemente nos encontramos con situaciones donde se tienen que
resolver ecuaciones de la forma
f (x) = 0
donde x ∈ R y f : R → R una función no lineal.

Definición: Un número real p es un cero de la función real f o una raı́z de la ecuación f (x) = 0
si f (p) = 0. Graficamente los ceros reales son representados por las abscisa de los puntos
donde la curva intercepta al eje X.

Son raros los casos en el que se obtiene las raı́zes exactas de la función real. Usando técnicas
numéricas, es possible obtener una solución aproximada, en algunos casos, tan próxima de la
solución exacta, cuanto se desee.
El objetivo de este capı́tulo es el estudio de métodos numéricos, en particular, métodos iterativos
para la resolución de ecuaciones no lineales.

1 Obtención de las raı́ces de una ecuación no lineal

Para ecuaciones polinomiales de segundo grado, existen fórmulas explicitas pero cuando los poli-
nomios son de mayor grado o las funciones son tracendentales o más complicadas es practicamente
imposible hallar las raı́ces exactas entonces recurrimos a los métodos numéricos.
Los métodos constan de dos fases:

Fase I Obtener el intervalo que contiene la raı́z.

Fase II Escogida la aproximación en el intervalo encontrado mejorarla sucesivamente hasta


obtener una aproximación para la raı́z dentro de una tolerancia prefijada.

1.1 Fase I
Los métodos de aproximación de raı́ces de ecuaciones necesitan conocer, o bien un intervalos que
contenga sólo una raı́z, o bien un punto inicial que este suficientemente cerca de ella. Por tanto
como paso previo a la aplicación de un método de aproximación, es necesario localizar la raı́z,
es decir, encontrar un intervalo que la contenga y separar la raı́z, por lo tanto, este intervalo sólo
contenga dicha ráiz. Para esto se hace un análisis teórico y gráfico de la función f (x). En el análisis
teórico usamos frecuentemente el teorema.

Teorema: Sea f (x) una función continua en el intervalo [a, b]. Si f (a) · f (b) < 0 entonces existe
por lo menos un punto x = p entre a y b que es cero de f (x).

Corolario: Con la hipótesis del teorema anterior. Si f es derivable y f 0 (x) preserva su signo en
(a, b) entonces este intervalo contiene un solo cero.

El análisis de la gráfica de f (x) es fundamental para obtener una buena aproximación, para esto
podemos:
1 Obtención de las raı́ces de una ecuación no lineal 2

i) Esbozar la gráfica
ii) Utilizar ecuaciones equivalentes
iii) Usar programas que trazan gráficas

1.2 Fase II
Utilizamos los métodos iterativos para encontrar una aproximación de la raı́z exacta. La idea para
resolver ecuaciones por métodos iterativos es:
1. Obtener una estimación inicial p0 de la solución
2. Refinar iterativamente la aproximación obteniendo valores p1 , p2 , p3 , . . . que (idealmente) con-
verge a la solución p de la ecuación.
3. Establecer un critério de parada. Dependiendo del método utilizado, exigiremos que las
aproximaciones varien poco o que se satisfaga la ecuación con una aproximación suficiente.

1.2.1 Critério de parada


Para verificar que la aproximación pk este suficientemente próximo de la raı́z, existen dos inter-
pretaciones: p̄ es raı́z aproximada con T OL si
i) |p̄ − p| < T OL ó ii) |f (p̄)| < T OL
pero, ¿cómo efectuar esta prueba si no conocemos p?.
Seleccionada una tolerancia T OL, cada método genera una aproximación p1 , p2 , . . . , pk , pk+1 . . .
hasta que satisfaga una de las siguientes condiciones
|pk − pk−1 | < T OL |f (pk )| < T OL
También podemos calcular
|pk − pk−1 |
< T OL
|pk |
En programas computacionales además de los critérios de parada usados para cada método conviene
fijar un número de iteraciones máximo para evitar que el programa entre en “looping”.

1.2.2 Velocidad de convergencia



Cuando la sucesión {pk } converge hacia la raı́z p, lim pk = p , se dice que el método iterativo
k→∞
converge. Para medir la velocidad de convergencia de una sucesión hacia el limite introducimos el
concepto de orden de convergencia.
Sea {pk }∞
k=0 una sucesión que converge a p y ek = pk − p

• Si existe una constante C ∈ (0, 1) tal que


|ek+1 |
lim = C,
k→∞ |ek |

entonces, la sucesión converge a p linealmente con una tasa o velocidad de convergencia C.


Esto significa que se gana una cifra de precisión cada cierto número fijo de iteraciones. Si lo
anterior ocurre para C = 0, entonces se dice que la sucesión converge superlinealmente.
• Si existe un m ≥ 2 y una constante C tal que
|ek+1 |
lim = C,
k→∞ |ek |m

entonces, la sucesión converge a p con orden m. En particular, la convergencia con orden


m = 2 se le llama cuadrática (que significa que se duplica las cifras de precisión a cada cierto
número fijo de iteraciones) y la convergencia con orden m = 3 cúbica.
2 Métodos Iterativos 3

2 Métodos Iterativos

2.1 Método de la bisección


Sea f una función continua en el intervalo [a, b] tal que f (a)f (b) < 0.
Por simplicidad supongamos que en el intervalo (a, b) exista solo una raı́z de la ecuación f (x) = 0.
El objetivo de este método es redicir la longitud del intervalo que contiene a la raı́z hasta obtener la
precisión requerida, para esto, divide por la mitad el intervalo [a, b], localiza la mitad que contiene
a p y asi sucesivamente.

Para empezar, tomemos a1 = a y b1 = b y p1 el punto medio de [a, b]; o sea p1 = 12 (a1 + b1 ). Si


f (p1 ) = 0, entonces p = p1 ; si no, f (p1 ) tiene el mismo signo que f (a1 ) ó f (b1 ).
Si f (p1 ) y f (a1 ) tienen el mismo signo, entonces p ∈ (p1 , b1 ), y tomamos a2 = p1 y b2 = b1 . Si
f (p1 ) y f (b1 ) son del mismo signo, entonces p ∈ (a1 , p1 ), y tomamos a2 = a1 y b2 = p1 .
Ahora re-aplicamos el proceso al intervalo [a2 , b2 ]. Y ası́ hasta que se encuentra f (p) = 0 ó el
i−ésimo intervalo [ai , bi ] es más pequeño que una toleracia T OL prefijada, ó hasta que se cumpla
alguna otra condición de paro.

2.1.1 Algoritmo
Para encontrar una solución de f (x) = 0 dada la función f en el intervalo [a, b] donde f (a) y f (b)
tienen signos opuestos:

Entrada: extremos a y b; tolerancia T OL; número máximo de iteraciones N0 .

Salida: solución aproximada p ó mensaje de fracaso.

Paso 1: tomar i = 1 F A = f (a)

Paso 2: mientras que i ≤ N0 seguir pasos 3 - 6;

Paso 3: tomar (calcular pi );


b−a
p=a+ F P = f (p)
2
b−a
Paso 4: si F P = 0 ó < T OL entonces SALIDA (p); (procedimiento completado satis-
2
factoriamente) PARAR;
Paso 5: tomar i = i + 1
Paso 6: si F A · F P > 0 entonces tomar a = p, si no, tomar b = p (calcular ai , bi );

Paso 7: SALIDA ( El método fracasó después de N0 iteraciones, procedimiento completado sin éxito);
PARAR.
2 Métodos Iterativos 4

2.1.2 Estudio de la convergencia


El siguiente Teorema nos asegura la convergencia del método:
Teorema
Supongamos que f (x) es continua en [a, b] y f (a)f (b) < 0. El método de bisección genera una
b−a
sucesión {pk } que se aproxima a un cero de f tal que |pk − p| ≤ k , para k ≥ 1.
2

2.1.3 Estimativa del número de iteraciones


Dada una tolerancia y un intervalo inicial [a, b] es posible saber cuantas iteraciones como mı́nimo
serán efectuadas.
log(b − a) − log(T OL)
k>
log 2

2.1.4 Comentarios sobre el método


El método de bisección exige poco esfuerzo computacional y siempre genera una sucesión conver-
gente.
La convergencia es lenta, mucho más si el intervalo inicial es muy grande y la tolerancia pequeña.
Hay que dar dos valores iniciales, uno a cada lado de la raı́z que se está buscando. Esto es un
problema, especialmente si no se tiene ninguna idea del comportamiento de la función o si está
presenta raı́ces muy similares o múltiples.
Errores de redondeo o de cuantifcación pueden causar problemas cuando el intervalo de búsqueda
se vuelve pequeño
Al evaluar la función cerca de la raı́z, f (x) ≈ 0, para el cálculo del cambio de signo, los errores por
operar con números muy pequeños pueden hacerse presentes.

2.2 Método del punto fijo


Definición Un punto fijo de una función g(x) es un número real p talque g(p) = p.

Geometricamente hablando los puntos fijos de la función g(x) son los puntos de intersección de la
curva g(x) = y con la recta y = x.

Sea f (x) una función continua, [a, b] un intervalo que contiene una raı́z de la ecuación f (x) = 0.
El método del punto fijo (MPF) consiste en transformar esta ecuación en una ecuación equivalente
x = g(x), a partir de una aproximación inicial p0 generar una sucesión {pk } de aproximaciones
para p por la relación pk+1 = g(pk ) pues g(x) es tal que f (p) = 0si solamente si g(p) = p.
Transformamos asi, el problema de encontrar un cero de f (x) en un problema de encontrar un
punto fijo de g(x).

2.2.1 Estudio de la convergencia


Dada una ecuación f (x) = 0, existe más de una función g(x), para la función f (x) = 0, pero no
todos generan una sucesión que converga a p.
El siguiente teorema nos da condiciones suficientes para que el proceso sea convergente
2 Métodos Iterativos 5

Teorema Sea p una raı́z de la ecuación f (x) = 0 aislada en el intervalo I centrada en p. Sea g(x)
una función de iteración para la ecuación f (x) = 0.
Si g(x) y g 0 (x) son continuas en I y además existe una constante positiva 0 < C < 1 tal que

|g 0 (x)| ≤ C ∀x ∈ I

Entonces para cualquier p0 en [a, b] la sucesión definida por pk = g(pk−1 ) k ≥ 1 converge a


un único punto fijo p en [a, b].

2.2.2 Critério de parada


En el algortimo del punto fijo se escoge a pk como raiz aproximada de p si

|pk − pk−1 | = |g(pk−1 ) − pk−1 | < T OL

2.2.3 Algoritmo
Para encontrar una solución de g(p) = p dada una aproximación inicial p0 :

Entrada: aproximación inicial p0 ; tolerancia T OL; número máximo de iteraciones N0 .

Salida: solución aproximada p ó mensaje de fracaso.

Paso 1: tomar i = 1;

Paso 2: mientras que i ≤ N0 seguir pasos 3 - 6;

Paso 3: tomar p = g(p0 ) (calcular pi );


Paso 4: si |p − p0 | < T OL entonces SALIDA (p); (procedimiento completado satisfactoria-
mente) PARAR;
Paso 5: tomar i = i + 1
Paso 6: tomar p0 = p. (actualizar p0 );

Paso 7: SALIDA ( El método fracasó después de N0 iteraciones procedimiento completado sin éxito);
PARAR.

2.2.4 Comentarios sobre el método


Este método es aplicable a raı́ces de cualquier orden
No es fácil encontrar la función que cumpla las condiciones del teorema.
Tiene convergencia lineal. Si la derivada de la función g(x) es cero, la convergencia es más rápida,
al menos cuadrática.
Si la derivada de g(x) es mayor que 1 la sucesión diverge aún cuando la estimación inicial sea muy
cercana al punto fijo.
Si la derivada g 0 (x) es positiva, las aproximaciones sucesivas convergen monótonamente hacia p.
Sin embargo, si la derivada es negativa, las aproximaciones sucesivas oscilan alrededor de la raı́z.
2 Métodos Iterativos 6

2.3 Método de Newton-Raphson


El método de Newton-Raphson (o simplemente Newton) es uno de los mejores procedimientos para
encontrar ceros de una ecuación. Este método comienza con una raı́z aproximada p0 de la ecuación
f (x) = 0 y utiliza la expansión de Taylor para definir la fórmula de recurrencia. La sucesión de
raı́ces aproximadas es generada mediante la relación

f (pk )
pk+1 = pk − ∀k = 1, 2, 3, . . .
f 0 (pk )

2.3.1 Interpretación Geométrica


En este método la función f es aproximada por su tangente en (pk , f (pk )) y pk+1 es tomada como
la abscisa del punto de interseción de la tangente con el eje X.

Dado, p0 , tracemos la tangente a la curva y = f (x) en el punto (p0 , f (p0 )). Como primera aproxi-
mación p1 de la raı́z p tomemos la abscisa del punto de intersección de esta tangente con el eje X.
Trace nuevamente una tangente por el punto de coordenadas (p1 , f (p1 )), cuya abscisa del punto de
intersección con el eje X ofrece una segunda aproximación p2 de la raı́z p, y ası́ sucesivamente. La
ecuación de la tangente en el punto de coordenadas (pk , f (pk )) (k = 0, 1, ...), es

y − f (pk ) = f 0 (pk )(x − pk ).

Encontrando el cero de f , tenemos y = 0 y haciendo x = pk+1 obtenemos la fórmula de recurrencia.

2.3.2 Convergencia del Método


Teorema
Sea f (x), f 0 (x) y f (x) continuas en [a, b]. Si p ∈ [a, b] tal que f (p) = 0 y f 0 (p) 6= 0 entonces existe
δ > 0 tal que el método de Newton genera una sucesión {pk } que converge a p para cualquier
aproximación p0 ∈ [x − δ, x + δ].

2.3.3 Algoritmo
Para encontrar una solución de f (x) = 0 dada una aproximación inicial p0 :

Entrada: aproximación inicial p0 ; tolerancia T OL; número máximo de iteraciones N0 .

Salida: solución aproximada p ó mensaje de fracaso.

Paso 1: tomar i = 1;

Paso 2: mientras que i ≤ N0 seguir pasos 3 - 6;


2 Métodos Iterativos 7

f (p0 )
Paso 3: tomar p = p0 − (calcular pi );
f 0 (p0 )
Paso 4: si |p − p0 | < T OL entonces SALIDA (p); (procedimiento completado satisfactoria-
mente) PARAR;
Paso 5: tomar i = i + 1
Paso 6: tomar p0 = p. (redefinir p0 );

Paso 7: SALIDA ( El método fracasó después de N0 iteraciones (procedimiento completado sin


éxito); PARAR.

2.3.4 Comentarios del método


El Método de Newton-Raphson tiene convergencia cuadrática, debido a que la función de iteración
tiene derivada cero, como consecuencia, proporciona um número pequeño de iteraciones. Entre-
tanto, presenta las siguientes desvantajas:

• Exige el cálculo del valor de la primera derivada en cada iteración.

• Si f 0 (pk−1 ) fuera muy grande la convergencia será lenta

• Si f 0 (pk−1 ) fuera próximo de cero puede ocurrir overflow

• La aproximación inicial tiene que ser cercana a p.

2.4 Método de la secante


Un problema del método de Newton es la necesidad de obtener en cada iteración la primera derivada
de la función, y a veces es dificil de calcular. El método de la secante es una variante del método
de Newton en el que, la derivada es calculada aproximadamente

f (pk ) − f (pk−1 )
f (pk ) ≈
pk − pk−1

donde pk y pk−1 son dos aproximaciones para la raı́z.


Entonces la suceción de las aproximaciones es obtenida por la fórmula

f (pk ) f (pk )(pk − pk−1 )


pk+1 = pk − = pk −
f (pk ) − f (pk−1 ) f (pk ) − f (pk−1 )
pk − pk−1

Observe que son necesarios dos valores para iniciar el método.


2 Métodos Iterativos 8

2.4.1 Interpretación Geométrica


A partir de dos aproximaciones pk y pk−1 el punto pk+1 es obtenido como siendo la abcisa del punto
de intersección entre eje X y la recta secante que pasa por los puntos (pk−1, f (pk−1 )) y (pk , f (pk )).

2.4.2 Convergencia del Método


Visto que este método es una aproximación para el método de Newton las condiciones para la
convergencia del método son las mismas.
Sean f (x) una función dos veces diferenciable en una vecindad de una raı́z p de f (x) = 0 y tal
que f (p) 6= 0. Entonces si las estimaciones iniciales p0 y p1 están suficientemente próximas de p la
sucesión {pk } definida por el método converge a p.

2.4.3 Algoritmo
Para encontrar una solución de f (x) = 0 dadas las aproximaciones iniciales p0 y p1 :

Entrada: aproximaciones iniciales p0 y p1 ; tolerancia T OL; número máximo de iteraciones N0 .

Salida: solución aproximada p ó mensaje de fracaso.

Paso 1: tomar i = 2 y definir


q0 = f (p0 ), q1 = f (p1 )

Paso 2: mientras que i ≤ N0 seguir pasos 3 - 6;


q1
Paso 3: tomar p = p1 − (p1 − p0 ); (calcular pi );
q1 − q0
Paso 4: si |p − p0 | < T OL entonces SALIDA (p); (procedimiento completado satisfactoria-
mente) PARAR;
Paso 5: tomar i = i + 1
Paso 6: tomar (redefinir p0 , p1 , qo , q1 );

p0 = p1 q0 = q1 p1 = p q1 = f (p).

Paso 7: SALIDA ( El método fracasó después de N0 iteraciones (procedimiento completado sin éxito);
PARAR.
2 Métodos Iterativos 9

2.4.4 Comentarios sobre el método


A pesar de que el orden de convergencia del método es inferior al del método de Newton, es una
alternativa debido a que solamente se requiere evaluar y = f (x) en cada iteración.
Hay que dar dos valores iniciales, a pesar de que no tienen que encerrar a la raiz que se está
buscando, los puntos tienen que estar sufcientemente cerca de la raiz para garantizar que el método
converja.
Si la derivada de la función, cerca de la raı́z, tiene un valor muy alto el cálculo de p1 − p0 puede
causar problemas por perdida de cifras signifcativas.
De igual modo, si la derivada de la función, cerca de la raiz, tiene un valor muy bajo el cálculo de
f (p1 ) − f (p0 ) puede causar problemas por perdida de cifras signifcativas.

2.5 Método de la Posición Falsa


Este método conjuga la seguridad del de bisección con la rapidez del método de la secante.
Parte de dos puntos p0 y p1 , como en el método de bisección rodea la raı́z es decir p ∈ (p0 , p1 ) pues
f (p0 ) · f (p1 ) < 0. La siguiente aproximación p2 es calculada como la intersección del eje X con la
recta que une los puntos (p0 , f (p0 )) y(p1 , f (p1 ).

El Método de la Posición Falsa genera, en cada iteración, una aproximación para la raiz cuya
imagen sea la menor posible, es decir, una aproximación tal que |f (pk )| < T OL, sin preocuparse
con la disminución del tamaño del intervalo [a, b] que la contiene.

2.5.1 Algoritmo
Para encontrar una solución de f (x) = 0 dada la función f en el intervalo [p0 , p1 ] donde f (p0 ) y
f (p1 ) tienen signos opuestos:

Entrada: aproximaciones iniciales p0 y p1 ; tolerancia T OL; número máximo de iteraciones N0 .

Salida: solución aproximada p ó mensaje de fracaso.

Paso 1: tomar i = 2 y definir


q0 = f (p0 ), q1 = f (p1 ),

Paso 2: mientras que i ≤ N0 seguir pasos 3 - 6;


p1 − p0
Paso 3: tomar (calcular pi ); p = p1 − q1 ,
(q1 − q0 )
Paso 4: si |f (p)| < T OL entonces SALIDA (p); (procedimiento completado satisfactoriamente)
PARAR;
Paso 5: tomar i = i + 1 y q = f (p)
2 Métodos Iterativos 10

Paso 6: Si q · q1 < 0) entonces tome


p0 = p1 y q0 = q1 );
Paso7:Tome p1 = p y q1 = q.

Paso 8: SALIDA ( El método fracasó después de N0 iteraciones procedimiento completado sin éxito);
PARAR.

2.5.2 Critério de parada


El proceso iterativo será finalizado cuando se obtiene un punto pk , k = 0, 1, 2, . . .; tal que |f (pk )|
sea menor que una precisión establecida.

2.5.3 Convergencia
Si f (x) es continua en [a, b] y f (a).f (b) < 0, entonces el método de la Posición Falsa genera una
sucesión que converge para la raiz.

2.5.4 Comentarios del método


La grande ventaja del Método de la Posición Falsa es que es una técnica robusta, que converge
independientemente de la forma del gráfico de f (x) en el intervalo [a, b].
Hay que dar dos valores iniciales, uno a cada lado de la raiz que se está buscando. Esto es un
problema, especialmente si no se tiene ninguna idea del comportamiento de la función o si esta
presenta raices muy similares o múltiples.
Si la función es convexa o cóncava en [a, b] uno de los extremos de intervalo no se moverá por lo
que el método solamente aproxima a la raiz por uno de los lados., cuando la convergencia para la
raiz solo se hace a partir de un extremo del intervalo [a, b] y la imagem de ese punto fijo tiene un
valor muy elevado, la convergencia es lenta.
Al evaluar la función cerca de la raiz, f (x) ≈ 0, para el cálculo del cambio de signo, los errores por
operar con números muy pequeños pueden hacerse presentes.

También podría gustarte