Documentos de Académico
Documentos de Profesional
Documentos de Cultura
l Estimacin inicial x0 tal que f(x0) 0 l Proceso iterativo x1, x2,..., xk, x* : f(x*)=0 l Criterio de parada |f(xk)| < tol dk = |xk+1 - xk| < tol Tipos de convergencia l Error del paso k ek = |xk - x* | |xk - xk-1| l Convergencia lineal ek+1 / ek cte l Convergencia cuadrtica ek+1 / ek2 cte
Mtodo de Biseccin
Determinar un intervalo [a,b] tal que f(a) tiene signo distinto de f(b) y f continua en [a,b]. Hallar el punto medio c del intervalo. Elegir, entre [a,c] y [c,b], un intervalo en el que la funcin cambie de signo. Repetir los pasos 2 y 3 hasta conseguir un intervalo con la precisin deseada (f(c) <tol)
(Clave: Teorema de Bolzano)
Teorema de Bolzano
Sea f:A33 continua y sean a,bA con f(a)f(b) < 0.
f(a)
b a
Algoritmo de Biseccin
c =(a+b)/2; if f(a)*f(c)<=0 b=c; end if f(c)*f(b)<=0 a=c; end %elige [a,c]
%elige [c,b]
Teorema: El mtodo de la biseccin genera una sucesin {xn} que converge a una raz de f con xn - (b-a)/2n.
Mtodo de Regula-Falsi
Determinar un intervalo [a,b] tal que f(a) tiene signo distinto de f(b). Hallar el punto c que divide el intervalo [a,b] en partes proporcionales a f(a) y f(b). Sea ba Elegir, entre [a,c] y [c,b], un intervalo en el que la funcin cambie de signo. Repetir los pasos 2 y 3 hasta conseguir la precisin deseada.
c = a f(a) f (b ) f ( a )
a c b
Biseccin
K Convergencia lineal de razn 1/2. J Cota de la raz: (b-a)/2n. L La aproximacin obtenida puede ser peor que la del paso anterior.
Regula Falsi
J Ms rpido al principio. K Convergencia lineal. L Error estimado por: |xn-xn-1| L Se aproxima a la raz por un lado.
Tomando x0 cercano al punto fijo x* zsi |g(x*)| < 1 los iterados convergen linealmente a x*. zsi |g(x*)| > 1 los iterados no convergen a x*. zsi g(x*) = 0 los iterados convergen cuadrticamente a x*.
Mtodo de Newton
l Ecuacin de la tangente
(x0, f (x0))
y f ( x0 ) = f ' ( x0 )( x x0 )
l Interseccin con OX
f(x) x1
x1 = x0 f ( x0 ) f ' ( x0 )
l Paso genrico
xn +1 = xn f ( xn ) f ' ( xn )
g( x ) = x f ( x) f ' ( x )
l Derivada de la funcin de iteracin
J Ventaja: converge cuadrticamente si - la estimacin inicial es buena - no se anula la derivada L Inconveniente: usa la derivada - coste de la evaluacin - disponibilidad
g' (x ) = 0 *
si
f ' (x ) 0 *
Algoritmo de Newton
z Datos l Estimacin inicial: x l Precisin deseada: tol l Tope de iteraciones: maxiter z Proceso: mientras no converja repetir l Incremento: incr = - f(x)/f(x) l Nueva estimacin: x = x + incr z Resultado l Estimacin final: x
Mtodo de la secante
l Ecuacin de la secante
y f ( x 0 ) = m( x x 0 )
l Interseccin con OX
(x0,f(x0)) f(x) x1 x0 x2
x 2 = x0 f ( x0 ) m
l Pendiente
f(x1 ) f(x0 ) m= x1 x 0
(x1,f(x1))
Algoritmo de la secante
l Datos: x0, x1, y0 l Calcular: y1 = f(x1) l Calcular: incr = -y1(x1-x0)/(y1-y0) l Nueva estimacin: x2 = x1 + incr l Actualizar para el paso siguiente: x0=x1; y0=y1; x1=x2