Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes de Teoría
Contenidos de la presentación
Índice
1. Introducción 2
1.1. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. M.Intervalo 6
2.1. Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. RFalsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. RFModif. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. Müller* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5. Brent* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. M.PuntoF 17
3.1. Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3. Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.1. Variantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Otros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4. Polinómicas 31
5. Resumen 31
6. Bibliografía 31
7. Demostraciones 32
7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2. Intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2.1. Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2.2. Regula Falsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.3. Iter. Func. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3.1. P.Fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3.2. Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.3.3. Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.3.4. Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.3.5. Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
7.4. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8. Software 42
8.1. Matlab/Octave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.2. Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1
1. Introducción
Introducción (1)
La resolución de ecuaciones es uno de los problemas que con más frecuencia aparece en los distintos campos de la
Ciencia y la Ingeniería.
Este problema ya fue estudiado en el año 100 A.C. por Herón, que empleaba un método iterativo para aproximar la
raíz cuadrada de un número positivo.
No existen métodos generales de resolución analítica de ecuaciones salvo en casos sencillos o para algunas ecuaciones
de tipo polinómico (hasta grado cuatro o reductibles).
Niel Henrik Abel y Evariste Galois demostraron que no hay una fórmula general que permita obtener las raíces de
polinomios de grado superior a cuatro (Tma de Abel-Ruffini).
Es necesario desarrollar métodos numéricos para calcular, al menos de forma aproximada, las soluciones de estos
problemas.
Introducción (3)
Determinar la profundidad a que flota una boya esferica maciza de radio r y densidad ρ.
P = 43 πr3 ρm
E= π
3rh2 − h3 ρa
3
2
Introducción (4)
Conocer las dos familias de métodos fundamentales (intervalo e iteración funcional) así como sus ventajas e incon-
venientes.
Comprender e interpretar gráficamente los métodos, para así intuir su aplicabilidad y convergencia..
Entender el concepto de velocidad de convergencia y su importancia en la eficiencia de un método.
Saber los problemas que presentan las raíces múltiples.
Analizar el caso particular de las ecuaciones polinómicas.
Definiciones
Una función f (x) es una aplicación de un conjunto inicial A en otro conjunto final B tal que a cada elemento del
conjunto inicial le hace corresponder un elemento del conjunto final.
f : A → B
x∈A → y = f (x) ∈ B
Resolver la ecuación f (x) = 0 consiste en hallar los elementos r ∈ A, denominados raíces de la ecuación, que
convierten la ecuación en una identidad f (r) ≡ 0.
Una raíz r del la ecuación f (x) = 0 se dice que tiene multiplicidad de orden m cuando f (k) (r) = 0, k = 0, 1, . . . , m−1
y f (m) (r) 6= 0.
• Dependiendo del valor de m se habla de raíces simples (m = 1), dobles (m = 2) y así sucesivamente.
• Ejemplo 1:
f (x) = x3 − 2x2 + x con raíces r1 = 0 y r2 = 1
◦ f 0 (x) = 3x2 − 4x + 1, como f 0 (0) = 1 y f 0 (1) = 0, r1 es una raiz simple.
◦ f 00 (x) = 6x − 4, como f 0 (1) = 2, r2 es una raiz doble.
• Ejemplo 2: Dada la ecuación f (x) = sin x − x + 61 x3 determinar la multiplicidad de r = 0.
Teoremas
3
Teorema 1.3 (demo ?? en la página ??)
Sea f (x) una función continua en un intervalo cerrado [a, b] y derivable en el intervalo abierto (a, b), entonces entre
dos raíces consecutivas de la ecuación f 0 (x) = 0 existe a lo sumo una raíz de f (x) = 0.
1.1. Sucesiones
Aproximación de la raíz (1)
∞
Los métodos numéricos de cálculo de raíces son iterativos, generan una sucesión {xk }k=0 que converge a la raíz r.
• Una sucesión de números reales se dice que converga a r y se escribe como lı́m xk = r, ó {xk } → r si
k→∞
∀ε > 0, ∃N ≥ 0 : n > N ⇒ |xn − r| < ε.
Definición
∞
Una sucesión {sn }n=0 que converge a un valor α se dice que lo hace con orden de convergencia p y constante
asintótica L 6= 0 cuando
|α − sn+1 | en+1
lı́m p = lı́m p =L
n→∞ |α − sn | n→∞ en
4
• Consideremos n 1, de forma que
|α−sn+1 | |α−sn+2 |
|α−sn |p ≈ L ≈ |α−sn+1 |p
• Igualando y despejando
|α−sn+1 |p |α−sn+2 | ln(en+2/en+1 )
|α−sn |p ≈ |α−sn+1 | →p≈ ln(en+1/en )
• Dado que α es desconocida, se suelen generar una sucesión cuyo límite sería p utilizando alguna de las siguientes
relaciones
xN −xn+2 xn+3 −xn+2
ln ln
p̃n ≈
xN −xn+1
xN −xn+1
ó p̂n ≈ xn+3 −xn+1
xn+3 −xn+1
ln xN −xn ln xn+3 −xn
siendo xN la aproximación de α.
Importancia de la velocidad de convergencia.
• Supongamos n 1, de forma que en+1 ≈ L · epn .
y sean en = 1 y L = 21 .
• Evolución de las iteraciones
velocidad en+1 en+2 en+3 en+4
lineal 1/2 1/22 1/23 1/24 = 0.125
5
2. M.Intervalo
Métodos de intervalo
Condiciones: f (x) verifica las condiciones del teorema de Bolzano en un intervalo [a, b]
Proceso: disminuir en cada iteración el tamaño del intervalo en que se busca la raíz, hasta que se cumpla el criterio
de parada.
Algoritmo: (repetir un máximo de n veces)
• Elegir un valor xn ∈ (an , bn )
• Si |f (xn )| < ε1 , finalizar
• Obtener el nuevo intervalo [an+1 , bn+1 ] seleccionando aquel [a, xn ] ó [xn , b] que verifique Bolzano
• Si |bn+1 − an+1 | < ε2 , finalizar
Se generan dos sucesiones {an } y {bn } monótonas y acotadas y, por tanto, convergentes (Tma de Bolzano - Weiers-
trass).
Acotación: Puesto que
Métodos de intervalo
|f (xn )|
|r − xn | ≤
m
Corolario: El valor de |f (xn )| es mejor indicador de la cercanía a la raíz cuanto mayor sea la pendiente.
|f (xn )|
|r − xn | ≤ m <δ
6
2.1. Bisección
Método de bisección o dicotomía (1)
Cálculos
Tabla
n. an f (an ) bn f (bn ) xn f (xn )
1 0 -4 2 10.7781122 1 -1.28171817
. . . . . . .
. . . . . . .
. . . . . . .
Criterio: tolx = 10 −6
7
Representación del proceso: iteraciones
2.2. RFalsi
Método de Régula Falsi o falsa posición (1)
Elección de xn : corte de la secante. Considera una aproximación lineal a la función.
y−f (a) y−f (b)
x−a
b−a = f (b)−f (a) ↔ x−b
a−b = f (a)−f (b)
f (a) f (b) 1
→ xn = a − =b− con = b−a
f (b)−f (a)
p p p
Convergencia:Teorema 2.3 (demo 45 en la página 33)
El método de Régula Falsi es convergente r = lı́m xn
n→∞
M −m
|r − xn | ≤ |xn − xn−1 |
m
Ventajas: operaciones simples (3±, 1×, 1÷).
Inconvenientes: no garantiza que |bn − an | → 0 (caso f 00 (x) 6= 0 en [a, b]).
√
Orden de convergencia p: 1 ≤ p ≤ 12 1 + 5 ' 1.62 (ver 47 en la página 34)
8
Método de Régula Falsi (2)
Ejemplo 2 :
0 ≤ x ≤ 12
δ
f (x) = 0<δ<1
4 (1 + δ) x − x2 − 1 2 ≤x≤1
1
• Raíz única en 12 , 1
Cálculos
Tabla
n. an f (an ) bn f (bn ) xn f (xn )
. . . . . . .
. . . . . . .
. . . . . . .
2 Gregory,R.T. & Young, D.M. «A survey of numerical mathematics, Vol. I» Addison-Wesley, Massachusets (1972). pp.-116
9
Acotación
cota: |r − xn | ≤ M −m
m |xn − xn−1 |
f (x) = x · e − 4,
x
f (x) = (x + 1) ex ,
0
f 00 (x) = (x + 2) ex ≥ 0 ∀x ∈ [0, 2]
M = f 0 (2) ' 22.17, m = f 0 (0) = 1
n. xn xn − xn−1 Cota |r − xn | |bn − an |
1 0.541341 6.608267e-01 2
. . . . . .
. . . . . .
. . . . . .
Criterio: tolf = 10 −9
10
2.3. RFModif.
Método de Régula Falsi modificado (1)
Justificación:
• Cuando f 00 (x) ≥ 0 ó f 00 (x) ≤ 0, el método de Regula Falsi mantiene fijo uno de los extremos.
• Para modificar ese extremo, se disminuye la pendiente de la secante (reduciendo a la mitad el valor de la
función), acercando a la raíz la intersección con el eje de abscisas.
• Se repite el proceso mientras no cambie el signo de f (xn ).
Algoritmo:
Ejemplo 3 :
0 ≤ x ≤ 12
δ
f (x) = 0<δ<1
4 (1 + δ) x − x2 − 1 2 ≤x≤1
1
• Si δ = 10−4 , tolX = 10−4 , tolF = 10−9 , bisección: 20 iteraciones, RF: 7577, RFmod: 29.
11
Método de Régula Falsi Modificado (3)
Cálculos (comenzando en x3 )
Tabla
n. an f (an ) bn f (bn ) xn f (xn )
. . . . . . .
. . . . . . .
. . . . . . .
Criterio: tolf = 10 −9
12
Estimación del orden de convergencia: ¿?
2.4. Müller*
Método de Müller* (1)
Elección de xn : corte con una parábola. Considera una aproximación cuadrática a la función, lo que exige tomar una terna
de puntos.
Procedimiento:
• Utilizar tres puntos (an , mn , bn ) para calcular la parábola.
• Obtener la raíz s de la parábola que esta en el intervalo [an , bn ].
◦ Si s > mn ⇒ f (an ) · f (mn ) > 0 (tienen el mismo signo, raiz r ∈ (mn , bn ))
Nueva terna: (mn , s, bn )
◦ Si s < mn ⇒ f (bn ) · f (mn ) > 0 (tienen el mismo signo, raiz r ∈ (an , mn ))
Nueva terna:(an , s, mn )
Ventajas: rapidez
Inconvenientes:
13
√
• cálculos más complejos 10±, 20×, 3÷, 1 .
Cálculos a realizar
• Terna: [an , mn , bn ]
Parábola: P2 (x) = α (x − mm )2 + β (x − mn ) + γ
Denotando por δx = xn − mn y δfx = f (xn ) − f (mn )
• Condiciones:
P2 (an ) = f (an ) → αδa2 + βδa + γ = f (an )
• Se toma el signo ∓ que coincida con el de −β para asegurar que la raíz s permanece en el intervalo.
1ª Iteración
• Terna: [a0 , m0 , b0 ] = [0, 1, 2] 99K f (a0 ) = −4, f (m0 ) = −1.28, f (b0 ) = 10.79
• δa = −1, δb = 1, 4 = 2, 4α = 9.34, 4β = 14.77
• P2 (x) = 4.67 (x − 1)2 + 7.39 (x − 1) − 1.28 99K s = 1.15, f (s) = −0.32
2ª Iteración
• Terna: [a1 , m1 , b1 ] = [1, 1.15, 2] 99K f (a1 ) = −1.28, f (m1 ) = −0.32, f (b1 ) = 10.79
• δa = −0.16, δb = 0.84, 4 = 0.133, 4α = 0.935, 4β = −0.962
• P2 (x) = 7.04 (x − 1.15)2 + 7.24 (x − 1.15) − 0.32 99K s = 1.20, f (s) = −0.02
Tabla
n. an f (an ) mn f (mn ) bn f (bn ) xn f (xn )
14
Representación del proceso: iteraciones
15
2.5. Brent*
Método de Brent*
Es el método que suelen traer todos los paquetes de resolución de ecuaciones no lineales.
Dependiendo de ciertas condiciones, se selecciona entre el valor dado por los métodos anteriores, de forma que la longitud de
intervalo tienda a cero.
Se debe a Richard Brent (1973) y se basa en un algoritmo anterior de Theodorus Dekker (1969), por lo que a veces se denomina
de Brent-Dekker.
Con el ejemplo usado: .f (x) = x · ex − 4 en [0, 2] con tolx = 10−6 y tolf = 10−9 , converge tras 8 iteraciones.
Si bien depende de las características del ordenador, el lenguaje de programación, etc. a efectos de comparación, resolver el
ejemplo anterior ha llevado menos de 1 milésima en el caso de bisección y regula falsi, casi 2.5 milésimas a Müller y no se ha
llegado a contabilizar en Regula Falsi Modificada y Brent.
2.6. Ejemplo
Métodos de intervalo
La función g (x) = x sin x aparece en el estudio de vibraciones forzadas no amortiguadas. Hallar mediante los métodos de
intervalo anteriores el valor de x ∈ [0, 2] en que g (x) = 1, con un error de la raiz y de la función inferiores a 10−6 y 10−9
respectivamente.
Representación
1 0 -1 2 0.82 1 -0.1585
. . . . . . .
. . . . . . .
. . . . . . .
criterio: tolX
Regula Falsi: 5 iteraciones, 7.43 · 10−5 s
n. an f (an ) bn f (bn ) xn f (xn )
criterio: tolF
16
Regula Falsi modificada: 5 iteraciones, 7.73 · 10−5 s
n. an f (an ) bn f (bn ) xn f (xn )
criterio: tolF
Brent: 4 iteraciones, 1.93 · 10−5 s
Tiempo de ejecución relativo
Bisección Régula Falsi RF modificada Müller Brent
10 4 4 50 1
3. M.PuntoF
Métodos de punto fijo
Definición:
Sea g (x) una función continua en [a, b], se denomina punto fijo de g (x) al valor c ∈ [a, b] tal que g (c) = c.
Justificación: Se transforma la ecuación f (x) = 0 en g (x) = x, de forma que obtener las raíces de f (x) «equivale»
a calcular los puntos fijos de g (x).
17
Contractividad
Definición: Lipschitziana
Una función g : M → N entre espacios métricos (M, dM ), (N, dN ) se dice que es lipschitziana en M (o se dice que sa-
tisface una condición de Lipschitz) si existe una constante L > 0 tal que dN (f (x1 ) , f (x2 )) ≤ L·dM (x1 , x2 ) ∀x1 , x2 ∈
M.
• Si M y N son espacios euclídeos: kf (x1 ) − f (x2 )k ≤ L kx1 − x2 k ∀x1 , x2 ∈ M
• Si M = N = R: |f (x1 ) − f (x2 )| ≤ L |x1 − x2 | ∀x1 , x2 ∈ R
• Se puede generalizar a un intervalo I: |f (x1 ) − f (x2 )| ≤ L |x1 − x2 | ∀x1 , x2 ∈ I
Definición
Una función lipschitziana con L < 1 se denomina contractiva.
Notas:
• Una función contractiva es continua
◦ g (x) es continua en α cuando ∀ε > 0 ∃δ (ε) : |x − α| < δ ⇒ |g (x) − g (α)| < ε
◦ Tomando δ = ε y aplicando la contractividad |g (x) − g (α)| ≤ L |x − α| = Lε < ε
• Que una función sea contractiva no significa que sea derivable
◦ Contraejemplo: g (x) = x4 es contractiva
x1 enx2[−1,
1] pero no es derivable en 0.
x1 · x2 ≥ 0
−
|f (x1 ) − f (x2 )| = 41 − 42 =
x x
x4 4
1 + x2 ≤ x1 − x2 x1 · x2 < 0
≤ 41 |x1 − x2 |
4 4 4 4
• Una función continua no necesariamente es contractiva
◦ Contraejemplo: g (x) = 3x en [−1, 1] .
|f (x1 ) − f (x2 )| = |3x1 − 3x2 | = 3 |x1 − x2 |
Teorema 3.1 (demo 48 en la página 35)
Sea g (x) ∈ C 1 ([a, b]), entonces las siguientes proposiciones son equivalentes:
• g (x) es contractiva en [a, b]
• |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b]
Teoremas
18
∞
Procedimiento: partiendo de x0 generar la sucesión {xn+1 = g (xn )}n=0 cuyo límite sea el punto fijo de g (x).
Teorema 3.3 (Tma de Punto fijo)
1. Sea g (x) ∈ C ([a, b]) , si ∀x ∈ [a, b] : g (x) ∈ [a, b], esto es, la imagen de cualquier punto del intervalo también
está en el intervalo, entonces g (x) tiene al menos un punto fijo en [a, b].
2. Si además existe g (x) es contractiva de constante k < 1, entonces el punto fijo es único.
Interpretación geométrica (verifica)
kn
|α − xn | ≤ k n |α − x0 | |α − xn | ≤ |x1 − x0 |
1−k
Teorema de convergencia local (demo 50 en la página 35)
1. Si g (x) es contractiva en un entorno [α − δ, α + δ] del punto fijo α, el método de punto fijo converge en ese
entorno.
19
• Estudio analítico: se calculan los máximos y mínimos de la función en el intervalo dado y se comprueba si están
dentro de los límites.
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
g1 (x) = 4e−x → g10 (x) = −4e−x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g1 (1) = 4e−1 ' 1.4715 ∈ [1, 2]
g1 (2) = 4e−2 ' 0.5413 ∈ / [1, 2]
No verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
g10 (x) = −4e−x → g100 (x) = 4e−x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g10 (1) = −4e−1 ' −1.4715 ∈ / (−1, 1)
g10 (2) = −4e−2 ' −0.5413 ∈ (−1, 1)
No verifica la segunda condición
• Estudio analítico:
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
g2 (x) = ln 4x−1 → g20 (x) = − x1 = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g2 (1) = ln 41 ' 1.3863 ∈ [1, 2]
g2 (2) = ln 42 ' 0.6931 ∈ / [1, 2]
No verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
g20 (x) = − x1 → g200 (x) = x12 = 0 no existe solución real, luego los máximos y mínimos se alcanzan en los
extremos.
g20 (1) = −1 ∈/ (−1, 1)
20
g20 (2) = − 12 = 0.5 ∈ (−1, 1)
No verifica la segunda condición
√
x2 ex − 4x = 0 → x = 2 xe−x = g3 (x)
Estudio analítico:
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
√ 1−x
g3 (x) = 2 xe−x → g30 (x) = √ x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en los
xe
extremos.
√
g3 (1) = 2 1e−1 ' 1.2113 ∈ [1, 2]
√
g3 (2) = 2 2e−2 ' 1.0405 ∈ [1, 2]
Verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
1−x 1 + 2x − x2 √
g30 (x) = √ x → g300 (x) = √ =0→x=1±2 2∈
/ [1, 2]. No existen extremos relativos en [1, 2].
xe 2x xe x
1−1
g30 (1) = √ = 0 ∈ (−1, 1)
1e1
1−2
g30 (2) = √ ' −0.2601 ∈ (−1, 1)
2e2
Verifica la segunda condición
Iteraciones
x0 x1 x2 x3 x4 x5 x6
1.0 1.213061 1.201043 1.202281 1.202156 1.202169 1.202168
1.5 1.157057 1.206301 1.201747 1.202210 1.202164 1.202168
2.0 1.040520 1.212577 1.201094 1.202276 1.202157 1.202169
21
Métodos iterativos: velocidad
Sea g (x) que verifica las condiciones del teorema de punto fijo (ver 26 en la página 18)
Aplicando el desarrollo de Taylor en el punto fijo α, se tiene
k
X 1 i k+1
g (xn ) = g (α) + (xn − α) g (i) (α) + 1
(k+1)! (xn − α) g (k+1) (ξ) , ξ ∈ (xn , α)
i=1
i!
Despejando
k
X 1 i k+1
xn+1 − α = (xn − α) g (i) (α) + 1
(k+1)! (xn − α) g (k+1) (ξ) , ξ ∈ (xn , α)
i=1
i!
1. Si g 0 (α)
6= 0 ⇒ convergencia lineal (orden 1)
n+1 − α
x
lı́m = lı́m |g 0 (α) + (xn − α) g 00 (α) + · · · | = |g 0 (α)|
n→∞ xn − α n→∞
2. Si g 0 (α)
= 0, g (α) 6= 0 ⇒ convergencia cuadrática (orden 2)
00
n+1 − α
x
lı́m = lı́m 2! g (α) + 3! (xn − α) g 000 (α) + · · · = 21 g 00 (α)
1 00 1
n→∞ (x − α) 2 n→∞
n
3. Si g 0 (α)
= g (α)
00
= ··· = g
(k−1)
(α) = 0, g (k) (α) 6= 0 ⇒ convergencia de orden k
n+1 − α
x
lı́m = lı́m k! g (α) + (k+1)! (xn − α) g (k+1) + · · · = k! g (α)
1 (k) 1 1 (k)
n→∞ (x − α) k n→∞
n
3.1. Aitken
Método de Aitken
Genera, a partir de una sucesión {xn } → α con convergencia lineal , otra sucesión {yn } mediante la relación
2
(∆xn )
yn = xn − donde ∆xn = xn+1 − xn y ∆2 xn = ∆xn+1 − ∆xn (demo 52 en la página 36)
∆2 x n
Teorema 3.3 (demo 53 en la página 36)
α − yn
{yn } también converge a α y lo hace más rápido que {xn }, es decir, lı́m =0
n→∞ α − xn
22
Iteraciones (representación)
x0 y0 y1 y2 y3 y4
1.0 1.20168448 1.20216562 1.20216785 1.20216787 1.20216787
1.5 1.20011769 1.20213216 1.20216755 1.20216787 1.20216787
2.0 1.18641442 1.2018122 1.20216582 1.20216785 1.20216787
x0 z1 z2 z3 z4 z5
1.0 1.213061 1.201043 1.201684 1.202217 1.202163
1.5 1.157057 1.206301 1.200117 1.202374 1.202147
2.0 1.040520 1.212577 1.186414 1.203709 1.202012
3.2. Steffensen
Método de Steffensen
Define una nueva función de punto fijo a partir del método de Aitken, considerando que xn+1 = g (xn ):
2
(g (x) − x)
g (x) = x → gs (x) = x −
g (g (x)) − 2g (x) + x
• ¿Esta la sucesión bien definida?
◦ Sí, definiendo gs (α) = α (demo 53 en la página 36)
• ¿Converge al punto fijo de g (x)?
◦ Todos los puntos fijos de gs (x) lo son también de g (x). (demo 53 en la página 36)
• Si converge, ¿cuál es su orden?
23
No verifica la 3ª condición g 00 (x) > 0
Estudio analítico:
1. Función: g (x) ∈ C (I) y g (x) > a, ∀x ∈ I
√
g (x) = 2 xe−x ∈ C (x ≥ 0) decreciente
Extremos
1−x
g 0 (x) = √ x = 0 ⇒ x = 1
xe
√ √
g (1) = 2 e−1 ' 1.213 > 1, g (2) = 2 2e−2 ' 1.041 > 1
2. Derivada primera: g 0 (x) ∈ C (I) y g 0 (x) < 0, ∀x ∈ I
1−x
g 0 (x) = √ x ∈ C (x > 0) decreciente
xe
Extremos
x2 − 2x − 1 √
g 00 (x) = √ =0→x=1±2 2∈ / [1, 2]. No existen extremos relativos en [1, 2].
2x xe x
1−1 1−2
g30 (1) = √ = 0 y g30 (2) = √ ' −0.2601
1e1 2e2
3. Derivada segunda: g 00 (x) ∈ C (I) y g 00 (x) > 0, ∀x ∈ I
x2 − 2x − 1
g300 (x) = √ ∈ C (x > 0).
2x xex
Extremos
3 + 3x + 3x2 − x3
g 000 (x) = √ =0→x∈ / [1, 2]. No existen extremos relativos en [1, 2].
4x2 xex
1−2−1 4−4−1
g300 (1) = √ = −0.607 y g300 (2) = √ ' −0.065
2 e1 2 · 2 2e2
Iteraciones
x0 x1 x2 x3 x4 x5
1.0 1.20168448 1.20216787 1.20216787 1.20216787 1.20216787
1.5 1.20011769 1.20216779 1.20216787 1.20216787 1.20216787
2.0 1.18641442 1.20216333 1.20216787 1.20216787 1.20216787
24
3.3. Newton
Método de Newton
Origen: encontrar un método de punto fijo para la ecuación f (x) = 0 con velocidad cuadrática de la forma g (x) =
x − f (x) φ (x).
Planteamiento: ¿que condiciones debe verificar φ (x) en la raíz α?.
• Convergencia cuadrática cuando g (α) = α, g 0 (α) = 0, g 00 (α) 6= 0.
◦ g (α) = α − f (α) φ (α) = α.
−1
◦ g 0 (x) = 1 − f 0 (x) φ (x) − f (x) φ0 (x) , g 0 (α) = 0 ⇒ φ (α) = (f 0 (α)) .
f (x) f (xn )
Expresión del método: gn (x) = x − → xn+1 = xn − 0 .
f (x)
0 f (xn )
Ventajas: velocidad cuadrática (con raíces simples).
Inconvenientes: cálculo de f 0 (x), derivada nula, intervalo y condiciones de convergencia.
Teorema 1 (convergencia local: demo 58 en la página 39). 1. Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b]
y además f (α) 6= 0, entonces existe un entorno (α − δ, α + δ) donde el método de Newton es convergente y si
0
2. Si f 0 (α) = f 00 (α) = . . . = f (m−1) (α) = 0 y f (m) (α) 6= 0 la convergencia es lineal con constante asintótica 1 − m.
1
Teorema 2 (convergencia global: demo 59 en la página 39). Sea f (x) ∈ C 2 ([a, b]) verificando
1. f (a) · f (b) < 0 (existencia)
2. f 0 (x) 6= 0, ∀x ∈ [a, b] (unicidad)
entonces el algoritmo de Newton converge a α con velocidad cuadrática para cualquier elección de x0 ∈ [a, b].
Notas:
25
Método de Newton: ejemplo
f (xn ) xn · exn − 4
xn+1 = xn − 0 = xn − xn
f (xn ) e (xn + 1)
Condiciones (análisis gráfico)
Estudio analítico:
1. f (a) · f (b) < 0 (existencia)
f (1) · f (2) ' (−1.28) · (10.78) < 0
2. f 0 (x) 6= 0, ∀x ∈ [a, b] (unicidad)
f 0 (x) = (x + 1) ex > 0, ∀x ∈ [1, 2]
3. f 00 (x) · f 00 (y) ≥ 0, ∀x, y ∈ [a, b]
f 00 (x) = (x + 2) ex > 0, ∀x ∈ [1, 2]
( )
f (a) f (b)
4. máx 0 , ≤ |b − a| (permanencia)
f (a) f 0 (b)
( )
f (1) f (2)
máx 0 , 0 ' máx {|−0.23| , |0.48|} ' 0.48 ≤ |2 − 1|
f (1) f (2)
Iteraciones
x0 x1 x2 x3 x4 x5
1.0 1.23575888 1.20297255 1.20216834 1.20216787 1.20216787
1.5 1.25700826 1.20428688 1.20217113 1.20216787 1.20216787
2.0 1.51378038 1.26177958 1.20466490 1.20217240 1.20216787
3.3.1. Variantes
Método de Newton: variantes
1. Método de Whittaker:
• Mantiene constante la derivada:
f (xn ) f (b) − f (a)
xn+1 = xn − donde m = ó m = f 0 (x0 )
m b−a
26
• o la aproxima numéricamente (inestabilidad)
f (xn + h) − f (xn )
m= con h xn
h
2. Método de la secante
• Aproxima la tangente por la secante en dos iteraciones consecutivas.
f (xn ) − f (xn−1 ) xn − xn−1
f 0 (xn ) ≈ → xn+1 = xn − f (xn )
xn − xn−1 f (xn ) − f (xn−1 )
• No se puede tratar como un método de punto fijo.
• La actualización de valores «coincide» con Regula Falsi.
• Tma. de convergencia local:(demo 53 en la página 36)
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces existe √un entorno
(α − δ, α + δ) donde el método de la secante es convergente y su orden de convergencia es 21 1 + 5 ' 1.62.
3. Steffensen: aproxima la tangente por la secante en dos valores seleccionados {x, x + f (x)}.
f (xn + f (xn )) − f (xn ) f 2 (xn )
f 0 (xn ) ≈ → xn+1 = xn −
xn + f (xn ) − xn f (xn + f (xn )) − f (xn )
Whittaker (m fija) :
f (xn ) f (b) − f (a)
• Iteraciones xn+1 = xn − con m =
m b−a
x0 x1 x2 x3 x4 x5
1.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
1.5 1.27424777 1.22808433 1.21203789 1.20599784 1.20366433
2.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
• Evolución
• Interpretación gráfica
27
Whittaker (m variable) :
f (xn ) f (xn + h) − f (xn )
• Iteraciones: xn+1 = xn − con m = y h = 10−3
m h
x0 x1 x2 x3 x4 x5
1.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
1.5 1.27424777 1.22808433 1.21203789 1.20599784 1.20366433
2.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
• Evolución
• Interpretación gráfica
Secante:
xn − xn−1
• Iteraciones: xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
28
x0 x1 x2 x3 x4 x5
1.0 1.1 1.21861102 1.20091628 1.20215298 1.20216789
1.5 1.6 1.27355966 1.2202325 1.20308165 1.20217981
2.0 1.9 1.48055107 1.31078705 1.22188601 1.20366847
• Evolución
• Interpretación gráfica
Steffensen:
f 2 (xn ) f (xn )
• Iteraciones: xn+1 = xn − = xn −
f (xn + f (xn )) − f (xn ) f [xn , xn + f (xn )]
x0 x1 x2 x3 x4 xn
1.0 1.5605 1.5443 1.5257 1.5040 ··· 1.2022 (16)
1.5 1.4736 1.4421 1.4042 1.3589 ··· 1.2022 (11)
2.0 2.0000 2.0000 2.0000 2.0000 1.9998(1024)
• Evolución
29
3.4. Otros
Otros métodos de punto fijo
f (xn )
Métodos explícitos con convergencia cúbica o superior: yn = xn − con f 0 (xn ) 6= 0.
f 0 (xn )
2
f (yn ) f (yn ) (f 0 (yn ))
• Chun: xn+1 = yn − −
f 0 (yn ) (f 0 (xn ))
2
!2 !
f (yn ) f (yn ) f 0 (xn ) f 0 (xn )
• Householder: xn+1 = yn − 0 − 1
+1
f (yn ) 2 f 0 (yn ) f (xn ) f 0 (yn )
2f (xn ) f (yn ) f 0 (yn )
• Halley: xn+1 = yn − 2 2
2f (xn ) (f 0 (yn )) − f (yn ) (f 0 (xn )) + f 0 (xn ) f (yn ) f 0 (yn )
2
(f (xn )) f 00 (xn ) f (yn )
• Noor I: xn+1 = yn − −
2 (f 0 (xn ))
3 f 0 (xn )
2
!!
f (yn ) (f (yn )) f (yn ) f (yn )
• Noor II: xn+1 = yn − 0 − 2+ 2+
f (xn ) f (xn ) f 0 (xn ) f (xn ) f (xn )
30
4. Polinómicas
Introducción (1)
5. Resumen
Resumen
Métodos de intervalo
• Exigen las condiciones del teorema de Bolzano.
• Sólo son válidos para encontrar raíces simples o de multiplicidad impar.
• Acotan el error de la raíz y no sólo el de la función.
• La longitud del intervalo “suele” tender a cero.
• Velocidades de convergencia lineales y superlineales.
Métodos de iteración funcional
• Exigen las condiciones de punto fijo.
• Puede ser complicado encontrar la función que las verifique.
• Son válidos para raíces de cualquier multiplicidad.
• No acotan directamente el error de la raíz.
• Velocidades de convergencia lineales y superiores.
• Hay métodos para acelerar la velocidad.
6. Bibliografía
Bibliografía
1. Aplicados
Burden,R.L. & Faires,J.D. «Numerical Analysis, 9ªEd» Brokks/Cole, Boston (2011) ISBN 978-0-538-73351-9
Chapra,S.C. & Canale,R.P. «Numerical Methods for enginers»
Gerald,C.F. & Weathley,P.O. «Applied Numerical Analysis»
2. Teóricos
Viaño,J.M. & Burguera,M. «Lecciones de Métodos numéricos: 2 Resolución de ecuaciones numérivas» Ed.
Tórculo, Santiago (1997). ISBN 84-89641579
Demidovich,D.P. & Maron, I.A. «Cálculo numérico fundamental» Ed. Paraninfo, Madrid (1988). ISBN 84-
2830887X
Berezin,S, Zhidkov,N.P. «Computing Methods I and II» Pergamon Press, Oxford (1965) ISBN: 978000801001-
04/11
Isaacson,E & Keller,H.B. «Analysis of numerical methods» John Wiley & Sons, N.Y. (1966). ISBN 0-471 428655
La resolución de ecuaciones es uno de los problemas que con más frecuencia aparece en los distintos campos de
la Ciencia y la Ingeniería.
Este problema ya fue estudiado en el año 100 A.C. por Herón, que empleaba un método iterativo para aproximar la
raíz cuadrada de un número positivo.
No existen métodos generales de resolución simbólica de ecuaciones salvo en casos sencillos o para algunas ecuaciones
de tipo polinómico (hasta grado cuatro o reductibles).
Niel Henrik Abel y Evariste Galois demostraron que no hay una fórmula general que permita obtener las raíces de
polinomios de grado superior a cuatro (Tma de Abel-Ruffini).
Es necesario desarrollar métodos numéricos para calcular, al menos de forma aproximada, las soluciones de estos
problemas.
31
7. Demostraciones
7.1. Introducción
Tma. Unicidad (I)
Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b) tal que su derivada no se anula, entonces existe un único punto interior del intervalo en que
la función se anula.
f (x) ∈ C ([a, b]) : f (a) · f (b) < 0 ∧ f 0 (x) 6= 0 ∀x ∈ (a, b) ⇒ ∃!c ∈ (a, b) : f (c) ≡ 0
El Tma. de Bolzano prueba que existe al menos una raíz.
Se demuestra por reducción al absurdo:
• Hipótesis: existen dos raíces distintas
∃c1 , c2 ∈ (a, b) : f (c1 ) = f (c2 ) = 0
f 0 (ζ) = 0 N o (f 0 (x) 6= 0 ∀x ∈ (a, b))
TV M
• f (c1 ) − f (c2 ) = 0 = |f (ζ) (c1 − c2 )| →
0
c1 − c2 = 0 ⇒ c1 = c2
7.2. Intervalo
Acotación en los métodos de Intervalo
Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b), r la raíz de la ecuación f (x) = 0 y xn un valor próximo a r , ambos en (a, b); si |f 0 (x)| tiene
una cota inferior no nula m en (a, b) ,entonces (volver 11 en la página 6).
|f (xn )|
|r − xn | ≤
m
Aplicando el TVM
f (r) − f (x) −f (x)
∃c ∈ (r, x) : f 0 (c) = →r−x= 0 .
r−x f (c)
Tomando valor absoluto, y dado que |f 0 (c)| ≥ m
f (x) f (x)
|r − x| = 0
≤ .
f (c) m
7.2.1. Bisección
Bisección
El método de bisección es convergente r = lı́m xn , y el error viene acotado por |r − xn | < 1
2n |b − a| (volver 12 en la
n→∞
página 7)
inducción 1
|r − xn | < |bn − an | = 1
2 |bn−1 − an−1 | = · · · = 2n |b − a|
• n=1: |b1 − a1 | = 1
2 |b0 − a0 |
• supuesto cierto para n: |bn − an | = 21n |b − a|
xn − an si f (xn ) f (an ) < 0 n − an b−a
n b
xn = an +b
bn+1 − an+1 = =2 = n+1
bn − xn si f (xn ) f (an ) > 0 2 2
lı́m |r − xn | = r − lı́m xn = lı́m 21n |b − a| = 0 ⇒ r = lı́m xn
n→∞ n→∞ n→∞ n→∞
32
7.2.2. Regula Falsi
Regula Falsi (I)
El método de Régula Falsi es convergente r = lı́m xn (volver 14 en la página 8).
n→∞
33
Regula Falsi (II)
Demostración (volver 14 en la página 8).
Sea f (x) verificando el Tma. de Bolzano, con derivada primera continua no nula y segunda de signo constante en
(a, b); sean M y m los valores máximo y mínimo de |f 0 (x)|, entonces el error de Regula Falsi viene acotado por
M −m
|r − xn | ≤ |xn − xn−1 |
m
f (c) − f (xn )
Operando −f (xn ) = (xn+1 − xn ) →
c − xn
f (c) − f (xn )
f (r) − f (xn ) = (xn+1 − xn ) ( 7.2.2.a)
c − xn
Aplicando el teorema del valor medio
f (r) − f (xn ) = f 0 (ξ) (r − xn ) , ξ ∈ (r, xn ) , f (c) − f (xn ) = f 0 (ζ) (c − xn ) , ζ ∈ (c, xn )
Sustituyendo en ( 7.2.2.a)
f 0 (ξ) (r − xn ) = (xn+1 − xn ) f 0 (ζ)
• Ralston A. and Rabinowitz P. (1978) “A First Course in Numerical Analysis”. McGraw-Hill, New York. pp.139-
140
• Stoer,J. &and Bulirsch,R. (2002) “Introduction to numerical Analysis” Springer-Verlag, Berlin. pp.339-340
√
El caso óptimo se obtiene cuando se comportamiento coincide con el de la secante, en el que p ≤ 12 1 + 5 ' 1.62.
c.q.d.
34
7.3. Iter. Func.
Contractividad
Sea g (x) ∈ C 1 ([a, b]), entonces g (x) es contractiva en [a, b] ⇔ |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b] (volver 25 en la página 18).
1. g (x) es contractiva en [a, b] ⇒ |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b]
g (x + h) − g (x) L (x + h − x)
∀c ∈ [a, b] , h ∈ R : |g (c)| = lı́m
0
= lı́m =L<1
h→0 h h→0 h
7.3.1. P.Fijo
Método de punto fijo (1)
Demostración (volver 26 en la página 18).
Sea g (x) ∈ C ([a, b]) , tal que g (a) ≥ a y g (b) ≤ b entonces g (x) tiene al menos un punto fijo en [a, b].
Si además g (x) es contractiva entonces el punto fijo es único.
Sea g (x) ∈ C ([a, b]) , tal que g (a) ≥ a y g (b) ≤ b entonces g (x) tiene al menos un punto fijo en [a, b].
Se define f (x) = g (x) − x ∈ C ([a, b]), y puesto que f (a) ≥ 0 y f (b) ≤ 0, hay tres posibilidades:
1. f (a) = 0 → g (a) = a y a es un punto fijo.
2. f (b) = 0 → g (b) = b y b es un punto fijo.
3. f (a) > 0, f (b) < 0, aplicando el Teorema de Bolzano, ∃c ∈ (a, b) : f (c) ≡ 0 → g (c) = c y c es un punto fijo.
Si además existe g (x) es contractiva con constante k < 1, entonces el punto fijo es único.
Supongase que existen {p, q} puntos fijos de g (x)
1. Al ser puntos fijos, g (p) = p y g (q) = q
g (p) − g (q)
2. Entonces |p − q| = |g (p) − g (q)| y aplicando el teorema del valor medio, ∃c ∈ (p, q) : g 0 (c) = .
p−q
3. Sustituyendo |p − q| = |g 0 (c) (p − q)| ≤ |g 0 (c)| |p − q| y dado que |g 0 (c)| ≤ k < 1 se llega al absurdo que
|p − q| < |p − q|
1 − k m−n−1 k
k n |x1 − x0 |
1−k
Tomando límites
1 − k m−n 1
lı́m |xm − xn | = |α − xn | ≤ lı́m k n |x1 − x0 | = k n |x1 − x0 |
m→∞ m→∞ 1−k 1−k
35
Método de punto fijo (3)
Demostración (volver 26 en la página 19).
Sean g (x) ∈ C ([a, b]) , g 0 (x) ∈ C ((a, b)) y α ∈ [a, b] : g (α) = α ∧ |g 0 (α)| ≤ k < 1 entonces ∃δ > 0 : [α − δ, α + δ]
verifica las condiciones del método de punto fijo.
Como g 0 (x) ∈ C ((a, b)) se cumple que
∀ε > 0 ∃δ : |x − α| < δ ⇒ |g 0 (x) − g 0 (α)| < ε → −ε < g 0 (x) − g 0 (α) < ε
→ g 0 (α) − ε < g 0 (x) < g 0 (α) + ε → −k − ε < g 0 (x) < k + ε ⇒ |g 0 (x)| < k + ε
Tomando ε : ε + k < 1 → ∃δ : |x − α| < δ ⇒ |g 0 (x)| < 1
TV M
Además ∀xn+1 = g (xn ) : |α − xn+1 | = |g (α) − g (xn )| = |g 0 (ζ) (α − xn )| con ζ ∈ (α, xn ), luego si xn ∈
(α − δ, α + δ) → |α − xn+1 | ≤ k |α − xn | < |α − xn | ⇒ xn+1 ∈ (α − δ, α + δ)
7.3.2. Aitken
Método de Aitken (I)
Demostración (volver 29 en la página 22).
en+1 en+2
Sea {xn } → α con velocidad lineal y tal que el cociente de los errores en y en+1 tienen el mismo signo.
en+1 en+2
Para n 1: en 'λ' en+1
en+1
Por ser la convergencia lineal: kn = en : lı́m kn = L con |L| < 1
n→∞
2 2
(xn+1 − xn ) ((xn+1 − α) − (xn − α))
• ên = yn − α = xn − − α = (xn − α) −
(xn+2 − xn+1 ) − (xn+1 − xn ) (xn+2 − α) − 2 (xn+1 − α) + (xn − α)
2 2
(en+1 − en ) e2n (kn − 1) kn (kn+1 − kn )
• ên = en − = en − = en
en+2 − 2en+1 + en en (kn+1 kn − 2kn + 1) kn+1 kn − 2kn + 1
ên kn (kn+1 − kn ) L (L − L)
• lı́m = lı́m = = 0.
n→∞ en n→∞ kn+1 kn − 2kn + 1 L2 − 2L + 1
7.3.3. Steffensen
Método de Steffensen (1)
Demostración (volver 31 en la página 23).
2
(g (x) − x) 0 xg (g (x)) − g 2 (x) 0
gs (α) = lı́m gs (x) = lı́m x − = α − = lı́m =
x→α x→α g (g (x)) − 2g (x) + x 0 x→α g (g (x)) − 2g (x) + x 0
Aplicando L’Hopital
2
g (g (x)) + xg 0 (g (x)) g 0 (x) − 2g (x) g 0 (x) α + αg 0 (α) g 0 (α) − 2αg 0 (α) (g 0 (α) − 1)
gs (α) = lı́m = = α
x→α g 0 (g (x)) g 0 (x) − 2g 0 (x) + 1 g 0 (α) g 0 (α) − 2g 0 (α) + 1 (g 0 (α) − 1)
2
• Si g 0 (α) 6= 1 ⇒ gs (α) = α
• Si g 0 (α) = 1 ⇒ α es raiz con multiplicidad m > 1 de G (x) = g (x) − x ⇒ g 00 (α) = · · · = g (m−1) (α) = 0
Ver la demostración del teorema de convergencia local (56 en la página siguiente)
36
Método de Steffensen (2)
Demostración (volver 31 en la página 23).
2
(g (x) − x)
g (x) = x → gs (x) = x −
g (g (x)) − 2g (x) + x
Se ha demostrado ya que g (α) = α ⇒ gs (α) = α
Sea g (x) ∈ C p ([a, b]) tal que g (α) = α con α ∈ [a, b] y además g 0 (α) = g 00 (α) = . . . = g (p−1) (α) = 0 y g (p) (α) 6= 0,
entonces existe un entorno (α − δ, α + δ) donde el método de Steffensen
2
(g (x) − x) xg (g (x)) − g 2 (x)
gs (x) = x − =
g (g (x)) − 2g (x) + x g (g (x)) − 2g (x) + x
es convergente y su orden es
• al menos 2p − 1 si p > 1
• al menos 2 si p = 1 y g 0 (α) 6= 0 (raiz simple)
• al menos 1 con constante asintótica 1 − m
1
si p = 1 y g 0 (α) = g 00 (α) = . . . = g (m−1) (α) = 0 y g (m) (α) 6= 0 (raiz
de multiplicidad m)
37
1. Caso 1: c0 6= 1 ⇔ g 0 (α) 6= 1
g 00 (α) 2
ε + o ε2 , puesto que lı́m c1 = lı́m c2 = 21 g 00 (α)
β −→
ε→0 2 (1 − c0 ) ε→0 ε→0
g 00 (α)
esto es, gs (α + ε) −→ α − + o ε2
2
2ε
ε→0 2 (1 − c0 )
2. Caso 2: c0 = 1 ⇔ g 0 (α) = 1
• g (x) ∈ C 2 (I)
• g (x) > a, ∀x ∈ I
• g (x) < 0,
0
∀x ∈ I
• g (x) > 0,
00
∀x ∈ I
38
7.3.4. Newton
Método de Newton (1)
Demostración (volver 1 en la página 25).
Tma. de convergencia local
1. Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces existe un entorno (α − δ, α + δ)
donde el método de Newton es convergente y si f (x) ∈ C 3 ([a, b]) su orden de convergencia es cuadrático.
2. Si f 0 (α) = f 00 (α) = . . . = f (m−1) (α) = 0 y f (m) (α) 6= 0 la convergencia es lineal con constante asintótica 1 − m .δ
1
f (x)
1. gn (x) = x − f 0 (x) es construible porque f ∈ C 2 ([a, b]) y f 0 (α) 6= 0.
entonces el algoritmo de Newton converge a α con velocidad cuadrática para cualquier elección de x0 ∈ [a, b].
39
1. Sea f (a) < 0, f (b) > 0, f 00 (x) ≤ 0, se va a demostrar la convergencia de la sucesión al aplicar el método de Newton
para cualquier valor inicial.
2. El caso f (a) < 0, f (b) > 0, f 00 (x) ≥ 0 se reduce al anterior utilizando la función auxiliar h (x) = −f (−x) en
[−b, −a] y su raíz será −α.
h (yn )
La sucesión yn+1 = yn − convergerá a −α
h0 (yn )
La sucesión xn = −yn convergerá a α
h (yn ) − f (−xn ) f (xn )
xn+1 = −yn+1 = −yn + = −yn + 0 = xn − 0 que es la sucesión generada por el método
h0 (yn ) f (−xn ) f (xn )
de Newton en [a, b].
3. Los casos f (a) > 0, f (b) < 0 con , f 00 (x) ≥ 0 ó , f 00 (x) ≤ 0 se reducen a los anteriores estudiando −f (x) = 0.
a ≤ x0 ≤ α
(T aylor) 2
• 0 = f (α) = f (xn + (α − xn )) = f (xn ) + f 0 (xn ) (α − xn ) + 21 f 00 (ξ) (α − xn ) , α < ξ < xn
00
2 f (x)≤0 f (xn )
• f (xn ) + f 0 (xn ) (α − xn ) = − 21 f 00 (ξ) (α − xn ) =⇒ f (xn ) + f 0 (xn ) (α − xn ) > 0 → xn − =
f 0 (xn )
xn+1 < α
f (x0 ) f (x1 )<0
• xn+1 = xn − =⇒ ⇒ xn+1 > xn
f 0 (x0 )
• {xn } sucesión monótona creciente, acotada superiormente por α, luego tiene límite β
!
f (xn ) f (β)
• lı́m xn+1 = β = lı́m xn − 0 =β− 0 ⇒ f (β) = 0 ⇒ β = α
n→∞ n→∞ f (xn ) f (β)
α ≤ x0 ≤ b. Se demuestra que a ≤ x1 ≤ α
f 0 (x) dec.
f (x) > 0 f (x0 )
• f (x0 ) = f (α) + f 0 (ξ) (x0 − α) =⇒ f (x0 ) ≥ f 0 (x0 ) (x0 − α) → x1 = x0 − 0 ≤α
f (x0 )
f 0 (x) dec.
f (x) > 0
• f (x0 ) = f (b) + f 0 (ξ) (x0 − b) =⇒ f (x0 ) ≤ f (b) + f 0 (b) (x0 − b)
f (x0 ) ≤ f (b) + f (b) (x0 − b) .
0
m
(x − α) h (x) (x − α) h (x)
ψ (x) = = ⇒ ψ (α) = 0.
m (x − α)
m−1
h (x) + (x − α)
m
h0 (x) mh (x) + (x − α) h0 (x)
(h (x) + (x − α) h0 (x)) (mh (x) + (x − α) h0 (x)) − (x − α) h (x) ((m + 1) h0 (x) + (x − α) h00 (x))
ψ 0 (x) = 2
(mh (x) + (x − α) h0 (x))
h (α) (mh (α)) 1
ψ 0 (α) = 2 =
(mh (α)) m
40
7.3.5. Secante
Método de la Secante
Demostración (volver 2 en la página 27).
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces
√ existe un entorno (α − δ, α + δ)
donde el método de la secante es convergente y su orden de convergencia es 12 1 + 5 ' 1.62.
xn − xn−1
xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
f (xn ) − f (α) f 0 (ξ1 ) (xn − α) ξ1 ∈ (α, xn )
(xn+1 − α) = (xn − α)− (xn − xn−1 ) = (xn − α)− 0 (xn − xn−1 ) ,
f (xn ) − f (xn−1 ) f (ξ2 ) (xn − xn−1 ) ξ2 ∈ (xn , xn−1 ) ⊂ (α,
!
f 0 (ξ1 ) f 0 (ξ2 ) − f 0 (ξ1 ) f 00 (ξ3 )
(xn+1 − α) = (xn − α) 1 − 0 = (xn − α) = (x n − α) (ξ2 − ξ 1 )
f (ξ2 ) f 0 (ξ2 ) f 0 (ξ2 )
máx f 00 (x)
f (ξ3 )
00 x∈(α,xn−1 )
|xn+1 − α| = (xn − α) (ξ2 − ξ1 ) 0 ≤ |xn − α| |xn−1 − α| M donde M =
f (ξ2 ) mı́n f (x)
x∈(α,x
0
) n−1
7.4. Polinomios
Polinomios de segundo y tercer grado
Demostración (volver 2 en la página 27).
Ecuación: f (x) = ax2 + bx + c = 0
√
−b ± b2 − 4ac
• Raíces: x1,2 =
2a
Ecuación: f (x) = x3 + ax2 + bx + c = 0
Procedimiento:
1. Cambio de variable: y = x + → f (y) = y 3 + 3py + 2q
a
3
q √
2. Cálculo: d = p3 + q 2 y u, v = −q ± d
3
√
u+v 3
3. Raíces: y1 = u + v , y2,3 = − ± (u − v) · i
2 2
4. Se deshace el cambio de variable: x1,2,3 = y1,2,3 − a3
Casos:
• d < 0: tres raíces reales simples (y1,2,3 ).
−q
Se obtiene una expresión más simple tomando ϕ = arc cos p
−p3
√ ϕ + kπ · i
y2,1,3 = 2 −p cos , k = −1, 0, 1
3
• d = 0: una raíz real simple (y1 ) y otra doble (y2,3 ).
• d > 0: una raíz real simple (y1 ) y dos complejas conjugadas (y2,3 ).
41
Polinomios de cuarto grado
√
p22 (y) = y 2 − 2z1 − py + z1 + z12 − r → y3,4
p
8. Software
8.1. Matlab/Octave
Matlab/Octave
B fzero Find a zero point of a univariate function. Using interval method with
options defined by optimset (f.e. "FunValCheck", "OutputFcn", "TolX",
"MaxIter", "MaxFunEvals".)
B optimset Define options for fzero, fsolve, . . .
M solve Symbolic solution of algebraic equation
B roots Find all zeros of polynomial equations
B polyval Evaluate a polynomial
O company Compute the companion matrix corresponding to polynomial coefficient
vector
B conv Convolve two vectors.
B deconv Deconvolve two vectors
B conv2 Returns 2D convolution
B convn Returns nD convolution
B polyval Evaluate a polynomial
O polygcd Find greatest common divisor of two polynomials
B polyvalm Evaluate a polynomial in the matrix sense
B residue Compute the partial fraction expansion for the quotient of the polynomials
8.2. Python
Python
Los módulos para resolver analíticamente ecuaciones no lineales de una variable se encuentran en el paquete «sympy».
• solve(ecu,vars,opcion)
Resuelve analíticamente, si es posible, una ecuación, inecuación o sistema «ecu» dependiente de las variables
«vars» con las opciones dadas en «opcion»; esta última viene dada como diccionario, nombre=valor.
Los módulos para resolver ecuaciones no lineales de una variable se encuentran en el paquete «scipy.optimize».
• Métodos de intervalo:
◦ bisect(f, a, b[, args, xtol, rtol, maxiter,...])
◦ brentq(f, a, b[, args, xtol, rtol, maxiter, ...])
◦ brenth(f, a, b[, args, xtol, rtol, maxiter, ...])
◦ ridder(f, a, b[, args, xtol, rtol, maxiter, ...])
• Métodos de iteración funcional
42
◦ fixed_point(func, x0[, args, xtol, maxiter])
Emplea el método de Steffensen utilizando la aceleración de convergencia de Aitken (ver Burden, Faires,
“Numerical Analysis”, 5th edition, pg. 80).
«args» son argumentos opcionales de la función.
Si «x0» es un vector, busca un punto fijo partiendo de cada valor.
◦ newton(func, x0[, fprime, args, tol, maxiter, fprime2])
cuando fprime=fprime2=None, emplea el método de la secante con convergencia superlineal.
cuando fprime2=None, emplea el método de Newton-Raphson con convergencia cuadrática.
sino emplea el método de Halley con convergencia cúbica.
Los módulos para trabajar con polinomios de una variable se encuentran en el paquete «numpy».
• roots(p) : Obtiene las raíces de un polinomio cuyos coeficientes vienen dados en el vector p como p0 xn +p1 xn−1 +
· · · + pn−1 x + pn .
• poly(r) : Calcula los coeficientes del polinomio que tiene por raíces los elementos de r.
• polyval(p,a): Evalúa el polinomio de coeficientes p en los puntos a.
• poly1d(p_r,d): Clase para polinomios, que pueden darse mediante sus coeficientes (d=[False]) o sus raíces
(d=True). Esta clase se puede evaluar como función, calcular sus raíces (.r), sus coeficientes (.c), etc. Pueden
sumarse, multiplicarse, dividirse dando cocientes y resto, etc.
Hay módulos adicionales para el manejo de polinomios como clases en «numpy.polynomial» tratando algunas familias
específicas
• General 1, x, x2 , x3 , · · ·
• Hermite (estadística)
43