Está en la página 1de 43

Ecuaciones no lineales

Apuntes de Teoría

César Menéndez Fernández


9 de mayo de 2021

Contenidos de la presentación

Índice
1. Introducción 2
1.1. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2. M.Intervalo 6
2.1. Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. RFalsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. RFModif. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4. Müller* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5. Brent* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3. M.PuntoF 17
3.1. Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3. Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.1. Variantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4. Otros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4. Polinómicas 31

5. Resumen 31

6. Bibliografía 31

7. Demostraciones 32
7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2. Intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2.1. Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.2.2. Regula Falsi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.3. Iter. Func. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3.1. P.Fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3.2. Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.3.3. Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.3.4. Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.3.5. Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
7.4. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

8. Software 42
8.1. Matlab/Octave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.2. Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

1
1. Introducción
Introducción (1)

La resolución de ecuaciones es uno de los problemas que con más frecuencia aparece en los distintos campos de la
Ciencia y la Ingeniería.
Este problema ya fue estudiado en el año 100 A.C. por Herón, que empleaba un método iterativo para aproximar la
raíz cuadrada de un número positivo.
No existen métodos generales de resolución analítica de ecuaciones salvo en casos sencillos o para algunas ecuaciones
de tipo polinómico (hasta grado cuatro o reductibles).
Niel Henrik Abel y Evariste Galois demostraron que no hay una fórmula general que permita obtener las raíces de
polinomios de grado superior a cuatro (Tma de Abel-Ruffini).

Es necesario desarrollar métodos numéricos para calcular, al menos de forma aproximada, las soluciones de estos
problemas.

Introducción (3)

Determinar la profundidad a que flota una boya esferica maciza de radio r y densidad ρ.

Planteamiento: Principio de Arquímedes.


«Un cuerpo total o parcialmente sumergido en un fluido en reposo, experimenta un empuje vertical y hacia arriba
igual al peso de la masa del volumen del fluido que desaloja».
Peso P de la esfera:

P = 43 πr3 ρm

Empuje E de un segmento esférico hundido en el agua una profundidad h:

E= π
3rh2 − h3 ρa

3

Ecuación de equilibrio : P = E → 43 πr3 ρm = π3 3rh2 − h3 ρa




• f (x) = 34 πρm − π3 3x2 − x3 ρa = 0 donde x = hr .




Procedimiento (se toma ρm = 0.6, ρa = 1)


• Existencia y unicidad de solución.
◦ Tma fundamental del Álgebra: todo polinomio de grado n de una variable tiene exactamente n raíces reales
o complejas, contando sus multiplicidades.
• Cálculo de la solución (Ec. algebracicas):
◦ Obtención analítica o numérica (2.661, -0.795, 1.134 )
• Análisis de la solución.
◦ Coherencia

2
Introducción (4)

Conocer las dos familias de métodos fundamentales (intervalo e iteración funcional) así como sus ventajas e incon-
venientes.
Comprender e interpretar gráficamente los métodos, para así intuir su aplicabilidad y convergencia..
Entender el concepto de velocidad de convergencia y su importancia en la eficiencia de un método.
Saber los problemas que presentan las raíces múltiples.
Analizar el caso particular de las ecuaciones polinómicas.

Definiciones

Una función f (x) es una aplicación de un conjunto inicial A en otro conjunto final B tal que a cada elemento del
conjunto inicial le hace corresponder un elemento del conjunto final.

f : A → B
x∈A → y = f (x) ∈ B

Resolver la ecuación f (x) = 0 consiste en hallar los elementos r ∈ A, denominados raíces de la ecuación, que
convierten la ecuación en una identidad f (r) ≡ 0.
Una raíz r del la ecuación f (x) = 0 se dice que tiene multiplicidad de orden m cuando f (k) (r) = 0, k = 0, 1, . . . , m−1
y f (m) (r) 6= 0.
• Dependiendo del valor de m se habla de raíces simples (m = 1), dobles (m = 2) y así sucesivamente.
• Ejemplo 1:
f (x) = x3 − 2x2 + x con raíces r1 = 0 y r2 = 1
◦ f 0 (x) = 3x2 − 4x + 1, como f 0 (0) = 1 y f 0 (1) = 0, r1 es una raiz simple.
◦ f 00 (x) = 6x − 4, como f 0 (1) = 2, r2 es una raiz doble.
• Ejemplo 2: Dada la ecuación f (x) = sin x − x + 61 x3 determinar la multiplicidad de r = 0.

Teoremas

Teorema 1.1 (Bolzano)1


Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos, entonces
existe un punto c interior del intervalo en que la función se anula.
f (x) ∈ C ([a, b]) : f (a) · f (b) < 0 ⇒ ∃c ∈ (a, b) : f (c) ≡ 0

Teorema 1.2 (demo ?? en la página ??)


Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b) tal que su derivada no se anula, entonces existe un único punto interior del intervalo en
que la función se anula.
f (x) ∈ C ([a, b]) : f (a) · f (b) < 0 ∧ f 0 (x) 6= 0 ∀x ∈ (a, b) ⇒ ∃!c ∈ (a, b) : f (c) ≡ 0
1 Apostol,Tom M «Calculus,2ªEd» Reverté (1979) pg.175

3
Teorema 1.3 (demo ?? en la página ??)
Sea f (x) una función continua en un intervalo cerrado [a, b] y derivable en el intervalo abierto (a, b), entonces entre
dos raíces consecutivas de la ecuación f 0 (x) = 0 existe a lo sumo una raíz de f (x) = 0.

1.1. Sucesiones
Aproximación de la raíz (1)

Los métodos numéricos de cálculo de raíces son iterativos, generan una sucesión {xk }k=0 que converge a la raíz r.

• Una sucesión de números reales se dice que converga a r y se escribe como lı́m xk = r, ó {xk } → r si
k→∞
∀ε > 0, ∃N ≥ 0 : n > N ⇒ |xn − r| < ε.

1. Condiciones de convergencia: ¿Se debe exigir alguna condición a f (x)?


2. Velocidad de convergencia: ¿si hay varios métodos, cual «llega primero» a la raíz?
3. Test de parada: puesto que la raíz es el límite, ¿cuantos términos debo calcular para estar lo bastante «cerca»?

Definición

Una sucesión {sn }n=0 que converge a un valor α se dice que lo hace con orden de convergencia p y constante
asintótica L 6= 0 cuando

|α − sn+1 | en+1
lı́m p = lı́m p =L
n→∞ |α − sn | n→∞ en

• Se dice que la velocidad de convergencia o simplemente la convergencia es


◦ lineal cuando p = 1.
◦ superlineal cuando 1 < p < 2.
◦ cuadrática cuando p = 2.
◦ cúbica cuando p = 3.

Estimación del orden de convergencia

4
• Consideremos n  1, de forma que
|α−sn+1 | |α−sn+2 |
|α−sn |p ≈ L ≈ |α−sn+1 |p

• Igualando y despejando
|α−sn+1 |p |α−sn+2 | ln(en+2/en+1 )
|α−sn |p ≈ |α−sn+1 | →p≈ ln(en+1/en )

• Dado que α es desconocida, se suelen generar una sucesión cuyo límite sería p utilizando alguna de las siguientes
relaciones
xN −xn+2 xn+3 −xn+2
 
ln ln
p̃n ≈
xN −xn+1
xN −xn+1
 ó p̂n ≈ xn+3 −xn+1
xn+3 −xn+1

ln xN −xn ln xn+3 −xn

siendo xN la aproximación de α.
Importancia de la velocidad de convergencia.
• Supongamos n  1, de forma que en+1 ≈ L · epn .
y sean en = 1 y L = 21 .
• Evolución de las iteraciones
velocidad en+1 en+2 en+3 en+4
lineal 1/2 1/22 1/23 1/24 = 0.125

cuadrática 1/2 1/2 3 1/27 1/215 ' 3.05 · 10−5

cúbica 1/2 1/2 4 1/213 1/240 ' 9.19 · 10−13

Dadas las sucesiones:


xn = 1 + 21n → 1 yn = 1 + 1
5n →1
Cálculo del orden de convergencia:
1 pn
|α−xn+1 |
1. lı́m = lı́m = lı́m 22n+1 = lı́m 2n(p−1)−1
2n+1
n→∞ (
)
p p
n→∞ |α−xn |
1
n→∞
2n n→∞
2. Para que el límite sea finito debe ser independiente de n, lo que exige
p = 1 y lı́m |α−x n+1 |
|α−x |1
= 21 = L
n→∞ n

3. {xn } , {yn } → 1 con convergencia lineal y constante asintótica 1


2 y 1
5 respectivamente.
Comparación de ambas sucesiones:
|α−yn | n
1. lı́m |α−xn|
= lı́m 25 = 0
n→∞ n→∞
2. Converge más rápido la de menor valor de L

Aproximación de la raíz (2)


Dada una sucesión de valores {xn } con límite r, esto es, {xn } → r ¿cuándo xn esta «suficientemente próximo»?
• Error absoluto: |r − xn | < ε, pero r es desconocido
◦ ¿Se puede acotar? Habitualmente sí, aunque no siempre es sencillo.
◦ ¿Se puede sustituir por |xn+1 − xn | < ε?
n
X 1
No siempre:|xn+1 − xn | → 0 pero xn = → ∞.
k
k=0
• Error relativo: r−x

r
n

◦ Mismos problemas que el error absoluto, y añade dificultad cuando r = 0.
• Valor absoluto de la función: |f (xn )| < ε
◦ Exige la selección correcta de f (x) , ya que f (x), 103 f (x), y 0.01f (x) tienen las mismas raices.
La selección del test de parada condiciona el número de términos:
10
• Dada la sucesión xn = 1 + n1 que tiende a la raíz de f (x) = (x − 1) , se exige que ε ≤ 0.001
• Error absoluto: |r − xn | < ε → n ≥ 1000
• Valor absoluto de la función: |f (xn )| < ε → n ≥ 2
No hay una elección óptima del test de parada.
Se suelen combinar varios criterios.

5
2. M.Intervalo
Métodos de intervalo

Condiciones: f (x) verifica las condiciones del teorema de Bolzano en un intervalo [a, b]
Proceso: disminuir en cada iteración el tamaño del intervalo en que se busca la raíz, hasta que se cumpla el criterio
de parada.
Algoritmo: (repetir un máximo de n veces)
• Elegir un valor xn ∈ (an , bn )
• Si |f (xn )| < ε1 , finalizar
• Obtener el nuevo intervalo [an+1 , bn+1 ] seleccionando aquel [a, xn ] ó [xn , b] que verifique Bolzano
• Si |bn+1 − an+1 | < ε2 , finalizar

Se generan dos sucesiones {an } y {bn } monótonas y acotadas y, por tanto, convergentes (Tma de Bolzano - Weiers-
trass).
Acotación: Puesto que

|b − a| = |b0 − a0 | > |b1 − a1 | > · · · > |bn − an |

se tiene que |r − xn | < |bn − an |


Convergencia: ¡siempre! r = lı́m xn
n→∞

Los métodos se diferencian en el modo de elegir xn .


Se toma como ejemplo de prueba: f (x) = x · ex − 4 en [0, 2] con tolx = 10−6 y tolf = 10−9

Métodos de intervalo

Teorema 2.1 (demo 43 en la página 32)


Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b), r la raíz de la ecuación f (x) = 0 y xn un valor próximo a r , ambos en (a, b); si |f 0 (x)|
tiene una cota inferior no nula m en (a, b) ,entonces

|f (xn )|
|r − xn | ≤
m
Corolario: El valor de |f (xn )| es mejor indicador de la cercanía a la raíz cuanto mayor sea la pendiente.

|f (xn )|
|r − xn | ≤ m <δ

6
2.1. Bisección
Método de bisección o dicotomía (1)

Elección de xn : punto medio del intervalo, xn = 1


2 (an + bn )

Convergencia:Teorema 2.2 (demo 44 en la página 32)


El método de bisección es convergente r = lı́m xn , y el error viene acotado por |r − xn | < 1
2n |b − a|
n→∞

Permite determinar el número de términos para alcanzar un error absoluto dado.


|b−a|
|b−a| ln
|r − xn | < 1
2n |b − a| < ε → n ≥ log2 ε = ε
ln 2

Ventajas: operaciones muy simples (1±, 1÷) y |bn − an | → 0

Inconvenientes: no utiliza información sobre el valor de la función.


Orden de convergencia: «lineal».

Método de bisección: ejemplo

Cálculos

• [a0 , b0 ] = [0, 2] 99K f (a0 ) = −4, f (b0 ) = 10.7 · · ·


• x1 = 12 (a0 + b0 ) = 21 (0 + 2) = 1 99K f (x1 ) = −1.28 · · ·
Por tanto [a1 , b1 ] = [1, 2]

Tabla
n. an f (an ) bn f (bn ) xn f (xn )

1 0 -4 2 10.7781122 1 -1.28171817

2 1 -1.28171817 2 10.7781122 1.5 2.72253361

3 1. -1.28171817 1.5 2.72253361 1.25 0.3629287

4 1. -1.28171817 1.25 0.3629287 1.125 -0.53475604

5 1.125 -0.53475604 1.25 0.3629287 1.1875 -0.1063374

. . . . . . .
. . . . . . .
. . . . . . .

21 1.20216751 -2.654033e-6 1.20216942 1.132173e-5 1.20216846 4.333846e-6

Criterio: tolx = 10 −6

Representación del proceso: convergencia

7
Representación del proceso: iteraciones

Estimación del orden de convergencia: 1.2

2.2. RFalsi
Método de Régula Falsi o falsa posición (1)
Elección de xn : corte de la secante. Considera una aproximación lineal a la función.
y−f (a) y−f (b)
x−a
b−a = f (b)−f (a) ↔ x−b
a−b = f (a)−f (b)

f (a) f (b) 1
→ xn = a − =b− con = b−a
f (b)−f (a)
p p p
Convergencia:Teorema 2.3 (demo 45 en la página 33)
El método de Régula Falsi es convergente r = lı́m xn
n→∞

Acotación:Teorema 2.4 (demo 46 en la página 34)


Sea f (x) verificando el Tma. de Bolzano, con derivada primera continua no nula y segunda de signo constante en
(a, b); sean M y m los valores máximo y mínimo de |f 0 (x)|, el error de Regula Falsi viene acotado por

M −m
|r − xn | ≤ |xn − xn−1 |
m
Ventajas: operaciones simples (3±, 1×, 1÷).
Inconvenientes: no garantiza que |bn − an | → 0 (caso f 00 (x) 6= 0 en [a, b]).
√ 
Orden de convergencia p: 1 ≤ p ≤ 12 1 + 5 ' 1.62 (ver 47 en la página 34)

8
Método de Régula Falsi (2)

Ejemplo 2 :
0 ≤ x ≤ 12

δ
f (x) = 0<δ<1
4 (1 + δ) x − x2 − 1 2 ≤x≤1
1


• Raíz única en 12 , 1


• f (x) , f 0 (x) ∈ C ([0, 1])


• La sucesión de valores se obtiene como
0 (−1) − 1δ 1
x0 = =1−
−1 − δ 1+δ
0 (−1) − 1δ 1
xk = =1− k
, k≥1
−1 − δ (1 + δ)
• El número de iteraciones para que xk ≥ 1
2 viene dado por n ≥ ln 2
ln(1+δ) ' 0.693
δ si δ es pequeño.
• Con δ = 10 −4
, tolX = 10 −4
, tolF = 10 −9
, Régula Falsi requiere 7577 iteraciones y bisección sólo necesita 20.

Representación del proceso: iteraciones δ = 0.05

Método de Régula Falsi (3)

Cálculos

• [a0 , b0 ] = [0, 2] 99K f (a0 ) = −4, f (b0 ) = 10.7


2−0
• x1 = a0 − f (a0 ) f (bb00)−f
−a0
(a0 )
= 0 − (−4) = 0.54 99K f (x1 ) = −3.07
10.7 + 4
Por tanto [a1 , b1 ] = [0.54, 2] y f (a1 ) = −3.07, f (b1 ) = 10.7
2 − 0.54
• x2 = a1 − f (a1 ) f (bb11)−f
−a1
(a1 )
= 0.54 − (−4) = 0.86 99K f (x1 ) = −1.94
10.7 + 3.07
Por tanto [a2 , b2 ] = [0.86, 2] y f (a2 ) = −1.94, f (b2 ) = 10.7

Tabla
n. an f (an ) bn f (bn ) xn f (xn )

1 0 -4 2 10.7781122 0.54134113 -3.06980823

2 0.54134113 -3.06980823 2 10.7781122 0.86469676 -1.94696259

3 0.86469676 -1.94696259 2 10.7781122 1.03840049 -1.06683506

4 1.03840049 -1.06683506 2 10.7781122 1.12500856 -0.5347

5 1.12500856 -0.5347 2 10.7781122 1.16636503 -0.25561597

. . . . . . .
. . . . . . .
. . . . . . .

30 1.20216787 -1.88757543e-09 2 10.7781122 1.20216787 -8.63767724e-10

2 Gregory,R.T. & Young, D.M. «A survey of numerical mathematics, Vol. I» Addison-Wesley, Massachusets (1972). pp.-116

9
Acotación
cota: |r − xn | ≤ M −m
m |xn − xn−1 |
f (x) = x · e − 4,
x
f (x) = (x + 1) ex ,
0
f 00 (x) = (x + 2) ex ≥ 0 ∀x ∈ [0, 2]
M = f 0 (2) ' 22.17, m = f 0 (0) = 1

n. xn xn − xn−1 Cota |r − xn | |bn − an |

1 0.541341 6.608267e-01 2

2 0.864697 3.233556e-01 6.844523 3.374711e-01 1.458659

3 1.038400 1.737037e-01 3.676816 1.637674e-01 1.135303

4 1.125009 8.660807e-02 1.833248 7.715931e-02 0.961599

5 1.166365 4.135646e-02 0.875399 , 3.580285e-02 0.874991

. . . . . .
. . . . . .
. . . . . .

30 1.202168 1.397247e-10 2.957576e-9 <1.5e-10 0.797832

Criterio: tolf = 10 −9

Representación del proceso: convergencia

Representación del proceso: iteraciones

Estimación del orden de convergencia: 1.2648

10
2.3. RFModif.
Método de Régula Falsi modificado (1)

Objetivo: lograr que |bn − an | → 0


El intervalo se debe reducir por ambos lados, aunque la función sea cóncava o convexa.

Justificación:
• Cuando f 00 (x) ≥ 0 ó f 00 (x) ≤ 0, el método de Regula Falsi mantiene fijo uno de los extremos.
• Para modificar ese extremo, se disminuye la pendiente de la secante (reduciendo a la mitad el valor de la
función), acercando a la raíz la intersección con el eje de abscisas.
• Se repite el proceso mientras no cambie el signo de f (xn ).

Algoritmo:

• Asignar f xn ← 0, f a ← f (a), f b ← f (b)


• Repetir mientras no se verifique el criterio de parada
◦ Calcular xn = a − f (a) f (b)−f
b−a
(a) y f x ← f (xn )
◦ Si |f x| < ε1 , finalizar
◦ Si f x · f a > 0 entonces asignar f a ← f x, a ← x
Si f x · f xn > 0 entonces asignar f b ← 12 f b
◦ sino asignar f b ← f x, b ← x
Si f x · f xn > 0 entonces asignar f a ← 12 f a
◦ Asignar f xn ← f x

Método de Régula Falsi Modificado (2)

Ejemplo 3 :
0 ≤ x ≤ 12

δ
f (x) = 0<δ<1
4 (1 + δ) x − x2 − 1 2 ≤x≤1
1


• Si δ = 10−4 , tolX = 10−4 , tolF = 10−9 , bisección: 20 iteraciones, RF: 7577, RFmod: 29.

Representación del proceso: iteraciones δ = 0.05


3 Gregory,R.T. & Young, D.M. «A survey of numerical mathematics, Vol. I» Addison-Wesley, Massachusets (1972). pp.-116

11
Método de Régula Falsi Modificado (3)

Cálculos (comenzando en x3 )

• [a3 , b3 ] = [0.864, 2] 99K f (a3 ) = −1.947, f˜ (b3 ) = 12 f (b3 ) = 5.389


2 − 0.864
• x3 = a3 − f (a3 ) f˜(bb33)−f
−a3
(a3 )
= 0.864 − (−1.947) = 1.166 99K f (x1 ) = −0.258
5.389 + 1.947
• [a4 , b4 ] = [1.16, 2] 99K f (a3 ) = −0.258, f˜ (b4 ) = 12 f˜ (b3 ) = 2.695
2 − 1.16
• x4 = a4 − f (a4 ) f˜(bb44)−f
−a4
(a5 )
= 1.16 − (−0.258) = 1.24 99K f (x1 ) = 0.27
5.389 + 0.258
Por tanto [a5 , b5 ] = [1.16, 1.24]

Tabla
n. an f (an ) bn f (bn ) xn f (xn )

1 0 -4 2 10.7781122 0.54134113 -3.06980823

2 0.54134113 -3.06980823 2 10.7781122 0.86469676 -1.94696259

3 0.86469676 -1.94696259 2 5.38905610 1.16600364 -0.25812861

4 1.16600364 -0.25812861 2 2.69452805 1.23891369 0.27655861

5 1.16600364 -0.25812861 1.23891369 0.27655861 1.20120211 -7.071517e-03

. . . . . . .
. . . . . . .
. . . . . . .

9 1.20216787 -3.285359e-09 1.20219202 1.769676e-04 1.20216787 -5.728751e-14

Criterio: tolf = 10 −9

Representación del proceso: convergencia

Representación del proceso: iteraciones

12
Estimación del orden de convergencia: ¿?

2.4. Müller*
Método de Müller* (1)

Elección de xn : corte con una parábola. Considera una aproximación cuadrática a la función, lo que exige tomar una terna
de puntos.

Procedimiento:
• Utilizar tres puntos (an , mn , bn ) para calcular la parábola.
• Obtener la raíz s de la parábola que esta en el intervalo [an , bn ].
◦ Si s > mn ⇒ f (an ) · f (mn ) > 0 (tienen el mismo signo, raiz r ∈ (mn , bn ))
Nueva terna: (mn , s, bn )
◦ Si s < mn ⇒ f (bn ) · f (mn ) > 0 (tienen el mismo signo, raiz r ∈ (an , mn ))
Nueva terna:(an , s, mn )
Ventajas: rapidez
Inconvenientes:

• no garantiza que |bn − an | → 0 (f 00 (x) 6= 0 en [a, b]).

13

 
• cálculos más complejos 10±, 20×, 3÷, 1 .

Orden de convergencia p: 1 ≤ p ≤ 1.86 (ver 37 en la página 30)

Método de Müller o interpolación cuadrática inversa* (2)

Cálculos a realizar

• Terna: [an , mn , bn ]
Parábola: P2 (x) = α (x − mm )2 + β (x − mn ) + γ
Denotando por δx = xn − mn y δfx = f (xn ) − f (mn )
• Condiciones:
 P2 (an ) = f (an ) → αδa2 + βδa + γ = f (an )

P2 (mn ) = f (mn ) → α = f (mn )


P2 (bn ) = f (bn ) → αδb2 + βδb + γ = f (bn )

4
• Resolviendo por Cramer se tiene que α = 44α , β = 4β , γ = f (mn )
2 2
δa δa δfa δa δa δfa
donde 4 = 2 ,4 = , 4β = 2 ,
δb δb α δfb δb

δb δfb

−β± β 2 −4αγ
• Raíces de la parábola: x = 2α
= √2γ
−β∓ β 2 −4αγ

• Se toma el signo ∓ que coincida con el de −β para asegurar que la raíz s permanece en el intervalo.

1ª Iteración
• Terna: [a0 , m0 , b0 ] = [0, 1, 2] 99K f (a0 ) = −4, f (m0 ) = −1.28, f (b0 ) = 10.79
• δa = −1, δb = 1, 4 = 2, 4α = 9.34, 4β = 14.77
• P2 (x) = 4.67 (x − 1)2 + 7.39 (x − 1) − 1.28 99K s = 1.15, f (s) = −0.32
2ª Iteración
• Terna: [a1 , m1 , b1 ] = [1, 1.15, 2] 99K f (a1 ) = −1.28, f (m1 ) = −0.32, f (b1 ) = 10.79
• δa = −0.16, δb = 0.84, 4 = 0.133, 4α = 0.935, 4β = −0.962
• P2 (x) = 7.04 (x − 1.15)2 + 7.24 (x − 1.15) − 0.32 99K s = 1.20, f (s) = −0.02
Tabla
n. an f (an ) mn f (mn ) bn f (bn ) xn f (xn )

1 0 -4 1 -1.2817 2 10.7781 1.1577 -0.3153

2 1 -1.2817 1.1577 -0.3153 2 10.7781 1.1996 -0.0189

3 1.1577 -0.3153 1.1996 -0.0189 2 10.7781 1.2021 -0.0003

4 1.1996 -0.0189 1.2021 -0.0003 2 10.7781 1.2022 -2.3e-7

5 1.2021 -0.0003 1.2022 -2.3e-7 2 10.7781 1.2022 -2.8e-12

Criterio: tolf = 10−9


Representación del proceso: convergencia

14
Representación del proceso: iteraciones

Estimación del orden de convergencia: 1.66

15
2.5. Brent*
Método de Brent*

Es el método que suelen traer todos los paquetes de resolución de ecuaciones no lineales.

Es una combinación de los métodos de bisección, regula falsi y Müller.

Dependiendo de ciertas condiciones, se selecciona entre el valor dado por los métodos anteriores, de forma que la longitud de
intervalo tienda a cero.

Se debe a Richard Brent (1973) y se basa en un algoritmo anterior de Theodorus Dekker (1969), por lo que a veces se denomina
de Brent-Dekker.

Con el ejemplo usado: .f (x) = x · ex − 4 en [0, 2] con tolx = 10−6 y tolf = 10−9 , converge tras 8 iteraciones.

Si bien depende de las características del ordenador, el lenguaje de programación, etc. a efectos de comparación, resolver el
ejemplo anterior ha llevado menos de 1 milésima en el caso de bisección y regula falsi, casi 2.5 milésimas a Müller y no se ha
llegado a contabilizar en Regula Falsi Modificada y Brent.

2.6. Ejemplo
Métodos de intervalo

La función g (x) = x sin x aparece en el estudio de vibraciones forzadas no amortiguadas. Hallar mediante los métodos de
intervalo anteriores el valor de x ∈ [0, 2] en que g (x) = 1, con un error de la raiz y de la función inferiores a 10−6 y 10−9
respectivamente.

Representación

Bisección: 21 iteraciones, 2.16 · 10−4 s


n. an f (an ) bn f (bn ) xn f (xn )

1 0 -1 2 0.82 1 -0.1585

2 1 -0.1585 2 0.82 1.5 0.4962

3 1 -0.1585 1.5 0.4962 1.25 0.1862

4 1 -0.1585 1.25 0.1862 1.125 0.0151

5 1 -0.1585 1.125 0.0151 1.0625 -0.0718

. . . . . . .
. . . . . . .
. . . . . . .

21 1.1142 -5.803e-7 1.1142 2.0686e-6 1.1142 4.333846e-6

criterio: tolX
Regula Falsi: 5 iteraciones, 7.43 · 10−5 s
n. an f (an ) bn f (bn ) xn f (xn )

1 0 -1 2 0.82 1.0998 -2.0019e-2

2 1.0998 -2.0019e-2 2 0.82 1.1212 9.8346e-3

3 1.0998 -2.0019e-2 1.1212 9.8346e-3 1.1141 5.6304e-6

4 1.0998 -2.0019e-2 1.1141 5.6304e-6 1.1141 3.0023e-9

5 1.0998 -2.0019e-2 1.1141 3.0023e-9 1.1141 1.6009e-12

criterio: tolF

16
Regula Falsi modificada: 5 iteraciones, 7.73 · 10−5 s
n. an f (an ) bn f (bn ) xn f (xn )

1 0 -1 2 0.82 1.0998 -2.0019e-2

2 1.0998 -2.0019e-2 2 0.82 1.1212 9.8346e-3

3 1.0998 -2.0019e-2 1.1212 9.8346e-3 1.1141 5.6304e-6

4 1.0998 -1.001e-2 1.1141 5.6304e-6 1.1141 -5.6212e-6

5 1.1141 -5.6212e-6 1.1141 5.6304e-6 1.1141 9.6900e-13

criterio: tolX, tolF


Müller: 4 iteraciones, 1.17 · 10−3 s
n. an f (an ) mn f (mn ) bn f (bn ) xn f (xn )

1 0 -1 1 -0.1585 2 0.82 1.1721 8.0e-2

2 1 -0.1585 1.1721 8.0e-2 2 0.82 1.1119 -3.1e-3

3 1 -0.1585 1.1119 -3.1e-3 1.1721 8.0e-2 1.1142 7.9e-6

4 1.1119 -3.1e-3 1.1142 7.9e-6 1.1721 8.0e-2 1.1142 -4.0e-10

criterio: tolF
Brent: 4 iteraciones, 1.93 · 10−5 s
Tiempo de ejecución relativo
Bisección Régula Falsi RF modificada Müller Brent
10 4 4 50 1

3. M.PuntoF
Métodos de punto fijo

Definición:
Sea g (x) una función continua en [a, b], se denomina punto fijo de g (x) al valor c ∈ [a, b] tal que g (c) = c.
Justificación: Se transforma la ecuación f (x) = 0 en g (x) = x, de forma que obtener las raíces de f (x) «equivale»
a calcular los puntos fijos de g (x).

• Problema: Existen infinitas transformaciones


g(x)
zp }| {
f (x) = 0 ∼ f (x) + x = x ∼ f (x) + x = x
n n n n

¿Todas las raíces de f (x) son puntos fijos de g (x)?


Depende de la transformación, pero no siempre lo son.
• Ejemplo: f (x) = (x + 1) (x − 2) = x2 − x − 2 = 0

 x 99K g1 (x) = √x + 2 xpf = 2
 2

x2 99K g2 (x) = − x + 2 xpf = −1


x 99K g3 (x) = x2 − 2 xpf = 2, −1

¿Todos los puntos fijos de g (x) son raíces de f (x) ?


También depende de la transformación, pero no siempre lo son.
 q
 g1 (x) = 1 (x4 − x3 ) xpf = 2, 0
2
• x2 x2 − x − 2 = 0 →

q
 g2 (x) = − 1 (x4 − x3 ) xpf = −1, 0
2

17
Contractividad

Definición: Lipschitziana
Una función g : M → N entre espacios métricos (M, dM ), (N, dN ) se dice que es lipschitziana en M (o se dice que sa-
tisface una condición de Lipschitz) si existe una constante L > 0 tal que dN (f (x1 ) , f (x2 )) ≤ L·dM (x1 , x2 ) ∀x1 , x2 ∈
M.
• Si M y N son espacios euclídeos: kf (x1 ) − f (x2 )k ≤ L kx1 − x2 k ∀x1 , x2 ∈ M
• Si M = N = R: |f (x1 ) − f (x2 )| ≤ L |x1 − x2 | ∀x1 , x2 ∈ R
• Se puede generalizar a un intervalo I: |f (x1 ) − f (x2 )| ≤ L |x1 − x2 | ∀x1 , x2 ∈ I

Definición
Una función lipschitziana con L < 1 se denomina contractiva.
Notas:
• Una función contractiva es continua
◦ g (x) es continua en α cuando ∀ε > 0 ∃δ (ε) : |x − α| < δ ⇒ |g (x) − g (α)| < ε
◦ Tomando δ = ε y aplicando la contractividad |g (x) − g (α)| ≤ L |x − α| = Lε < ε
• Que una función sea contractiva no significa que sea derivable
◦ Contraejemplo: g (x) = x4 es contractiva
 x1 enx2[−1,
1] pero no es derivable en 0.

x1 · x2 ≥ 0

|f (x1 ) − f (x2 )| = 41 − 42 =
x x
x4 4
1 + x2 ≤ x1 − x2 x1 · x2 < 0
≤ 41 |x1 − x2 |
4 4 4 4
• Una función continua no necesariamente es contractiva
◦ Contraejemplo: g (x) = 3x en [−1, 1] .
|f (x1 ) − f (x2 )| = |3x1 − 3x2 | = 3 |x1 − x2 |
Teorema 3.1 (demo 48 en la página 35)
Sea g (x) ∈ C 1 ([a, b]), entonces las siguientes proposiciones son equivalentes:
• g (x) es contractiva en [a, b]
• |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b]

Teoremas

Teorema 3.2 (demo 48 en la página 35)


1. Sea g (x) ∈ C ([a, b]) , tal que g (a) ≥ a y g (b) ≤ b entonces g (x) tiene al menos un punto fijo en [a, b].
2. Si además g (x) es contractiva entonces el punto fijo es único.

Nota: Las condiciones anteriores son suficientes, pero no necesarias.


Sea g (x) ∈ C ([a, b]) , tal que g (a) ≤ a y g (b) ≥ b entonces g (x) tiene al menos un punto fijo en [a, b].
Si además existe g 0 (x) ∈ C ((a, b)) y un valor positivo k > 1 tal que ∀x ∈ (a, b) : |g 0 (x)| ≥ k, entonces el punto fijo
es único.

18

Procedimiento: partiendo de x0 generar la sucesión {xn+1 = g (xn )}n=0 cuyo límite sea el punto fijo de g (x).
Teorema 3.3 (Tma de Punto fijo)
1. Sea g (x) ∈ C ([a, b]) , si ∀x ∈ [a, b] : g (x) ∈ [a, b], esto es, la imagen de cualquier punto del intervalo también
está en el intervalo, entonces g (x) tiene al menos un punto fijo en [a, b].
2. Si además existe g (x) es contractiva de constante k < 1, entonces el punto fijo es único.
Interpretación geométrica (verifica)

Interpretación geométrica (no verifica)

Teorema 3.4 (demo 50 en la página 35)



Bajo las condiciones del teorema anterior, la sucesión {xn }n=0 generada mediante la relación xn+1 = g (xn ) converge
para cualquier valor inicial x0 ∈ [a, b] al único punto fijo α de g (x) en [a, b] y se verifican las siguientes acotaciones:

kn
|α − xn | ≤ k n |α − x0 | |α − xn | ≤ |x1 − x0 |
1−k
Teorema de convergencia local (demo 50 en la página 35)

1. Si g (x) es contractiva en un entorno [α − δ, α + δ] del punto fijo α, el método de punto fijo converge en ese
entorno.

Método de punto fijo: ejemplo


f (x) = xex − 4 = 0, obtención de las funciones de punto fijo:
xex − 4 = 0 → x = 4e−x = g1 (x)
• Condiciones (análisis gráfico)

19
• Estudio analítico: se calculan los máximos y mínimos de la función en el intervalo dado y se comprueba si están
dentro de los límites.
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
g1 (x) = 4e−x → g10 (x) = −4e−x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g1 (1) = 4e−1 ' 1.4715 ∈ [1, 2]
g1 (2) = 4e−2 ' 0.5413 ∈ / [1, 2]
No verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
g10 (x) = −4e−x → g100 (x) = 4e−x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g10 (1) = −4e−1 ' −1.4715 ∈ / (−1, 1)
g10 (2) = −4e−2 ' −0.5413 ∈ (−1, 1)
No verifica la segunda condición

xex − 4 = 0 → x = ln 4x−1 = g2 (x)

• Condiciones (análisis gráfico)

• Estudio analítico:
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
g2 (x) = ln 4x−1 → g20 (x) = − x1 = 0 no existe solución real, luego los máximos y mínimos se alcanzan en
los extremos.
g2 (1) = ln 41 ' 1.3863 ∈ [1, 2]
g2 (2) = ln 42 ' 0.6931 ∈ / [1, 2]
No verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
g20 (x) = − x1 → g200 (x) = x12 = 0 no existe solución real, luego los máximos y mínimos se alcanzan en los
extremos.
g20 (1) = −1 ∈/ (−1, 1)

20
g20 (2) = − 12 = 0.5 ∈ (−1, 1)
No verifica la segunda condición

x2 ex − 4x = 0 → x = 2 xe−x = g3 (x)

• Condiciones (análisis gráfico)

Estudio analítico:
1. Mapeo: ∀x ∈ [a, b] : g (x) ∈ [a, b]
√ 1−x
g3 (x) = 2 xe−x → g30 (x) = √ x = 0 no existe solución real, luego los máximos y mínimos se alcanzan en los
xe
extremos.

g3 (1) = 2 1e−1 ' 1.2113 ∈ [1, 2]

g3 (2) = 2 2e−2 ' 1.0405 ∈ [1, 2]
Verifica la primera condición
2. Contractividad: ∀x ∈ [a, b] : |g 0 (x)| ≤ k < 1
1−x 1 + 2x − x2 √
g30 (x) = √ x → g300 (x) = √ =0→x=1±2 2∈
/ [1, 2]. No existen extremos relativos en [1, 2].
xe 2x xe x

1−1
g30 (1) = √ = 0 ∈ (−1, 1)
1e1
1−2
g30 (2) = √ ' −0.2601 ∈ (−1, 1)
2e2
Verifica la segunda condición

Iteraciones

x0 x1 x2 x3 x4 x5 x6
1.0 1.213061 1.201043 1.202281 1.202156 1.202169 1.202168
1.5 1.157057 1.206301 1.201747 1.202210 1.202164 1.202168
2.0 1.040520 1.212577 1.201094 1.202276 1.202157 1.202169

21
Métodos iterativos: velocidad
Sea g (x) que verifica las condiciones del teorema de punto fijo (ver 26 en la página 18)
Aplicando el desarrollo de Taylor en el punto fijo α, se tiene
k
X 1 i k+1
g (xn ) = g (α) + (xn − α) g (i) (α) + 1
(k+1)! (xn − α) g (k+1) (ξ) , ξ ∈ (xn , α)
i=1
i!

Despejando
k
X 1 i k+1
xn+1 − α = (xn − α) g (i) (α) + 1
(k+1)! (xn − α) g (k+1) (ξ) , ξ ∈ (xn , α)
i=1
i!

1. Si g 0 (α)
6= 0 ⇒ convergencia lineal (orden 1)
n+1 − α
x
lı́m = lı́m |g 0 (α) + (xn − α) g 00 (α) + · · · | = |g 0 (α)|
n→∞ xn − α n→∞

2. Si g 0 (α)
= 0, g (α) 6= 0 ⇒ convergencia cuadrática (orden 2)
00

n+1 − α
x
lı́m = lı́m 2! g (α) + 3! (xn − α) g 000 (α) + · · · = 21 g 00 (α)
1 00 1

n→∞ (x − α) 2 n→∞
n

3. Si g 0 (α)
= g (α)
00
= ··· = g
(k−1)
(α) = 0, g (k) (α) 6= 0 ⇒ convergencia de orden k
n+1 − α
x
lı́m = lı́m k! g (α) + (k+1)! (xn − α) g (k+1) + · · · = k! g (α)
1 (k) 1 1 (k)

n→∞ (x − α) k n→∞
n

3.1. Aitken
Método de Aitken
Genera, a partir de una sucesión {xn } → α con convergencia lineal , otra sucesión {yn } mediante la relación
2
(∆xn )
yn = xn − donde ∆xn = xn+1 − xn y ∆2 xn = ∆xn+1 − ∆xn (demo 52 en la página 36)
∆2 x n
Teorema 3.3 (demo 53 en la página 36)
α − yn
{yn } también converge a α y lo hace más rápido que {xn }, es decir, lı́m =0
n→∞ α − xn

Tiene el inconveniente que necesita almacenar dos sucesiones.


k = 3, 6, · · · , 3n

yk−3
Para almacenar solo una se genera la sucesión, xk = , esto es,
g (xk−1 ) resto
z0 , z1 = g (z0 ) , z2 = g (z1 ) , z3 = y0 , z4 = g (z3 ) , z5 = g (z4 ) z6 = y3 , · · ·

Método de Aitken: ejemplo √


Función de punto fijo : x = 2 xe−x = g3 (x):
Iteraciones (representación)

22
Iteraciones (representación)
x0 y0 y1 y2 y3 y4
1.0 1.20168448 1.20216562 1.20216785 1.20216787 1.20216787
1.5 1.20011769 1.20213216 1.20216755 1.20216787 1.20216787
2.0 1.18641442 1.2018122 1.20216582 1.20216785 1.20216787
x0 z1 z2 z3 z4 z5
1.0 1.213061 1.201043 1.201684 1.202217 1.202163
1.5 1.157057 1.206301 1.200117 1.202374 1.202147
2.0 1.040520 1.212577 1.186414 1.203709 1.202012

3.2. Steffensen
Método de Steffensen

Define una nueva función de punto fijo a partir del método de Aitken, considerando que xn+1 = g (xn ):
2
(g (x) − x)
g (x) = x → gs (x) = x −
g (g (x)) − 2g (x) + x
• ¿Esta la sucesión bien definida?
◦ Sí, definiendo gs (α) = α (demo 53 en la página 36)
• ¿Converge al punto fijo de g (x)?
◦ Todos los puntos fijos de gs (x) lo son también de g (x). (demo 53 en la página 36)
• Si converge, ¿cuál es su orden?

Tma. de convergencia local: (demo 56 en la página 37)


Sea g (x) ∈ C p ([a, b]) tal que g (α) = α con α ∈ [a, b] y además g 0 (α) = g 00 (α) = . . . = g (p−1) (α) = 0 y g (p) (α) 6= 0,
entonces existe un entorno (α − δ, α + δ) donde el método de Steffensen es convergente y su orden es
• al menos 2p − 1 si p > 1
• al menos 2 si p = 1 y g 0 (α) 6= 1 (raiz simple)
• al menos 1 con constante asintótica 1 − 1
m si p = 1 y g 0 (α) = 1, g 00 (α) = . . . = g (m−1) (α) = 0 y g (m) (α) 6= 0
(raiz de multiplicidad m)

Tma. de convergencia global: (demo 57 en la página 38)


Sea g : I = (a, ∞) → R tal que g (α) = α con α ∈ I, si
• g (x) ∈ C 2 (I)
• g (x) > a, ∀x ∈ I
• g (x) < 0,
0
∀x ∈ I
• g (x) > 0,
00
∀x ∈ I
entonces el algoritmo de Steffensen converge a α para cualquier elección de x0 ∈ I.
Existe una forma alternativa de generarla, a partir de la ecuación f (x) = 0 mediante (ver 3.3.1 en la página 26)
f 2 (x) f (x)
gst (x) = x − =x−
f (x + f (x)) − f (x) f [x, x + f (x)]

Método de Steffensen: ejemplo


2
√ (g (x) − x)
2 xe−x = g (x) → gs (x) = x −
g (g (x)) − 2g (x) + x
• Condiciones de convergencia (análisis gráfico)

23
No verifica la 3ª condición g 00 (x) > 0

Estudio analítico:
1. Función: g (x) ∈ C (I) y g (x) > a, ∀x ∈ I

g (x) = 2 xe−x ∈ C (x ≥ 0) decreciente
Extremos
1−x
g 0 (x) = √ x = 0 ⇒ x = 1
xe
√ √
g (1) = 2 e−1 ' 1.213 > 1, g (2) = 2 2e−2 ' 1.041 > 1
2. Derivada primera: g 0 (x) ∈ C (I) y g 0 (x) < 0, ∀x ∈ I
1−x
g 0 (x) = √ x ∈ C (x > 0) decreciente
xe
Extremos
x2 − 2x − 1 √
g 00 (x) = √ =0→x=1±2 2∈ / [1, 2]. No existen extremos relativos en [1, 2].
2x xe x

1−1 1−2
g30 (1) = √ = 0 y g30 (2) = √ ' −0.2601
1e1 2e2
3. Derivada segunda: g 00 (x) ∈ C (I) y g 00 (x) > 0, ∀x ∈ I
x2 − 2x − 1
g300 (x) = √ ∈ C (x > 0).
2x xex
Extremos
3 + 3x + 3x2 − x3
g 000 (x) = √ =0→x∈ / [1, 2]. No existen extremos relativos en [1, 2].
4x2 xex
1−2−1 4−4−1
g300 (1) = √ = −0.607 y g300 (2) = √ ' −0.065
2 e1 2 · 2 2e2
Iteraciones

x0 x1 x2 x3 x4 x5
1.0 1.20168448 1.20216787 1.20216787 1.20216787 1.20216787
1.5 1.20011769 1.20216779 1.20216787 1.20216787 1.20216787
2.0 1.18641442 1.20216333 1.20216787 1.20216787 1.20216787

24
3.3. Newton
Método de Newton

Origen: encontrar un método de punto fijo para la ecuación f (x) = 0 con velocidad cuadrática de la forma g (x) =
x − f (x) φ (x).
Planteamiento: ¿que condiciones debe verificar φ (x) en la raíz α?.
• Convergencia cuadrática cuando g (α) = α, g 0 (α) = 0, g 00 (α) 6= 0.
◦ g (α) = α − f (α) φ (α) = α.
−1
◦ g 0 (x) = 1 − f 0 (x) φ (x) − f (x) φ0 (x) , g 0 (α) = 0 ⇒ φ (α) = (f 0 (α)) .
f (x) f (xn )
Expresión del método: gn (x) = x − → xn+1 = xn − 0 .
f (x)
0 f (xn )
Ventajas: velocidad cuadrática (con raíces simples).
Inconvenientes: cálculo de f 0 (x), derivada nula, intervalo y condiciones de convergencia.

Justificación mediante el desarrollo de Taylor «cerca» de la raíz.


2
f (α) = f (x) + 1
1! (α − x) f 0 (x) + 1
2! (α − x) f 00 (x) + . . .
2 f (x)
dado que (α − x)  (α − x) → 0 ' f (x) + 1
(α − x) f 0 (x) → α = x −
1! f 0 (x)
Justificación gráfica:
xn+1 = xn − δ


f (xn )
tan β = f 0 (xn ) = 
δ

f (xn )
xn+1 = xn −
f 0 (xn )

Teorema 1 (convergencia local: demo 58 en la página 39). 1. Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b]
y además f (α) 6= 0, entonces existe un entorno (α − δ, α + δ) donde el método de Newton es convergente y si
0

f (x) ∈ C 3 ([a, b]) su orden de convergencia es cuadrático.

2. Si f 0 (α) = f 00 (α) = . . . = f (m−1) (α) = 0 y f (m) (α) 6= 0 la convergencia es lineal con constante asintótica 1 − m.
1

Teorema 2 (convergencia global: demo 59 en la página 39). Sea f (x) ∈ C 2 ([a, b]) verificando
1. f (a) · f (b) < 0 (existencia)
2. f 0 (x) 6= 0, ∀x ∈ [a, b] (unicidad)

3. f 00 (x) · f 00 (y) ≥ 0, ∀x, y ∈ [a, b]


( )
f (a) f (b)
4. máx 0 , ≤ |b − a| (permanencia)

f (a) f 0 (b)

entonces el algoritmo de Newton converge a α con velocidad cuadrática para cualquier elección de x0 ∈ [a, b].
Notas:

• Las condiciones son suficientes, pero no necesarias.


• Se puede eliminar la ¹ eligiendo x0 como el extremo donde f (x) · f 00 (x) > 0.

25
Método de Newton: ejemplo
f (xn ) xn · exn − 4
xn+1 = xn − 0 = xn − xn
f (xn ) e (xn + 1)
Condiciones (análisis gráfico)

Estudio analítico:
1. f (a) · f (b) < 0 (existencia)
f (1) · f (2) ' (−1.28) · (10.78) < 0
2. f 0 (x) 6= 0, ∀x ∈ [a, b] (unicidad)
f 0 (x) = (x + 1) ex > 0, ∀x ∈ [1, 2]
3. f 00 (x) · f 00 (y) ≥ 0, ∀x, y ∈ [a, b]
f 00 (x) = (x + 2) ex > 0, ∀x ∈ [1, 2]
( )
f (a) f (b)
4. máx 0 , ≤ |b − a| (permanencia)

f (a) f 0 (b)
( )
f (1) f (2)
máx 0 , 0 ' máx {|−0.23| , |0.48|} ' 0.48 ≤ |2 − 1|

f (1) f (2)

Iteraciones

x0 x1 x2 x3 x4 x5
1.0 1.23575888 1.20297255 1.20216834 1.20216787 1.20216787
1.5 1.25700826 1.20428688 1.20217113 1.20216787 1.20216787
2.0 1.51378038 1.26177958 1.20466490 1.20217240 1.20216787

3.3.1. Variantes
Método de Newton: variantes

Métodos que evitan el cálculo de la derivada:

1. Método de Whittaker:
• Mantiene constante la derivada:
f (xn ) f (b) − f (a)
xn+1 = xn − donde m = ó m = f 0 (x0 )
m b−a

26
• o la aproxima numéricamente (inestabilidad)
f (xn + h) − f (xn )
m= con h  xn
h
2. Método de la secante
• Aproxima la tangente por la secante en dos iteraciones consecutivas.
f (xn ) − f (xn−1 ) xn − xn−1
f 0 (xn ) ≈ → xn+1 = xn − f (xn )
xn − xn−1 f (xn ) − f (xn−1 )
• No se puede tratar como un método de punto fijo.
• La actualización de valores «coincide» con Regula Falsi.
• Tma. de convergencia local:(demo 53 en la página 36)
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces existe √un entorno
(α − δ, α + δ) donde el método de la secante es convergente y su orden de convergencia es 21 1 + 5 ' 1.62.
3. Steffensen: aproxima la tangente por la secante en dos valores seleccionados {x, x + f (x)}.
f (xn + f (xn )) − f (xn ) f 2 (xn )
f 0 (xn ) ≈ → xn+1 = xn −
xn + f (xn ) − xn f (xn + f (xn )) − f (xn )

Métodos que evitan la pérdida de la convergencia cuadrática:


1. Newton modificado: dada una raiz α de multiplicidad m > 1 conocida.
f (x)
gn (x) = x − m 0 .
f (x)
2. Newton con cambio de función:
• Proposición: (demo 53 en la página 36)
f (x)
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] , entonces ψ (x) = tiene una raíz simple en α.
f 0 (x)
ψ (x)
• gn (x) = x − .
ψ 0 (x)

Variantes del método de Newton: ejemplo

Whittaker (m fija) :
f (xn ) f (b) − f (a)
• Iteraciones xn+1 = xn − con m =
m b−a
x0 x1 x2 x3 x4 x5
1.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
1.5 1.27424777 1.22808433 1.21203789 1.20599784 1.20366433
2.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294

• Evolución

• Interpretación gráfica

27
Whittaker (m variable) :
f (xn ) f (xn + h) − f (xn )
• Iteraciones: xn+1 = xn − con m = y h = 10−3
m h
x0 x1 x2 x3 x4 x5
1.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294
1.5 1.27424777 1.22808433 1.21203789 1.20599784 1.20366433
2.0 1.10627995 1.16064345 1.18512487 1.19535251 1.19947294

• Evolución

• Interpretación gráfica

Secante:
xn − xn−1
• Iteraciones: xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )

28
x0 x1 x2 x3 x4 x5
1.0 1.1 1.21861102 1.20091628 1.20215298 1.20216789
1.5 1.6 1.27355966 1.2202325 1.20308165 1.20217981
2.0 1.9 1.48055107 1.31078705 1.22188601 1.20366847

• Evolución

• Interpretación gráfica

Steffensen:
f 2 (xn ) f (xn )
• Iteraciones: xn+1 = xn − = xn −
f (xn + f (xn )) − f (xn ) f [xn , xn + f (xn )]
x0 x1 x2 x3 x4 xn
1.0 1.5605 1.5443 1.5257 1.5040 ··· 1.2022 (16)
1.5 1.4736 1.4421 1.4042 1.3589 ··· 1.2022 (11)
2.0 2.0000 2.0000 2.0000 2.0000 1.9998(1024)

• Evolución

29
3.4. Otros
Otros métodos de punto fijo

Muller iterativo: consideraciones


• Considera (como en el método de intervalo) una aproximación cuadrática, obtenida a partir de una terna
{x0 , x1 , x2 } con la que determina la parábola P2 (x) = ax2 + bx + c.
2c
• Calcula la raíz próxima mediante: r = √
−b − sign (b) b2 − 4ac
• Si |f (r)| > ε se toma como nueva terna {x1 , x2 , x3 = r}.
• Tma. de convergencia local:(demo 53 en la página 36)
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces existe un entorno
(α − δ, α + δ) donde el método de iteración funcional de Muller es convergente y si f (x) ∈ C 3 ([a, b]) su orden
de convergencia es superlineal 1.85.

Métodos explícitos con convergencia cúbica o superior:


2f (xn ) f 0 (xn )
• Halley: xn+1 = xn − 2
2 (f 0 (xn )) − f (xn ) f 00 (xn )
f (xn ) f 2 (xn ) f 00 (xn )
• Householder: xn+1 = xn − −
f 0 (xn ) 2 (f 0 (xn ))
3

f (xn ) 1 f 2 (xn ) f 00 (xn )


• BSC: xn+1 = xn − −2
f (xn )
0 3
(f 0 (xn )) − 2f (xn ) f 0 (xn ) f 00 (xn )
2
f (xn ) f 2 (xn ) f 00 (xn ) f 3 (xn ) (f 00 (xn ))
• Abasbandy: xn+1 = xn − − −
f 0 (xn ) 2 (f 0 (xn ))
3
2 (f 0 (xn ))
5

f (xn )
Métodos explícitos con convergencia cúbica o superior: yn = xn − con f 0 (xn ) 6= 0.
f 0 (xn )
2
f (yn ) f (yn ) (f 0 (yn ))
• Chun: xn+1 = yn − −
f 0 (yn ) (f 0 (xn ))
2

!2 !
f (yn ) f (yn ) f 0 (xn ) f 0 (xn )
• Householder: xn+1 = yn − 0 − 1
+1
f (yn ) 2 f 0 (yn ) f (xn ) f 0 (yn )
2f (xn ) f (yn ) f 0 (yn )
• Halley: xn+1 = yn − 2 2
2f (xn ) (f 0 (yn )) − f (yn ) (f 0 (xn )) + f 0 (xn ) f (yn ) f 0 (yn )
2
(f (xn )) f 00 (xn ) f (yn )
• Noor I: xn+1 = yn − −
2 (f 0 (xn ))
3 f 0 (xn )
2
!!
f (yn ) (f (yn )) f (yn ) f (yn )
• Noor II: xn+1 = yn − 0 − 2+ 2+
f (xn ) f (xn ) f 0 (xn ) f (xn ) f (xn )

30
4. Polinómicas
Introducción (1)

5. Resumen
Resumen

Métodos de intervalo
• Exigen las condiciones del teorema de Bolzano.
• Sólo son válidos para encontrar raíces simples o de multiplicidad impar.
• Acotan el error de la raíz y no sólo el de la función.
• La longitud del intervalo “suele” tender a cero.
• Velocidades de convergencia lineales y superlineales.
Métodos de iteración funcional
• Exigen las condiciones de punto fijo.
• Puede ser complicado encontrar la función que las verifique.
• Son válidos para raíces de cualquier multiplicidad.
• No acotan directamente el error de la raíz.
• Velocidades de convergencia lineales y superiores.
• Hay métodos para acelerar la velocidad.

6. Bibliografía
Bibliografía

1. Aplicados
Burden,R.L. & Faires,J.D. «Numerical Analysis, 9ªEd» Brokks/Cole, Boston (2011) ISBN 978-0-538-73351-9
Chapra,S.C. & Canale,R.P. «Numerical Methods for enginers»
Gerald,C.F. & Weathley,P.O. «Applied Numerical Analysis»
2. Teóricos
Viaño,J.M. & Burguera,M. «Lecciones de Métodos numéricos: 2 Resolución de ecuaciones numérivas» Ed.
Tórculo, Santiago (1997). ISBN 84-89641579
Demidovich,D.P. & Maron, I.A. «Cálculo numérico fundamental» Ed. Paraninfo, Madrid (1988). ISBN 84-
2830887X
Berezin,S, Zhidkov,N.P. «Computing Methods I and II» Pergamon Press, Oxford (1965) ISBN: 978000801001-
04/11
Isaacson,E & Keller,H.B. «Analysis of numerical methods» John Wiley & Sons, N.Y. (1966). ISBN 0-471 428655
La resolución de ecuaciones es uno de los problemas que con más frecuencia aparece en los distintos campos de
la Ciencia y la Ingeniería.

Este problema ya fue estudiado en el año 100 A.C. por Herón, que empleaba un método iterativo para aproximar la
raíz cuadrada de un número positivo.
No existen métodos generales de resolución simbólica de ecuaciones salvo en casos sencillos o para algunas ecuaciones
de tipo polinómico (hasta grado cuatro o reductibles).
Niel Henrik Abel y Evariste Galois demostraron que no hay una fórmula general que permita obtener las raíces de
polinomios de grado superior a cuatro (Tma de Abel-Ruffini).
Es necesario desarrollar métodos numéricos para calcular, al menos de forma aproximada, las soluciones de estos
problemas.

31
7. Demostraciones
7.1. Introducción
Tma. Unicidad (I)
Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b) tal que su derivada no se anula, entonces existe un único punto interior del intervalo en que
la función se anula.
f (x) ∈ C ([a, b]) : f (a) · f (b) < 0 ∧ f 0 (x) 6= 0 ∀x ∈ (a, b) ⇒ ∃!c ∈ (a, b) : f (c) ≡ 0
El Tma. de Bolzano prueba que existe al menos una raíz.
Se demuestra por reducción al absurdo:
• Hipótesis: existen dos raíces distintas
∃c1 , c2 ∈ (a, b) : f (c1 ) = f (c2 ) = 0
f 0 (ζ) = 0 N o (f 0 (x) 6= 0 ∀x ∈ (a, b))

TV M
• f (c1 ) − f (c2 ) = 0 = |f (ζ) (c1 − c2 )| →
0
c1 − c2 = 0 ⇒ c1 = c2

Tma. unicidad (II)


Sea f (x) una función continua en un intervalo cerrado [a, b] y derivable en el intervalo abierto (a, b), entonces entre
dos raíces consecutivas de la ecuación f 0 (x) = 0 existe a lo sumo una raíz de f (x) = 0.
Hipótesis: existen dos raíces
∃r1 , r2 ∈ (c1 , c2 ) : f 0 (r1 ) = f 0 (r2 ) = 0
f 0 (ζ) = 0 (f 0 (x) 6= 0 ∀x ∈ (c1 , c2 ))

TV M No
f (r1 ) − f (r2 ) = 0 = |f (ζ) (r1 − r2 )| →
0 0 0
r1 − r2 = 0 ⇒ r1 = r2

7.2. Intervalo
Acotación en los métodos de Intervalo
Sea f (x) una función continua en un intervalo cerrado [a, b] con valores de signos opuestos en los extremos y derivable
en el intervalo abierto (a, b), r la raíz de la ecuación f (x) = 0 y xn un valor próximo a r , ambos en (a, b); si |f 0 (x)| tiene
una cota inferior no nula m en (a, b) ,entonces (volver 11 en la página 6).

|f (xn )|
|r − xn | ≤
m

Aplicando el TVM
f (r) − f (x) −f (x)
∃c ∈ (r, x) : f 0 (c) = →r−x= 0 .
r−x f (c)
Tomando valor absoluto, y dado que |f 0 (c)| ≥ m
f (x) f (x)

|r − x| = 0
≤ .
f (c) m

7.2.1. Bisección
Bisección
El método de bisección es convergente r = lı́m xn , y el error viene acotado por |r − xn | < 1
2n |b − a| (volver 12 en la
n→∞
página 7)
inducción 1
|r − xn | < |bn − an | = 1
2 |bn−1 − an−1 | = · · · = 2n |b − a|
• n=1: |b1 − a1 | = 1
2 |b0 − a0 |
• supuesto cierto para n: |bn − an | = 21n |b − a|
xn − an si f (xn ) f (an ) < 0 n − an b−a
  n b
xn = an +b
bn+1 − an+1 = =2 = n+1
bn − xn si f (xn ) f (an ) > 0 2 2

lı́m |r − xn | = r − lı́m xn = lı́m 21n |b − a| = 0 ⇒ r = lı́m xn

n→∞ n→∞ n→∞ n→∞

32
7.2.2. Regula Falsi
Regula Falsi (I)
El método de Régula Falsi es convergente r = lı́m xn (volver 14 en la página 8).
n→∞

Se toma f (a) < 0 (si f (a) > 0, se usa −f (x) = 0).


Si xn = r, ya está demostrada la convergencia
Se consideran las sucesiones {ak } y {bk } y se va a probar por inducción que ∀i, j : ai < bj , esto es
ai = ai+1 < bi+1 < bi ó ai < ai+1 < bi+1 = bi

• n=1: a0 = a < b0 = b, con f (a) < 0 y f (b) > 0


af (b) − af (a) af (b) − bf (a) bf (b) − bf (a)
◦ a= < = x1 < =b
f (b) − f (a) f (b) − f (a) f (b) − f (a)
si f (x1 ) < 0 → a0 < a1 = x1 < b1 = b0


si f (x1 ) > 0 → a0 = a1 < b1 = x1 < b0
• Supuesto que se cumple para n, hay dos casos
1. 
f (xn ) < 0, xn = an
si f (xn−1 ) < 0, xn−1 = an−1 an−1 < an < bn
⇒ an < bn
si f (xn−1 ) > 0, xn−1 = bn−1 an−1 = an < bn
2. 
f (xn ) > 0, xn = bn
si f (xn−1 ) < 0, xn−1 = an−1 an−1 = an < bn
⇒ an < bn
si f (xn−1 ) > 0, xn−1 = bn−1 an < bn < bn−1
• En ambos se tiene que an < bn y
an f (bn ) − an f (an ) an f (bn ) − bn f (an ) bn f (bn ) − bn f (an )
◦ an = < = xn+1 < = bn
f (b n ) − f (an ) f (bn ) − f (a n ) f (bn ) − f (an )
si f (xn+1 ) < 0 → an < an+1 = xn+1 < bn+1 = bn


si f (xn+1 ) > 0 → an = an+1 < bn+1 = xn+1 < bn


Hay que demostrar la convergencia de {ak } y/o {bk } a la raíz. También hay dos casos:
1. Una de las sucesiones, p.e. {ak } se mantiene constante a partir del término M −simo:
• {bk } monótona decreciente acotada inferiormente, luego tiene límite β.
• Trivialmente {xk } coincide con {bk } salvo en M términos, luego lı́m xn = lı́m bn = β.
n→∞ n→∞
aM f (bn ) − bn f (aM )
• Para n > M , an = aM , bn = xn y xn+1 =
f (bn ) − f (aM )
• Despejando y tomando límites:
f (aM ) (bn − bn+1 ) + f (bn ) (bn+1 − aM ) = 0
lı́m (f (aM ) (bn − bn+1 ) + f (bn ) (bn+1 − aM )) = f (aM ) · 0 + f (β) (β − aM ) = 0 ⇒ f (β) = 0 ⇒ r = β
n→∞
2. Ambas sucesiones son infinitas:

• {ak } monótona creciente acotada superiormente, luego tiene límite α y f (α) ≤ 0.


• {bk } monótona decreciente acotada inferiormente, luego tiene límite β y f (β) ≥ 0.
• Hipótesis: f (α) , f (β) 6= 0 (ninguno de los límites es raíz)
|f (ak )| ≥ ε

◦ Por continuidad ∃ε > 0, N (ε) ∈ N : k > N
|f (bk )| ≥ ε
bn − an bn − a n
◦ xn+1 = an − f (an ) = bn − f (bn )
f (bn ) − f (an ) f (bn ) − f (an )
f (ak ) f (bk )
 
◦ |bk+1 − ak+1 | ≤ máx {|xk+1 − ak | , |xk+1 − bk |} ≤ |bk − ak | máx

,
f (bk ) − f (ak ) f (bk ) − f (ak )
 
 1 1

◦ = |bk − ak | máx f (b ) ≤ δk < δ < 1

,

 k − 1 1 − f (ak ) 

f (ak ) f (bk )
◦ |bk+m − ak+m | ≤ |bk − ak | δ m ⇒ lı́m |bk+m − ak+m | = |β − α| = 0 ⇒ β = α
m→∞
◦ Por otro lado f (α) f (β) ≤ 0 → f 2 (α) ≤ 0 ⇒ f (α) = 0 ⇒ r = α.
c.q.d.

33
Regula Falsi (II)
Demostración (volver 14 en la página 8).
Sea f (x) verificando el Tma. de Bolzano, con derivada primera continua no nula y segunda de signo constante en
(a, b); sean M y m los valores máximo y mínimo de |f 0 (x)|, entonces el error de Regula Falsi viene acotado por
M −m
|r − xn | ≤ |xn − xn−1 |
m

Se toma f 00 (x) > 0 (si f 00 (x) < 0, se usa −f (x) = 0).


f (x) es convexa (∪), la curva se ubica bajo la cuerda.
Si f (a) > 0, las iteraciones sólo afectan al extremo b:
bn − a
bn+1 = bn − f (bn )
f (bn ) − f (a)
Si f (a) < 0, las iteraciones sólo afectan al extremo a:
b − an
an+1 = an − f (an )
f (b) − f (an )
El extremo donde f y f 00 tienen el mismo signo es fijo.
Siendo c un extremo y r la raíz exacta:
c − xn
xn+1 = xn − f (xn )
f (c) − f (xn )

f (c) − f (xn )
Operando −f (xn ) = (xn+1 − xn ) →
c − xn
f (c) − f (xn )
f (r) − f (xn ) = (xn+1 − xn ) ( 7.2.2.a)
c − xn
Aplicando el teorema del valor medio
f (r) − f (xn ) = f 0 (ξ) (r − xn ) , ξ ∈ (r, xn ) , f (c) − f (xn ) = f 0 (ζ) (c − xn ) , ζ ∈ (c, xn )
Sustituyendo en ( 7.2.2.a)
f 0 (ξ) (r − xn ) = (xn+1 − xn ) f 0 (ζ)

Y como r − xn = (r − xn+1 ) + (xn+1 − xn ), despejando


f 0 (ζ) − f 0 (ξ)
f 0 (ξ) (r − xn+1 ) = (xn+1 − xn ) (f 0 (ζ) − f 0 (ξ)) → r − xn+1 = (xn+1 − xn )
f 0 (ξ)
Tomando valores absolutos,
|f 0 (ζ) − f 0 (ξ)|
|r − xn+1 | = |xn+1 − xn |
|f 0 (ξ)|
|f 0 (ξ)| ≥ m y dado que signo (f 0 (ζ)) = signo (f 0 (ξ))
|f 0 (ζ) − f 0 (ξ)|
≤ M −m
c.q.d.
|f 0 (ξ)| m

Regula Falsi (III) √ 


Orden de convergencia p: 1 ≤ p ≤ 1
2 1+ 5 ' 1.62 14 en la página 8).
Se demuestra que cuando f (x) tiene signo constante (cóncava o convexa), la convergencia es lineal.
00

• Ralston A. and Rabinowitz P. (1978) “A First Course in Numerical Analysis”. McGraw-Hill, New York. pp.139-
140
• Stoer,J. &and Bulirsch,R. (2002) “Introduction to numerical Analysis” Springer-Verlag, Berlin. pp.339-340
√ 
El caso óptimo se obtiene cuando se comportamiento coincide con el de la secante, en el que p ≤ 12 1 + 5 ' 1.62.
c.q.d.

34
7.3. Iter. Func.
Contractividad
Sea g (x) ∈ C 1 ([a, b]), entonces g (x) es contractiva en [a, b] ⇔ |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b] (volver 25 en la página 18).
1. g (x) es contractiva en [a, b] ⇒ |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b]

g (x + h) − g (x) L (x + h − x)
∀c ∈ [a, b] , h ∈ R : |g (c)| = lı́m
0
= lı́m =L<1

h→0 h h→0 h

2. |g 0 (x)| ≤ k < 1 ∀x ∈ [a, b] ⇒ g (x) es contractiva en [a, b]


TV M
∀c, d ∈ [a, b] : |g (c) − g (d)| = |g 0 (ξ)| |c − d| ≤ k |c − d|

7.3.1. P.Fijo
Método de punto fijo (1)
Demostración (volver 26 en la página 18).
Sea g (x) ∈ C ([a, b]) , tal que g (a) ≥ a y g (b) ≤ b entonces g (x) tiene al menos un punto fijo en [a, b].
Si además g (x) es contractiva entonces el punto fijo es único.
Sea g (x) ∈ C ([a, b]) , tal que g (a) ≥ a y g (b) ≤ b entonces g (x) tiene al menos un punto fijo en [a, b].
Se define f (x) = g (x) − x ∈ C ([a, b]), y puesto que f (a) ≥ 0 y f (b) ≤ 0, hay tres posibilidades:
1. f (a) = 0 → g (a) = a y a es un punto fijo.
2. f (b) = 0 → g (b) = b y b es un punto fijo.
3. f (a) > 0, f (b) < 0, aplicando el Teorema de Bolzano, ∃c ∈ (a, b) : f (c) ≡ 0 → g (c) = c y c es un punto fijo.
Si además existe g (x) es contractiva con constante k < 1, entonces el punto fijo es único.
Supongase que existen {p, q} puntos fijos de g (x)
1. Al ser puntos fijos, g (p) = p y g (q) = q
g (p) − g (q)
2. Entonces |p − q| = |g (p) − g (q)| y aplicando el teorema del valor medio, ∃c ∈ (p, q) : g 0 (c) = .
p−q
3. Sustituyendo |p − q| = |g 0 (c) (p − q)| ≤ |g 0 (c)| |p − q| y dado que |g 0 (c)| ≤ k < 1 se llega al absurdo que
|p − q| < |p − q|

Método de punto fijo (2)


Demostración (volver 26 en la página 19).
Sea g (x) ∈ C ([a, b]) y g 0 (x) ∈ C ((a, b)) tal que ∀x ∈ [a, b] : g (x) ∈ [a, b] y |g 0 (x)| ≤ k donde k < 1 ∈ R+ entonces la

sucesión {xn+1 = g (xn )}n=0 → α (p.f. de g (x) en [a, b]) ∀x0 ∈ [a, b] y se verifican las siguientes acotaciones:
1. |α − xn | ≤ k n |α − x0 |
TV M
|α − xn | = |g (α) − g (xn−1 )| = |g 0 (ζ) (α − xn−1 )| con ζ ∈ (α, xn−1 ) ⊂ (a, b), luego |g 0 (ζ)| ≤ k y por tanto
|α − xn | ≤ k |α − xn−1 |
Repitiendo el proceso
|α − xn | ≤ k 2 |α − xn−2 | ≤ k 3 |α − xn−3 | ≤ · · · ≤ k n−1 |α − x1 | ≤ k n |α − x0 |
kn
2. |α − xn | ≤ 1−k |x1 − x0 |
Sea m > n ∈ N,
|xm − xn | = |xm ± xm−1 ± xm−2 · · · ± xn+1 − xn | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xn+1 − xn |
Por otro lado,
TV M
|xn+1 − xn | = |g (xn ) − g (xn−1 )| = |g 0 (ζ) (xn − xn−1 )| ≤ k |xn − xn−1 | ≤ · · · ≤ k n |x1 − x0 |
Sustituyendo
|xm − xn | ≤ k m−1 |x1 − x0 | + k m−2 |x1 − x0 | + · · · + k n |x1 − x0 | = k n |x1 − x0 | 1 + k + k 2 + · · · + k m−n−1 =


1 − k m−n−1 k
k n |x1 − x0 |
1−k
Tomando límites
1 − k m−n 1
lı́m |xm − xn | = |α − xn | ≤ lı́m k n |x1 − x0 | = k n |x1 − x0 |
m→∞ m→∞ 1−k 1−k

35
Método de punto fijo (3)
Demostración (volver 26 en la página 19).
Sean g (x) ∈ C ([a, b]) , g 0 (x) ∈ C ((a, b)) y α ∈ [a, b] : g (α) = α ∧ |g 0 (α)| ≤ k < 1 entonces ∃δ > 0 : [α − δ, α + δ]
verifica las condiciones del método de punto fijo.
Como g 0 (x) ∈ C ((a, b)) se cumple que
∀ε > 0 ∃δ : |x − α| < δ ⇒ |g 0 (x) − g 0 (α)| < ε → −ε < g 0 (x) − g 0 (α) < ε
→ g 0 (α) − ε < g 0 (x) < g 0 (α) + ε → −k − ε < g 0 (x) < k + ε ⇒ |g 0 (x)| < k + ε
Tomando ε : ε + k < 1 → ∃δ : |x − α| < δ ⇒ |g 0 (x)| < 1
TV M
Además ∀xn+1 = g (xn ) : |α − xn+1 | = |g (α) − g (xn )| = |g 0 (ζ) (α − xn )| con ζ ∈ (α, xn ), luego si xn ∈
(α − δ, α + δ) → |α − xn+1 | ≤ k |α − xn | < |α − xn | ⇒ xn+1 ∈ (α − δ, α + δ)

7.3.2. Aitken
Método de Aitken (I)
Demostración (volver 29 en la página 22).
en+1 en+2
Sea {xn } → α con velocidad lineal y tal que el cociente de los errores en y en+1 tienen el mismo signo.
en+1 en+2
Para n  1: en 'λ' en+1

(α − xn+1 ) (α − xn+1 ) ≈ (α − xn+2 ) (α − xn ) → α (xn+2 − 2xn+1 + xn ) ≈ xn xn+2 − xn+1 xn+1


• Operando
xn xn+2 − xn+1 xn+1 xn xn+2 − xn+1 xn+1 ∓ 2xn xn+1 ± xn xn − xn+1 xn+1 + 2xn xn+1 − xn xn
α≈ = = xn + =
xn+2 − 2xn+1 + xn xn+2 − 2xn+1 + xn xn+2 − 2xn+1 + xn
2 2
(xn+1 − xn ) (∆xn )
xn − = xn −
(xn+2 − xn+1 ) − (xn+1 − xn ) ∆2 x n

Método de Aitken (II)


Demostración (volver 29 en la página 22).
2
(4xn ) ên
Sea {xn } → α con velocidad lineal e yn = xn − 2
, denotando por en = xn −α, ên = yn −α, tiene que lı́m = 0.
4 xn n→∞ en

en+1
Por ser la convergencia lineal: kn = en : lı́m kn = L con |L| < 1
n→∞

2 2
(xn+1 − xn ) ((xn+1 − α) − (xn − α))
• ên = yn − α = xn − − α = (xn − α) −
(xn+2 − xn+1 ) − (xn+1 − xn ) (xn+2 − α) − 2 (xn+1 − α) + (xn − α)
2 2
(en+1 − en ) e2n (kn − 1) kn (kn+1 − kn )
• ên = en − = en − = en
en+2 − 2en+1 + en en (kn+1 kn − 2kn + 1) kn+1 kn − 2kn + 1
ên kn (kn+1 − kn ) L (L − L)
• lı́m = lı́m = = 0.
n→∞ en n→∞ kn+1 kn − 2kn + 1 L2 − 2L + 1

7.3.3. Steffensen
Método de Steffensen (1)
Demostración (volver 31 en la página 23).
2
(g (x) − x) 0 xg (g (x)) − g 2 (x) 0
gs (α) = lı́m gs (x) = lı́m x − = α − = lı́m =
x→α x→α g (g (x)) − 2g (x) + x 0 x→α g (g (x)) − 2g (x) + x 0
Aplicando L’Hopital
2
g (g (x)) + xg 0 (g (x)) g 0 (x) − 2g (x) g 0 (x) α + αg 0 (α) g 0 (α) − 2αg 0 (α) (g 0 (α) − 1)
gs (α) = lı́m = = α
x→α g 0 (g (x)) g 0 (x) − 2g 0 (x) + 1 g 0 (α) g 0 (α) − 2g 0 (α) + 1 (g 0 (α) − 1)
2

• Si g 0 (α) 6= 1 ⇒ gs (α) = α
• Si g 0 (α) = 1 ⇒ α es raiz con multiplicidad m > 1 de G (x) = g (x) − x ⇒ g 00 (α) = · · · = g (m−1) (α) = 0
Ver la demostración del teorema de convergencia local (56 en la página siguiente)

36
Método de Steffensen (2)
Demostración (volver 31 en la página 23).
2
(g (x) − x)
g (x) = x → gs (x) = x −
g (g (x)) − 2g (x) + x
Se ha demostrado ya que g (α) = α ⇒ gs (α) = α

Se debe demostrar que gs (α) = α ⇒ g (α) = α


1. Caso 1: g (g (α)) − 2g (α) + α 6= 0
2
(g (α) − α)
gs (α) = α → = 0 → g (α) − α = 0 → g (α) = α
g (g (α)) − 2g (α) + α
2. Caso 2: g (g (α)) − 2g (α) + α = 0
Como se anula el denominador, también debe anularse el numerador por continuidad de gs (x).
2
(g (α) − α) = 0 → g (α) = α

Método de Steffensen (3)


Demostración (volver 31 en la página 23).

Sea g (x) ∈ C p ([a, b]) tal que g (α) = α con α ∈ [a, b] y además g 0 (α) = g 00 (α) = . . . = g (p−1) (α) = 0 y g (p) (α) 6= 0,
entonces existe un entorno (α − δ, α + δ) donde el método de Steffensen
2
(g (x) − x) xg (g (x)) − g 2 (x)
gs (x) = x − =
g (g (x)) − 2g (x) + x g (g (x)) − 2g (x) + x
es convergente y su orden es
• al menos 2p − 1 si p > 1
• al menos 2 si p = 1 y g 0 (α) 6= 0 (raiz simple)
• al menos 1 con constante asintótica 1 − m
1
si p = 1 y g 0 (α) = g 00 (α) = . . . = g (m−1) (α) = 0 y g (m) (α) 6= 0 (raiz
de multiplicidad m)

Desarrollando por Taylor


g (m) (α) m g (m+1) (α + νε) m+1
g (α + ε) = g (α) + ε + ε , 0<ν<1
m! m!
g (m) (α) g (m+1) (α + νε)
g (α + ε) = α + c0 εm + c1 εm+1 = α + δ siendo c0 = , c1 = , δ = (c0 + c1 ε) εm
m! m + 1!
g (m+1) (α + µε)
Asimismo g (α + δ) = α + c0 εm + c2 εm+1 siendo c2 = , 0<µ<1
m + 1!
(α + ε) g (g (α + ε)) − g 2 (α + ε) (α + ε) g (α + δ) − g 2 (α + ε) δ 2 − c0 εδ m − c2 εδ m+1
gs (α + ε) = = =α−
g (g (α + ε)) − 2g (α + ε) + (α + ε) g (α + δ) − 2 (α + δ) + (α + ε) ε − 2δ + c0 δ m + c2 δ m+1

Sustituyendo el valor de δ = εm (c0 + c1 ε)


2 m m+1
(εm (c0 + c1 ε)) − c0 ε (εm (c0 + c1 ε)) − c2 ε (εm (c0 + c1 ε))
gs (α + ε) = α − m m+1 =α−β
ε − 2εm (c0 + c1 ε) + c0 (εm (c0 + c1 ε)) + c2 (εm (c0 + c1 ε))
1. m ≥ 2
m−2 (m−1)2 m−1 (m−1)2 +m
2 1 − c0 (c0 + c1 ε) ε − c2 (c0 + c1 ε) ε
• β = ε2m−1 (c0 + c1 ε) m m+1
1 − 2εm−1 (c0 + c1 ε) + c0 εm2 −1 (c0 + c1 ε) + c2 εm2 +m−1 (c0 + c1 ε)
• β −→ ε2m−1 c0 + o ε2m−1 , esto es, gs (α + ε) −→ α − c0 ε2m−1 + o ε2m−1
 
ε→0 ε→0
2. m = 1
(c1 − c0 c2 ) − c1 c2 ε
β = ε2 (c0 + c1 ε) 2
1 − 2 (c0 + c1 ε) + c0 (c0 + c1 ε) + c2 ε (c0 + c1 ε)
 
2 2
Dado que lı́m 1 − 2 (c0 + c1 ε) + c0 (c0 + c1 ε) + c2 ε (c0 + c1 ε) = (1 − c0 )
ε→0

37
1. Caso 1: c0 6= 1 ⇔ g 0 (α) 6= 1
g 00 (α) 2
ε + o ε2 , puesto que lı́m c1 = lı́m c2 = 21 g 00 (α)

β −→
ε→0 2 (1 − c0 ) ε→0 ε→0

g 00 (α)
esto es, gs (α + ε) −→ α − + o ε2
2


ε→0 2 (1 − c0 )
2. Caso 2: c0 = 1 ⇔ g 0 (α) = 1

Se mantiene g 00 (α) = . . . = g (m−1) (α) = 0, g (m) (α) 6= 0.


Repitiendo el proceso anterior con el nuevo desarrollo de Taylor:
g (m) (α) m−2 g (m+1) (α) m−1
g (α + ε) = α + ε + c0 ε2 = α + δ siendo c0 = ε + ε + ...
m! m + 1!
g (m) (α) m−2 g (m+1) (α) m−1
g (α + δ) = α + δ + c1 δ 2 siendo c1 = δ + δ + ..., 0 < µ < 1
m! m + 1!
(α + ε) g (g (α + ε)) − g 2 (α + ε) δ (δ − ε − c1 δε)
gs (α + ε) = =α− =α−β
g (g (α + ε)) − 2g (α + ε) + (α + ε) ε − δ + c1 δ 1
m−2
Sustituyendo c1 = c0 δε y δ = ε + c0 ε2 en β
!
(1 + c0 ε)
m−1
−1 (m − 1) c0 ε 1
β = ε (1 + c0 ε) m ' ε (1 + c0 ε) =ε (1 + c0 ε) 1 −
(1 + c0 ε) − 1 (m) c0 ε m

Método de Steffensen (4)


Demostración (volver 31 en la página 23).
Sea g : I = (a, ∞) → R tal que g (α) = α con α ∈ I, si

• g (x) ∈ C 2 (I)
• g (x) > a, ∀x ∈ I
• g (x) < 0,
0
∀x ∈ I
• g (x) > 0,
00
∀x ∈ I

entonces el algoritmo de Steffensen converge a α para cualquier elección de x0 ∈ I.


Función concava y estrictamente decreciente, luego el punto fijo es único.
Hay que demostrar que α < xn+1 < xn , n ≥ 0 cuando α < x0 (respectivamente para n ≥ 0 cuando α > x0 ). Así
{xn } es una sucesión monótona, decreciente y acotada inferiormente por α luego tiene límite.

Sea x0 > α, entonces g (x) < α y g (g (x)) > α

Evaluando los términos de la fórmula de Steffensen:

• g (x) − x = g (x) − α − (x − α) = (g (x) − g (α)) − (x − α) = (g 0 (ζ) − 1) (x − α) , ζ ∈ (α, x)


• g (g (x))−g (x) = (g (g (x)) − g (α))−(g (x) − g (α)) = (g 0 (ξ) − 1) (g (x) − g (α)) = (g 0 (ξ) − 1) g 0 (ζ) (x − α) , ξ ∈
(g (x) , α)

• g (g (x))−2g (x)+x = (g (g (x)) − g (x))−(g (x) − x) = ((g 0 (ξ) − 1) g 0 (ζ) − (g 0 (ζ) − 1)) (x − α) = (g 0 (ξ) − g 0 (ζ)) g 0 (ζ) +
◦ ξ < ζ → g (ξ) > g (ζ) → g 0 (ξ) < g 0 (ζ) < 0 ⇒ (g 0 (ξ) − g 0 (ζ)) g 0 (ζ) > 0
2 2
(g 0 (ζ) − 1) (x − α) (g0 (ζ)−1)
2

• gs (x)−α = x−α−  = (1 − β) (x − α) con β = <


( (g 0 (ξ)−g 0 (ζ))g 0 (ζ)+(g 0 (ζ)−1)2 )

2
(g 0 (ξ) − g 0 (ζ)) g 0 (ζ) + (g 0 (ζ) − 1) (x − α)
1
• 0 < gs (x) − α < x − α → α < gs (x) < x
Sea γ = lı́m xn = lı́m g (xn−1 ) = g (γ) ⇒ γ = α
n→∞ n→∞

38
7.3.4. Newton
Método de Newton (1)
Demostración (volver 1 en la página 25).
Tma. de convergencia local
1. Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces existe un entorno (α − δ, α + δ)
donde el método de Newton es convergente y si f (x) ∈ C 3 ([a, b]) su orden de convergencia es cuadrático.

2. Si f 0 (α) = f 00 (α) = . . . = f (m−1) (α) = 0 y f (m) (α) 6= 0 la convergencia es lineal con constante asintótica 1 − m .δ
1

f (x)
1. gn (x) = x − f 0 (x) es construible porque f ∈ C 2 ([a, b]) y f 0 (α) 6= 0.

gn (α) = α es también punto fijo y gn ∈ C 1 ([a, b])


2
(f 0 (x)) − f (x) f 00 (x) f (x) f 00 (x)
gn0 (x) = 1 − 2 = 2
(f 0 (x)) (f 0 (x))
f (α) f 00 (α)
gn0 (α) = 2 = 0 ⇒ ∃ε > 0 : |gn0 | ≤ k < 1, x ∈ I = [α − ε, α + ε] ⇒ gn (x) es contractiva en I
(f 0 (α))
Además ∀x ∈ I : |gn (x) − α| = |gn (x) − g (α)| = |gn0 (ξ) (x − α)| ≤ |gn0 (ξ)| · |x − α| < |x − α| ⇒ gn (I) ⊂ I
Aplicando el teorema de punto fijo (ver 26 en la página 18) la sucesión converge al único punto fijo en I, y
puesto que gn ∈ C 1 ([a, b]) y gn0 (α) = 0, la convergencia es al menos cuadrática.
m
1. Sea α una raíz con multiplicidad m de la ecuación f (x) = 0 , esto es, f (x) = (x − α) h (x) : h (α) 6= 0.
f (x)
La función de punto fijo del método de Newton viene definida por g (x) = x − f 0 (x) .
m
f (x) (x − α) h (x) (x − α) h (x)
g (x) = x − =x− =x− ⇒ g (α) = α.
f 0 (x)
m (x − α)
m−1
h (x) + (x − α)
m
h0 (x) mh (x) + (x − α) h0 (x)
(h (x) + (x − α) h (x)) (mh (x) + (x − α) h (x))
0 0
(x − α) h (x) ((m + 1) h0 (x) + (x − α) h00 (x))
g 0 (x) = 1 − 2 + 2
(mh (x) + (x − α) h0 (x)) (mh (x) + (x − α) h0 (x))
h (α) (mh (α)) 1
g 0 (α) = 1 − 2 =1−
(mh (α)) m
De forma análoga se obtienen:
2h0 (α)
• g 00 (α) =
m2 h (α)
2
mh (α) h00 (α) − (h0 (α)) (m + 1)
• g (α) = 6
000
,
m3 h2 (α)
2 3
m2 h2 (α) h000 (α) + 2 (m + 1) (h0 (α)) − m (3m − 4) h (α) h0 (α) h00 (α)
• g iv (α) = 12
m4 h3 (α)
• etc.

Método de Newton (2)


Demostración (volver 2 en la página 25).
Sea f (x) ∈ C 2 ([a, b]) verificando
1. f (a) · f (b) < 0 (existencia)
2. f 0 (x) 6= 0, ∀x ∈ [a, b] (unicidad)
3. f 00 (x) · f 00 (y) ≥ 0, ∀x, y ∈ [a, b]
( )
f (a) f (b)
4. máx 0 , ≤ |b − a| (permanencia)

f (a) f 0 (b)

entonces el algoritmo de Newton converge a α con velocidad cuadrática para cualquier elección de x0 ∈ [a, b].

39
1. Sea f (a) < 0, f (b) > 0, f 00 (x) ≤ 0, se va a demostrar la convergencia de la sucesión al aplicar el método de Newton
para cualquier valor inicial.

2. El caso f (a) < 0, f (b) > 0, f 00 (x) ≥ 0 se reduce al anterior utilizando la función auxiliar h (x) = −f (−x) en
[−b, −a] y su raíz será −α.
h (yn )
La sucesión yn+1 = yn − convergerá a −α
h0 (yn )
La sucesión xn = −yn convergerá a α
h (yn ) − f (−xn ) f (xn )
xn+1 = −yn+1 = −yn + = −yn + 0 = xn − 0 que es la sucesión generada por el método
h0 (yn ) f (−xn ) f (xn )
de Newton en [a, b].
3. Los casos f (a) > 0, f (b) < 0 con , f 00 (x) ≥ 0 ó , f 00 (x) ≤ 0 se reducen a los anteriores estudiando −f (x) = 0.

1. f (a) < 0, f (b) > 0, f 00 (x) ≤ 0 ⇒ f 0 (x) > 0.

a ≤ x0 ≤ α
(T aylor) 2
• 0 = f (α) = f (xn + (α − xn )) = f (xn ) + f 0 (xn ) (α − xn ) + 21 f 00 (ξ) (α − xn ) , α < ξ < xn
00
2 f (x)≤0 f (xn )
• f (xn ) + f 0 (xn ) (α − xn ) = − 21 f 00 (ξ) (α − xn ) =⇒ f (xn ) + f 0 (xn ) (α − xn ) > 0 → xn − =
f 0 (xn )
xn+1 < α
f (x0 ) f (x1 )<0
• xn+1 = xn − =⇒ ⇒ xn+1 > xn
f 0 (x0 )
• {xn } sucesión monótona creciente, acotada superiormente por α, luego tiene límite β
!
f (xn ) f (β)
• lı́m xn+1 = β = lı́m xn − 0 =β− 0 ⇒ f (β) = 0 ⇒ β = α
n→∞ n→∞ f (xn ) f (β)
α ≤ x0 ≤ b. Se demuestra que a ≤ x1 ≤ α
f 0 (x) dec.
f (x) > 0 f (x0 )
• f (x0 ) = f (α) + f 0 (ξ) (x0 − α) =⇒ f (x0 ) ≥ f 0 (x0 ) (x0 − α) → x1 = x0 − 0 ≤α
f (x0 )
f 0 (x) dec.
f (x) > 0
• f (x0 ) = f (b) + f 0 (ξ) (x0 − b) =⇒ f (x0 ) ≤ f (b) + f 0 (b) (x0 − b)
f (x0 ) ≤ f (b) + f (b) (x0 − b) .
0

f (x0 ) f 0 (x0 ) > f 0 (b) f (b) + f 0 (b) (x0 − b) f (b)


• x1 = x0 − 0 =⇒ ≥ x0 − = x0 − 0 − (x0 − b) =
f (x0 ) f 0 (b) f (b)
f (b)
b− 0 ≥ b − (b − a) ≥ a
f (b)

Método de Newton (4)


Demostración (volver 2 en la página 27).
m
Sea α una raíz con multiplicidad m de la ecuación f (x) = 0 , esto es, f (x) = (x − α) h (x) : h (α) 6= 0.
f (x)
Se define ψ (x) = f 0 (x) .

m
(x − α) h (x) (x − α) h (x)
ψ (x) = = ⇒ ψ (α) = 0.
m (x − α)
m−1
h (x) + (x − α)
m
h0 (x) mh (x) + (x − α) h0 (x)

(h (x) + (x − α) h0 (x)) (mh (x) + (x − α) h0 (x)) − (x − α) h (x) ((m + 1) h0 (x) + (x − α) h00 (x))
ψ 0 (x) = 2
(mh (x) + (x − α) h0 (x))
h (α) (mh (α)) 1
ψ 0 (α) = 2 =
(mh (α)) m

40
7.3.5. Secante
Método de la Secante
Demostración (volver 2 en la página 27).
Sea f (x) ∈ C 2 ([a, b]) tal que f (α) = 0 con α ∈ [a, b] y además f 0 (α) 6= 0, entonces
√  existe un entorno (α − δ, α + δ)
donde el método de la secante es convergente y su orden de convergencia es 12 1 + 5 ' 1.62.

xn − xn−1
xn+1 = xn − f (xn )
f (xn ) − f (xn−1 )
f (xn ) − f (α) f 0 (ξ1 ) (xn − α) ξ1 ∈ (α, xn )

(xn+1 − α) = (xn − α)− (xn − xn−1 ) = (xn − α)− 0 (xn − xn−1 ) ,
f (xn ) − f (xn−1 ) f (ξ2 ) (xn − xn−1 ) ξ2 ∈ (xn , xn−1 ) ⊂ (α,
!
f 0 (ξ1 ) f 0 (ξ2 ) − f 0 (ξ1 ) f 00 (ξ3 )
(xn+1 − α) = (xn − α) 1 − 0 = (xn − α) = (x n − α) (ξ2 − ξ 1 )
f (ξ2 ) f 0 (ξ2 ) f 0 (ξ2 )

máx f 00 (x)

f (ξ3 )
00 x∈(α,xn−1 )
|xn+1 − α| = (xn − α) (ξ2 − ξ1 ) 0 ≤ |xn − α| |xn−1 − α| M donde M =


f (ξ2 ) mı́n f (x)
x∈(α,x
0
) n−1

Denotando por en = M |xn − α|, se tiene que en+1 = en en−1


Si e0 , e1 < γ, operando e2 < γ 2 , e3 < γ 3 , e4 < γ 5 , e5 < γ 8 , . . . en < γ mn

n+1 n+1
La sucesión anterior {1, 1, 2, 3, 5, 8, · · · } se conoce como sucesión de Fibonacci, y se demuestra que mn = √1
5
(r+ ) − (r− )
√ 
donde r = 21 1 ± 5 .
n+1 n+1
Puesto que r− < 1, si n  1, mn ' √1
5
(r+ ) ' 0.447 · (1.618)
n+2
en+1 γ 0.447·(1.618)
Y por tanto lı́m 1.618 ≈ lı́m 1.618 = 1
n→∞ (e
n)
n→∞ n+1
γ 0.447·(1.618)

7.4. Polinomios
Polinomios de segundo y tercer grado
Demostración (volver 2 en la página 27).
Ecuación: f (x) = ax2 + bx + c = 0

−b ± b2 − 4ac
• Raíces: x1,2 =
2a
Ecuación: f (x) = x3 + ax2 + bx + c = 0
Procedimiento:
1. Cambio de variable: y = x + → f (y) = y 3 + 3py + 2q
a
3
q √
2. Cálculo: d = p3 + q 2 y u, v = −q ± d
3


u+v 3
3. Raíces: y1 = u + v , y2,3 = − ± (u − v) · i
2 2
4. Se deshace el cambio de variable: x1,2,3 = y1,2,3 − a3
Casos:
• d < 0: tres raíces reales simples (y1,2,3 ).
−q
Se obtiene una expresión más simple tomando ϕ = arc cos p
−p3
√ ϕ + kπ · i
y2,1,3 = 2 −p cos , k = −1, 0, 1
3
• d = 0: una raíz real simple (y1 ) y otra doble (y2,3 ).
• d > 0: una raíz real simple (y1 ) y dos complejas conjugadas (y2,3 ).

41
Polinomios de cuarto grado

Ecuación: f (x) = x4 + ax3 + bx2 + cx + d = 0


Procedimiento:
1. Cambio de variable: y = x + a
4 → f (y) = y 4 + py 2 + qy + r
2. Ecuación cúbica auxiliar: p3 (z) = z 3 − 21 pz 2 − rz + 1
− 18 q 2

2 rp
3. Se calcula la primera raíz real z1
Si se toma otra raíz real el resultado es el mismo, pero cambia el orden.
4. Dos ecuaciones cuadráticasauxiliares
√ 
p12 (y) = y 2 + 2z1 − py + z1 − z12 − r → y1,2
p

√  
p22 (y) = y 2 − 2z1 − py + z1 + z12 − r → y3,4
p

Nota: p12 (y) · p22 (y) = f (y)


5. Se deshace el cambio de variable: x1,2,3,4 = y1,2,3,4 − a
4

8. Software
8.1. Matlab/Octave
Matlab/Octave
B fzero Find a zero point of a univariate function. Using interval method with
options defined by optimset (f.e. "FunValCheck", "OutputFcn", "TolX",
"MaxIter", "MaxFunEvals".)
B optimset Define options for fzero, fsolve, . . .
M solve Symbolic solution of algebraic equation
B roots Find all zeros of polynomial equations
B polyval Evaluate a polynomial
O company Compute the companion matrix corresponding to polynomial coefficient
vector
B conv Convolve two vectors.
B deconv Deconvolve two vectors
B conv2 Returns 2D convolution
B convn Returns nD convolution
B polyval Evaluate a polynomial
O polygcd Find greatest common divisor of two polynomials
B polyvalm Evaluate a polynomial in the matrix sense
B residue Compute the partial fraction expansion for the quotient of the polynomials

8.2. Python
Python

Los módulos para resolver analíticamente ecuaciones no lineales de una variable se encuentran en el paquete «sympy».
• solve(ecu,vars,opcion)
Resuelve analíticamente, si es posible, una ecuación, inecuación o sistema «ecu» dependiente de las variables
«vars» con las opciones dadas en «opcion»; esta última viene dada como diccionario, nombre=valor.

Los módulos para resolver ecuaciones no lineales de una variable se encuentran en el paquete «scipy.optimize».
• Métodos de intervalo:
◦ bisect(f, a, b[, args, xtol, rtol, maxiter,...])
◦ brentq(f, a, b[, args, xtol, rtol, maxiter, ...])
◦ brenth(f, a, b[, args, xtol, rtol, maxiter, ...])
◦ ridder(f, a, b[, args, xtol, rtol, maxiter, ...])
• Métodos de iteración funcional

42
◦ fixed_point(func, x0[, args, xtol, maxiter])
Emplea el método de Steffensen utilizando la aceleración de convergencia de Aitken (ver Burden, Faires,
“Numerical Analysis”, 5th edition, pg. 80).
«args» son argumentos opcionales de la función.
Si «x0» es un vector, busca un punto fijo partiendo de cada valor.
◦ newton(func, x0[, fprime, args, tol, maxiter, fprime2])
cuando fprime=fprime2=None, emplea el método de la secante con convergencia superlineal.
cuando fprime2=None, emplea el método de Newton-Raphson con convergencia cuadrática.
sino emplea el método de Halley con convergencia cúbica.

Los módulos para trabajar con polinomios de una variable se encuentran en el paquete «numpy».
• roots(p) : Obtiene las raíces de un polinomio cuyos coeficientes vienen dados en el vector p como p0 xn +p1 xn−1 +
· · · + pn−1 x + pn .
• poly(r) : Calcula los coeficientes del polinomio que tiene por raíces los elementos de r.
• polyval(p,a): Evalúa el polinomio de coeficientes p en los puntos a.
• poly1d(p_r,d): Clase para polinomios, que pueden darse mediante sus coeficientes (d=[False]) o sus raíces
(d=True). Esta clase se puede evaluar como función, calcular sus raíces (.r), sus coeficientes (.c), etc. Pueden
sumarse, multiplicarse, dividirse dando cocientes y resto, etc.

Hay módulos adicionales para el manejo de polinomios como clases en «numpy.polynomial» tratando algunas familias
específicas

• General 1, x, x2 , x3 , · · ·


• Chebishev 1, x, 2x2 − 1, 4x3 − 3x, · · ·




• Legendre 1, x, 12 3x2 − 1 , 12 5x3 − 3x , · · ·


  

• Laguerre 1, −x + 1, x2 − 4x + 2, −x3 + 9x2 − 18x + 6, · · ·




• Hermite 1, 2x, 4x2 − 2, 8x3 − 12x, · · ·




• Hermite (estadística)

43

También podría gustarte