Está en la página 1de 161

Cálculo Numérico con aplicaciones para las

ciencias e ingenierı́a

Angel Ramirez - Irla Mantilla

06 de Abril de 2015
2
Índice general

1. Búsqueda de Raı́ces en Ecuaciones No Lineales 7


1.1. Método de la bisección . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 10
1.1.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 13
1.2. Método de la falsa posición . . . . . . . . . . . . . . . . . . . . 15
1.2.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 17
1.2.2. Análisis de Error . . . . . . . . . . . . . . . . . . . . . 19
1.2.3. Método de la falsa posición modificada . . . . . . . . . 20
1.3. Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 26
1.3.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 28
1.4. Método de la secante . . . . . . . . . . . . . . . . . . . . . . . 29
1.5. Método del punto fijo . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 32
1.5.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 35
1.6. Métodos para sistemas de ecuaciones no lineales . . . . . . . . 42
1.6.1. Método de Newton . . . . . . . . . . . . . . . . . . . . 43
1.6.2. Método del punto fijo . . . . . . . . . . . . . . . . . . . 47
1.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2. Interpolación polinomial 57
2.1. Método de coeficientes indeterminados . . . . . . . . . . . . . 58
2.2. Método de Lagrange . . . . . . . . . . . . . . . . . . . . . . . 58
2.3. Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . 60
2.4. Método de Diferencias Divididas . . . . . . . . . . . . . . . . . 62
2.5. Análisis de error . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.6. Fenómeno Runge . . . . . . . . . . . . . . . . . . . . . . . . . 70

3. Integración Numérica 73
3.1. Método del Trapecio . . . . . . . . . . . . . . . . . . . . . . . 74
3.1.1. Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

3
4 ÍNDICE GENERAL

3.1.2. Compuesto . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2. Método de Simpson . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2.1. Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2.2. Compuesto . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3. Cuadratura Gaussiana . . . . . . . . . . . . . . . . . . . . . . 90
3.3.1. Polinomios Ortogonales . . . . . . . . . . . . . . . . . . 95
3.4. Cuadratura Gaussiana . . . . . . . . . . . . . . . . . . . . . . 96
3.5. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . 101

4. Sistemas de ecuaciones lineales 103


4.1. Métodos Directos . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.1.1. Eliminación Gaussiana . . . . . . . . . . . . . . . . . . 107
4.1.2. Pivoteo Parcial . . . . . . . . . . . . . . . . . . . . . . 112
4.1.3. Pivoteo Total . . . . . . . . . . . . . . . . . . . . . . . 118
4.1.4. Factorización LU . . . . . . . . . . . . . . . . . . . . . 123
4.1.5. Factorización por matrices elementales . . . . . . . . . 126
4.1.6. Factorización QR . . . . . . . . . . . . . . . . . . . . . 131
4.2. Métodos Indirectos . . . . . . . . . . . . . . . . . . . . . . . . 134
4.2.1. Método de Jacobi . . . . . . . . . . . . . . . . . . . . . 135
4.2.2. Método de Gauss-Seidel . . . . . . . . . . . . . . . . . 135
4.2.3. Método de relajación . . . . . . . . . . . . . . . . . . . 138

5. Métodos numéricos para problemas de valor inicial 139


5.1. Métodos de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 143
5.2. Métodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 146
5.2.1. Runge-Kutta de 2 pasos . . . . . . . . . . . . . . . . . 146
5.2.2. Runge-Kutta de 3 pasos . . . . . . . . . . . . . . . . . 147
5.2.3. Runge-Kutta de 4 pasos . . . . . . . . . . . . . . . . . 147
5.3. Métodos Multipasos . . . . . . . . . . . . . . . . . . . . . . . 147
5.4. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . 147

6. Prácticas Calificadas 149


6.1. Examen Parcial 2015-2 . . . . . . . . . . . . . . . . . . . . . . 149
6.2. Segunda Práctica Calificada . . . . . . . . . . . . . . . . . . . 156
Agradecimientos
No podrı́a haber escrito este pedazo de libro en español sin la inestimable
ayuda de ...
6 ÍNDICE GENERAL
Capı́tulo 1

Búsqueda de Raı́ces en
Ecuaciones No Lineales

Esta capı́tulo se centra en el problema de encontrar un cero de una función


real de variable real. En primer lugar, algunos de los aspectos teóricos y
numéricos de encontrar ceros en R pueden ser convenientes para el mismo
problema para funciones de Rn en R.
Por lo tanto, nuestro problema es hallar x tal que:
f (x) = 0 (1.1)
donde f : Rn → R es una función no lineal por lo general, veremos que
condiciones debe de satisfacer f para aproximar una raı́z de ella.
Es común encontrarnos con funciones f : D ⊂ R → R no lineales para
las cuales deseamos encontrar sus raı́ces, que normalmente, o son difı́ciles
o incluso hasta imposible calcularlas de forma analı́tica y exacta. Con el
objetivo de paliar este problema, los métodos numéricos a estudiar en este
capı́tulo, nos ayudarán a encontrar la raı́z de la función de una forma tan
aproximada como lo deseemos, para ello, se estudiarán métodos numéricos
adecuados y su respectiva implementación en un computador.
Entonces, antes de buscar las raı́ces de una función dada, primero debemos de
garantizar la existencia de la raı́z ası́ como su unicidad en un intervalo dado,
para que ası́ puedan ser aplicados algunos de los métodos que se estudiarán
a continuación. Por tanto, recordemos el siguiente teorema básico del cálculo
diferencial.
Teorema 1.1. Sea f : [a, b] ⊂ R → R una función continua la cual satisface
que f (a)f (b) < 0, entonces existe c ∈ ha, bi tal que f (c) = 0.
El teorema anterior garantiza la existencia de al menos una raı́z para la
función, para garantizar la unicidad debemos de utilizar algún otro argumen-

7
8CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

to, por ejemplo, que la función sea monótona o que tenga derivada positiva
en el intervalo.
Un uso adecuado del Teorema 1.1 permitirá deducir el Método de la Bisección
que se detalla a continuación.

1.1. Método de la bisección


Este método surge de forma natural al aplicar adecuadamente el Teorema
1.1, pues, básicamente consiste en reducir el intervalo inicial a la mitad en
cada iteración, de modo que se consigue aislar la raı́z en cada nuevo intervalo.
La elección del nuevo intervalo se basa en el Teorema 1.1. Es decir:
Dada una función f y dado un intervalo inicial [a0 , b0 ] que satisfacen las con-
diciones del Teorema 1.1, calculamos el punto medio c0 = a0 +b 2
0
, obteniendo
ası́ dos nuevos subintervalos I1 = [a0 , c0 ] e I2 = [c0 , b0 ]. El nuevo intervalo
[a1 , b1 ] será aquel que siga cumpliendo la condición del Teorema 1.1. Repe-
timos el proceso hasta la iteración n y obtenemos un intervalo final [an , bn ]
más pequeño que el original que contiene a la raı́z.

Figura 1.1: Esquema del método de la bisección

A continuación presentamos el Algoritmo del método de la bisección:

Algoritmo 1 (Método de la bisección.).


1.1. MÉTODO DE LA BISECCIÓN 9

Paso 1: Ingresar una función continua f .


Paso 2: Ingresar intervalo inicial [a0 , b0 ].
Paso 3: Verificar que f (a0 )f (b0 ) < 0, caso contrario regresar al Paso 2.
a0 + b 0
Paso 4: Calcular c0 = y f (c0 ).
2
Paso 5: Hacer k = 0.
Si f (a0 )f (c0 ) < 0 entonces:
ak+1 = ak , bk+1 = ck y f (bk+1 ) = f (ck ),
sino:
ak+1 = ck , bk+1 = bk y f (ak+1 ) = f (ck ).
Y el nuevo intervalo será [ak+1 , bk+1 ].
Paso 6: Mientras |ck+1 − ck | > T olerancia hacer
ak+1 + bk+1
ck+1 =
2
Calcular f (ck+1 ).
k = k + 1;
Si f (a0 )f (c0 ) < 0 entonces:
ak+1 = ak , bk+1 = ck y f (bk+1 ) = f (ck ),
sino:
ak+1 = ck , bk+1 = bk y f (ak+1 ) = f (ck ).
Y el nuevo intervalo será [ak+1 , bk+1 ].
Paso 7: La aproximación de la raı́z viene dada por:
ak+1 + bk+1
ck+1 = .
2
Ejemplo: Aproximar una raı́z para la función

f (x) = 2 arctan(x − 3) − 0.02x2 .

Resolución
Primero observamos que la función f es continua en todo R.
Considerando el intervalo [0, 4], se observa que f (0)f (4) < 0, entonces, por
el Teorema 1.1 podemos concluir que existe al menos una raı́z r de f en el
intervalo [0, 4].
Para garantizar unicidad, observemos que:
2
f 0 (x) = − 0.04x.
1 + (x − 3)2
Pero, para todo x ∈ [0, 4] se cumplen:
2
0.2 ≤ ≤ 2,
1 + (x − 3)2
0 < 0.2 − 0.16 ≤ 0.2 − 0.04x,
10CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

es decir: f 0 (x) > 0 para todo x ∈ [0, 4], por tanto, la función f es creciente y
ası́, la raı́z es única en el intervalo inicial [0, 4].
Garantizada la existencia y unicidad de una raı́z r en [0, 4], procedemos a
aproximarla mediante el método de la bisección, los cuales se muestran en la
Tabla 1.1.

Tabla 1.1: Mét. de la bisección para f (x) = 2 arctan(x − 3) − 0.02x2 .


i ai bi ci f (c) |ci+1 − ci | < 10−5
0 0 4 2 -1.6507963 F
1 2 4 3 -0.1800000 F
2 3 4 3.5 0.6822952 F
3 3 3.5 3.25 0.2787073 F
4 3 3.25 3.125 0.0533975 F
5 3 3.125 3.0625 -0.0627405 F
6 3.0625 3.125 3.09375 -0.0044722 F
7 3.09375 3.125 3.109375 0.0245197 F
8 3.09375 3.109375 3.1015625 0.0100371 F
9 3.09375 3.1015625 3.09765625 0.0027857 F
10 3.09375 3.09765625 3.09570313 -0.0008425 F
11 3.09570313 3.09765625 3.09667969 0.0009718 F
12 3.09570313 3.09667969 3.09619141 0.0000647 F
13 3.09570313 3.09619141 3.09594727 -0.0003889 F
14 3.09594727 3.09619141 3.09606934 -0.0001621 F
15 3.09606934 3.09619141 3.09613037 -0.0000487 F
16 3.09613037 3.09619141 3.09616089 0.0000080 F
17 3.09613037 3.09616089 3.09614563 -0.0000203 E

De la Tabla 1.1 podemos observar que:

|c17 − c16 | = 0.00000203 < 10−5 ,

entonces, tenemos que: r ≈ c17 = 3.09614563.

1.1.1. Análisis de convergencia


Hasta ahora, sólo hemos aplicado el método de la bisección de forma
mecánica y práctica, pero tal vez aún no nos hemos preguntado si el método
de la bisección funciona siempre. Es objetivo de esta sección confirmar y
demostrar el porqué funciona este método.
1.1. MÉTODO DE LA BISECCIÓN 11

Figura 1.2: Método gráfico para estimar el valor de la raı́z r.

Recordando que el método de la bisección en cada iteración reduce el intervalo


a la mitad, entonces, en la iteración n se cumple que:

1
|bn − an | = |bn−1 − an−1 |
2
lo anterior implica que:

1
|bn − an | = |b0 − a0 |
2n
cuando n → ∞ se tiene que lı́m |bn − an | = 0, ası́, podemos concluir que:
n→∞

lı́m (bn − an ) = 0 (1.2)


n→∞

Por otro lado, observamos que los intervalos generados en cada iteración
satisfacen la siguiente relación:

a0 ≤ a1 ≤ a2 ≤ · · · an ≤ b n ≤ · · · ≤ b 3 ≤ b 2 ≤ b 1 ≤ b 0

es decir, la sucesión {an }∞


n=0 es una sucesión creciente y acotada por b0 , por
tanto, es una sucesión convergente. Del mismo modo, la sucesión {bn }∞ n=0 es
12CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Figura 1.3: Este gráfico es nuevo

una sucesión decreciente y acotada por a0 , entonces, también es una sucesión


convergente. Ası́, a partir de la ecuación (1.2) se obtiene:
0 = lı́m (bn − an ) = lı́m bn − lı́m an
n→∞ n→∞ n→∞

es decir:
lı́m bn = lı́m an . (1.3)
n→∞ n→∞

La ecuación (1.4) nos dice que los extremos de los intervalos [an , bn ] van a
coincidir en el lı́mite, sea r este lı́mite común. Por otro lado, como f es una
función continua, se cumple también lo siguiente:
lı́m f (an ) = f ( lı́m an ) = f (r) = f ( lı́m bn ) = lı́m f (bn ).
n→∞ n→∞ n→∞ n→∞

Recordemos que los extremos del intervalo en el método de la bisección son


elegidos tal que f (an )f (bn ) < 0, entonces, tomando nuevamente lı́mite obte-
nemos:
0 ≥ lı́m f (an )f (bn ) = lı́m f (an ) lı́m f (bn ) = f (r)f (r) ≥ 0.
n→∞ n→∞ n→∞

de donde obtenemos: f (r) = 0, es decir, r es raı́z de la función f . Esto nos


permite concluir que el método de la bisección siempre converge a una raı́z
de una función continua.
1.1. MÉTODO DE LA BISECCIÓN 13

1.1.2. Análisis de error


El análisis de convergencia realizado en la sección anterior. nos dice que
después de realizar un número infinito de veces el método de la bisección,
este nos dará el valor exacto de la raı́z r de una función coninua f , siempre
que el intervalo inicial [a, b] satisfaga f (a)f (b) < 0. Lamentablemente un pro-
ceso infinito no puede ser realizado por ningún computador y mucho menos
hacerlo manualmente.
Lo que garantiza el análisis de convergencia y podemos rescatar, es que cuan-
do mayor número de iteraciones realicemos, la aproximación xn estará más
cerca de la raı́z, entonces es natural la siguiente pregunta: ¿Será posible
determinar apriori el número de iteraciones de forma que alcancemos una
tolerancia de error ingresada al inicio del proceso?.
Veamos que la pregunta anterior tiene una respuesta afirmativa, para ello
consideremos una función f y un intevalo inicial [a0 , b0 ] que satisfacen las
condiciones del Teorema 1.1. Sea r la raı́z tal que r ∈ [a0 , b0 ], después de n
iteraciones se ha reducido el intervalo inicial al intervalo [an , bn ] y la aproxi-
an + b n
mación a la raı́z r en ese intervalo es cn = . Por tanto, el error en la
2
iteración n viene dado por:
en = |r − cn | (1.4)
Por ser cn el punto medio del intervalo [an , bn ], el cual contiene a la raı́z r,
podemos concluir que:
1 1 1
|r − cn | ≤ (bn − an ) = 2 (bn−1 − an−1 ) = ... = n+1 (b0 − a0 )
2 2 2
Dada una tolerancia inicial tol, tal que deseamos que en < tol, entonces,
bastará exigir que:
1
n+1
(b0 − a0 ) < tol,
2
tomando logaritmos para despejar n, se obtiene:
 
b 0 − a0
log
tol
n> − 1. (1.5)
log(2)

Ası́, la relación (1.5) nos permite determinar apriori un número mı́nimo de


iteraciones a realizar para alcanzar una tolerancia de error deseada.
Ejemplo 1.1.1. Sea f (x) = x3 − 2x−1 + 3. ¿Cuántas iteraciones se necesita
para aproximar una raı́z con una tolerancia de error de 10−5 ?.
Resolución
14CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

La función f tiene como dominio R\{0}. Además: f (−2) = −4 y f (−1) = 4,


es decir, f (−1)f (−4) < 0 y como la función f es continua en [−2, −1],
entonces, por el Teorema 1.1 concluimos que existe una raı́z r ∈ h−2, −1i.
Para garantizar la unicidad, vemos que:

2
f 0 (x) = 3x2 + > 0 para todo x ∈ [−2, −1],
x2

es decir, f es una función creciente en ese intervalo. Ası́, podemos garantizar


que existe una única raı́z r ∈ h−2, −1i.
Para calcular el número de iteraciones necesarias para obtener una tolerancia
de error de 10−5 , hacemos uso de la relación (1.5), donde a0 = −2, b0 = −1,
es decir:
5
n > − 1 ≈ 15.6
log(2)
es decir, debemos tomar n = 16 iteraciones. Los resultados pueden observarse
en la Tabla 1.2.

Tabla 1.2: Met. de la bisección para f (x) = x3 − 2x−1 + 3.


i ai bi ci f (c)
0 -2 -1 -1.5 0.958333
1 -2 -1.5 -1.75 -1.216518
2 -1.75 -1.5 -1.625 -0.060246
3 -1.625 -1.5 -1.5625 0.465303
4 -1.625 -1.5625 -1.59375 0.206715
5 -1.625 -1.59375 -1.609375 0.074296
6 -1.625 -1.609375 -1.617188 0.007292
7 -1.625 -1.617188 -1.621094 -0.02641
8 -1.621094 -1.617188 -1.619141 -0.009542
9 -1.619141 -1.617188 -1.618164 -0.001121
10 -1.618164 -1.617188 -1.617676 0.003086
11 -1.618164 -1.617676 -1.61792 0.000983
12 -1.618164 -1.61792 -1.618042 -0.000069
13 -1.618042 -1.61792 -1.617981 0.000457
14 -1.618042 -1.617981 -1.618011 0.000194
15 -1.618042 -1.618011 -1.618027 0.000063
16 -1.618042 -1.618027 -1.618034 -0.000003
1.2. MÉTODO DE LA FALSA POSICIÓN 15

1.2. Método de la falsa posición


Dada una función f : [a, b] → R continua en [a, b] y tal que f (a)f (b) < 0.
Iniciando en el intervalo [x0 , x1 ] = [a, b], la idea es generar una sucesión de
intervalos [xk−1 , xk ] (k ≥ 1) tal que la raı́z de f se encuentre en él. Con este
objetivo, nada nos impide considerar la recta secante que pasa por los puntos
(xk−1 , f (xk−1 )) y (xk , f (xk )) dada por

f (xk−1 ) − f (xk )
y − f (xk ) = (x − xk ) (1.6)
xk−1 − xk

Figura 1.4: Método gráfico para estimar el valor de la raı́z r.

De la Figura 1.4 observamos que la intersección de la recta secante con


el eje x es el punto (xk+1 , 0), que reemplazando en (1.6) nos da el valor de
xk+1 :
xk−1 − xk
xk+1 = xk − f (xk ) (1.7)
f (xk−1 ) − f (xk )
Para elegir el nuevo intervalo [xk−1 , xk ], seguimos la idea del método de la
bisección, es decir, elegimos aquel que satisface

f (xk−1 )f (xk ) < 0


16CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

y la nueva aproximación de la raı́z x̂ es calculada de forma análoga al cálculo


de xk+1 . El proceso termina cuando la aproximación xk+1 satisfaga la condi-
ción f (xk+1 ) = 0 o |xk+1 − xk | < Tolerancia.
Algoritmo 1: Algoritmo del Método de la Secante
Entrada: Intervalo [a, b] tal que f (a)f (b) < 0. Tolerancia: tol.
1 inicio
2 k ← 1;
3 ak ← a;
4 bk ← b;
b k − ak
5 xk ← ak − f (ak ) ;
f (bk ) − f (ak )
6 mientras |f (xk )| > tol hacer
7 si f (ak )f (xk ) < 0 entonces
8 ak+1 ← ak ;
9 bk+1 ← xk ;
10 en otro caso
11 ak+1 ← xk ;
12 bk+1 ← bk .
13 fin si
14 k ← k + 1;
b k − ak
15 xk ← ak − f (ak ) .
f (bk ) − f (ak )
16 fin mientras
17 devolver xk .
18 fin

Ejemplo 1.2.1. Sea f (x) = x2 ln(x) − x. Dé un intervalo donde exista una
raı́z de la función f y aproxı́mela con una tolerancia de error de 10−5 .
Resolución
La función f tiene como dominio x > 0. Además: f (0.5) = −0.6931472 y
f (2) = 0.6931472, es decir, f (0.5)f (2) < 0 y como la función f es continua
en [0.5, 2], entonces, por el Teorema 1.1 concluimos que existe una raı́z r ∈
h0.5, 2i.
Para garantizar la unicidad, para todo x ∈ [0.5, 2] se cumple que:

f 0 (x) = 2x ln(x) + x − 1,

f 00 (x) = 2 ln(x) + 3.
El punto crı́tico de f es x = 1 donde f 0 (1) = 0. La Tabla 1.3 muestra el
análisis de signo para esbozar la gráfica de la función f dada en la Figura 1.5.
1.2. MÉTODO DE LA FALSA POSICIÓN 17

Tabla 1.3: Análisis de signo para f = x2 ln(x) − x.


x<1 x>1
f 0 (x) - +
00
f (x) + +

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figura 1.5: f (x) = x2 ln(x) − x.

La Figura 1.5 garantiza que f tiene una única raı́z en el intervalo [0.5, 2],
por tanto, inicializando en [a0 , b0 ] = [0.5, 2] la Tabla 1.4 muestra las iteracio-
nes hasta que se cumple que |f (x)| ≤ 10−5 .

1.2.1. Análisis de convergencia


En la iteración k + 1 el error para el método de la regla falsa se obtiene
xk−1 − xk
ek+1 = xk+1 − x̂ = xk − f (xk ) − x̂ (1.8)
f (xk−1 ) − f (xk )
reordenando (1.8)
 
 f (xk ) − f (x̂) 
ek+1 = xk − x̂ − 
 f (xk−1 ) − f (xk )  .
 (1.9)

xk−1 − xk
18CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Tabla 1.4: Met. de la Falsa Posición para f (x) = x2 log(x) − x.


i ai bi ci f (ci )
0 0.500000 2.000000 1.198490 -0.938416
1 0.500000 2.000000 1.198490 -0.938416
2 1.198490 2.000000 1.638086 -0.313789
3 1.638086 2.000000 1.742621 -0.056052
4 1.742621 2.000000 1.760031 -0.008799
5 1.760031 2.000000 1.762733 -0.001353
6 1.762733 2.000000 1.763148 -0.000207
7 1.763148 2.000000 1.763211 -0.000032
8 1.763211 2.000000 1.763221 -0.000005

Hacemos uso de la siguiente notación

f (b) − f (a)
f [a, b] := (1.10)
b−a

para reordenar la expresión dada en (1.9)


   
f [xk , x̂] f [xk−1 , xk ] − f [xk , x̂]
ek+1 = ek 1 − = ek (1.11)
f [xk−1 , xk ] f [xk−1 , xk ]

ahora acomodamos convenientemente (1.11) para obtener


 
f [xk−1 , xk , x̂]
ek+1 = ek ek−1 (1.12)
f [xk−1 , xk ]

donde se ha usado la notación siguiente

f [a, b] − f [b, c]
f [a, b, c] := . (1.13)
a−c

Usando (1.10) y (1.13) para xk−1 , xk , x̂ (en ese orden), podemos definir el
siguiente polinomio

P2 (x) = f (xk−1 ) + f [xk−1 , xk ](x − xk−1 ) + f [xk−1 , xk , x̂](x − xk−1 )(x − xk )

el cual satisface P2 (xk−1 ) = f (xk−1 ), P2 (xk ) = f (xk ) y P2 (x̂) = f (x̂).


Definimos la función g : [xk−1 , xk ] → R como sigue

g(x) = f (x) − P2 (x). (1.14)


1.2. MÉTODO DE LA FALSA POSICIÓN 19

De (1.14) se observa g(xk−1 ) = g(xk ) = g(x̂) = 0, por tanto, se puede


aplicar el Teorema de Rolle para concluir que existe ηk ∈ hxk−1 , xk i tal que
g 00 (ηk ) = 0. Esto implica
f 00 (ηk )
= f [xk−1 , xk , x̂]. (1.15)
2
Por otro lado, del Teorema del Valor Medio, existe ξk ∈ hxk−1 , xk i tal que

f 0 (ξk ) = f [xk−1 , xk ]. (1.16)

Usando (1.15) y (1.16) en (1.12) se obtiene


f 00 (ηk )
ek+1 = ek ek−1 . (1.17)
2f 0 (ξk )
Con el objetivo de acotar f 00 y f 00 , vamos a imponer que f ∈ C 2 ([x0 , x1 ])
y f 0 (x) 6= 0 para todo x ∈ [x0 , x1 ], luego, para k suficientemente grande
podemos considerar lo siguiente, [1]:

ek+1 = M ek ek−1 . (1.18)


f 00 (x̂)
donde M = . De la definición de ek dada en (1.8) podemos concluir a
2f 0 (x̂)
partir de (1.18) que el método de la Regla Falsa converge para puntos x0 , x1
suficientemente cerca de x̂.

1.2.2. Análisis de Error


Para el análisis de error, consideramos la igualdad (1.18) y definimos la
sucesión yk = ln(M ek ), que reemplazando en (1.18) resulta

yk+1 = yk + yk−1 , (1.19)

considerando yk = rk para resolver (1.19), se obtiene que


√ √
1+ 5 1− 5
r1 = , y r2 = = 1 − r1 .
2 2
por tanto, la solución de (1.19) viene dada por

yk = Ar1k + Br2k . (1.20)

A partir de (1.20) se obtiene la siguiente relación

yk − r1 yk−1 = Br2k−1 (1.21)


20CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

tomando lı́mite

lı́m (yk − r1 yk−1 ) = lı́m Br2k−1 = 0. (1.22)


k→∞ k→∞

usando la definición de yk en (1.22) y de las propiedades de logaritmos se


obtiene
 
1−r1 ek
lı́m (yk − r1 yk−1 ) = lı́m M = 0, (1.23)
k→∞ k→∞ erk−1
1

y dado que ek es una sucesión convergente, resulta que

 
ek
lı́m = M r1 −1 . (1.24)
k→∞ erk−1
1

El resultado obtenido en (1.24) nos permite afirmar que el método de Regla


Falsa es superlineal.

1.2.3. Método de la falsa posición modificada

Se observa en la Tabla 1.4 que el extremo derecho del intervalo en ca-


da iteración permanece constante. En general, cuando la función es convexa
(cóncava) creciente o decreciente, entonces al aplicar el método de falsa po-
sición, uno de los extremos del intervalo inicial permanece constante. Esta
caracterı́sca impide que la convergencia sea rápida y que tomemos como cri-
terio de parada que la longitud del intervalo [xk−1 , xk ] sea suficientemente
pequeño para algún k > 0.
Con el objetivo de superar estas dificultades, se hace una modificación al
Método de Falsa Posición. Cuando se observe que algún extremo del inter-
valo permanece constante en dos iteraciones (al menos), entonces, se aplica
el Algoritmo de Illinois, el cual considera un factor α de la imagen del
extremo que permance constante para el cálculo del siguiente punto. Este al-
goritmo es descrito en detalle en [2] y presentado a continuación. El objetivo
de la introducción del factor α es el prevenir que algún extremo permanezca
constante.
1.2. MÉTODO DE LA FALSA POSICIÓN 21

Algoritmo 2: Método de la Falsa Posición Modificada


Parámetros: α = 0.5.
Entrada: Puntos x0 y x1 tal que f (x0 )f (x1 ) < 0. Tolerancias: Tol, δ.
1 inicio
2 k ← 1;
x1 − x 0
3 x ← x1 − f (x1 ) ;
f (x1 ) − f (x0 )
4 mientras |f (x)| > Tol y |x − x1 | > δ hacer
5 si f (x)f (x1 ) < 0 entonces
6 x0 ← x1 ;
7 f0 ← f (x0 )
8 en otro caso
9 f0 ← αf (x0 );
10 fin si
11 k ← k + 1;
12 x1 ← x;
x1 − x0
13 x ← x1 − f (x1 )
f (x1 ) − f (x0 )
14 fin mientras
15 devolver x.
16 fin

Si aplicamos el método de la Regla Falsa Modificada al Ejemplo 1.2.1 se


obtienen los resultados dados en la Tabla 1.5.

Tabla 1.5: Método de la Regla Falsa Modificada


i ai bi ci f (ci )
0 0.500000 2.000000 1.198490 -0.938416
1 2.000000 1.198490 1.638086 -0.313789
2 2.000000 1.638086 1.800302 0.105309
3 1.638086 1.800302 1.759541 -0.010146
4 1.800302 1.759541 1.763123 -0.000276
5 1.800302 1.763123 1.763317 0.000260
6 1.763123 1.763317 1.763223 -0.000000

La interpretación gráfica del Método de la Regla Falsa Modificada para


el Ejemplo 1.2.1 se observa en la Figura 1.6.
22CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1 -1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

(a) Paso 1 (b) Paso 2


0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1 -1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

(c) Paso 3 (d) Paso 4

Figura 1.6: Interpretación gráfica del Método de la Falsa Posición Modificada.

Consideremos ahora la función siguiente dada en [2]

f (x) = 2xe−n + 1 − 2e−nx , n = 1, 2, . . . (1.25)

En la Tabla 1.6 se resumen los números de iteraciones al aplicar el Método


de la Bisección (MB), Método de la Regla Falsa (MRF) y el Método de
la Regla Falsa Modificada (MRFM) para la función f dada en (1.25) para
cuatro valores diferentes de n.

n MB MRF MRFM
1 50 19 8
5 50 19 9
15 50 19 11
20 50 19 10

Tabla 1.6: Número de iteraciones. Criterio de parada: |f (x)| ≤ 10−19 .


1.3. MÉTODO DE NEWTON 23

1.3. Método de Newton


El método de Newton es un método clásico y uno de los más rápidos para
aproximar una raı́z de una función no lineal f : [a, b] ⊂ R → R,
Para deducir el método de Newton, supongamos que xn es una buena apro-
ximación de la raı́z x̂ de f , es decir, | x̂ − xn | es bien pequeño, f ∈ C 2 ([a, b])
y f 0 (xn ) 6= 0; el polinomio de Taylor para f alrededor de xn viene dado por:

(x − xn )2 00
f (x) = f (xn ) + (x − xn )f 0 (xn ) + f (x ) (1.26)
2

donde x está entre x y xn . Como hemos supuesto que x̂ está bien cerca de
xn se tiene en (1.26) con x = x̂ lo siguiente:

(x̂ − xn )2 00
f (x̂) = f (xn ) + (x̂ − xn )f 0 (xn ) + f (x̂ ) (1.27)
2

pero f (x̂) = 0, y desde que | x̂ − xn | es bien pequeño, entonces el término


(x̂ − xn )2 es mucho menor, de aquı́ en (1.27):

0 ≈ f (xn ) + (x̂ − xn )f 0 (xn ) (1.28)

de (1.28) obtenemos:
f (xn )
x̂ ≈ xn − (1.29)
f 0 (xn )

la nueva aproximación dada por (1.29) será el nuevo término de la sucesión,


es decir:
f (xn )
xn+1 = xn − 0 , ∀ n ≥ 0. (1.30)
f (xn )

En resumen, el método de Newton comienza con una buena aproximación


inicial x0 y a partir de él se genera una sucesión de puntos {xn }∞
n=0 definida
por (1.30). Geométricamente significa que empezando en el punto inicial x0
que no esté muy lejos de la raı́z, se efectúa un desplazamiento a lo largo de
la tangente hacia su intersección con el eje ”x”, y se toma éste como la si-
guiente aproximación. Esto se realiza hasta que valores de xn sucesivos estén
suficientemente próximos o el valor de la función esté suficientemente cerca
de cero. Esta interpretación geométrica puede observarse en la Figura 1.7.
24CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.7: Interpretación geométrica del Método de Newton.

La rapidez del método de Newton se ve ensombrecida debido a que es


necesario conocer f 0 (x), porque en (1.30) es necesario calcular en cada ite-
ración los valores de f (xn ) y f 0 (xn ). La relación (1.30) sugiere que debemos
verificar que f 0 (xn ) no esté muy próxima de cero, de lo contrario el método
no va a funcionar.
Ejemplo 1.3.1. Aplique el método de Newton para encontrar un cero de:
π
f (x) = x − 0.8 − 0.2 sen(x), x ∈ [0, ]
2
Resolución:
Tenemos:
f (x) = x − 0.8 − 0.2 sen(x)
f 0 (x) = 1 − 0.2 cos(x)
π
x0 =
4
y aplicando la relación (1.30) codificado en el programa Newton.sce(Ver
apéndice)se obtiene:
1.3. MÉTODO DE NEWTON 25

i xi f (xi ) f 0 (xi )
0 0.785398 -0.156023 0.858579
1 0.967121 0.002470 0.886466
2 0.964335 0.000001 0.886007
3 0.964334 0.000000


Ejemplo 1.3.2. Use el método de Newton en la ecuación x2 = N para


deducir el algoritmo para obtener la raı́z cuadrada de un número positivo N .
Resolución:
Resolver x2 = N es hallar un cero de f (x) = x2 − N ⇒ f 0 (x) = 2x y por el
método de Newton se obtiene:

x2n − N
 
f (xn ) 1 N
xn+1 = xn − 0 = xn − = xn +
f (xn ) 2xn 2 xn

Ejemplo 1.3.3. Hallar aproximadamente una solución de la siguiente ecua-


ción:
x3 + 4x2 − 10 = 0.

Resolución:
Para hallar una solución de la ecuación dada, es equivalente a encontrar una
raı́z de f (x) = x3 + 4x2 − 10, la cual es continua y diferenciable en todo R.
Además, observemos que:

f (1) = −5, f (2) = 14, entonces, f (1)f (2) < 0

ası́, el Teorema 1.1 garantiza la existencia de al menos una solución en [1, 2].
Por otro lado:

f 0 (x) = 3x2 + 8x > 0 para todo x ∈ [1, 2],

es decir, la función f : [1, 2] → R es creciente en [1, 2] y ası́ la raı́z x̂ en ese


intervalo es única.
Aplicamos ahora la relación (1.30) codificado en el programa Newton.sce(Ver
apéndice) para obtener los resultados mostrados en la Tabla 1.7 con un cri-
terio de parada dado por |xn+1 − xn | < 10−5 :
26CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Tabla 1.7: Mét. de Newton para f (x) = x3 + 4x2 − 10.


n xn f (xn ) f 0 (xn ) xn f (xn ) f 0 (xn )
0 2.0000000 14.0000000 28.0000000 1.0000000 -5.0000000 11.0000000
1 1.5000000 2.3750000 18.7500000 1.4545455 1.5401953 17.9834711
2 1.3733333 0.1343455 16.6448000 1.3689004 0.0607197 16.5728681
3 1.3652620 0.0005285 16.5139172 1.3652366 0.0001088 16.5135057
4 1.3652300 0.0000000 16.5133991 1.3652366 0.0000000 16.5133991
5 1.3652300 0.0000000 16.5133991

En la Tabla 1.7 observamos que |x5 − x4 | < 10−5 cuando empezamos en


x0 = 2 y |x4 − x3 | < 10−5 cuando empezamos en x0 = 1. Además el crite-
rio de parada permite garantizar que la raı́z es exacta hasta el quinto decimal.


1.3.1. Análisis de convergencia


El error absoluto en la iteración n + 1 viene dado por:
en+1 = x̂ − xn+1 ,
y considerando xn+1 la aproximación dado por el método de Newton en la
relación (1.30), se obtiene:
en f 0 (xn ) + f (xn )
 
f (xn )
en+1 = x̂ − xn − 0 = . (1.31)
f (xn ) f 0 (xn )
Por otro lado, suponiendo que f ∈ C 2 ([a, b]), podemos desarrollar el polino-
mio de Taylor de segundo orden alrededor de xn , es decir:

0 f 00 (ξ)
f (x) = f (xn ) + f (x)(x − xn ) + (x − xn )2
2
donde ξ es un valor entre x y xn .
Desde que se supone que x̂ está muy próximo de xn , podemos reemplazar en
la ecuación anterior:
f 00 (ξ)
0 = f (x̂) = f (xn ) + f 0 (x)(x̂ − xn ) + (x̂ − xn )2 , (1.32)
2
donde ξ es un valor entre x̂ y xn , por tanto:
f 00 (ξ) f 00 (ξ) 2
f (xn ) + f 0 (x)(x̂ − xn ) = − (x̂ − xn )2 = − e
2 2 n
1.3. MÉTODO DE NEWTON 27

Reemplazando en (1.31), concluimos:


f 00 (ξ)
 
en+1 = − 0 e2 ,
2f (xn ) n
si además se tiene que f 0 (x) 6= 0 para todo x ∈ [a, b], entonces:
f 00 (x)

2
|en+1 | ≤ M en donde M = máx − 0

x∈[a,b] 2f (x)
Teorema 1.2. Sea f : [a, b] ⊂ R → R tal que f y f 0 son continuas. Sea
x̂ ∈ ha, bi tal que f (x̂) = 0 y f 0 (x̂) 6= 0, si además existen R, L > 0 tales que:

|f 0 (x) − f 0 (y)| ≤ L|x − y| para todo x, y ∈ B(x̂, R). (1.33)

entonces ∃ δ > 0 tal que si |x0 − x̂| < δ, entonces la sucesión {xn }∞
n=0 dada
por (1.30) converge a x̂ para cualquier punto inicial x0 ∈ B(x̂, δ).

Demostración:
Como f 0 es continua y f 0 (x̂) 6= 0, entonces existe R1 > 0 tal que f 0 (x) 6= 0
para todo x ∈ B(x̂, R1 ). Definamos:
 
1
c0 = sup < ∞. (1.34)
x∈B(x̂,R1 ) f 0 (x)

Para R2 = mı́n{R, R1 } definamos:


f (x)
g(x) = x − para todo x ∈ B(x̂, R2 ).
f 0 (x)
observando que g(x̂) = x̂. Además:
f (x)
g(x) − g(x̂) = x− − x̂
f 0 (x)
f (x)
= (x − x̂) − 0
f (x)
1
= [f (x̂) − f (x) − f 0 (x)(x̂ − x)]
f 0 (x) Z
1 
1 0 0
= (f (x + t(x̂ − x)) − f (x)) dt (x̂ − x)
f 0 (x) Z0
1
1
|g(x) − g(x̂)| ≤ |f 0 (x + t(x̂ − x)) − f 0 (x)| dt |(x̂ − x)|
|f 0 (x)| 0
Z 1
(1.33) L
≤ |t(x̂ − x)| dt|x̂ − x|
|f 0 (x)| 0
28CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

utilizando (1.34) se tiene:


Lc0
|g(x) − g(x̂)| ≤ |x̂ − x|2 . (1.35)
2
 
2 L c0 δ
Definamos δ < mı́n R2 , , entonces α = < 1. Por tanto, dado
L c0 2
x ∈ B(x̂, δ) se tiene:
L c0 δ
|g(x) − g(x̂)| ≤ |x̂ − x| = α δ < δ =⇒ g(x) ∈ B(x̂, δ). (1.36)
2
Ası́, dado x0 ∈ B(x̂, δ), por (1.30) y (1.36) implican que:
|x1 − x̂| = |g(x0 ) − g(x̂)| < δ =⇒ x1 ∈ B(x̂, δ)
y procediendo de forma inductiva: xn ∈ B(x̂, δ).
Por otro lado, de (1.36) también se tiene lo siguiente:
|xn+1 − x̂| ≤ α |xn − x̂| ≤ αn |x0 − x̂| para todo n ≥ 0
es decir, cuando n → ∞ la relación anterior implica que xn → x̂.

1.3.2. Análisis de error


El teorema siguiente nos informa que es posible encontrar una cota para
el error en el método de Newton.
Teorema 1.3. Sean f, f 0 , x̂, δ como en el Teorema 1.2, entonces existe M >
0 tal que si M δ < 1, se cumple que:
|xn+1 − xn | ≤ M |xn − x̂|2 , y, (1.37)
n
(M δ)2
|xn − x| ≤ . (1.38)
M
Demostración:
De la demostración del Teorema 1.2 se obtiene la desigualdad (1.35). Enton-
c0 L
ces, considerando x0 ∈ B(x̂, δ) y M = se tiene que:
2
|xn+1 − x̂| ≤ M |xn − x̂|2
c0 Lδ
observe que M δ = = α < 1, demostrando ası́ la desigualdad (1.37).
2
En la desigualdad (1.37), multiplicando por M a ambos lados se obtiene:
M |xn − x̂| ≤ (M |xn−1 − x̂|)2
1.4. MÉTODO DE LA SECANTE 29

procediendo de forma recursiva:

n
(M δ)2
|xn − x̂| ≤
M

probando ası́ la cota de error dada por (1.38).

Los teoremas 1.2 y 1.3 nos dicen que el método de Newton tiene como
principal desventaja la elección del punto inicial x0 , el cual debe de estar cerca
de la raı́z x̂ de la función f . Sin embargo, cuando esto ocurre, la relación (1.37)
nos dice que el método de Newton converge a la solución de forma cuadrática,
es decir, el número de decimales exactos se duplica en cada iteración. Otra
desventaja del método de Newton es el cálculo de la derivada y posterior
evaluación en cada iteración.

1.4. Método de la secante

Una de las desventajas del método de Newton es la necesidad de que la


función f sea derivable y que no se anule en cada iteración. El Método de
la secante descrito a continuación no hace uso de la derivada de la función.
Para ello, dado dos puntos iniciales x0 y x1 , se considera la recta secante que
pasa por los puntos (x0 , f0 ), (x1 , f1 ) dada por

Algoritmo 3: Algoritmo del Método de la Secante


Entrada: x0 , x1 , tol.
1 inicio
2 k ← 1;
3 mientras condição de parada não é satisfeita hacer
fk (xk − xk−1 )
4 xk+1 ← xk − ;
fk − fk−1
5 xk−1 ← xk ;
6 xk ← xk+1 ;
7 k ← k + 1;
8 fin mientras
9 devolver xk ;
10 fin
30CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.8: Interpretación geométrica del Método de la Secante.

Ejemplo 1.4.1. Sea el polinomio P (x) = x3 − 2x2 + 4x − 4. Se pide:

1. Demostrar analı́ticamente que es la única raı́z del polinomio.

2. Encontrar una raı́z de dicho polinomio con una precisión de 10−6 .

Resolución:

1. Para demostrar que existe una única raı́z, en este caso, basta analizar
la derivada del polinomio
 2
0 2 4 24
P (x) = 3x − 4x + 4 = 3 x − + > 0 para todo x ∈ R.
6 9

Por tanto, el polinomio es una función creciente en todo su dominio y


ası́, intersecta al eje x sólo una vez, garantizando ası́ la unicidad de la
raı́z.
1.5. MÉTODO DEL PUNTO FIJO 31

2. Para aproximar la raı́z, consideramos como aproximaciones iniciales los


puntos x0 = 3 y x1 = 6. Las iteraciones realizadas se muestran en la
Tabla 1.8 con el criterio de parada |xi+1 − xi | < 10−5 .

Tabla 1.8: Método de la Secante para P (x) = x3 − 2x2 + 4x − 4.


i xi−1 xi xi+1 |xi+1 − xi | f (xi+1 )
1 3.000000 6.000000 2.65306122 3.34693878 11.20896905
2 6.000000 2.653061 2.40752500 0.24553623 7.99218686
3 2.653061 2.407525 1.79748326 0.61004174 2.53561237
4 2.407525 1.797483 1.51400332 0.28347994 0.94200877
5 1.797483 1.514003 1.34643306 0.16757027 0.20089249
6 1.514003 1.346433 1.30101021 0.04542284 0.02091146
7 1.346433 1.301010 1.29573267 0.00527755 0.00051994
8 1.301010 1.295733 1.29559810 0.00013457 0.00000138
9 1.295733 1.295598 1.29559774 0.00000036 0.00000000

1.5. Método del punto fijo


Primero debemos de saber que significa que un punto x̂ sea un punto fijo
para una función g.

Definición 1.1. Dada una función g : [a, b] ⊂ R → R, decimos que un punto


x̂ ∈ [a, b] es un punto fijo de g cuando satisface lo siguiente:

g(x̂) = x̂.

De forma natural surge la pregunta: ¿Qué relación tiene el punto fijo


de una función g con la búsqueda de una raı́z para una función f ?. Pues
veamos, si x̂ es punto fijo de g entonces g(x̂) = x̂, es decir, x̂ es una raı́z para
la función f (x) = g(x)−x. Recı́procamente, si r es una raı́z de una función f ,
entonces f (r) = 0, es decir, r es punto fijo de la función g(x) = x − f (x). Por
tanto, buscar una raı́z para una función f es equivalente a buscar el punto
fijo para alguna función g adecuada. Los teoremas siguientes dan condiciones
necesarias para que una función g tenga punto fijo.

Teorema 1.4. Sea g : [a, b] ⊂ R → [a, b] una función continua. Entonces


existe x̂ ∈ ha, bi tal que g(x̂) = x̂, es decir, existe un punto fijo para la función
g.
32CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Demostración:
Definamos: f : [a, b] ⊂ R → R del modo que sigue: f (x) = x − g(x). De
donde observamos:

f (a) = a − g(a) < 0, porque g(a) ∈ [a, b],

f (b) = b − g(b) > 0, porque g(b) ∈ [a, b],


es decir, f (a) < 0 < f (b) y f es una función continua, entonces, por el
Teorema 1.1, concluimos que existe x̂ ∈ ha, bi tal que f (x̂) = 0, y de la
definición de f se tiene que x̂ satisface g(x̂) = x̂, que es lo querı́amos probar.

Teorema 1.5. Sea g : R → R una función continua y acotada. Entonces


existe x̂ tal que g(x̂) = x̂, es decir, existe un punto fijo para la función g.

Demostración:
Como g es una función acotada, entonces, existe k > 0 tal que |g(x)| < k
para todo x ∈ R, es decir:

−k < g(x) < k.

Definamos: f : [−k, k] ⊂ R → R del modo que sigue: f (x) = x − g(x), y


observamos que:

f (k) = k − g(k) < 0, porque g(k) ∈ [−k, k],

f (−k) = −k − g(−k) > 0, porque g(−k) ∈ [−k, k],


es decir, f (k) < 0 < f (−k), ası́, por el Teorema 1.1 existe x̂ ∈ h−k, ki tal
que f (x̂) = 0. Por tanto, x̂ es un punto fijo para g.

1.5.1. Análisis de convergencia


Los teoremas anteriores garantizan la existencia de un punto fijo punto
fijo. El siguiente resultado nos permite asegurar la unicidad del punto fijo, y
va más allá, porque nos dice como calcular el punto fijo.

Teorema 1.6. Sea g : R → R acotada y diferenciable, tal que existe λ ∈


h0, 1i que satisface: |g 0 (x)| ≤ λ < 1 para todo x ∈ R. Entonces, existe un
único punto fijo x̂ de la función g. Además, la sucesión de puntos {xn }∞
n=0
generada por:
xn = g(xn−1 ) para todo n ≥ 1, (1.39)
converge al único punto fijo x̂ para cualquier punto inicial x0 ∈ R.
1.5. MÉTODO DEL PUNTO FIJO 33

Demostración:
Desde que g es diferenciable en R, entonces es continua en R, y por hipótesis
es acotada, entonces existe k ∈ R, k > 0 tal que |g(x)| ≤ k. Luego, por el
Teorema 1.5 concluimos que existe un punto fijo x̂ ∈ h−k, ki de g.
Demostremos que el punto fijo es único. En efecto, supongamos que existe
otro punto fijo x∗ de la función g, es decir: g(x∗ ) = x∗ . Sin pérdida de
generalidad podemos suponer que x̂ < x∗ . Podemos aplicar el Teorema del
Valor Medio en el intervalo [x̂, x∗ ] para obtener un punto c ∈ hx̂, x∗ i tal que:

|g(x∗ ) − g(x̂)| = |g 0 (c)(x∗ − x̂)| ≤ λ|(x∗ − x̂)|

Desde que x̂ y x∗ son puntos fijos de g, la relación anterior implica:

|x∗ − x̂| ≤ λ|x∗ − x̂|,

es decir:

0 ≤ (1 − λ)|x∗ − x̂| ≤ 0 ⇒ (1 − λ)|x∗ − x̂| = 0

pero λ < 1, entonces x∗ = x̂. Por tanto, el punto fijo es único.


Resta probar la convergencia de la sucesión {xn }∞
n=0 hacia el único punto fijo
x̂. Veamos:

|xn − x̂| = |g(xn−1 ) − g(x̂)| = |g 0 (cn )(xn−1 − x̂)| (1.40)

para algún cn entre xn y x̂. Por hipótesis, existe λ ∈ h0, 1i tal que |g 0 (x)| ≤
λ < 1, entonces, la ecuación (1.40) implica:

|xn − x∗ | ≤ λ |xn−1 − x̂|. (1.41)

Repitiendo n veces el proceso de la ecuación (1.40) , la relación (1.41) permite


observar lo siguiente:
|xn − x̂| ≤ λn |x0 − x̂| (1.42)

Como λ ∈ h0, 1i, entonces lı́m λn = 0, por tanto, se satisface:


n→∞

lı́m xn = x̂,
n→∞

ası́ hemos probado la convergencia.


34CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.9: Interpretación geométrica del Método de Punto Fijo.

Ejemplo 1.5.1. Aproxime la raı́z para la siguiente función


1
f (x) = arctan(x − 2) − x.
3
Resolución:
Observar que el dominio de f es R. Recordando que aproximar una raı́z
de f es equivalente a aproximar el punto fijo para una función g adecuada.
Podemos considerar por ejemplo:
1
g(x) = arctan(x − 2).
3
Primero verifiquemos que se cumplen las condiciones del Teorema 1.6. En
efecto, el dominio de g es R, y es acotada en su dominio porque:

1 π
|g(x)| = arctan(x − 2) < para todo x ∈ R,
3 6
1.5. MÉTODO DEL PUNTO FIJO 35

además:

0
1 ≤ 1 = λ < 1 para todo x ∈ R.

|g (x)| =

2
3(1 + (x − 2) ) 3
Por tanto, se satisfacen las condiciones del Teorema 1.6 y ası́ concluimos que
existe un único punto fijo x̂ de la función g, el cual también es raı́z de la
función f .
En la Tabla 1.9 se muestran los resultados después de aplicar el método del
punto fijo a la función g y se ha detenido cuando |xi+1 − xi | < 10−5 . Se
muestran los resultados para dos puntos iniciales: x0 = 0 y para x0 = 50,
para ambos casos se da la convergencia hacia la solución.

Tabla 1.9: Met. del punto fijo para f (x) = arctan(x − 2)/3 − x
i xi g(xi ) f (xi ) xi g(xi ) f (xi )
0 0 -0.36905 -0.36905 50 0.516655 -49.483345
1 -0.36905 -0.390459 -0.021409 0.516655 -0.325876 -0.842532
2 -0.390459 -0.39153 -0.001071 -0.325876 -0.388248 -0.062372
3 -0.39153 -0.391583 -0.000053 -0.388248 -0.39142 -0.003172
4 -0.391583 -0.391585 -0.000003 -0.39142 -0.391577 -0.000158
5 -0.391585 -0.391586 0.000000 -0.391577 -0.391585 -0.000008
6 -0.391585 -0.391586 0.000000

1.5.2. Análisis de error


Hasta ahora hemos analizado la convergencia del método del punto fijo.
Similar al método de la bisección, para el método del punto fijo se puede
establecer también una cota para el error absoluto, entre la solución exacta
y la aproximada.
Teorema 1.7. Sean g, λ, {xn }∞ n=0 y x0 establecidos como en el Teorema 1.6
y sea x̂ el punto fijo de g. Entonces, en la iteración n se cumple:
λn
|x̂ − xn | ≤ |x1 − x0 |.
1−λ

Demostración:
De la definición de xn en (1.39), x̂ punto fijo de g y de la condición que
cumple λ para g 0 , se cumple:
|xn − xn−1 | = |g(xn−1 ) − g(xn−2 )| = |g 0 (c∗ )||xn−1 − xn−2 | ≤ λ|xn−1 − xn−2 |
36CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

para algún c∗ entre xn−1 y xn−2 .


Repitiendo el proceso anterior n−1 veces, se obtiene la siguiente desigualdad:

|xn − xn−1 | ≤ λn−1 |x1 − x0 | (1.43)

Consideremos ahora m, n ∈ N, m > n, entonces:

|xm − xn | = |xm − xm−1 + xm−1 − · · · − xn+1 + xn+1 − xn |


≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xn+1 − xn |
≤ λm−1 |x1 − x0 | + λm−2 |x1 − x0 | + · · · + λn |x1 − x0 |
≤ (λm−1 + λm−2 + · · · + λn )|x1 − x0 |
≤ λn (λm−n−1 + λm−n−2 + · · · + λ2 + λ + 1)|x1 − x0 |
≤ λn (1 + λ + · · · + λm−n−1 + λm−n + · · · + λm )|x1 − x0 |

ahora, fijando n y haciendo m → ∞, entonces xm → x̂ y obtenemos:

λn
|x̂ − xn | ≤ |x1 − x0 | (1.44)
1−λ

Por lo general, una función sólo está definida en un intervalo [a, b] ⊂ R,


cuando suceda ello, el siguiente resultado da condiciones suficientes similares
a los presentados en el Teorema 1.6.

Teorema 1.8. Sea g : [a, b] ⊂ R → [a, b] ⊂ R continua en [a, b] y diferen-


ciable en ha, bi, tal que existe λ ∈ h0, 1i que satisface: |g 0 (x)| ≤ λ < 1 para
todo x ∈ ha, bi. Entonces, existe un único punto fijo x̂ ∈ ha, bi de la función
g. Además, la sucesión de puntos {xn }∞ n=0 generada por:

xn = g(xn−1 ) para todo n ≥ 1, (1.45)

converge al único punto fijo x̂ para cualquier punto inicial x0 ∈ ha, bi. Además,
en la iteración n se sigue cumpliendo:

λn
|x̂ − xn | ≤ |x1 − x0 |. (1.46)
1−λ

La demostración del Teorema 1.8 es muy similar a la presentada en el


Teorema 1.6. El siguiente ejemplo muestra una aplicación del Teorema 1.8.
Ejemplo 1.5.2. Utilice el método de Punto Fijo para determinar una apro-
ximación con un error absoluto inferior a ×10−5 , del único cero de la función

f (x) = 1 + x + exp(x) = 0
1.5. MÉTODO DEL PUNTO FIJO 37

que se sabe está en el intervalo [−2, −1].


Resolución:
Para la función f definimos para todo x ∈ [−2, −1] la siguiente función:

g(x) = −1 − ex .

Observar que

−2 ≤ g(−1) < g(x) < g(−2) ≤ −1, para todo x ∈ [−2, −1],

es decir, g([−2, −1]) ⊂ [−2, −1].


Por otro lado:

g 0 (x) = −ex ⇒ |g 0 (x)| ≤ e−1 < 1, para todo x ∈ [−2, −1].

Entonces, por el Teorema 1.8 podemos concluir que existe un único punto
fijo x̂ de la función g en el intervalo [−2, −1] y por tanto, x̂ será también la
única raı́z de f en el mismo intervalo.
Además, el esquema iterativo del punto fijo dado por (1.45) genera una suce-
sión de puntos que convergen a x̂ para cualquier x0 ∈ h−2, −1i. La Tabla 1.10
muestra los resultados de aplicar 1.45 iniciando en x0 = −1.5 ∈ h−2, −1i has-
ta que |xn − xn−1 | < 10−5 .

Tabla 1.10: Método de punto fijo para g(x) = −1 − ex .


n xn−1 xn |xn − xn−1 |
1 -1.50000000 -1.22313016 0.27686984
2 -1.22313016 -1.29430749 0.07117733
3 -1.29430749 -1.27408761 0.02021989
4 -1.27408761 -1.27968604 0.00559843
5 -1.27968604 -1.27812461 0.00156143
6 -1.27812461 -1.27855922 0.00043461
7 -1.27855922 -1.27843818 0.00012104
8 -1.27843818 -1.27847188 0.00003370
9 -1.27847188 -1.27846250 0.00000939

Ejemplo 1.5.3. ¿Cuántas√iteraciones serán necesarias para aproximar una


x2 + 1
raı́z de la función f (x) = − x con una tolerancia de error menor a
5
10−5 ?.
Resolución:
38CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Veamos primero
√ si la función f tiene al menos una raı́z. Para ello, conside-
x2 + 1
remos g(x) = definida en el intervalo |x| ≤ 1. En este intervalo se
5
tiene:
√ √
x2 + 1 2
−1 < 0 ≤ ≤ <1
5 5

es decir, si |x| ≤ 1 se cumple: |g(x)| ≤ 1.


Además:


0 2 x 2
|g (x)| = √ ≤ < 1 para todo x ∈ h−1, 1i.
5 x2 + 1 5

Entonces, por el Teorema 1.8 podemos concluir que existe un único punto
fijo x̂ de la función g en el intervalo |x| ≤ 1 y por tanto, x̂ será también la
única raı́z de f en el mismo intervalo.
Calculemos ahora el número de iteraciones necesarias para alcanzar una to-
lerancia de error menor a 10−5 , para ello hacemos uso de (1.46), donde:

2
λ= , y si x0 = −0.5 ⇒ x1 = g(x0 ) ≈ 0.224,
5

por tanto:

10−5 (1 − λ)
 
ln
|x1 − x0 |
n> = 12.8,
ln(λ)

es decir, si tomamos n = 13 garantizamos la tolerancia de error pedida.


Si cambiamos el punto inicial a x0 = 0.5, se tiene que: x1 = g(x0 ) ≈ 0.224,
por tanto: n > 11.7, es decir, si tomamos n = 12 iteraciones garantizamos la
tolerancia de error pedida.
La Tabla 1.11 muestra los resultados después de aplicar el método de Punto
Fijo para g, los cálculos se han hecho hasta el número de iteraciones estimado
para cada punto inicial x0 .
1.5. MÉTODO DEL PUNTO FIJO 39


x2 + 1
Tabla 1.11: Mét. punto fijo para f (x) = − x.
5
i xi g(xi ) f (xi ) xi g(xi ) f (xi )
0 -0.500000 0.223607 0.723607 0.500000 0.223607 -0.276393
1 0.223607 0.204939 -0.018668 0.223607 0.204939 -0.018668
2 0.204939 0.204157 -0.000782 0.204939 0.204157 -0.000782
3 0.204157 0.204125 -0.000031 0.204157 0.204125 -0.000031
4 0.204125 0.204124 -0.000001 0.204125 0.204124 -0.000001
5 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
6 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
7 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
8 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
9 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
10 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
11 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
12 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
13 0.204124 0.204124 0.000000

Podemos observar que en ambos casos se cumple que |x6 − x5 | < 10−5 , es
decir, se alcanzó la tolerancia pedida mucho antes del valor estimado para el
número de iteraciones n.

Ejemplo 1.5.4. ¿Cuántas iteraciones serán necesarias para aproximar una


raı́z de la función f (x) = x2 − e−x con una tolerancia de error menor a 10−5 ?.
Resolución:
Veamos primero √ si la función f tiene al menos una raı́z. Para ello, conside-
remos g(x) = e−x definida en el intervalo [0, 1]. En este intervalo se tiene:

0≤ e−1 ≤ g(x) ≤ 1

es decir, se cumple: g(x) ⊂ [0, 1] para todo x ∈ [0, 1].


Además:

e−x 1
|g 0 (x)| = ≤ < 1 para todo x ∈ h0, 1i.

2 2

Entonces, por el Teorema 1.8 podemos concluir que existe un único punto
fijo x̂ de la función g en el intervalo [0, 1] y por tanto, x̂ será también la única
raı́z de f en el mismo intervalo.
40CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

El número de iteraciones necesarias para alcanzar una tolerancia de error


menor a 10−5 se calcula usando (1.46), donde:

1 √
λ= , y si x0 = 0.5 ⇒ x1 = g(x0 ) = e−x0 ≈ 0.7788,
2
por tanto:
n > 15.77,
es decir, si tomamos n = 16 garantizamos la tolerancia de error pedida.
La Tabla 1.12 muestra los resultados después de aplicar el método de Punto
Fijo para g, los cálculos se han hecho hasta el número de iteraciones estimado
para cada punto inicial x0 .

Tabla 1.12: Mét. punto fijo para f (x) = x2 − e−x .


i xi g(xi ) f (xi )
1 0.50000000 0.77880078 0.27880078
2 0.77880078 0.67746297 0.10133782
3 0.67746297 0.71267379 0.03521082
4 0.71267379 0.70023667 0.01243711
5 0.70023667 0.70460470 0.00436803
6 0.70460470 0.70306752 0.00153719
7 0.70306752 0.70360810 0.00054058
8 0.70360810 0.70341794 0.00019015
9 0.70341794 0.70348483 0.00006688
10 0.70348483 0.70346130 0.00002352
11 0.70346130 0.70346958 0.00000827
12 0.70346958 0.70346667 0.00000291
13 0.70346667 0.70346769 0.00000102
14 0.70346769 0.70346733 0.00000036
15 0.70346733 0.70346746 0.00000013
16 0.70346746 0.70346741 0.00000004

Observar que |x12 − x11 | < 10−5 .

Ejemplo 1.5.5. Considere la ecuación: cos(x) = tan(x), de la cual se sabe


que tiene una solución x̂ = 0.6662394321 con un error de 0.9 × 10−9 .

(a) Defina un método de punto fijo (diferente a Newton) y demuestre su


convergencia (sin hacer iteraciones) en el intervalo que usted defina.
1.5. MÉTODO DEL PUNTO FIJO 41

(b) ¿Cuántas iteraciones necesitarı́a para obtener el error de 0.9 × 10−9 ?


comenzando con x0 = 0.6?.
(c) Use el método de Newton con el punto inicial x0 = 0.6 para aproximar
la solución.
Resolución:

π
(a) Consideremos la función g(x) = arctan(cos(x)) para todo 0 ≤ x ≤ .
4
En este invervalo la función g es continua y además cumple

2
≤ cos(x) ≤ 1,
2
por tanto se obtiene
√ !
2 π
0 < arctan ≤ arctan(cos(x)) ≤ arctan(1) = .
2 4

es decir, g([0, π/4]) ⊂ [0, π/4].


Por otro lado:
sin(x)
g 0 (x) = − ,
1 + cos2 (x)
π
luego,para todo x ∈ h0, i se tiene
4

0
sin(x) π 
|g (x)| = −
≤ | sin(x)| ≤ sin < 1.
1 + cos2 (x) 4
Entonces, por el Teorema 1.8 podemos concluir que existe un único
punto fijo x̂ de la función g en el intervalo [0, π/4] y por tanto, x̂ será
también la única solución de cos(x) = tan(x) en el mismo intervalo.
(b) Iniciando en x0 = 0.6 se obtiene del item anterior

x1 = g(x0 ) = arctan(cos(x0 )) = 0.68999971,

y que λ = sin(π/4). Luego, a partir de (1.46) se obtiene ” n ” como


sigue:
0.9 × 10−9 (1 − λ)
 
ln
|x1 − x0 |
n> = 56.7.
ln(λ)
Por tanto, eligiendo n = 57 garantizamos la tolerancia pedida, es decir:
|x̂ − x57 | < 0.9 × 10−9 .
42CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(c) Usando el método de Newton se tiene que

f (xk )
xk+1 = xk + , para todo k ≥ 0,
f 0 (xk )

donde

f (x) = cos(x) − tan(x), f 0 (x) = − sin(x) − sec2 (x).

Los resultados son mostrados en la Tabla 1.13.

Tabla 1.13: Método de Newton para f (x) = cos(x) − tan(x).


k xk f (xk ) f 0 (xk )
0 0.600000 0.14119881 -2.03268565
1 0.669464 -0.00722808 -2.24685197
2 0.666247 -0.00001733 -2.23609379
3 0.666239 -0.00000000 -2.23606798

1.6. Métodos para sistemas de ecuaciones no


lineales
En esta sección vamos a considerar el siguiente sistema de ecuaciones no
lineales
f1 (x1 , . . . , xn ) = 0,
f2 (x1 , . . . , xn ) = 0,
.. (1.47)
.
fn (x1 , . . . , xn ) = 0.
Considerando ahora la notación vectorial, sea F : Rn → Rn definido por

F (x) = (f1 (x), f2 (x), . . . fn (x)). (1.48)

Entonces, el problema ahora es encontrar x̂ ∈ Rn tal que

F (x̂) = 0. (1.49)

Para aproximar el valor exacto de x̂ haremos uso de dos métodos numéricos


clásicos que describiremos a continuación.
1.6. MÉTODOS PARA SISTEMAS DE ECUACIONES NO LINEALES 43

1.6.1. Método de Newton


Este método hace uso del polinomio de Taylor de grado 1 para varias
(k) (k)
variables. Para ello elegimos un punto x(k) = (x1 , . . . , xn ) ∈ Rn suficiente-
mente cercano a x̂, es decir, x̂ = x(k) + h(k) para algún h(k) ∈ Rn , luego, para
cada i = 1, 2, . . . , n se tiene:
∂fi (k) (k) ∂fi (k) (k)
0 = fi (x(k) + h(k) ) = fi (x(k) ) + (x )h1 + . . . + (x )hn (1.50)
∂x1 ∂xn
El Sistema 1.50 escrito en forma matricial es:
∂f1 (k) ∂f1 (k)
 
(x ) . . . (x )
 ∂x1 ∂xn 
 
 ∂f2 (k) ∂f2 (k)   h(k) 
   
 (x ) . . . (x )  1 f1 (x(k) )
 ∂x1 ∂xn (k) (k)
  h2   f2 (x )
    
 .  = − (1.51)
 
.. .. .. ..
  .. 
 

 . . . 
 . 


 h(k)
 n fn (x(k) )
 ∂fn ∂fn (k) 
 (x(k) ) . . . (x ) 
∂x1 ∂xn

La matriz del Sistema 1.51 dado por


∂f1 (k) ∂f1 (k)
 
(x ) . . . (x )
 ∂x1 ∂xn 
 
 ∂f2 (k) ∂f2 (k)
 
(x ) . . . (x )

 
 ∂x1 ∂xn 
JF (x(k) ) =  (1.52)
 
.. .. .. 

 . . . 

 
 
 ∂fn ∂fn (k) 
 (x(k) ) . . . (x ) 
∂x1 ∂xn

es llamada Jacobiano de la función F dada en (1.48). Luego, usando (1.48),


(k) (k)
(1.52) y h(k) = (h1 , . . . , hn ) ∈ Rn en el Sistema 1.51 se obtiene

JF (x(k) )h(k) = −F (xk ) (1.53)

Resolviendo el Sistema 1.53 se obtiene el valor de h(k) , luego, definimos la


siguiente aproximación de x̂ como sigue:

x(k+1) = x(k) + h(k) . (1.54)


44CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

El proceso descrito se resume en el siguiente algoritmo.


Algoritmo 4: Método de Newton
Entrada: x(0) , T ol.
1 inicio
2 k ← 0;
3 mientras condição de parada não é satisfeita hacer
4 Obtener h(k) resolviendo el sistema:

JF (x(k) )h(k) = −F (xk )

x(k+1) ← x(k) + h(k) ;


5 k ← k + 1;
6 fin mientras
7 devolver x(k) ;
8 fin

Ejemplo 1.6.1. Aproxime la solución para el sistema de ecuaciones no


lineales siguientes:
 x + 1 ln(x x ) − 2 = 0

1 1 2
2
x1 x22 + 5x2 − 3 = 0

con un error menor a 10−5 e iniciando en x(0) = (1, 1.5).


Resolución:
Definimos:
1
f1 (x1 , x2 ) = x1 + ln(x1 x2 ) − 2 = 0,
2
f2 (x1 , x2 ) = x1 x22 + 5x2 − 3.
y siendo F (x) = (f1 (x), f2 (x) donde x = (x1 , x2 ), se calcula el Jacobiano de
la función F :  
1 1
 1 + 2x1 2x2
JF (x) = 


2
x2 2x1 x2 + 5
Iniciando con x(0) = (1, 1.5) en el Algoritmo 4 obtenemos:
   
(0) −0.7972674 (0) 1.5 1/3
F (x ) = , JF (x ) = .
6.75 2.25 8.
Resolviendo el sistema
   
1.5 1/3 (0) −0.7972674
h =−
2.25 8. 6.75
1.6. MÉTODOS PARA SISTEMAS DE ECUACIONES NO LINEALES 45

obtenemos que  
(0) 0.7669457
h =
−1.0594535
lo que implica  
(1) (0) (0) 1.7669457
x =x +h = .
0.4405465
Evaluamos el criterio de parada kh(0) k = 1.3079172 > 10−5 . Por tanto, re-
petimos el proceso hasta conseguir que kh(k) k < 10−5 o alcanzar un número
máximo de iteraciones sin conseguir el criterio de parada. Las iteraciones pa-
ra este ejemplo son resumidas en la Tabla 1.14 y se consiguió la convergencia
para k = 5.

Tabla 1.14: Método de Newton para el Ejemplo 1.6.1.


x(k) F (x(k) )
k (k) (k) kh(k) k
x1 x2 f1 (x(k) ) f2 (x(k) )
0 1 1.5 -0.79726745 6.75 0
1 1.766946 0.440547 -0.35829764 -0.45433645 1.30791722
2 1.99078 0.503213 -0.00832713 0.020177 0.23244147
3 1.999988 0.499999 -0.00001557 -0.00000913 0.00975263
4 2 0.5 0 0 0.00001178
5 2 0.5 0 0 0

Análisis de convergencia
Teorema 1.9. Sea F : Rn → Rn una función de clase C 2 en un conjunto
abierto y convexo D ⊂ Rn tal que x? ∈ D. Supongamos que JF (x? ) exista y
que además existen constantes positivas R, C y L tal que :

kJF (x? )k ≤ C, (1.55)

kJF (x) − JF (y)k ≤ L kx − yk para todo x, y ∈ B(x? , R). (1.56)

Entonces existe r > 0 tal que para cualquier punto inicial x0 ∈ B(x? , r) la
sucesión generada por el Algoritmo 4 converge para la solución x? con:

kxk+1 − x? k ≤ kxk − x? k2 . (1.57)


46CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Demostración: Afirmamos que existe r > 0 tal que JF (x0 ) es invertible. En


efecto, para cualquier x0 ∈ B(x? , R), de la hipótesis se tiene que:

kI − JF−1 (x? JF (x0 ))k = kJF−1 (x? )(J(x? ) − JF (x0 ))k,


≤ kJF−1 (x? )k kJF (x? ) − JF (x0 )k, (1.58)
≤ CLkx? − x0 k.

Siguiendo [3], de demostrará que el radio espectral de la matriz kI−JF−1 (x? )JF (x0 )k
es menor que 1, donde:
ρ(P ) = ı́nf (kP k).
k.k
 
1
En (1.58) elegimos r = min R, , obteniendo para cualquier x0 ∈
2CL
B(x? , r):
1
ρ(I − JF−1 (x? )JF (x0 )) ≤ kI − JF−1 (x? )JF (x0 )k ≤ . (1.59)
2
Entonces la matriz I − (I − JF−1 (x? )JF (x0 )) = JF−1 (x? )JF (x0 ) es invertible,
además:
1
k(JF−1 (x? )JF (x0 ))−1 k ≤ −1 ? . (1.60)
1 − kI − JF (x )JF (x0 )k
1
Por tanto, existe r = 2CL > 0 tal que para cualquier x0 ∈ B(x? , r) se tiene
que JF (x0 ) es invertible.
Probaremos ahora que para cualquier x0 ∈ B(x? , r) se tiene que la sucesión
generada por el Algoritmo 4 converge a x? .
En efecto, a partir de (1.59) se cumple que:

kJF−1 (x? )k
−1 ? ≤ 2 kJF−1 (x? )k ≤ 2C. (1.61)
1 − kI − JF (x )JF (x0 )k

Como JF−1 (x0 ) = JF−1 (x0 )JF (x? )JF−1 (x? ), entonces de (1.60) y (1.61) obtene-
mos:
kJF−1 (x? )k
kJF−1 (x0 )k ≤ ≤ 2C. (1.62)
1 − kI − JF−1 (x? )JF (x0 )k
Usando ahora el polinomio de Taylor alrededor de x0 , [?], se tiene que:

F (x? ) = F (x0 ) + JF (x0 )(x? − x0 ) + r(x? − x0 ), (1.63)

donde r(x? − x0 ) es el resto, el cual satisface:

r(x? − x0 )
lı́m ? = 0. (1.64)
x0 →x kx? − x0 k2
1.6. MÉTODOS PARA SISTEMAS DE ECUACIONES NO LINEALES 47

De (1.64) y como F (x? ) = 0, obtenemos:

kx1 − x? k ≤ kx0 − JF−1 (x0 ) − x? + JF−1 (x0 )F (x? )k,


≤ kJF−1 (x0 )k kF (x0 ) − F (x? ) + JF (x0 )(x0 − x? )k, (1.65)
≤ CL kx0 − x? k2 .

Por tanto, (1.65) prueba (1.57) para k = 0. Además, como x0 ∈ B(x? , r)


podemos concluir de (1.65) que x1 ∈ B(x? , r).
Asumiendo ahora que el teorema es válido para k y probando de um modo
similar para k + 1, usando inducción se concluye la demostración.

Del Teorema 1.9 podemos deducir que uma desventaja del Método de
Newton, es que la existencia de la vecindad donde el Método converge es
pequeña. Algunas variaciones del Método de Newton para resolver un sistema
de ecuaciones no lineales pueden ser vistas en [3, 4, 5, 6, 7, 8].

1.6.2. Método del punto fijo


Teorema 1.10. Sea D ⊂ Rn un conjunto cerrado y acotado. Sea G : D → Rn
una función continua. Supongamos que G(D) ⊂ D, entonces existe un punto
fijo x̂ para G. Más aún, si kJG(x)k ≤ λ < 1 para todo x ∈ D, entonces el
punto fijo es único y el proceso iterativo dado por

xn+1 = G(xn ), para todo n ≥ 0, (1.66)

converge al único punto fijo x̂ para cualquier punto inicial x0 ∈ D. Es más,


en la iteración n se cumple también

λn
kx̂ − xn k ≤ kx1 − x0 k. (1.67)
1−λ
Como consecuencia de (1.67) se tiene un estimado del número de itera-
ciones ” n ” para alcanzar una cierta tolerancia TOL. El cálculo de ” n ”
viene estimado por  
TOL (1 − λ)
ln
kx1 − x0 k
n≥ . (1.68)
ln(λ)

Ejemplo 1.6.2. Considere el sistema de ecuaciones no lineales:

x21 − 10x1 + x22 + 8 = 0


x1 x22 + x1 − 10x2 + 8 = 0
48CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Determinar una región D ⊂ R2 que contiene una única solución α =


(α1 , α2 ) del sistema.

(b) Proponga un método de punto fijo convergente para determinar la solu-


ción α = (α1 , α2 ) ∈ D del sistema. Demuestre la convergencia sin iterar.
¿Se puede iniciar en (0, 0)? En caso afirmativo, estimar el número de
iteraciones para alcanzar una tolerancia menor a 10−5 .

(c) Realice 2 iteraciones con el método propuesto y compare con el método


de Newton. En ambos casos, inicie en (0, 0) (especifique cual de los
métodos está usando).
Resolución:
(a) El sistema dado puede escribirse de la forma siguiente:

x21 + x22 + 8
x1 =
10
x1 x22 + x1 + 8
x2 =
10
Por tanto, podemos considerar la siguiente función de iteración:

x21 + x22 + 8
 
 10 
G(x1 , x2 ) =  
x1 x22 + x1 + 8
 
10
Considere la siguiente región:

D = {(x1 , x2 ) ∈ R2 / 0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1}.

Para todo (x1 , x2 ) ∈ D se cumple

x21 + x22 + 8 ≤ 9, esto implica: 0 ≤ G1 (x1 , x2 ) ≤ 0.9.


0 ≤ x1 + 8 ≤ x1 x22 + x1 + 8 ≤ 10, esto implica: 0 ≤ G2 (x1 , x2 ) ≤ 1.

por tanto se concluye que (G1 (x1 , x2 ), G2 (x1 , x2 )) ∈ D.


Nos falta examinar la matriz jacobiana de G dada por
 x x 
1 2
 5 5 
JG(x1 , x2 ) =  
 x22 + 1 2x1 x2 
10 10
1.6. MÉTODOS PARA SISTEMAS DE ECUACIONES NO LINEALES 49

de donde
x1 + x2 x22 + 1 + 2x1 x2
 
kJG(x1 , x2 )k∞ = máx , .
5 10
Se presentan dos casos:
x1 + x2 2
Si kJG(x1 , x2 )k∞ = , entonces, kJG(x1 , x2 )k∞ < < 1.
5 5
x22 + 1 + 2x1 x2
Si kJG(x1 , x2 )k∞ = , entonces
10
(x1 + x2 )2 + 1 − x21 (x1 + x2 )2 + 1 5
kJG(x1 , x2 )k∞ = ≤ < .
10 10 10
De los casos anteriores podemos concluir que
 
2 5 1
kJG(x1 , x2 k∞ < máx , = < 1,
5 10 2
1
ası́, tenemos que λ = < 1.
2
Por tanto, del Teorema 1.10 podemos concluir que la función G admite
un único punto fijo x̂ ∈ D.
(b) Por el item anterior, la función G satisface las condiciones del Teore-
ma 1.10, por tanto, la sucesión
 
(k+1)
x
 1  = G(x1(k) , x(k)
2 ), para todo k ≥ 0,
(k+1)
x2

es decir   2  2 
(k) (k)
+
x1 +8 x2
   
(k+1)
x1

 10 

 = 
(k+1)  
x2  (k)  (k) 2 (k) 
 x1 x2 + x1 + 8 
10
converge al único punto fijo x̂ ∈ D para cualquier punto inicial x(0) ∈ D.
Por otro lado, como x(0) = (0, 0) ∈ D, entonces la sucesión converge al
único punto fijo x̂. Luego, para estimar el número de iteraciones ” n ”
tenemos:
   
(0) 0 (1) 0.8
x = ⇒x = ⇒ kx(1) − x(0) k∞ = 0.8,
0 0.8
50CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

y del item anterior se tiene que λ = 0.5. Por tanto, usando (1.68)
obtenido a partir del Teorema 1.10 tenemos que
 −5 
10 × 0.5
ln
0.8
n≥ ⇒ n ≥ 17.287712.
ln(0.5)
Esto último implica que debemos elegir n = 18 como el número de
iteraciones para alcanzar una tolerancia menor a 10−5 .
(c) Empezamos con el método del Punto Fijo usando el proceso iterativo
descrito en el item anterior. Por tanto, si x(0) = (0, 0)T , entonces
 
(1) (0) 0.8
x = G(x ) =
0.8
116
 
 
(2) (1)
 125  0.928
x = G(x ) =    = .
582  0.9312
625
Ahora usamos el método de Newton siguiendo el Algoritmo 4, para ello
definimos:  2 
x1 − 10x1 + x22 + 8
F (x1 , x2 ) =
x1 x22 + x1 − 10x2 + 8
luego !
2x1 − 10 2x2
JF (x1 , x2 ) =
x22 + 1 2x1 x2 − 10
Iniciando en x(0) = (0, 0)T se tiene:
   
(0) 8 (0) −10 0
F (x ) = , JF (x ) = ,
8 1 −10
usando ahora (1.53)–(1.54) resulta
4 4
   
 
(0)
 5  (1) (0) (0)
 5  0.8
h =   ⇒x =x +h =   = .
22  22  0.88
25 25
Para la segunda iteración se tiene:
884 42 44
   

 625   5 25 
F (x(1) ) = 
 1936 
 , JF (x(1) ) = 
 1109
,
1074 

3125 625 125
1.6. MÉTODOS PARA SISTEMAS DE ECUACIONES NO LINEALES 51

usando ahora (1.53)–(1.54) resulta


   
(1) 0.1918 (2) (1) (1) 0.9918
h =− ⇒x =x +h = .
0.1117 0.9917

Tabla 1.15: Criterio de parada: kh(k) k∞ = kx(k) − x(k−1) k∞ < 10−5 .


k Punto Fijo Newton
(k) (k) (k) (k) (k)
x1 x2 kh k∞ x1 x2 kh(k) k∞
0 0.000000 0.000000 0.000000 0.000000
1 0.800000 0.800000 0.800000 0.800000 0.880000 0.880000
2 0.928000 0.931200 0.131200 0.991787 0.991712 0.191787
3 0.972832 0.973270 0.044832 0.999975 0.999969 0.008257
4 0.989366 0.989435 0.016534 1.000000 1.000000 0.000031
5 0.995783 0.995794 0.006417 1.000000 1.000000 0.000000
6 0.998319 0.998321 0.002536
7 0.999328 0.999329 0.001010
8 0.999732 0.999732 0.000403
9 0.999893 0.999893 0.000161
10 0.999957 0.999957 0.000064
11 0.999983 0.999983 0.000026
12 0.999993 0.999993 0.000010
13 0.999997 0.999997 0.000004

Ejemplo 1.6.3. Considere el sistema de ecuaciones no lineales:

x21 + 16x22 − 9 = 0

50
x1 + x22 − 25 = 0
3
(a) Determine una región D ⊂ R2 que contiene una única solución del
sistema.

(b) Proponga un esquema iterativo de punto fijo y demuestre la convergen-


cia sin iterar. ¿Se puede iniciar en (0, 0)? En caso afirmativo, estimar
el número de iteraciones para alcanzar una tolerancia menor a 10−5 .

(c) Realice las iteraciones con el esquema propuesto y compare con el méto-
do de Newton.
52CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Resolución:
(a) El sistema dado puede escribirse de las siguiente manera.
p
9 − x21
x2 =
4
(25 − x22 )
x1 = 3
50
Por lo tanto podemos considerar la siguiente función de iteración

(25 − x22 )

 3 50 
G(x1 , x2 ) =  p
 

 9 − x21 
4
considere la siguiente region:
D={(x1 ; x2 )R2 /0 ≤ x1 ≤ 2, 0 ≤ x2 ≤ 4 }
0 ≤ x2 ≤ 2
9 ≤ 25 − x22 ≤ 25
27 3(25−x2 )
50
≤ 50 2 ≤ 32
27
donde: 0 ≤ 50 ≤ x1 ≤ 32 ≤ 4
la segunda componente:
0 ≤ x1√≤ 2

5 9−x21
≤ ≤ 34
4 16
√ √
9−x21
donde:0 ≤ 45 ≤ 16
≤ 3
4
≤2
entonces:
G(D) ⊂ D

(b) Empezamo con el metodo de punto fijo usando el proceso iterativo por
tanto: x(0) = (α1 ; α2 )
3(25 − x22 )
x1 =
50
p
9 − x21
x2 =
4
Ahora usamos el metodo de Newton para ello definimos:
 2 
x1 + 16x22 − 9
F (x1 ; x2 ) = 50
x + x22 − 25
3 1

3(25−x22 )
!
G(x1 ; x2 ) = √ 50 2 9−x1
4
1.7. EJERCICIOS 53
!
0 − 3x
25
2

JG(x1 ; x2 ) = − √x1 0
4 9−x21
( )
3||x2 || ||x1 ||
||JG(x1 ; x2 )||∞ = max ; p
25 4 9 − x21

(JG(xn1 ; xn2 )).hn = F (xn1 ; xn2 )

Definición 1.2. Sea G una función que define un método iterativo y que
G(p) = p, G0 (p) = 0, G00 (p) = 0, . . . , G(m−1) (p) = 0 y G(m) 6= 0. Entonces se
dice que el método de punto fijo asociado tiene orden de convergencia m.

Ejemplo 1.6.4. Se proponen los siguientes métodos para calcular 211/3 .


Clasifique por orden basándose para ello en la rapidez de convergencia y
suponiendo que p0 = 1 en cada caso.
21
20pn−1 +
p2n−1
(a) pn = .
21
p3n−1 − 21
(b) pn = pn−1 − .
3p2n−1

p4n−1 − 21pn−1
(c) pn = pn−1 − .
p2n−1 − 21
 1/2
21
(d) pn = .
pn−1

1.7. Ejercicios
1. Localice gráficamente las raı́ces de f (x) = 0, siendo f (x) =| x |
− exp(x). Use el método de Bisección para determinar un valor apro-
ximado para los ceros de f con un error que no exceda a 0.15.

2. Aplique el método de Newton a f (x) = x2 −q (donde q > 0). Demuestre


que si xn tiene después del punto decimal k dı́gitos correctos, entonces
xn+1 tendrá después del punto decimal al menos 2k−1 dı́gitos correctos,
con tal que q > 0.006 y k ≥ 1.
54CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

3. En el método de la Secante demuestre que si xn → q conforme n → ∞


y si f 0 (q) 6= 0, entonces q es un cero de f .
4. Compare el número de iteraciones que realizan el Método de la Bi-
sección, el Método de la Regla Falsa y el Método de la Regla Falsa
Modificada al ser aplicadas a las siguientes funciones, [2]:
a) f (x) = x2 − (1 − n)n , n = 1, 2, 3, . . ..
b) f (x) = (1 + (1 − n)2 )x − (1 − nx)2 , n = 1, 2, 3, . . ..
Use n = 2, 5, 15, 20.
5. Localice gráficamente los ceros de las siguientes funciones

a) f (x) = 4cos(x) − exp(2x). d ) f (x) = 2x − 3x.


b) f (x) = x/2 − tan(x). e) f (x) = x3 + x − 1000.
c) f (x) = 1 − x ln(x). f ) f (x) = x2 − e−x .

6. Determine con un error absoluto menor de 0.001 la solución de la ecua-


ción x − cos(x) = 0.
7. Considere la función f (x) = x2 /2 + x(ln(x) − 1). Obtener los puntos
crı́ticos con el auxilio del método de las secantes.
8. Considere la ecuación f (x) = 4x3 + 3x − 1 = 0. Intente obtener una
raı́z real de la ecuación usando el método de las secantes. Use x0 = 0 y
x1 = 1 como estimativas iniciales de la raı́z buscada. Haga 5 iteraciones
de forma ordenada.
9. Considere la ecuación f (x) = 2x4 + 3x2 − 10 = 0. Realice 3 iteraciones
del método de las secantes iniciando en x0 = 0.5 y x1 = 1.2.
10. Use el método de Newton para obtener la menor raı́z positiva de las
siguientes ecuaciones:
a) x/2 − tan(x) = 0.
b) 2cos(x) − exp(x)/2 = 0.
c) x5 − 6 = 0.
11. Usando el método de Regula Falsi resuelva la ecuación x + tan(x) = 0
partiendo del intervalo [1.9, 2.1] iterando hasta que la solución tenga
una precisión de 0.001. Repetir el cálculo pero usando el método de
Newton partiendo de x = 1.7 hasta alcanzar una precisión de 0.0001.
1.7. EJERCICIOS 55

12. Considere la ecuación 2x − cos(x) = 3. Se pide

a) Demostrar que esta ecuación tiene una sóla raı́z.


b) Determinar el valor de la raı́z mediante el método de Newton-
Raphson, partiendo del punto x = 0 y haciendo las iteraciones
necesarias para que el error sea menor que 0.0001.

13. Considere la función f (x) = exp(x) − 4x2 . Se pide:

a) Localizar graficamente las raı́ces de la función f .


b) Considere el intervalo I = [−1, 5]. Realizar dos iteraciones del
método de la bisección y escoja el punto medio del último intervalo
obtenido como aproximación inicial para el método de Newton.
Aplique el método de Newton hasta alcanzar una precisión de
10−2 . Comparando con la localización de los zeros realizada en el
item anterior, identifique cual raı́z fue obtenida en este proceso y
justifique por que la convergencia fue para esta raı́z.

14. Aplique el método de Newton-Raphson a la ecuación x3 −2x2 −3x+10 =


0 con x0 = 1.9. Justifique los resultados obtenidos.

15. El valor de π puede ser obtenido como solución de las siguientes ecua-
ciones sin(x) = 0 y cos(x) + 1 = 0.

a) Aplique el método de Newton con x0 = 3 y precisión 10−2 en cada


caso y compare los resultados. Justifique los resultados obtenidos.
b) ¿Puede aplicarse el método de la bisección en la resolución de la
ecuación cos(x) + 1 = 0 para obtener el valor de π?.

16. Use el método del punto fijo para encontrar una raı́z de f (x) = x3 +
4x2 − 10 en el intervalo [1, 2].

17. Use el método del punto fijo para encontrar una raı́z de f (x) = x −
x4/5 − 2.
56CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES
Capı́tulo 2

Interpolación polinomial

Dada una función continua f para la cual sólo conocemos su valor yi para
n + 1 puntos discretos xi , es decir:

f (xi ) = yi , i = 0, 1, 2, ..., n. (2.1)

El objetivo de este capı́tulo es encontrar un polinomio Pn de grado n y esta-


blecer condiciones para la función f tal que se cumpla la siguiente condición
de interpolación, es decir:

Pn (xi ) = f (xi ), i = 0, 1, 2, ..., n. (2.2)

Como primer paso es garantizar la existencia del polinomio Pn , el cual, en


forma general tiene la forma:

Pn (x) = a0 + a1 x + a2 x2 + ... + an xn (2.3)

Como Pn debe de satisfacer (2.2), entonces:

a0 + a1 xi + a2 x2i + ... + an xni = f (xi ), i = 0, 1, 2, ..., n. (2.4)

El conjunto de ecuaciones dado por (2.4) al ser escrito de forma matricial


queda como sigue:
   
  a0 f (x0 )
1 x0 x20
··· x30 xn0  a1   f (x1 ) 
 1 x1 x21
··· x31 xn1    

 ..

 a2 =
  f (x2 ) 
 (2.5)
 .  ..   .. 
. .
2
1 xn xn xn · · · xnn
3
   
an f (xn )

57
58 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

donde observamos que la matriz asociada al sistema lineal (2.5) es conocida


como matriz de Vandermonde, cuyo determinante se calcula como:

1 x0 x2 x 3 · · · xn
0 0 0
1 x1 x2 x3 · · · xn
1 1 1
= (2.6)

..
.
1 xn x2n x3n · · · xnn

podemos observar que para garantizar la existencia y unicidad del polinomio


Pn es necesario y suficiente que los n + 1 puntos xi (i = 0, 1, 2, ..., n) sean
todos distintos, lo cual será considerado de ahora en adelante salvo se
mencione explı́citamente lo contrario.
Una vez garantizada la existencia y unicidad del polinomio Pn , ahora llamado
Polinomio de interpolación, procedemos a estudiar algunos métodos que
nos permiten calcularlo.

2.1. Método de coeficientes indeterminados


2.2. Método de Lagrange
Este método fue desarrollado por Lagrange () el cual consiste primero en
definir los llamados polinomios de Lagrange dados por:
n
Y (x − xj )
Li (x) = (2.7)
j=0
(xi − xj )
j6=i

es fácil observar que todas las Li (i = 0, 1, ..., n) cumplen las siguientes pro-
piedades:
Cada Li es un polinomio de grado n.

1, i = j
Li (xj ) =
0, i 6= j
Calculadas todas las Li , definimos:
n
X
Pn (x) = f (x0 )L0 (x) + · · · + f (xn )Ln (x) = f (xj )Lj (x). (2.8)
j=0

De la forma como es construido el polinomio Pn dado en (2.8), puede obser-


varse que satisface la condición de interpolación dado en (2.2). Por tanto, Pn
es el polinomio de interpolación dado en la forma de Lagrange.
2.2. MÉTODO DE LAGRANGE 59

Ejemplo 2.2.1. Dados los puntos (−1, 1), (2, −1), (0, −1). Calcule el poli-
nomio de interpolación en la forma de Lagrange.
Resolución:
Dados los 3 puntos, procedemos a calcular L0 , L1 y L2 según (3.75):

(x − 2)(x − 0) (x − 2)x
L0 (x) = =
(−1 − 2)(−1 − 0) 3
(x + 1)(x − 0) (x + 1)x
L1 (x) = =
(2 + 1)(2 − 0) 6
(x + 1)(x − 2) (x + 1)(x − 2)
L2 (x) = =−
(0 + 1)(0 − 2) 2

luego, el polinomio de interpolación en la forma de Lagrange (2.8) viene dado


por:

P2 (x) = f (x0 )L0 (x) + f (x1 )L1 (x) + f (x2 )L2 (x)

P2 (x) = L0 (x) − L1 (x) − L2 (x)

(x − 2)x (x + 1)x (x + 1)(x − 2)


P2 (x) = − +
3 6 2

La Figura 2.1 muestra los puntos dados con el polinomio de interpolación


P2 (x).
60 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Figura 2.1: P2 (x) vs f (xi )

Dados los puntos (x0 , f (x0 )), ..., (xn , f (xn )) es relativamente fácil calcular
Pn en la forma de Lagrange, pero, ¿qué sucede si agregamos a los puntos ini-
ciales el punto (xn+1 , f (xn + 1))?. Ante esta situación, el método de Lagrange
no es ventajoso, porque tenemos que rehacer todos los cálculos para obtener
el polinomio Pn+1 . El método de Newton, descrito en la siguiente sección,
resuelve este problema.

2.3. Método de Newton


Dados los puntos {(xi , yi )}ni=0 y construimos el polinomio de interpolación
Pn . A este conjunto de puntos vamos a agregar un nuevo punto (xn+1 , yn+1 )
y deseamos calcular el polinomio de interpolación Pn+1 aprovechando que ya
conocemos Pn .
Dado que Pn+1 es de grado n + 1 y Pn es de grado n, luego se cumple:

Pn+1 (x) = Pn (x) + Qn+1 (x) (2.9)


2.3. MÉTODO DE NEWTON 61

para algún polinomio Qn+1 de grado n+1. Reemplazando x = xi (i = 0, ..., n)


en (2.9), se obtiene:

Pn+1 (xi ) = Pn (xi ) + Qn+1 (xi ) ⇒ Qn+1 (xi ) = 0. (2.10)

Es decir, (2.10) nos dice que x0 , x1 , ..., xn son las n + 1 raı́ces del polinomio
Qn+1 . Por tanto:
Qn+1 (x) = an+1 θn+1 (x) (2.11)
para alguna constante an+1 ∈ R y donde

θn+1 (x) = (x − x0 )(x − x1 )...(x − xn ).

Reemplazamos en (2.10) para x = xn+1 y obtenemos:

yn+1 = Pn (xn+1 ) + an+1 θn+1 (xn+1 )

de ahı́:
yn+1 − Pn (xn+1 )
an+1 = (2.12)
θn+1 (xn+1 )

Ejemplo 2.3.1. Para los puntos (−1, 1), (2, −1), (0, −1) del ejemplo ante-
rior, calcule el nuevo polinomio de interpolación después de agregar el punto
(−2, −2).
Resolución:
Procedemos de la forma siguiente:
Para (x0 , y0 ), definimos P0 (x) = y0 = 1.

Para (x0 , y0 ), (x1 , y1 ) calculamos


y1 − P0 (x1 ) 2
a1 = =− ,
(x1 − x0 ) 3
luego:
2
P1 (x) = P0 (x) + a1 (x − x0 ) = 1 − (x + 1).
3
Para (x0 , y0 ), (x1 , y1 ), (x2 , y2 ) calculamos
y2 − P1 (x2 ) 2
a2 = = ,
(x2 − x1 )(x2 − x0 ) 3
luego:
2 2
P2 (x) = P1 (x) + a2 (x − x0 )(x − x1 ) = 1 − (x + 1) + (x + 1)(x − 2).
3 3
62 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Para (x0 , y0 ), (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) calculamos


y3 − P2 (x3 ) 19
a3 = = ,
(x3 − x2 )(x3 − x1 )(x3 − x0 ) 24
luego:
P3 (x) = P2 (x) + a3 (x − x0 )(x − x1 )(x − x2 )

2 2 19
P3 (x) = 1 − (x + 1) + (x + 1)(x − 2) + (x + 1)(x − 2)x.
3 3 24
Los resultados pueden observarse en la Figura 2.2.

Figura 2.2: yi vs P3 (x)

2.4. Método de Diferencias Divididas


El valor de an+1 dado en (2.12) es llamada Fórmula de diferencia
dividida de orden n + 1 y es denotada por
f [x0 , x1 , ..., xn , xn+1 ] := an+1 (2.13)
2.4. MÉTODO DE DIFERENCIAS DIVIDIDAS 63

y por convención se acepta que:

f [x0 , x0 ] := a0 = y0 (2.14)

Ası́, el polinomio de interpolación en la forma de Newton puede ser escrito


como sigue:
n+1
X i−1
Y
Pn+1 (x) = f [x0 , x0 ] + ai (x − xj ) (2.15)
i=1 j=0

y usando la notación (2.13) se tiene:


n+1
X i−1
Y
Pn+1 (x) = f [x0 , x0 ] + f [x0 , ..., xi ] (x − xj ) (2.16)
i=1 j=0

Una ventaja de la notación usada en (2.13) es que permite obtener cada


coeficiente dado en (2.16) de una forma práctica, que mostraremos a conti-
nuación:
Consideremos los puntos:

(xi , yi ), (xi+1 , yi+1 ), · · · (xi+n , yi+n ), (xi+n+1 , yi+n+1 ), (2.17)

y consideremos los polinomios siguientes:

Pn interpola a (xi , yi ), (xi+1 , yi+1 ), · · · (xi+n , yi+n ),

es decir
Pn (xi+j ) = yi+j j = 0, 1, 2, ..., n
Qn interpola a (xi+1 , yi+1 ), · · · (xi+n , yi+n ), (xi+n+1 , yi+n+1 ),
es decir
Qn (xi+j ) = yi+j j = 1, 2, 3, ..., n + 1.
Por tanto, de (2.16) los polinomios Pn y Qn tienen la siguiente forma:
n
X
Pn (x) = f [xi , xi ] + f [xi , xi+1 , ..., xi+j ](x − xi )...(x − xi+j−1 ) (2.18)
j=1

n+1
X
Qn (x) = f [xi+1 , xi+1 ] + f [xi+1 , xi+2 , ..., xi+j ](x − xi+1 )...(x − xi+j−1 )
j=2
(2.19)
64 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Ahora, a partir de (2.18) y (2.19) construimos un polinomio Hn+1 de grado


n + 1 que interpola a todos los puntos dados en (2.17), el cual es dado por
xi+n+1 − x x − xi
Hn+1 (x) = Pk (x) + Qk (x) (2.20)
xi+n+1 − xi xi+n+1 − xi
De la unicidad del polinomio de interpolación y usando nuevamente (2.16),
el polinomio Hn+1 también puede ser escrito como:
n+1
X
Hn+1 (x) = f [xi , xi ] + f [xi , xi+1 , ..., xi+j ](x − xi )(x − xi+1 )...(x − xi+j−1 )
j=1
(2.21)
procedemos a igualar los coeficientes de grado n + 1 en las expresiones de
Hn+1 dadas en (2.20) y (2.21), obteniendo la diferencia dividida de orden
n + 1 del modo siguiente:
f [xi+1 , xi+2 , ..., xi+n+1 ] − f [xi , xi+1 , ..., xi+n ]
f [xi , xi+1 , ..., xi+n+1 ] = (2.22)
xi+n+1 − xi
Por simplicidad, consideremos los puntos (xi , yi ), (xi+1 , yi+1 ), (xi+2 , yi+2 ) y
(xi+3 , yi+3 ), podemos representar la expresión dada en (2.22) en una forma
más práctica en la siguiente tabla:

∆(0) ∆(1) ∆(2) ∆(3)

xi yi

xi+1 yi+1 f [xi , xi+1 ]

xi+2 yi+2 f [xi+1 , xi+2 ] f [xi , xi+1 , xi+2 ]

xi+3 yi+3 f [xi+2 , xi+3 ] f [xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 ]

Figura 2.3: Tabla de diferencias divididas.

donde cada ∆(j) , (j = 1, 2, 3) representa la diferencia dividida de orden j.


Luego, el polinomio de interpolación en la forma de Newton es:
P3 (x) = f [xi , xi ]+f [xi , xi+1 ](x−xi )+f [xi , xi+1 , xi+2 ](x−xi )(x−xi+1 )+f [xi , xi+1 , xi+2 , xi+3 ](x−

Ejemplo 2.4.1. Considere los puntos (1, 1/2), (0, −1/2), (3/2, 1) y (2, 2).
Use el método de diferencias divididas para calcular el polinomio de interpo-
lación en la forma de Newton.
2.4. MÉTODO DE DIFERENCIAS DIVIDIDAS 65

Resolución:
Construimos la tabla según la Figura 2.3:

∆(0) ∆(1) ∆(2) ∆(3)

1
1
2

1
0 − 1
2

2 9 15
1 −
3 4 4

3 3
2 2 − 3
4 4

Figura 2.4: Tabla de diferencias divididas para el ejemplo dado.

De la Figura 2.4 podemos construir el polinomio de interpolación en la


forma de Newton, dado por:

 
1 15 2
P3 (x) = + (x − 1) − (x − 1)x + 3(x − 1)x x − .
2 4 3

La Figura 2.5 muestra el polinomio de interpolación P3 con los puntos dados.


66 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Figura 2.5: Polinomio de interpolación por diferencias divididas.

Una ventaja del método de diferencias divididas es que nos permite en-
contrar también el polinomio de interpolación para un subconjunto de los
puntos dados, por ejemplo, a partir de la Figura 2.4 podemos obtener el poli-
nomio de interpolación P2 para los puntos (0, −1/2), (2/3, 1) y (2, 2), el cual
es dado por:

 
1 9 3 2
P2 (x) = − + x − x x − .
2 4 4 3
2.5. ANÁLISIS DE ERROR 67

Figura 2.6: Diferencias divididas para un subconjunto de puntos.

2.5. Análisis de error


Dados los puntos (x0 , y0 ), (x1 , y1 ), ..., (xn , yn ), vamos a suponer que los
valores yi (i = 0, ..., n) son imágenes de cada xi para alguna función continua
f , es decir:
yi = f (xi ) para todo i = 0, 1, ..., n.
Por los puntos dados, podemos construir un polinomio de interpolación Pn
que satisface:
Pn (xi ) = yi .
Ahora, dado un punto x tal que x 6= xi para todo i = 0, 1, ..., n y:
a := mı́n {xi } ≤ x ≤ máx {xi } =: b
i=1,...,n i=1,...,n

y al aproximar el valor f (x) usando Pn es lógico que se comete un error. La


pregunta es, se puede saber que tan buena es la aproximación? es decir, qué
se puede decir del error:
E(x) = f (x) − Pn (x) (2.23)
68 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Para responder esta pregunta, fijando x definamos g : [a, b] → R como sigue:

θn+1 (t)
g(t) = f (t) − Pn (t) − [f (x) − Pn (x)] (2.24)
θn+1 (x)

donde
θn+1 (t) = (t − x0 )(t − x1 )...(t − xn−1 )(t − xn ).
Observemos que si t = xi (i = 0, 1, 2, ..., n) en (2.24), entonces g(xi ) = 0. Ası́
mismo, si t = x, también implica g(x) = 0. Es decir, {x0 , ..., xn , x} son n + 2
raı́ces de la función g.
Luego, exigiendo que f sea n+1 veces derivable, podemos aplicar el Teorema
de Rolle continuamente y obtenemos que existe ξ ∈ (a, b) tal que

g (n+1) (ξ) = 0.

Ası́, a partir de (2.24) se tiene:

(n + 1)!
g (n+1) (t) = f (n+1) (t) − E(x)
θn+1 (x)

Por tanto:
(n + 1)!
g (n+1) (ξ) = f (n+1) (ξ) − E(x) = 0
θn+1 (x)
lo que implica
f (n+1) (ξ)
E(x) = θn+1 (x) (2.25)
(n + 1)!
La relación dada en (2.25) nos da una expresión para el error que se comete
en algún punto x ∈ (a, b). Observar que E(xi ) = 0 para todo i = 0, 1, ..., n.
x8 3cos(2x)
Ejemplo 2.5.1. Sea f (x) = − . Calcule una cota del error
84 8
cuando se aproxima f (0.65) cuando se considera 5 puntos uniformemente
espaciados en [0, 1].
Resolución:
Consideremos la partición uniforme:

x0 = 0, x1 = 0.25, x2 = 0.5, x3 = 0.75, x4 = 1.

Es decir, n = 4, luego, el error (2.25) viene dado por:

f (v) (ξ)
E(x) = (x − x0 )(x − x1 )(x − x2 )(x − x3 )(x − x4 )
5!
2.5. ANÁLISIS DE ERROR 69

para algún ξ ∈ (0, 1).


Calculando f (v) se obtiene:
f (v) (x) = 12sen(2x) + 80x3 , para todo x ∈ [0, 1].
Luego:
|f (v) (x)| ≤ 92,
por tanto:
(v)
f (ξ)
|E(x)| = (x − x0 )(x − x1 )(x − x2 )(x − x3 )(x − x4 )
5!
92
|E(0.65)| ≤ |(0.65)(0.40)(0.15)(−0.15)(−0.35)| = 0.0016.
120
El polinomio de interpolación P4 es:
       
3 1 1 1 1 1
P4 (x) = − +0.1836x+0.6450x x − −0.3191x x − x− −0.0505x x − x− x
8 4 4 2 4 2
Luego, los valores son:
f (0.65) = −0.0999327, P4 (0.65) = −0.1002010
por tanto, el error exacto es:
|E(0.65)| = |f (0.65) − P4 (0.65)| = 0.0002683 < 0.0016.
La Figura 2.7 compara los valores de f y P4 para los puntos de la partición
considerada.

Figura 2.7: Análisis de error.


70 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

En la Figura 2.7 podemos observar la buena aproximación de P4 en rela-


ción a f dentro del intervalo de interpolación [0, 1] y tal vez nos hace suponer
que la aproximación mejorará conforme aumentemos el número de puntos en
la partición. En la siguiente sección mostramos un ejemplo en el cual obser-
varemos que nuestra suposición está errada.

2.6. Fenómeno Runge

Consideremos la función siguiente:

1
f (x) = , para todo x ∈ [−1, 1]. (2.26)
1 + 25x2

Consideremos también una partición regular en el intervalo [−1, 1]

−1 = x0 < x1 < · · · < xn−1 < xn = 1 (n es impar). (2.27)

La Figura 2.8 muestra la gráfica de la función f comparándola con los poli-


nomios de interpolación P5 , P9 y P11 . Podemos observar que la aproximación
en los extremos del intervalo cada vez empeora conforme aumenta el valor
del grado del polinomio de interpolación. En general, se prueba que:

 
lı́m máx |f (x) − Pn (x)| = ∞. (2.28)
n→∞ −1≤x≤1
2.6. FENÓMENO RUNGE 71

0.8

0.6

0.4

0.2

−0.2

−0.4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

Figura 2.8: Fenómeno Runge.


72 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL
Capı́tulo 3

Integración Numérica

Es bien conocido el Teorema Fundamental del Cálculo, el cual establece


que:
Teorema 3.1. Sea f : [a, b] → R una función continua. Luego:
Si definimos F : [a, b] → R como sigue:
Z x
F (x) = f (t) dt,
a

entonces se cumple que

F 0 (x) = f (x) para todo x ∈ [a, b].

Tal función F es llamada primitiva o antiderivada de la función f .


Si una función G es una primitiva de f en [a, b], entonces:
Z b
f (x) dx = G(b) − G(a).
a

Por tanto, dada f : [a, b] → R una función continua, para calcular


Z b
f (x) dx (3.1)
a

el Teorema 3.1 establece que sólo es necesario hallar una primitiva G de


la función f . En la práctica, hallar la función G no siempre es posible, es
conocido que para ciertas funciones f es imposible hallar una primitiva y ası́
no es posible usar el Teorema 3.1.
Nuestro objetivo en el presente capı́tulo será aproximar el valor de la integral
dada en (3.1).

73
74 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

3.1. Método del Trapecio


Para una función f que satisface las condiciones del Teorema 3.1 y que
además f (x) ≥ 0 para todo x ∈ [a, b], sabemos que la integral dada en (3.1)
viene dada por el área bajo la curva de f . Esta área puede ser aproximada
intuitivamente por el área del trapecio tal y como se muestra en la Figura
3.1, es decir Z b  
f (a) + f (b)
f (x) dx ≈ (b − a) . (3.2)
a 2

Figura 3.1: Área del trapecio bajo la gráfica de f .

En la siguiente sección obtendremos de forma analı́tica la expresión dada


en (3.2) con su respectivo término de error.

3.1.1. Simple
Siendo f : [a, b] → R una función continua y consideramos x0 = a, x1 = b.
Con la finalidad de utilizar interpolación polinomial, exigimos que f sea dos
veces derivable. Luego, se cumple
f (x) = P1 (x) + E1 (x) (3.3)
donde
(x − x0 )
P1 (x) = f0 + (f1 − f0 )
h
3.1. MÉTODO DEL TRAPECIO 75

y la expresión para el error viene dado por


f 00 (zx )
E1 (x) = (x − x0 )(x − x1 )dx
2
para algún zx ∈ hx0 , x1 i. Luego:
Z x1 x1  
(x − x0 )
Z
P1 (x)dx = f0 + (f1 − f0 )
x0 x0 h
(3.4)
h
= (f0 + f1 ),
2
Z x1
ET S = E1 (x) dx
x0
x1
f 00 (zx )
Z
= (x − x0 )(x − x1 ) dx
x0 2
(3.5)
f 00 (ξ) x1
Z
= (x − x0 )(x − x1 )dx
2 x0

f 00 (ξ) 3
= − h,
12
donde se ha observado que g(x) = (x − x0 )(x − x1 ) no cambia de signo para
todo x ∈ [x0 , x1 ], por tanto, para usar el teorema del valor medio para inte-
grales exigimos que f 00 sea continua en [x0 , x1 ] y ası́ obtenemos la expresión
para el error ET S.
Luego, integrando (3.3) y reemplazando en él los resultados obtenidos en
(3.4) y (3.5) se obtiene
Z x1
h f 00 (ξ) 3
f (x)dx = (f0 + f1 ) − h (3.6)
x0 2 12

luego, a partir de (3.6), se denomina método del trapecio simple para la


función f a la siguiente igualdad:
Z x1
h
f (x)dx ≈ M T S(f ) = (f0 + f1 ) (3.7)
x0 2

3.1.2. Compuesto
Es natural pensar que usar el método del trapecio simple para una función
f da en general aproximaciones muy alejadas del valor exacto de la integral,
como puede observarse en la Figura 3.1. Con el objetivo de mejorar la apro-
ximación, es natural pensar en considerar una partición regular del intervalo
76 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

[a, b], es decir, dado un número natural n se construyen n subintervalos del


modo siguiente:
a = x0 < x1 < ... < xn−1 < xn = b
xn − x0 b−a
donde h = = y xi = x0 + ih (i = 0, ..., n).
n n
Luego aplicamos el MTS en cada subintervalo Ii = [xi , xi+1 ], (i = 0, ..., n−1).
Veamos el procedimiento:
Z xn n−1 Z
X xi+1 n−1
X n−1
X
f (x)dx = f (x)dx = MTSi (f ) + ETSi
x0 i=0 xi i=0 i=0

donde
Z xi+1
h
MTSi (f ) = f (x) dx = (fi + fi+1 ), i = 0, ..., n − 1
xi 2

y el error total es
n−1 n−1 00
X X f (ξi )
ETC = ETSi = − h3 (3.8)
i=0 i=0
12

donde cada ξi ∈ Ii (i = 0, ..., n − 1).


El método del trapecio compuesto es definido como:
n−1 n−1
X X h
M T C(f ) = M T Si (f ) = (fi + fi+1 ) (3.9)
i=0 i=0
2

realizando la suma en (3.9), el método del trapecio compuesto queda


n−1
!
h X
M T C(f ) = f0 + 2 fi + fn (3.10)
2 i=1

A continuación vamos a analizar el error para el método del trapecio com-


puesto, ETC, con el objetivo de encontrar una forma más simple de acotar.
Sabemos que f 00 es continua en el intervalo cerrado y acotado [a, b], por tanto,
existen x∗ , x̂ ∈ [a, b] donde f 00 alcanza su mı́nimo y máximo respectivamente,
es decir
f 00 (x∗ ) ≤ f 00 (x) ≤ f 00 (x̂) para todo x ∈ [a, b] (3.11)
en particular, para ξi ∈ Ii ⊂ I, (i = 0, ..., n − 1) también se cumple

f 00 (x∗ ) ≤ f 00 (ξi ) ≤ f 00 (x̂) (3.12)


3.1. MÉTODO DEL TRAPECIO 77

sumando para i = 0, ..., n − 1 en (3.12) se obtiene


n−1
X
00 ∗
n f (x ) ≤ f 00 (ξi ) ≤ n f 00 (x̂) (3.13)
i=0

es decir
n−1
X
f 00 (ξi )
i=0
f 00 (x∗ ) ≤ ≤ f 00 (x̂)
n
dado que f 00 es una función continua en [a, b], entonces podemos aplicar el
Teorema del Valor Intermedio, es decir, existe ξ ∈ ha, bi tal que
n−1
X
f 00 (ξi )
i=0
f 00 (ξ) = (3.14)
n
Reemplazando adecuadamente (3.14) en la expresión para el error del método
del trapecio compuesto dado por (3.8), obtenemos
n−1 00
X f (ξi ) h3 00
ETC = − h3 = −n f (ξ) para algún ξ ∈ ha, bi. (3.15)
i=0
12 12

o de forma equivalente
h3 00 (b − a)3 00
ETC = −n f (ξ) = − f (ξ) para algún ξ ∈ ha, bi. (3.16)
12 12n2

Ejemplo 3.1.1. Aplice el MTS a la siguiente integral


Z e
x2 ln(x) dx.
1

Luego, estime el número de subintervalos n para alcanzar una aproximación


de 10−2 al usar el MTC.
Resolución:
Aplicando el MTS a f (x) = x2 ln(x) se tiene
0 + e2
   
f (1) + f (e)
M T S(f ) = (e − 1) = (e − 1) = 6.34824.
2 2
Ahora, para estimar el número de subintervalos n, debemos acotar f 00 según
lo sugiere la fórmula dada en (3.16). A partir de f obtenemos:
f 00 (x) = 2 ln(x) + 3
78 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

y como 1 ≤ x ≤ e, entonces

|f 00 (x)| ≤ 2 ln(e) + 3 = 5.

Por tanto, de (3.16) se obtiene


(e − 1)3 00 (e − 1)3

|ET C| = f (ξ) ≤ 5

12n2 12n2

y queremos una tolerancia de error de 10−2 , por tanto, exigimos que:


(e − 1)3

5 ≤ 10−2
12n2
de donde se obtiene
r
5 × 102 (e − 1)3
n≥ ≈ 14.53.
12
Por tanto, debemos tomar n = 15 como número de subintervalos para alcan-
zar la tolerancia pedida. La Tabla 3.1 muestra los cálculos respectivos.

Tabla 3.1: Resultados del MTC para f (x) = x2 ln(x).


i xi f (xi ) Peso Peso f (xi )
0 1.0000 0.00000000 1 0.00000000
1 1.1146 0.13472274 2 0.26944547
2 1.2291 0.31163516 2 0.62327032
3 1.3437 0.53330895 2 1.06661791
4 1.4582 0.80208584 2 1.60417169
5 1.5728 1.12011539 2 2.24023078
6 1.6873 1.48938419 2 2.97876839
7 1.8019 1.91173888 2 3.82347776
8 1.9164 2.38890456 2 4.77780912
9 2.0310 2.92249983 2 5.84499966
10 2.1455 3.51404919 2 7.02809838
11 2.2601 4.16499338 2 8.32998675
12 2.3746 4.87669810 2 9.75339620
13 2.4892 5.65046148 2 11.30092296
14 2.6037 6.48752041 2 12.97504082
15 2.7183 7.38905610 1 7.38905610
3.2. MÉTODO DE SIMPSON 79

De la Tabla 3.1 se obtiene

M T C(f ) = 4.58238800,

y realizando una simple integración por partes se puede obtener en este caso
el valor exacto de la integral, es decir
Z e
2e3 1
f (x) dx = + = 4.57456376,
1 9 9

por tanto, se puede calcular el error exacto


Z e

|ET C| = f (x) dx − M T C(f ) = 0.00782 < 0.01.
1

3.2. Método de Simpson


En la sección anterior, hemos usado interpolación polinomial con dos
puntos, a saber, los extremos del intervalo [a, b]. Con esos puntos hemos
deducido el método del trapecio simple para luego generalizar realizando una
partición regular de [a, b] y obtener ası́ el método del trapecio compuesto.
Siguiendo con esta idea, en el intervalo [a, b] consideramos los puntos

a+b
a = x0 < x1 = < x2 = b,
2
y definiendo h = x2 −x1 = x1 −x0 . Con los puntos x0 , x1 y x2 podemos aplicar
interpolación polinomial para obtener otro método de integración numérica,
que será descrito en la siguiente sección.

3.2.1. Simple
Dado que tenemos los puntos (x0 , f0 ), (x1 , f1 ) y (x2 , f2 ), usamos inter-
polación polinomial mediante el método de coeficientes indeterminados para
obtener P2 , polinomio de segundo grado, que se puede expresar de la siguiente
forma
P2 (x) = p + qx + rx2 (3.17)
que satisface

P2 (x0 ) = f0 , P2 (x1 ) = f1 , y P2 (x2 ) = f2 . (3.18)


80 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Se cumple

f (x) = P2 (x) + E(x) (3.19)

donde E(x) representa el error cometido en la interpolación. Integrando

Z x2 Z x2 Z x2
f (x) dx = P2 (x) dx + E(x) dx (3.20)
x0 x0 x0

Definimos el Método de Simpson simple para la función f a la siguiente


expresión
Z x2
M SS(f ) = P2 (x) dx. (3.21)
x0

lo cual es representado geométricamente en la Figura 3.2.

Figura 3.2: Área del trapecio bajo la gráfica de f .

Vamos a usar las relaciones dadas en (3.17) y (3.18) para encontrar una
3.2. MÉTODO DE SIMPSON 81

expresión de M SS(f ) dado en (3.21).


Z x2
M SS(f ) = P2 (x) dx
x0
 x
x2 x3 2

= px + q + r
2 3 x0
q r
= p(x2 − x0 ) + (x22 − x20 ) + (x32 − x30 )
2 3

(x2 − x0 )
= [6p + 3q(x2 + x0 ) + 2r(x22 + x2 x0 + x20 )]
6
(x2 − x0 )
= [(p + qx2 + rx22 ) + (p + qx0 + rx20 ) + 2q(x0 + x2 ) +
6
+ r(x22 + 2x2 x0 + x20 ) + 4p]
"    2 #
(x2 − x0 ) x0 + x2 x0 + x2
= f0 + f2 + 4q + 4r + 4p
6 2 2
(x2 − x0 )
= [f0 + f2 + 4(qx1 + rx21 + p)]
6
(x2 − x0 ) 2h
= [f0 + 4f1 + f2 ] = [f0 + 4f1 + f2 ]
6 6

Ası́ el Método de Simpson simple dado en (3.21) queda expresado de la


siguiente forma
h
M SS(f ) = [f0 + 4f1 + f2 ] (3.22)
3
La expresión del error en la interpolación viene dado por

f 000 (ξ)
ESS = (x − x0 )(x − x1 )(x − x2 ) (3.23)
6

A diferencia del método del trapecio simple, para el método de Simpson


simple no es simple determinar el error para la aproximación de la integral a
partir de (3.23). Para este objetivo vamos a usar otro método que pasamos
a describir a continuación. Primero consideramos el intervalo [−h, h] y la
82 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

siguiente función que describe el error para cada valor de h:


Z h
E(h) = f (x) dx − M SS(f )
−h
(3.24)
Z h
h
= f (x) dx − [f (−h) + 4f (0) + f (h)]
−h 3
A partir de (3.24) se calculan las derivadas de E que se muestran en la Tabla
3.2.

Tabla 3.2: Derivadas de la función de error E dada por (3.24)


Z h
h
E(h) = f (x) dx − [f (−h) + 4f (0) + f (h)]
−h 3
2 2 4 h
E 0 (h) = f (h) + f (−h) − f (0) − [−f 0 (−h) + f 0 (h)]
3 3 3 3
1 0 1 h
E 00 (h) = f (h) − f 0 (−h) − [f 00 (−h) + f 00 (h)]
3 3 3
h
E 000 (h) = − [−f 000 (−h) + f 000 (h)]
3
1 h
E (iv) (h) = − [−f 000 (−h) + f 000 (h)] − [f (iv) (−h) + f (iv) (h)]
3 3
2 2 h
E (v) (h) = − f (iv) (−h) − f (iv) (h) − [−f (v) (−h) + f (v) (h)]
3 3 3

De la Tabla 3.2 se observa que


E(0) = 0, E 0 (0) = 0, E 00 (0) = 0,
4 (3.25)
E 000 (0) = 0, E (iv) (0) = 0, E (v) (0) = − f (iv) (0).
3
Usando E (iv) de la Tabla 3.2 y acomodando como sigue
 000
f (h) − f 000 (−h)
  (iv)
f (h) + f (iv) (−h)

(iv) 2h
E (h) = − + (3.26)
3 2h 2
Exigiendo que f (iv) exista y sea continua en [−h, h], entonces podemos aplicar
el Teorema del Valor Medio y Teorema del Valor Intermedio en (3.26) para
garantizar la existencia de ξ1 , ξ2 ∈ h−h, hi tal que
2h (iv)
E (iv) (h) = − [f (ξ1 ) + f (iv) (ξ2 )] (3.27)
3
3.2. MÉTODO DE SIMPSON 83

acomodando de forma adecuada (3.27) con la finalidad de aplicar nuevamente


el Teorema del Valor Intermedio, se tiene
4h f (iv) (ξ1 ) + f (iv) (ξ2 )
 
(iv)
E (h) = − (3.28)
3 2

nuevamente, como f (iv) es continua, entonces en (3.28) existe ξ ∈ h−h, hi tal


que
4h
E (iv) (h) = − f (iv) (ξ) (3.29)
3
Ahora, integrando E (iv) de (3.29) y usando (3.25) se obtiene

f (iv) (ξ)h5
E(h) = − (3.30)
90
Por tanto, a partir de (3.19) junto a (3.21) y (3.30) se tiene la siguiente
igualdad
Z x2
h f (4) (ξ)h5
f (x) dx = [f (x0 ) + 4f (x1 ) + f (x2 )] − (3.31)
x0 3 90

3.2.2. Compuesto
De una forma análoga al método del trapecio compuesto, vamos a consi-
derar una partición regular del intervalo [a, b], es decir:

a = x0 < x1 < ... < xn−1 < xn = b,


b−a
donde h = . Dado que para aplicar el método de Simpson simple nece-
n
sitamos 3 puntos: xi−1 , xi , xi+1 , el número de intervalos n está restringido
a que sea un número natural par.
Veamos el procedimiento:
n n
Z xn 2 Z
X x2i 2
X
f (x)dx = f (x)dx = MSSi (f ) + ESC
x0 i=1 x2i−2 i=1

donde
Z x2i
h n
M SSi (f ) = f (x) dx = (f2i−2 + 4f2i−1 + f2i ), i = 1, ...,
x2i−2 3 2
n
2
X h5
ESC = − f (4) (ξi ) (3.32)
i=1
90
84 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

El Método de Simpson Compuesto es definido como:


n n
2 2
X X h
M SC(f ) = M SSi (f ) = (f2i−2 + 4f2i−1 + f2i ) (3.33)
i=1 i=1
3

realizando la suma en (3.33), el método de Simpson compuesto queda


 n n

2 2
−1
h X X
M SC(f ) = f0 + 4 f2i−1 + 2 f2i + fn  (3.34)
3 i=1 i=1

De un modo análogo para el análisis de error para el método del trapecio


compuesto, vamos a encontrar una forma más adecuada para el error para el
método de Simpson compuesto dado por (3.32).
Usando (3.30) y sabiendo que f (iv) es continua en el intervalo cerrado y
acotado [a, b], por tanto, existen x∗ , x̂ ∈ [a, b] donde f (iv) alcanza su mı́nimo
y máximo respectivamente, es decir

f (iv) (x∗ ) ≤ f (iv) (x) ≤ f (iv) (x̂) para todo x ∈ [a, b] (3.35)
n
en particular, para ξi ∈ [x2i−2 , x2i ] ⊂ [a, b], (i = 1, ..., ) también se cumple
2

f (iv) (x∗ ) ≤ f 00 (ξi ) ≤ f (iv) (x̂) (3.36)


n
sumando para i = 1, ..., en (3.36) se obtiene
2
n
2
n (iv) ∗ X n
f (x ) ≤ f (iv) (ξi ) ≤ f (iv) (x̂) (3.37)
2 i=1
2

es decir n
2
X
2 f (iv) (ξi )
i=1
f (iv) (x∗ ) ≤ ≤ f (iv) (x̂)
n
dado que f (iv) es una función continua en [a, b], entonces aplicamos de nuevo
el Teorema del Valor Intermedio, es decir, existe ξ ∈ ha, bi tal que
n
2
X
2 f (iv) (ξi )
i=1
f (iv) (ξ) = (3.38)
n
3.2. MÉTODO DE SIMPSON 85

Reemplazando adecuadamente (3.38) en la expresión dado por (3.32), obte-


nemos
n
2
X f (iv) (ξi ) h5 (iv)
ESC = − h5 = −n f (ξ) para algún ξ ∈ ha, bi. (3.39)
i=1
90 180

o de forma equivalente
h5 (iv) (b − a)5 (iv)
ESC = −n f (ξ) = − f (ξ) para algún ξ ∈ ha, bi. (3.40)
180 180n4

EjemploR 3.2.1. Sea f (x) = 1 + e−x sin (4x). Aproximar el valor de la


1
integral 0 f (x) dx usando la regla trapezoidal y Simpson simple. Compare
los resultados obtenidos en cada aproximación con el resultado exacto de la
integral.
R1
0
f (x) dx = 21e−4 cos17e
(4)−sin (4)
= 1.3082506046426...
Resolución:
Dado nuestra función f (x) = 1 + e−x sin (4x).

Usando el Método de Trapecio Simple:

R1 1−0
0
f (x) dx = 2
{f (0) + f (1)}
Reemplazando:
f (0) = 1

f (1) = 1 + e−1 sin (4)


R1
0
f (x) dx = 21 {1 + 1 + e−1 sin (4)} ≈ 0.860793960475

Usando el Método de Simpson Simple:


R1 1−0
 1

0
f (x) dx = 3
f (0) + 4f 2
+ f (1)
Reemplazando:
f (0) = 1
1
= 1 + e−0.5 sin (2)

f 2

f (1) = 1 + e−1 sin (4)


86 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA
R1
0
f (x) dx = 1−0
3
{1 + 4 [1 + e−0.5 sin (2)] + 1 + e−1 sin (4)} ≈ 2.64255166454
Cálculo de errores:


Error (T S) = 1.308250604642−0.860793960475
1.308250604642
≈ 0.342026705418

Error (SS) = 1.30825060464−2.64255166454
1.30825060464
≈ 1.0199124351

Ejemplo 3.2.2. Aplice el MSS a la siguiente integral


Z e
x2 ln(x) dx.
1

Luego, estime el número de subintervalos n para alcanzar una aproximación


de 10−2 al usar el MSC.
Resolución:
Aplicando el M SS a f (x) = x2 ln(x) se tiene
(e − 1)
M SS(f ) = (f (1) + 4f ((1 + e)/2) + f (e)) = 4.57135.
6
Ahora, para estimar el número de subintervalos n, debemos acotar f (iv) según
lo sugiere la fórmula dada en (3.40). A partir de f obtenemos:
2
f (iv) (x) = − ,
x2
y como 1 ≤ x ≤ e, entonces
|f (iv) (x)| ≤ M = 2.
Por tanto, de (3.40) se obtiene
(e − 1)5 (iv) (e − 1)5

|ESC| = f (ξ) ≤ M
180n4 180n4

y queremos una tolerancia de error de tol = 10−2 , por tanto, exigimos que:
(e − 1)5

M ≤ tol
180n4
de donde se obtiene
r
M (e − 1)5
4
n≥ ≈ 2.01980,
180 tol
ası́, debemos tomar n = 4 porque debe ser un número par.

La Tabla 3.3 muestra los cálculos respectivos.


3.2. MÉTODO DE SIMPSON 87

Tabla 3.3: Resultados del MSC para f (x) = x2 ln(x).


i xi f (xi ) Peso Peso f (xi )
0 1.00000 0.00000 1 0.00000
1 1.42957 0.73036 4 2.92142
2 1.85914 2.14337 2 4.28673
3 2.28871 4.33717 4 17.34869
4 2.71828 7.38906 1 7.38906

De la Tabla 3.3 se obtiene

M SC(f ) = 4.57434,

y sabemos que el valor exacto de la integral es


Z e
2e3 1
f (x) dx = + = 4.57456,
1 9 9

por tanto, se puede calcular el error exacto


Z e

|ESC| = f (x) dx − M SC(f ) = 0.00023 < 0.01.
1

Ejemplo 3.2.3. Determinar el número de sumandos necesarios, en las


fórmulas compuesta del Trapecio y de Simpson, para calcular con 6 cifras
decimales exactas la siguiente integral.
Z 2
ln (x)dx
1

Resolución:
Para el cálculo de errores o tolerancia tenemos: T ol = 10−6
2
|ET (f )| = h (b−a)
(2)
f (θ)
12

h4 (b−a)
(4)
|ES (f )| = 180
f (θ)

b−a
Además h = n
= n1 .

Pasamos a obtener las derivadas:


88 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

1
f (x) = ln (x); f (1) (x) = x
; f (2) (x) = − x12
2
f (3) (x) = x3
; f (4) (x) = − x64

Acotamos las derivadas respectivas:

Usando el método del Trapecio.


1≤ x ≤2 ⇒ −1 ≤ − x12 ≤ − 14 ⇒ 1
4
≤ f (2) (x) ≤ 1
Reemplazando:


1
n2 (12)
(1) f (2) (x) ≤ 10−6 ; 1
n2 (12)
≤ 10−6 ; n = 288.67 ≈ 289
Usando el método de Simpson.

1≤ x ≤2 ⇒ −6 ≤ − x64 ≤ − 61 ⇒ 1
6
≤ f (4) (x) ≤ 6.
Reemplazando:
1(6)
(4)
4
1
(1) f (x) ≤ 10−6 ; ≤ 10−6 ; n = 13.51 ≈ 14
n (180) n4 (180)

Z 2
Ejemplo 3.2.4. Determine el número de intervalos n para aproximar e2x sen(3x) dx
0
con una exactitud de 10−4 usando el método del trapecio compuesto y méto-
do de Simpson compuesto.
Resolución:
Sea f (x) = e2x sen(3x), luego:

f 0 (x) = e2x (2sen(3x) + 3cos(3x))


f 00 (x) = e2x (−5sen(3x) + 12cos(3x))
f 000 (x) = e2x (−46sen(3x) + 9cos(3x))
f (iv) (x) = e2x (−119sen(3x) − 120cos(3x))

Para el método del trapecio se tiene que:


b − a 2 00
ET (f ) = − h f (ξ) para algún ξ ∈ ha, bi.
12
Por tanto, debemos acotar f (00) (x) para todo 0 ≤ x ≤ 2. Por dato, obtenemos
lo siguiente:
p
|e2x | ≤ e4 , | − 5sen(3x) + 12cos(3x)| ≤ (5)2 + (12)2 ,
3.2. MÉTODO DE SIMPSON 89

entonces:
|f (00) (x)| ≤ M
p
donde M = e4 (5)2 + (12)2 = 709.77595. Ahora, acotamos ET (f ), es decir:
22 (00) 2M

|ET (f )| = 2 f (ξ) ≤ 2 ≤ 10−4
12n2 3n
de donde obtenemos:
r
2M 104
n≥ = 2175.2792,
3
por tanto, para el método del trapecio tenemos que tomar n = 2176.
Para el método de Simpson compuesto, debemos acotar f (iv) (x) para todo
0 ≤ x ≤ 2. De esto, tenemos lo siguiente:
p
|e2x | ≤ e4 , | − 119sen(3x) − 120cos(3x)| ≤ (119)2 + (120)2 ,

entonces:
|f (iv) (x)| ≤ M
p
donde M = e4 (119)2 + (120)2 = 9227.0874. Ahora, acotamos ES(f ), es
decir:
24

≤ 8M ≤ 10−4
(iv)

|ES(f )| = 2 4
f (ξ) 45n4
180n
de donde obtenemos:
r
4 8M 104
n≥ = 63.640785
45
por tanto, para el método de Simpson tenemos que n = 64.

Ejemplo 3.2.5. Un cuerpo está sometido a la fuerza conservativa F (x) =


x − x1 y se desplaza desde la posición x = 1 hasta x = 1.8. Determinar el
trabajo realizado utilizando la regla de Simpson compuesta con paso h = 0.2.
Calcular el error relativo y estimar un número de intervalos para obtener un
error de 10−5 . Aproximar al quinto decimal.
Resolución:
El trabajo pedido es:
Z 1.8 Z 1.8  2  r=1.8
1 x
W (x) = F (x)·dx = (x− )·dx = − ln(x) = 0.5322133 ≈ 0.53221
1 1 x 2 r=1

Aproximamos el trabajo por el método de Simpson compuesto:


90 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

0.2
I= (F (1) + 4F (2) + 2F (1.4) + 4F (1.6) + F (1.8)) = 0.5321693 ≈ 0.53217
3
El error relativo es:

ER = −0.0000019
Para estimar el número de subintervalos, se tiene que:


120
|f (iv) (x)| = 5 ≤ 24,
x

Y el error por el método de Simpson compuesto viene dado por:

4
(b − a)5 (iv) 24(b − a)5

h
|E| =
(iv)
(b − a)f (ζ) =
f (ζ) ≤
≤ 10−5
180 180n4 180n4

De donde se obtiene n ≥ 8.13, es decir, podemos tomar n = 9.

3.3. Cuadratura Gaussiana


Consideremos la siguiente integral
Z
w(x)f (x) dx (3.41)
I

donde I = [a, b] es un intervalo y w(x) ≥ 0 para todo x ∈ I. La función


w : R → R es llamada función de peso. Los métodos de integración numérica
de la sección anterior motivan una fórmula general para aproximar (3.41) de
la siguiente forma

Q(f ) = w1 f (x1 ) + . . . + xn f (xn ) (3.42)

denominada fórmula de cuadratura de ” n ” puntos. Los valores wi (i =


1, . . . , n) son llamados pesos y los puntos xi i = 1, . . . , n son llamados nodos.
Para aproximar el valor de (3.41) usando (3.42) es necesario calcular los pesos
wi y los nodos xi para todo i = 1, . . . , n. Es decir, tenemos 2n variables.
Una forma de calcular estas ” 2n ” variables es exigir que (3.42) aproxime
(3.41) de forma exacta para un cierto tipo de funciones. En particular, por
3.3. CUADRATURA GAUSSIANA 91

simplicidad, podemos exigir que (3.42) sea exacta para todo polinomio P2n−1
de grado menor o igual a ” 2n − 1 ”, es decir:
Z
Q(P ) = w(x)P (x) dx para todo P ∈ P2n−1 (3.43)
I

Con este objetivo, basta que (3.43) sea exacta para la base {1, x, x2 , . . . , x2n−1 },
obteniéndose el siguiente sistema:

 Z 
1 dx
 
1 1 ··· 1
 Z I
 
 x1 x2 · · · xn 
w1
 
.. .. ..
   

 . . .

 w2

  w(x)x dx 

 .. .. ..  ..   I 

. . .

.
  .. 
 
= Z
  . 
(3.44)
xi1 xi2 · · · xin wi
  
w(x)xi dx
    
 .. .. ..  ..   
 . . .  .   I


.. .. ..

wn
 .. 
.
   
 . . .   Z 
x2n−1 x2n−1 2n−1
 
1 2 · · · xn w(x)x2n−1 dx
I

del Sistema (3.44) se observan las siguientes complicaciones:


El sistema (3.44) es no lineal.

La matriz asociada al Sistema 3.44 no es cuadrada.

Los nodos xi (i = 1, . . . , n) deben ser distintos.


Una forma de encontrar la solución serı́a aplicar el método de Newton para
encontrar una solución del Sistema 3.44, sin embargo, encontrar el punto
inicial no siempre es fácil. Como casos particulares, veamos los siguientes
ejemplos:
Ejemplo 3.3.1. Determine una fórmula cuadratura de 2 puntos Q(f ) =
A1 f (x1 ) + A2 f (x2 ) para aproximar
Z 1
f (x)dx
−1

Resolución:
En Q(f ) tenemos 4 variables {x1 , x2 , A1 , A2 } a determinar. Para esto basta
imponer que Q(f ) sea exacta para polinomios P3 de grado menor igual a 3,
es decir:
92 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Z 1
f (x)dx = Q(f ) para todo P3 ∈ P3 .
−1

Con este fin, basta que sea exacta para la base {1, x, x2 , x3 }, luego:
Z 1
f (x) = 1, ⇒ 1 dx = 2 = A1 + A2 (3.45)
−1
Z 1
f (x) = x, ⇒ x dx = 0 = A1 x1 + A2 x2 (3.46)
−1
Z 1
2 2
f (x) = x ⇒ xdx == = A1 x21 + A2 x22 (3.47)
−1 3
Z 1
3
f (x) = x ⇒ xdx = 0 = A1 x31 + A2 x32 (3.48)
−1

De (3.46) en (3.48) resulta:

A2 x2 (x2 +x1 )(x2 − x1 ) = 0. (3.49)


Para que Q(f ) sea una fórmula de cuadratura de dos puntos, entonces A1 6=
0, A2 6= 0 y x1 6= x2 . Por tanto, de (3.49) se tiene:

x2 (x2 + x1 ) = 0

lo cual implica los siguientes dos casos:

x2 = 0 ∨ x2 = −x1 .

I Si x2 = 0, entonces de (3.46) se obtiene x1 = 0 y esto contradice el


hecho de obtener una fórmula de cuadratura de 2 puntos.

I Si x2 = −x1 , esto implica en (3.47):


2
x21 (A1 + A2 ) = ,
3
y usando (3.45) se concluye:
√ √
3 3
x1 = ∨ x1 = −
3 3
En cualquier caso, se obtiene de (3.45) y (3.46):

A1 = A2 = 1.
3.3. CUADRATURA GAUSSIANA 93
√ √
3 3
Por lo tanto , en cualquiera de los casos Q(f ) = f (− 3
) + f ( 3
), y ası́:
Z 1 √ √
3 3
f (x)dx ≈ f (− ) + f( )
−1 3 3

Una aplicación sencilla de Q(f ) será aproximar el valor de la integral cuando:


f (x) = cos (x).
Z 1 √ √
3 3
cos (x)dx = 1.68294 y Q(f ) = cos (− ) + cos ( ) = 1.67582.
−1 3 3

Ejemplo 3.3.2. Sea f una función continua. Use el método de cuadratura


sobre I = [−1, 1] y w(x) = 1 para todo x ∈ I, para obtener una fórmula de
cuadratura de 3 puntos.
Resolución:
La fórmula de cuadratura de 3 puntos tiene la forma:
Z 1
f (x) dx = w1 f (x1 ) + w2 f (x2 ) + w3 f (x3 )
−1

Hacemos exacta la fórmula para la base de los polinomios de grado menor o


igual a 5, es decir:
β = 1, x1 , x2 , x3 , x4 , x5


Obtenemos el siguiente sistema de ecuaciones:

f (x) = 1, ⇒ w1 + w2 + w3 = 2 (3.50)
f (x) = x, ⇒ w1 x1 + w2 x2 + w3 x3 = 0 (3.51)
2
f (x) = x2 ⇒ w1 x21 + w2 x22 + w3 x23 = (3.52)
3
f (x) = x3 ⇒ w1 x31 + w2 x32 + w3 x33 = 0 (3.53)
2
f (x) = x4 , ⇒ w1 x41 + w2 x42 + w3 x43 = (3.54)
5
5 5 5 5
f (x) = x , ⇒ w1 x1 + w2 x2 + w3 x3 = 0 (3.55)

Multiplicamos la ecuación (3.51) por x21 , para luego restarla de (3.53),


resultando:
w2 x32 + w3 x33 − w2 x2 x21 − w3 x3 x21 = 0. (3.56)
Multiplicamos la ecuación (3.53) por x21 , para luego restarla de (3.55), resul-
tando:
w2 x52 + w3 x53 − w2 x32 x21 − w3 x33 x21 = 0. (3.57)
94 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Multiplicamos la ecuación (3.56) por x22 , para luego restarla de (3.57) obte-
nemos:
w3 x3 (x3 − x1 )(x3 + x1 )(x2 − x3 )(x2 + x3 ) = 0. (3.58)
Desde que queremos una fórmula de tres puntos, entonces w3 6= 0, x3 6= x1 y
x3 6= x2 , luego (3.58) se reduce a:

x3 (x3 + x1 )(x3 + x2 ) = 0. (3.59)

Por tanto, de (3.59) resta analizar los siguientes casos:

x3 = 0 ∨ x3 = −x1 ∨ x3 = −x2 .

Veamos cada caso:


Si x3 = 0, entonces x1 6= 0 y x2 6= 0. Además, el sistema inicial (3.50)-
(3.55) se reduce a:

w1 + w2 + w3 = 2 (3.60)
w1 x1 + w2 x2 = 0 (3.61)
2
w1 x21 + w2 x22 = (3.62)
3
3 3
w 1 x1 + w 2 x2 = 0 (3.63)
2
w1 x41 + w2 x42 = (3.64)
5
5 5
w 1 x1 + w 2 x2 = 0 (3.65)

Multiplicando (3.61) por x22 y restando (3.63) se obtiene:

w1 x1 (x2 − x1 )(x2 + x1 ) = 0

Desde que buscamos fórmula de 3 puntos, entonces: w1 6= 0 y x1 6= x2 ,


por tanto se obtiene
x1 = −x2 (3.66)
Reemplazando en (3.61): w1 = w2 . q √
3 15
Considerando (3.62) y (3.64) se obtiene: x2 = −x1 = 5
= 5
5
Que reemplazando en (3.62): w2 = w1 = 9
Reemplazando en (3.60) se obtiene: w3 = 89 .
De este modo, la fórmula de cuadratura de 3 puntos queda como:
Z 1  √  √ 
5 15 5 15 8
f (x) dx = f − + f + f (0). (3.67)
−1 9 5 9 5 9
3.3. CUADRATURA GAUSSIANA 95

En los otros casos:


x3 = −x1 ∨ x3 = −x2 ,
se obtiene la misma regla de cuadratura dada por (3.67).
R1
Ejemplo 3.3.3. Para aproximarla integral I(f ) = 0 xf (x)dx, tal que f ∈
C 2 ([0.1]), consideremos la fórmula de cuadratura Q(f ) = Af (0) + Bf 0 (1)
donde f 0 representa la derivada de f . Determine los pesos A y B de modo
que la fórmula sea exacta cuando f sea un polinomio de grado menor o igual
a 1.
Resolución:
Debemos calcular A y B tal que
I(f ) = Q(f )
donde f es un polinomio de grado menor o igual a 1.
Para f (x) = 1 se tiene f 0 (x) = 0, entonces de I(f ) = Q(f ) resulta:
Z 1
xdx = A(1) + B(0),
0

1
esto da A = .
2
Para f (x) = x se tiene f 0 (x) = 1, entonces de I(f ) = Q(f ) resulta:
Z 1
x2 dx = A(0) + B(1),
0

1
esto da B = .
3
Por tanto:
1 1
Q(f ) = f (0) + f 0 (1).
2 3

3.3.1. Polinomios Ortogonales


1. Polinomios de Legendre:
I = [−1, 1],
w(x) = 1,
L0 (x) = 1,
L1 (x) = x,
2n + 1 n
Ln+1 (x) = xLn (x) − Ln−1 (x) ∀n ≥ 1.
n+1 n+1
96 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

2. Polinomios de Laguerre:

I = [0, ∞i,
w(x) = e−x ,
L0 (x) = 1,
L1 (x) = 1 − x,
(2n + 1 − x) n
Ln+1 (x) = Ln (x) − Ln−1 (x) ∀n ≥ 1.
n+1 n+1

3. Polinomios de Hermite:
I = h−∞, +∞i,
2
w(x) = e−x ,
H0 (x) = 1,
H1 (x) = 2x,
Hn+1 (x) = 2xHn (x) − 2nHn−1 (x) ∀n ≥ 1.

4. Polinomios de Tchebyshev de primera especie:

I = h−1, 1i,
1
w(x) = √ ,
1 − x2
T0 (x) = 1,
T1 (x) = x,
Tn+1 (x) = 2xTn (x) − Tn−1 (x) ∀n ≥ 1.

3.4. Cuadratura Gaussiana


Queremos aproximar la siguiente integral:
Z
w(x)f (x) dx (3.68)
I

mediante una fórmula de cuadratura de ” n ” puntos de la forma:

Q(f ) = w1 f (x1 ) + . . . + wn f (xn ) (3.69)

Estos métodos consideran conocidos los nodos {xi }ni=1 , donde éstos son las
raı́ces de un polinomio ortogonal Pn de grado n.

Por tanto, resta encontrar los n pesos w1 , w2 , . . . , wn . Para esto, exigimos


que (3.69) calcule el valor exacto de (3.68) para la base {1, x, x2 , . . . , xn−1 },
obteniéndose el siguiente sistema:
3.4. CUADRATURA GAUSSIANA 97

 Z 
w(x) dx
 I 
···
    Z 
1 1 1 w1  
 x1 x 2 ··· xn  w2

  w(x)x dx 

 . .. ..  ..   I 
 .
 . . .

.
  .. 
 i

= Z
  . 
(3.70)
 x1 xi2 ··· xin wi
 
w(x)xi dx
   
 . .. .. ..
 ..
   
. .  .   I

x1n−1 xn−1 · · · xn−1 wn
 .. 
.
 
2 n  Z 
 
w(x)xn−1 dx
I

del Sistema (3.70) se observan las siguientes simplificaciones en relación al


Sistema (3.44):
El sistema (3.70) es lineal.
La matriz asociada al Sistema 3.70 es cuadrada.
Desde que los nodos xi (i = 1, . . . , n) son distintos por ser raı́ces de
polinomios ortogonales, la solución del Sistema (3.70) es única.

Ejemplo 3.4.1. Aproximar la siguiente integral:


Z 3 x
e Sen(x)
dx
0 1 + x2
empleando el método de Gauss-Legendre de 3 nodos, es decir, los nodos son
las raı́ces del polinomio ortogonal de Legendere donde éstos son dados por la
fórmula de Rodrı́gues mostrado a continuación:
1 dn
Pn (x) = ((x2 − 1)n )
2n n! dxn
Resolución:
A partir de la fórmula de Rodrı́gues se calcula el polinomio de Legendre de
grado 3 para luego obtener los 3 nodos de la regla de cuadratura:
1 1
P3 (x) = (5x3 − 3x) = x(5x2 − 3)
2 2
De donde las raı́ces de P3 son:
r r
3 3
x1 = − = −0.7746, x2 = 0, x3 = = 0.7746.
5 5
98 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Para obtener los pesos w1 , w2 , w3 usamos el Sistema (3.70) para n = 3, dado


por:     
1 1 1 w1 2
 x1 x2 x3   w 2  =  0 
2
x21 x22 x23 w3 3
Resolviendo el sistema se obtiene:
w1 = 0.5556, w2 = 0.8889, w3 = 0.5556.
Por tanto, la regla de cuadratura de Gauss-Legendre de 3 puntos tiene la
forma: Z 1
f (x)dx = w1 f (x1 ) + w2 f (x2 ) + w3 f (x3 ) (3.71)
−1

Luego, para un intervalo arbitrario [a, b] se tiene:


Z b
b−a 1
 
b−a
Z
a+b
f (x)dx = f t+ dt. (3.72)
a 2 −1 2 2
x
Por tanto, usando f (x) = e 1+x
Sen(x)
2 en (3.72) se obtiene:
Z 3 x
3 1
Z  
e Sen(x) 3 3
dx = f t+ dt
0 1 + x2 2 −1 2 2
      
3 3 3 3 3 3 3
= f x1 + +f x2 + +f x3 +
2 2 2 2 2 2 2
= 2.8633.

Por tanto, por construcción podemos concluir que la fórmula de cuadra-
tura gaussiana (3.69) es exacta para cualquier polinomio Sn−1 de grado ”
n − 1 ”, es decir: Z
w(x)Sn−1 (x) dx = Q(Sn−1 ). (3.73)
I
Con la elección hecha para los nodos, es natural preguntarse: ¿ Q(f ) seguirá
siendo exacta para los polinomios P̃2n−1 de grado 2n − 1?.
Al dividir P̃2n−1 entre Pn , del algoritmo de la división resulta:
P̃2n−1 (x) = qn−1 (x)Pn (x) + rn−1 (x) (3.74)
Recordando que los xi son raı́ces de Pn para todo i = 1, ..., n, entonces de
(3.74) se obtiene
P̃2n−1 (xi ) = qn−1 (xi )Pn (xi ) + rn−1 (xi ) = rn−1 (xi ). (3.75)
3.4. CUADRATURA GAUSSIANA 99

Usando (3.74) y (3.75) se obtiene lo siguiente:

Z b Z b
w(x)P̃2n−1 (x)dx = w(x)[qn−1 (x)Pn (x) + rn−1 (x)]dx
a a
Z b Z b Z b
w(x)P̃2n−1 (x)dx = w(x)qn−1 (x)Pn (x) + w(x)rn−1 (x)dx
a a a
Z b Z b
w(x)P̃2n−1 (x)dx = w(x)rn−1 (x)dx = Q(rn−1 )
a a
Z b
w(x)P̃2n−1 (x)dx = w1 rn−1 (x1 ) + w2 rn−1 (x2 ) + ... + wn rn−1 (xn )
a
Z b
w(x)P̃ 2n−1 (x)dx = w1 P̃2n−1 (x1 ) + w2 P̃2n−1 (x2 ) + ... + wn P̃2n−1 (xn )
a
Z b
w(x)P̃ 2n−1 (x)dx = Q(P̃2n−1 ).
a

Esto último indica que la fórmula de cuadratura de n puntos Q(f ) dada por
(3.69) sigue siendo exacta para cualquier polinomio de grado 2n − 1 cuando
los nodos {xi }ni=1 son las raı́ces un polinomio ortogonal de grado n.

Definición 3.1. Una regla de cuadratura tiene grado de precisión ”p”si es


exacta para polinomios de grado menor o igual a p.

Ejemplo 3.4.2. Considere la fórmula de cuadratura de dos puntos dada


por:
√ ! √ !
3 3
Q(f ) = f − +f .
3 3

Determine su grado de precisión.


Resolución:
100 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Z 1
1dx = x|1−1 = 2; Q(1) = 1 + 1 = 2
−1
1
1 √ √
x2
Z
3 3
xdx = = 0; Q(x) = − + =0
−1 2 −1 3 3
Z 1 1
2 x3 2 1 1 2
x dx = = ; Q(x2 ) = + =
−1 3 −1 3
3 3 3
Z 1 1 √ 3! √ !3
3 x4 3 3 3
x dx = = 0; Q(x ) = − + =0
−1 4 −1 3 3
Z 1 1 √ !4 √ !4
4 x5 2 3 3 2
x dx = = ; Q(x4 ) = − + =
−1 5 −1 5
3 3 9
Por tanto, Q(f ) tiene grado de precisión igual a 3. 

Ejemplo 3.4.3. Determine el grado de precisión de la siguiente fórmula de


cuadratura:
7 16 7 1 1
Q(f ) = f (−1) + f (0) + f (1) + f 0 (−1) − f 0 (1),
15 15 15 15 15
sobre el intervalo [−1, 1].
Resolución:
Z 1
0
f (x) = 1, f (x) = 0, 1dx = 2; Q(1) = 2
−1
Z 1
0
f (x) = x, f (x) = 1, xdx = 0; Q(x) = 0
−1
Z 1
2 2
2 0
f (x) = x , f (x) = 2x, x2 dx = ; Q(x2 ) =
−1 3 3
Z 1
3 0 2
f (x) = x , f (x) = 3x , x3 dx = 0; Q(x3 ) = 0
−1
Z 1
2 2
f (x) = x4 , f 0 (x) = 4x3 , x4 dx = ; Q(x4 ) =
−1 5 5
Z 1
f (x) = x5 , f 0 (x) = 5x4 , x5 dx = 0; Q(x5 ) = 0
−1
Z 1
2 2
f (x) = x6 , f 0 (x) = 6x5 , x5 dx = ; Q(x6 ) =
−1 7 15
3.5. EJERCICIOS PROPUESTOS 101

Por tanto, Q(f ) tiene grado de precisión igual a 5. 

Ejemplo 3.4.4. Si Q(f ) = w1 f (x1 ) + ... + wn f (xn ) es una fórmula de


cuadratura donde los xi son raı́ces de algún polinomio ortogonal Pn , entonces
Q(f ) tiene grado de precisión 2n − 1. 

3.5. Ejercicios Propuestos


1. Dados los siguientes puntos de una función y = f (x):

x 0 1 2 3 4
y 0.78 2.04 3.71 4.11 3.89

Z 4
determine un valor aproximado de la integral f (x)dx.
0

a) Por la regla del Trapecio


b) Por la regla de Simpson

2. Cuántos intervalos serán precisos para aproximar la integral con un


error menor que 5×10−4 , donde:
Z 2
exp(−x)
dx
1 x

a) Por la regla del Trapecio


b) Por la regla de Simpson

3. Aproximar la integral:
Z 1
4
dx
0 1 + x2
utilizando el método de Romberg, con una tolerancia de 5 × 10−9 y 20
iteraciones.
R1
4. Deduzca la fórmula de Newton - Cotes para 0 f (x) dx, usando po-
linomios de interpolación de Lagrange con nodos 0, 31 , 23 , 1. Use este
resultado para evaluar la integral cuando f (x) = sen(πx).
102 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

5. Encuentre la fórmula
Z 1
f (x) dx ≈ A0 f (0) + A1 f (1)
0

que resulta exacta para todas las funciones de la forma


πx
f (x) = a exp(x) + bcos( )
2
Capı́tulo 4

Sistemas de ecuaciones lineales

A continuación consideremos el siguiente sistema lineal:


    
a11 a12 · · · a1,n−1 a1,n x1 b1
 a21 a22 a2,n−1 a2,n   x2   b2
   
 
... .   ..
  ..  = 
   

    . 

 an−1,1 an−1,2 an−1,n−1 an−1,n   xn−1   bn−1 
an,1 an,2 · · · an,n−1 an,n xn bn

que escrito en forma matricial:

Ax = b (4.1)

donde A ∈ Rn×n , x ∈ Rn y b ∈ Rn .

Definición 4.1. Dado el sistema lineal Ax = b, definimos la matriz aumen-


tada M asociada al sistema lineal de la forma siguiente:

M = (A | |b) (4.2)

4.1. Métodos Directos


Definición 4.2. Dada una matriz A ∈ Rn×n , definimos como operaciones
elementales fila para la matriz A a cualquiera de las siguientes operaciones:

1. Intercambiar la fila i con la fila j, denotado por Fi ↔ Fj .

2. Asignar a la fila i la misma fila i pero multiplicada por un número no


nulo λ. Esto es denotado por Fi ← λFi .

103
104 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

3. Asignar a la fila i la misma fila i y sumándole λ veces la fila j donde


λ 6= 0. Esto es denotado por Fi ← Fi + λFj .
 
−1 2 −3 1
 2 −1 2 5 
Ejemplo 4.1.1. Considere la matriz A =   1 −3 1 −1
. Sobre

2 1 −1 2
la matriz original A realice las siguientes operaciones elementales: F2 ↔ F3 ,
F1 ← −4F1 y F4 ← F4 − 2F2 .
Resolución

Aplicando la operación elemental F2 ↔ F3 a la matriz A se obtiene:


 
−1 2 −3 1
 1 −3 1 −1 
 
 2 −1 2 5 
2 1 −1 2

Aplicando la operación elemental F1 ← −4F1 a la matriz A se obtiene:


 
4 −8 12 −4
 2 −1 2 5 
 
 1 −3 1 −1 
2 1 −1 2

Aplicando la operación elemental F4 ← F4 − 2F2 a la matriz A se


obtiene:  
−1 2 −3 1
 2 −1 2 5 
 
 1 −3 1 −1 
−2 3 −5 −8


Definición 4.3. Una matriz E ∈ Rn×n es llamada matriz elemental cuan-


do ella es obtenida al aplicar una operación elemental fila a la matriz iden-
tidad In .

Ejemplo 4.1.2. Considere la matriz identidad I4 . Son matrices elementales:


4.1. MÉTODOS DIRECTOS 105

Operación elemental F1 ↔ F3 . Entonces:


 
1 0 1 0
 0 1 0 0 
E=
 1

0 0 0 
0 0 0 1

Operación elemental F3 ← 2F3 . Entonces:


 
1 0 0 0
 0 2 0 0 
E=
 0

0 1 0 
0 0 0 1

Operación elemental F2 ← F2 − 3F4 . Entonces:


 
1 0 0 0
 0 1 0 −3 
E=
 0

0 1 0 
0 0 0 1

Definición 4.4. Una matriz L es llamada Triangular Inferior cuando


tiene la forma:
 
l11 0 0 ··· 0 0

 l21 l22 0 0 0 

L=
 .. 
 . 

 ln−1,1 ln−1,2 ln−1,3 · · · ln−1,n−1 0 
ln,1 ln,2 ln,3 · · · ln,n−1 ln,n

Cuando se tiene un sistema lineal de la forma:

Lx = b (4.3)

donde L es una matriz triangular inferior cuyos elementos lii 6= 0 (i =


1, . . . , n). Para calcular la solución x se usa el Algoritmo 5 descrito a conti-
nuación.
106 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Algoritmo 5: Sustitución Progresiva


Entrada: Ingresar una matriz triangular inferior L ∈ Rn×n .
1 inicio
2 para i ← 1 a n hacer
i−1
X
bi − lij xj
j=1
3 xi ←
lii
4 fin para
5 devolver Solución del sistema lineal x = (x1 , . . . , xn ).
6 fin

Definición 4.5. Una matriz U es llamada Triangular Superior cuando


tiene la forma:
 
u11 u12 · · · u1,n−2 u1,n−1 u1,n
 0 u22 u2,n−2 u2,n−1 u2,n 
 
U =
 .
.. 

 
 0 0 0 un−1,n−1 un−1,n 
0 0 ··· 0 0 un,n

Cuando se tiene un sistema lineal de la forma:

Ux = b (4.4)

donde U es una matriz triangular superior cuyos elementos uii 6= 0 (i =


1, . . . , n). Para calcular la solución x se usa el Algoritmo 6 descrito a conti-
nuación.
Algoritmo 6: Sustitución Regresiva
Entrada: Ingresar una matriz triangular superior U ∈ Rn×n .
1 inicio
2 para i ← n a 1 hacer
Xn
bi − uij xj
j=i+1
3 xi ←
uii
4 fin para
5 devolver Solución del sistema lineal x = (x1 , . . . , xn ).
6 fin
4.1. MÉTODOS DIRECTOS 107

4.1.1. Eliminación Gaussiana


Dado el sistema lineal Ax = b, el método consiste en aplicar operaciones
elementales fila a la matriz aumentada M asociada al sistema lineal de forma
tal que la matriz A sea transformada a una matriz triangular superior.
Ejemplo 4.1.3. Resuelva el sistema lineal siguiente mediante eliminación
gaussiana.    
−1 3 −1 1 x1 −8
 1 −1 2 −1   x2   4 
=
  4 .
  
 3 1 −2 2   x3
3 −1 1 2 x4 16
Resolución: Consideremos la matriz aumentada
 
−1 3 −1 1 −8
 1 −1 2 −1 4 
M = (A | b) =  
 3 1 −2 2 4 
3 −1 1 2 16
Sobre M realizamos las siguientes operaciones elementales:

F2 ← F1 + (1)F1 , F3 ← F3 + (3)F1 , F4 ← F4 + (3)F1 ;

obteniéndose la siguiente matriz aumentada:


 
−1 3 −1 1 −8
 0 2 1 0 −4 
M =  0 10 −5 5 −20


0 8 −2 5 −8
Sobre el M obtenido realizamos las siguientes operaciones elementales:
   
10 8
F3 ← F3 + − F2 , F4 ← F4 + − F2
2 2
obteniéndose la siguiente matriz aumentada:
 
−1 3 −1 1 −8
 0 2 1 0 −4 
M =  0 0 −10 5 0 

0 0 −6 5 8
Sobre el M obtenido realizamos la siguiente operación elemental:
 
6
F4 ← F4 + − F3
10
108 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

obteniéndose:
 
−1 3 −1 1 −8
 0 2 1 0 −4 
M = 
 0 0 −10 5 0 
0 0 0 2 8

Por tanto, el sistema resultante es:

    
−1 3 −1 1 x1 −8
 0 2 1 0   x2
    −4 
 = 
 0 0 −10 5   x3   0 
0 0 0 2 x4 8

Este sistema tiene la forma del Sistema 4.4 y ası́ podemos aplicar el Algorit-
mo 6. Esto es:

b4 8
i = 4 : x4 = = =4
u44 2
4
X
b3 − u3j xj
j=4 3 − (5(4))
i = 3 : x3 = = =2
u33 −10
4
X
b2 − u2j xj
j=3 −4 − (1(2) + 0(4))
i = 2 : x2 = = = −3
u22 2
4
X
b1 − u1j xj
j=2 −8 − (3(−3) − 1(2) + 1(4))
i = 1 : x1 = = =1
u11 −1

Ası́ se obtiene la solución x = (1, −3, 2, 4). 

El proceso para triangulizar una matriz es descrito a continuación:


4.1. MÉTODOS DIRECTOS 109

Algoritmo 7: Proceso de Triangulización de una matriz


Entrada: Ingresar una matriz A ∈ Rn×n .
1 inicio
2 f lag ← 1;
3 para j ← 1 a n hacer
4 si Ajj 6= 0 entonces
5 para i ← j + 1 a n hacer
6 para k ← 1 a n hacer 
Ajk
7 Aik ← Aik − Aij
Ajj
8 fin para
9 fin para
10 en otro caso
11 Guardar j
12 f lag ← 0
13 Parar.
14 fin si
15 fin para
16 si f lag == 1 entonces
17 devolver Matriz A en forma triangular superior.
18 en otro caso
19 Falla el proceso de triangulización en la fila j
20 fin si
21 fin

Ejemplo 4.1.4. ¿Es posible usar el método de eliminación Gaussiana para


el siguiente sistema lineal?
    
2 2 −1 3 −1 x1 −9
 2
 2 3 −4 1 
  x2  
   11 

 1 −1 1 −2 1 
  x3  =  5
   
 
 −1 8 −2 3 −1   x4   0 
3 −2 1 −3 2 x5 7
Resolución
Consideremos la matriz aumentada
 
2 2 −1 3 −1 −9
 2
 2 3 −4 1 11 

M = (A | b) = 
 1 −1 1 −2 1 5 

 −1 8 −2 3 −1 0 
3 −2 1 −3 2 7
110 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Usamos el Algoritmo 7 realizando las siguientes operaciones elementales sobre


la primera columna:
     
1 1 3
F2 ← F1 +(−1)F1 , F3 ← F3 + − F1 , F4 ← F4 + F1 , F5 ← F5 + − F1 ;
2 2 2
obteniéndose la siguiente matriz aumentada:
 
2 2 −1 3 −1 −9
 
 0 0
 4 −7 2 20 

 
 3 7 3 19 
 0 −2 − 
M =
 2 2 2 2 
5 9 3 9 
 
 0 9 − − − 


 2 2 2 2 

 5 15 7 41 
0 −5 −
2 2 2 2
Podemos observar que el método de eliminación gaussiana no puede continuar
dado que m22 = 0. 
El ejemplo anterior muestra una clara desventaja del método de eliminación
gausiana para calcular de forma directa la solución del sistema lineal. Por
tanto, una condición necesaria de este método es que se verifique en cada paso
que los elementos de la diagonal sean distintos de cero. El ejemplo siguiente
muestra que esta condición no es suficiente para garantizar el cálculo de la
solución exacta.
Ejemplo 4.1.5. Considere el sistema lineal siguiente:
10−4 x1 + x2 = 1
x1 + x2 = 3
cuya solución exacta es x = 2.00020002... e y = 0.99979997.... Halle la so-
lución del sistema en un computador donde la aritmética en punto flotante
usa 3 dı́gitos en la mantisa y redondeo.
Resolución:
La matriz aumentada del sistema viene dado por:
0.100 × 10−3 0.100 × 101 0.100 × 101
 
M=
0.100 × 101 0.100 × 101 0.300 × 101
Realizamos la operación elemental:
 
1
F2 ← F2 − F1
0.1 × 10−3
4.1. MÉTODOS DIRECTOS 111

es decir:
0.1 × 10−3
 
1
m21 = 0.1 × 10 + − = 0.1 × 101 − 1 = 0
0.1 × 10−3
0.1 × 101
 
1
m22 = 0.1 × 10 + − = 0.1 × 101 − 104
0.1 × 10−3
= 0.1 × 10 − 0.1 × 105
1
(expresando en punto flotante)
= 0.00001 × 105 − 0.1 × 105 (igualando exponentes)
= (0.00001 − 0.1) × 105 (restando mantisas)
= = −0.09999 × 105 = −0.9999 × 104 (expresando en punto flotante)

4
= −1.000 × 10 (redondeo al tercer dı́gito)
0.1 × 101

m23 = 0.3 × 101 + − = 0.3 × 101 − 104
0.1 × 10−3
= 0.3 × 101 − 0.1 × 105 (expresando en punto flotante)
= 0.00003 × 105 − 0.1 × 105 (igualando exponentes)
= (0.00003 − 0.1) × 105 (restando mantisas)
= = −0.09997 × 105 = −0.9997 × 104 (expresando en punto flotante)
= −1.000 × 104 (redondeo al tercer dı́gito)
Por lo que la matriz aumentada M queda de la forma siguiente:
 −4 
10 1 1
M=
0 −104 −104
Por tanto, el sistema resultante es:
 −4    
10 1 x1 1
=
0 −104 x2 −104
aplicamos ahora el Algoritmo 6 al sistema anterior, resulta:
b2 −104
i = 2 : x2 = = =1
u22 −104
2
X
b1 − u2j xj
j=2 1−1
i = 1 : x1 = = =0
u11 10−4
obteniendo la solución x = (0, 1). 
112 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

4.1.2. Pivoteo Parcial


Los inconvenientes observados en el Ejemplo 4.1.4 y Ejemplo 4.1.5 pueden
ser superados si consideramos la siguiente variación al método de eliminación
gaussiana descrito a continuación.
Algoritmo 8: Proceso de pivoteo parcial
Entrada: Ingresar una matriz A ∈ Rn×n .
1 inicio
2 para j ← 1 a n hacer
3 maxc ← |Ajj |;
4 para i ← j + 1 a n hacer
5 si |Aij | > maxc entonces
6 maxc ← |Aij |;
7 p←i
8 fin para
9 Intercambiar las filas j y p;
10 para i ← j + 1 a n hacer
11 Haciendo ceros los elementos de cada fila i en la columna j
para k ← 1 a n hacer
 
Ajk
12 Aik ← Aik − Aij
Ajj
13 fin para
14 fin para
15 fin para
16 devolver Matriz triangular superior U y vector b
17 fin

Ejemplo 4.1.6. Consideremos el sistema del Ejemploo 4.1.4 cuya matriz


aumentada es dada por:
 
2 2 −1 3 −1 −9

 2 2 3 −4 1 11 

M = (A | b) = 
 1 −1 1 −2 1 5 

 −1 8 −2 3 −1 0 
3 −2 1 −3 2 7

El máximo en valor absoluto de la primera columna de A1 es m51 = 3. Por


tanto, realizamos la operación elemental:

F1 ↔ F5
4.1. MÉTODOS DIRECTOS 113

obteniendo:  
3 −2 1 −3 2 7

 2 2 3 −4 1 11 

M =
 1 −1 1 −2 1 5 

 −1 8 −2 3 −1 0 
2 2 −1 3 −1 −9
Ahora hacemos cero los elementos mi1 (i = 2, 3, 4, 5) mediante las operaciones
elementales:
       
2 1 1 2
F2 ← F2 + − F1 , F3 ← F3 + − F1 , F4 ← F4 + F1 , F5 ← F5 + − F1
3 3 3 3

resultando:  
3 −2 1 −3 2 7
 
 0 10 7 1 19
 
−2 − 

 3 3 3 3 

 
 1 2 1 8 
M =  0 − 3 3 −1 3
 
 3 

22 5 1 7
 
 0 − 2 −
 

 3 3 3 3 
 
 10 5 7 41 
0 − 5 − −
3 3 3 3
22
El máximo en valor absoluto de la primera columna de A2 es m42 = . Por
3
tanto, realizamos la operación elemental:

F2 ↔ F4

obteniendo:  
3 −2 1 −3 2 7
 
 0 22 − 5 2 − 1 7
 


 3 3 3 3 

 
 1 2 1 8 
M =  0 − 3 3 −1 3
 
 3 

10 7 1 19
 
 0 −2 −
 

 3 3 3 3 
 
 10 5 7 41 
0 − 5 − −
3 3 3 3
114 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Ahora hacemos cero los elementos mi2 (i = 3, 4, 5) mediante las operaciones


elementales:
     
1 10 10
F3 ← F3 + F2 , F4 ← F4 + − F2 , F5 ← F5 + − F2 ,
22 22 22

resultando:
 
3 −2 1 −3 2 7
 
 0 22 − 5 1 7
 
2 − 

 3 3 3 3 

 
 13 10 7 61 
M = 0 0
 − 
 22 11 22 22 

34 32 2 58
 
 0 0 − −
 

 11 11 11 11 
 
 10 45 24 162 
0 0 − − −
11 11 11 11
34
El máximo en valor absoluto de la primera columna de A3 es m43 = . Por
11
tanto, realizamos la operación elemental:

F3 ↔ F4

obteniendo:
 
3 −2 1 −3 2 7
 
 0 22 − 5 1 7
 
3
2 − 

 3 3 3 

 
 34 32 2 58 
M = 0 0
 − − 
 11 11 11 11 

13 10 7 61
 
 0 0 −
 

 22 11 22 22 
 
 10 45 24 162 
0 0 − − −
11 11 11 11
Ahora hacemos cero los elementos mi3 (i = 4, 5) mediante las operaciones
elementales:
   
13 10
F4 ← F4 + − F3 , F5 ← F5 + F3 ,
68 34
4.1. MÉTODOS DIRECTOS 115

resultando:
 
3 −2 1 −3 2 7
 
 0 22 − 5 1 7
 
2 − 

 3 3 3 3 

 
 34 32 2 58 
M =  0 0 11 − 11 − 11
 
 11 

6 6 30
 
 0 0 0 −
 

 17 17 17 
 
 55 38 224 
0 0 0 − −
17 17 17

55
El máximo en valor absoluto de la primera columna de A4 es m54 = . Por
17
tanto, realizamos la operación elemental:

F4 ↔ F5

obteniendo:

 
3 −2 1 −3 2 7
 
 0 22 − 5 1 7 

2 − 

 3 3 3 3 

 
 34 32 2 58 
 0 0
M = − − 
 11 11 11 11 

55 38 224 
 
 0 0 0 − −


 17 17 17 
 
 6 6 30 
0 0 0 −
17 17 17

Ahora hacemos cero los elementos mi4 (i = 5) mediante las operaciones ele-
mentales:
 
6
F5 ← F5 + F4 ,
55
116 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

resultando:  
3 −2 1 −3 2 7
 
 0 22 − 5 1 7 

2 − 

 3 3 3 3 

 
 34 32 2 58 
M =
 0 0 − − 
 11 11 11 11 

55 38 224
 
 0 0 0 − −
 

 17 17 17 
 
 6 18 
0 0 0 0
55 55
aplicamos ahora el Algoritmo 6 al sistema anterior, resulta:
b5
i = 5 : x5 = =3
u55
5
X
b4 − u4j xj
j=5
i = 4 : x4 = = −2
u44
5
X
b3 − u3j xj
j=4
i = 3 : x3 = =0
u33
5
X
b2 − u2j xj
j=3
i = 2 : x2 = =1
u22
5
X
b1 − u1j xj
j=2
i = 1 : x1 = = −1
u11
obteniendo la solución x = (−1, 1, 0, −2, 3). 
Ejemplo 4.1.7. Consideremos el sistema del Ejemploo 4.1.5 cuya matriz
aumentada es dada por:
0.100 × 10−3 0.100 × 101 0.100 × 101
 
M=
0.100 × 101 0.100 × 101 0.200 × 101
Realizamos pivoteo parcial sobre A1 mediante la operación elemental:
F1 ↔ F2
4.1. MÉTODOS DIRECTOS 117
 
0.100 × 101 0.100 × 101 0.300 × 101
M=
0.100 × 10−3 0.100 × 101 0.100 × 101
Realizamos la operación elemental:
F2 ← F2 + −0.1 × 10−3 F1


es decir:
m21 = 0.1 × 10−3 + (−0.1 × 10−3 ) (0.1 × 101 )
0.1 × 10−3 − 0.01 × 10−2 = 0.1 × 10−3 − 0.1 × 10−3 = 0
m22 = 0.1 × 101 + (−0.1 × 10−3 ) (0.1 × 101 ) = 0.1 × 101 − 0.01 × 10−2
= 0.1 × 101 − 0.1 × 10−3 (expresando en punto flotante)
= 0.1 × 101 − 0.00001 × 101 (igualando exponentes)
= (0.10000 − 0.00001) × 101 = 0.09999 × 101 (restando mantisas)
= 0.9999 × 100 (expresando en punto flotante)
= 1 (redondeo al tercer dı́gito)
m23 = 0.1 × 101 + (−0.1 × 10−3 ) (0.3 × 101 ) = 0.1 × 101 − 0.03 × 10−2
= 0.1 × 101 − 0.3 × 10−3 (expresando en punto flotante)
= 0.1 × 101 − 0.00003 × 101 (igualando exponentes)
= (0.10000 − 0.00003) × 101 = 0.09997 × 101 (restando mantisas)
= 0.9997 × 100 (expresando en punto flotante)
= 1 (redondeo al tercer dı́gito)
Por lo que la matriz aumentada M queda de la forma siguiente:
 
1 1 3
M=
0 1 1
Por tanto, el sistema resultante es:
    
1 1 x1 3
=
0 1 x2 1
aplicamos ahora el Algoritmo 6 al sistema anterior, resulta:
b2 1
i = 2 : x2 = = =1
u22 1
2
X
b1 − u2j xj
j=2 3−1
i = 1 : x1 = = =2
u11 1
118 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

obteniendo la solución x = (2, 1). 

4.1.3. Pivoteo Total


Definición 4.6. Dada una matriz A ∈ Rn×n , definimos como operacio-
nes elementales columna para la matriz A a cualquiera de las siguientes
operaciones:
1. Intercambiar la columna i con la columna j, denotado por Ci ↔ Cj .
2. Asignar a la columna i la misma columna i pero multiplicada por un
número no nulo λ. Esto es denotado por Ci ← λCi .
3. Asignar a la columna i la misma columna i y sumándole λ veces la
columna j donde λ 6= 0. Esto es denotado por Ci ← Ci + λCj .
 
−1 2 −3 1
 2 −1 2 5 
Ejemplo 4.1.8. Considere la matriz A =   1 −3 1 −1 . Sobre

2 1 −1 2
la matriz original A realice las siguientes operaciones elementales: C1 ↔ C3 ,
C2 ← −5C2 y C4 ← C4 + 2C1 .
Resolución

Aplicando la operación elemental C1 ↔ C3 a la matriz A se obtiene:


 
−3 2 −1 1
 2 −1 2 5 
 
 1 −3 1 −1 
−1 1 2 2

Aplicando la operación elemental C2 ← −5C2 a la matriz A se obtiene:


 
−3 −10 −1 1
 2 5 2 5 
 
 1 15 1 −1 
−1 −5 2 2

Aplicando la operación elemental C4 ← C4 + 2C1 a la matriz A se


obtiene:  
−1 2 −3 −1
 2 −1 2 9 
 
 1 −3 1 1 
−2 1 −1 6
4.1. MÉTODOS DIRECTOS 119

Ejemplo 4.1.9. Consideremos el sistema del Ejemploo 4.1.4 cuya matriz


aumentada es dada por:
 
2 2 −1 3 −1 −9
 2
 2 3 −4 1 11  
M = (A | b) =  1 −1 1 −2 1
 5 
 −1 8 −2 3 −1 0 
3 −2 1 −3 2 7

Primero, denotemos por Ind el vector de ı́ndices de las variables xi (i =


1, 2, 3, 4, 5), es decir:
Ind = ( 1 2 3 4 5 ).
Tener en cuenta, cuando realizamos una operación elemental columna, en-
tonces cambia el orden de los elementos del vector Ind.
El máximo elemento de A1 en valor absoluto es dado por m42 = 8. Por tanto,
realizamos las operaciones elementales:

F1 ↔ F4 , C1 ↔ C2 ,

luego:
Ind = ( 2 1 3 4 5 ),
 
8 −1 −2 3 −1 0
 2
 2 3 −4 1 11 

M =
 −1 1 1 −2 1 5 

 2 2 −1 3 −1 −9 
−2 3 1 −3 2 7
Ahora hacemos cero los elementos mi1 (i = 2, 3, 4, 5) mediante las operaciones
elementales:  
2
F2 ← F2 + − F1 ,
8
 
1
F3 ← F3 + F1 ,
8
 
2
F4 ← F4 + − F1 ,
8
 
2
F5 ← F5 + F1 ,
8
120 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

resultando:  
8 −1 −2 3 −1 0
 
 0 9 7 19 5
 
− 11 

 4 2 4 4 

 
 7 3 13 7 
 0
M = − 5 
 8 4 8 8 

9 1 9 3
 
 0 − − −9 
 
 4 2 4 4 
 
 11 1 9 7 
0 − 7
4 2 4 4
19
El máximo elemento de A2 en valor absoluto es dado por m24 = − . Por
4
tanto, realizamos las operaciones elementales:

C2 ↔ C4 ,

luego:
Ind = ( 2 4 3 1 5 ),
 
8 3 −2 −1 −1 0
 
 0 − 19 7 9 5
 
11 

 4 2 4 4 

 
 13 3 7 7 
M = 0 −8 5 

 4 8 8 

9 1 9 3
 
 0 − − −9 
 
 4 2 4 4 
 
 9 1 11 7 
0 − 7
4 2 4 4
Ahora hacemos cero los elementos mi2 (i = 3, 4, 5) mediante las operaciones
elementales:  
13
F3 ← F3 + − F2 ,
38
 
9
F4 ← F4 + F2 ,
19
 
9
F5 ← F5 + − F2 ,
19
4.1. MÉTODOS DIRECTOS 121

resultando:
 
8 3 −2 −1 −1 0
 
 0 − 19 7 9 5
 
11 

 4 2 4 4 

 
 17 2 17 47 
 0
M = 0 − 
 38 19 38 38 

22 63 3 72
 
 0 0 − −
 

 19 19 19 19 
 
 22 32 22 34 
0 0 −
19 19 19 19
63
El máximo elemento de A3 en valor absoluto es dado por m44 = . Por
19
tanto, realizamos las operaciones elementales:

F3 ↔ F4 , C3 ↔ C4 ,

luego:
Ind = ( 2 4 1 3 5 ),

 
8 3 −1 −2 −1 0
 
 0 − 19 9 7 5
 
11 

 4 4 2 4 

 
 63 22 3 72 
M = 0
 0 − − 
 19 19 19 19 

2 17 17 47
 
 0 0 −
 

 19 38 38 38 
 
 32 22 22 34 
0 0 −
19 19 19 19

Ahora hacemos cero los elementos mi3 (i = 4, 5) mediante las operaciones


elementales:
 
2
F4 ← F4 + − F3 ,
63
 
32
F5 ← F5 + − F3 ,
63
122 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

resultando:
 
8 3 −1 −2 −1 0
 
 0 − 19 9 7 5
 
11 

 4 4 2 4 

 
 63 22 3 72 
M = 0
 0 − − 
 19 19 19 19 

61 19 19
 
 0 0 0 −
 

 126 42 14 
 
 110 26 26 
0 0 0 −
63 21 7

110
El máximo elemento de A4 en valor absoluto es dado por m54 = − . Por
63
tanto, realizamos las operaciones elementales:

F4 ↔ F5 ,

luego:
 
8 3 −1 −2 −1 0
 
 0 − 19 9 7 5
 
11 

 4 4 2 4 

 
 63 22 3 72 
M = 0
 0 − − 
 19 19 19 19 

110 26 26
 
 0 0 0 −
 

 63 21 7 
 
 61 19 19 
0 0 0 −
126 42 14

Ahora hacemos cero los elementos mi4 (i = 5) mediante las operaciones ele-
mentales:
 
61
F5 ← F5 + − F4 ,
220

resultando el vector de ı́ndices de las variables:

Ind = ( 2 4 1 3 5 ),
4.1. MÉTODOS DIRECTOS 123

y la matriz aumentada queda:


 
8 3 −1 −2 −1 0
 

 0 − 19 9 7 5 
11 

 4 4 2 4 

 
 63 22 3 72 
M = 0
 0 − − 
 19 19 19 19 
110 26 26 
 
 0 0 0 −


 63 21 7 
 
 6 18 
0 0 0 0
55 55
aplicamos ahora el Algoritmo 6 al sistema anterior, resulta:
b5
i = 5 : xInd(5) = =3 ⇒ x5 = 3
u55
5
X
b4 − u4j xInd(j)
j=5
i = 4 : xInd(4) = =0 ⇒ x3 = 0
u44
5
X
b3 − u3j xInd(j)
j=4
i = 3 : xInd(3) = = −1 ⇒ x1 = −1
u33
5
X
b2 − u2j xInd(j)
j=3
i = 2 : xInd(2) = = −2 ⇒ x4 = −2
u22
5
X
b1 − u1j xInd(j)
j=2
i = 1 : xInd(1) = =1 ⇒ x2 = 1
u11
obteniendo la solución x = (−1, 1, 0, −2, 3). 

4.1.4. Factorización LU
Ejemplo 4.1.10. Consideremos la siguiente matriz
 
0 1
A= (4.5)
2 3
124 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

observamos que det(A) = −2 6= 0. Deseamos calcular L y U tal que A = LU ,


es decir     
0 1 l11 0 u11 u12
A= = (4.6)
2 3 l21 l22 0 u22
De (4.6) obtenemos el siguiente sistema de ecuaciones:
0 = l11 u11 (4.7)
1 = l11 u12 (4.8)
2 = l21 u11 (4.9)
3 = l21 u12 + l22 u22 (4.10)
De (4.7) se obtiene:
l11 = 0 o u11 = 0.
Si l11 = 0 entonces contradecimos (4.8).
Si u11 = 0 entonces contradecimos (4.9).
Por tanto, podemos concluir que no existen matrices L y U tal que A = LU ,
a pesar que la matriz A es no singular. 

Ejemplo 4.1.11. Consideremos la siguiente matriz


 
0 10 4
A= 0 2 1  (4.11)
2 3 1
observamos que det(A) = 4 6= 0. Deseamos calcular L y U tal que A = LU ,
es decir
    
0 10 4 l11 0 0 u11 u12 u13
A=  0 2 1  =  l21 l22 0   0 u22 u23  (4.12)
2 3 1 l31 l32 l33 0 0 u33
De (4.12) obtenemos el siguiente sistema de ecuaciones:
0 = l11 u11 , 10 = l11 u12 , 4 = l11 u13 (4.13)
De (4.13) podemos observar que l11 6= 0 y ası́ u11 = 0.
Otra vez, a partir de (4.13) se observa que:
0 = l21 u11
(4.14)
2 = l31 u11
Como u11 = 0 se puede observar que se contradice la segunda ecuación de
(4.14). Por tanto, la matriz A no admite descomposición LU a pesar que A
es una matriz no singular. 
4.1. MÉTODOS DIRECTOS 125

El ejemplo anterior nos motiva a establecer condiciones sobre una matriz


A tal que pueda existir la factorización LU . Con este fin, damos primero las
siguientes definiciones.

Definición 4.7 (Menor Principal). Dada una matriz A = (aij ) ∈ Rn×n ,


el menor complementario de un elemento aij es el determinante de la
submatriz de A que se obtiene al eliminar la fila i y la columna j.

1. Los menores complementarios de una matriz A = (aij ) ∈ Rn×n son


denotados por Aij .

2. Los menores complementarios Aii (i = 1, . . . , n) son llamados menores


principales.

Ejemplo 4.1.12. Halle los menores complementarios de la siguiente matriz:


 
−1 3 1
A =  2 −1 −1  .
−2 0 −1

Resolución
Tenemos:

−1 −1 2 −1 2 −1
A11 =
= 1, A12 =
= −4, A13 =
= −2;
0 −1 −2 −1 −2 0

3 1 −1 1 −1 3
A21 =
= −3, A22 =
= 3, A23 =
= 6;
0 −1 −2 −1 −2 0

3 1 −1 1 −1 3
A31 =
= −2, A32 =
= −1, A33 =
= −5.
−1 −1 2 −1 2 −1

Teorema 4.1. Existencia de descomposición LU .


FALTA ESCRIBIR

Teorema 4.2. Si una matriz A ∈ Rn×n es no singular y admite factorización


LU , entonces esta factorización es única.
126 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

4.1.5. Factorización por matrices elementales

Factorización de Doolitle

Suponiendo que la matriz A admite factorización LU , para hallar las


matrices L y U partimos de:

    
a11 a12 · · · a1n l11 0 · · · 0 u11 u12 · · · u1n

 a21 a22 a2n  
  l21 l22 0 
 0 u22 u2n 


 a31 a32 a3n 
=
 l31 l32 0 
 0 0 u3n 

 .. . . . ..  
 .. ... ..  .. . . . .. 
 . .  . .  . . 
an1 an2 · · · ann ln1 ln2 · · · lnn 0 0 · · · unn

El razonamiento es como sigue, formamos un sistema de ecuaciones mante-


niendo la fila constante y hacemos variar todas las columnas. Veamos el caso
de mantener la fila 1 constante y variamos todas las columnas, ası́ obtenemos:

a11 = l11 u11


a12 = l11 u12
a13 = l11 u13 (4.15)
..
.
a1n = l11 u1n

Del sistema (4.15) podemos observar que es posible calcular los valores u1j
para todo j = 1, . . . , n si asignamos cualquier valor lii 6= 0.
4.1. MÉTODOS DIRECTOS 127

Algoritmo 9: Factorización LU por el método de Doolitle


Entrada: Ingresar una matriz A ∈ Rn×n .
Asignar valores no nulos para lii (i = 1, . . . , n).
1 inicio
2 para i ← 1 a n hacer
3 para j ← 1 a i − 1 hacer
j−1
X
aij − lik ukj
k=1
4 lij ← ;
ujj
5 fin para
6 para j ← i a n hacer
i−1
X
aij − lik ukj
k=1
7 uij ← ;
lii
8 fin para
9 fin para
10 devolver Matrices L y U .
11 fin

Ejemplo 4.1.13. Encuentre la factorización LU por el método de Doolittle


de la siguiente matriz
 
2 2 1
A = 4 7 2
2 11 5
Resolución:
Primero analizamos los menores principales de la matriz A para garantizar
la existencia de la descomposición LU . Se debe de cumplir Aii 6= 0 para todo
i = 1, 2, 3. Veamos:

7 2 2 1 2 2
A11 = = 20 6= 0, A22 = = 8 6= 0, A33 =
= 6 6= 0
11 6 2 5 4 7

Por tanto, por el Teorema 4.1, existe la factorización LU de la matriz A.


Vamos a calcular las matrices L y U usando el método descrito de Doolitle,
para esto, partimos de
    
2 2 1 l11 0 0 u11 u12 u13
4 7 2 = l21 l22 0   0 u22 u23 
2 11 5 l31 l32 l33 0 0 u33
128 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Columna 1 2 = l11 u11 u11 = 2


l11 =1
Fila 1 Columna 2 2 = l11 u12 =⇒ u12 = 2
Columna 3 1 = l11 u13 u13 = 1
Columna 1 4 = l21 u11 l21 = 2
l22 =1
Fila 2 Columna 2 7 = l21 u12 + l22 u22 =⇒ u22 = 3
Columna 3 2 = l21 u13 + l22 u23 u23 = 0
Columna 1 2 = l31 u11 l31 = 1
l33 =1
Fila 3 Columna 2 11 = l31 u12 + l32 u22 =⇒ l32 = 3
Columna 3 5 = l31 u13 + l32 u23 + l33 u33 u33 = 1
Por tanto, las matrices L y U son:
   
1 0 0 2 2 1
L = 2 1 0 , U = 0 3 0
1 3 1 0 0 4

Factorización de Crout

Algoritmo 10: Factorización LU por el método de Crout


Entrada: Ingresar una matriz A ∈ Rn×n .
Asignar valores no nulos para uii (i = 1, . . . , n).
1 inicio
2 para j ← 1 a n hacer
3 para i ← 1 a j − 1 hacer
i−1
X
aij − lik ukj
k=1
4 uij ← ;
lii
5 fin para
6 para i ← j a n hacer
j−1
X
aij − lik ukj
k=1
7 lij ← ;
ujj
8 fin para
9 fin para
10 devolver Matrices L y U .
11 fin

Ejemplo 4.1.14. Encuentre la factorización LU por el método de Crout de


4.1. MÉTODOS DIRECTOS 129

la siguiente matriz  
−1 1 −1
A= 0 2 1 
1 0 −1
Resolución:
Primero se garantiza la existencia de la descomposición LU verificando que
Aii 6= 0 para todo i = 1, 2, 3. Veamos:

2 1 −1 −1 −1 1
A11 = = −2, A22 = = 2, A33 = = −2.
0 −1 1 −1 0 2

Por tanto, por el Teorema 4.1, existe la factorización LU de la matriz A.


Vamos a calcular las matrices L y U usando el método de Crout, para esto,
partimos de
    
−1 1 −1 l11 0 0 u11 u12 u13
 0 2 1  = l21 l22 0   0 u22 u23 
1 0 −1 l31 l32 l33 0 0 u33

Fila 1 −1 = l11 u11 l11 = −1


u11 =1
Fila 2 Columna 1 0 = l21 u11 =⇒ l21 = 0
Fila 3 1 = l31 u11 l31 = 1
Fila 1 1 = l11 u12 u12 = −1
u22 =1
Fila 2 Columna 2 2 = l21 u12 + l22 u22 =⇒ l22 = 2
Fila 3 0 = l31 u12 + l32 u22 l32 = 1
Fila 1 −1 = l11 u13 u13 = 1
u33 =1
Fila 2 Columna 3 4 = l21 u13 + l22 u23 =⇒ u23 = 2
Fila 3 −1 = l31 u13 + l32 u23 + l33 u33 l33 = −4
Por tanto, las matrices L y U son:
   
−1 0 0 1 −1 1
L=  0 2 0 , U = 0 1 2 
1 1 −4 0 0 1

Factorización de Cholesky
Definición 4.8. Una matriz A ∈ Rn×n es llamada Definida Positiva si y
sólo si para cualquier x ∈ Rn \{0} se cumple que

xT Ax > 0.
130 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.1.15. Considerar la matriz


 
4 −1 −1
A = −1 4 1
−1 1 4

(a) Sin calcular, demostrar que existe la descomposicion de Cholesky de A.

(b) Determinar la descomposicion de Cholesky de A.


Resolución:

(a)
     
4 −1 −1 λ 0 0 4 − λ −1 −1
(A−λI) = −1 4 1  −  0 λ 0  =  −1 4 − λ 1 .
−1 1 4 0 0 λ −1 1 4−λ

Calculando el determinante:

4 − λ −1 −1

−1 4 − λ
1 = −λ3 + 12λ2 − 45λ + 54 = −(λ − 3)2 (λ − 6) = 0
−1 1 4 − λ

de donde se obtiene

λ = 3 (multiplicidad 2) y λ = 6.

Como todos los valores propios son positivos entonces A es una matriz
definida positiva.

(b)
    
4 −1 −1 l11 0 0 l11 l21 l31
A = LLT = −1 4 1  = l21 l22 0   0 l22 l32 
−1 1 4 l31 l32 l33 0 0 l33

de donde obtenemos:
4 = l11 2 =⇒ l11 =2
−1 = 2l21 =⇒ l21 = 1/2
−1 = 2l31 =⇒ l31 = −1/2

4 = 41 + l√22 2 =⇒ l22 = √215
1 = 14 + 215 l32 =⇒ l32 = 10

15

4 = 14 + 100
15
+ l33 2 =⇒ l33 = 3 510
4.1. MÉTODOS DIRECTOS 131

Por tanto:  
2 √0 0
L = −1/2 √ 15/2 √0

−1/2 15/10 3 10/5

4.1.6. Factorización QR
Processo de ortogonalización de Gram-Schmidt
Dados los vectores {v1 , v2 , ..., vn } linealmente independientes, el proceso
de ortogonalización de Gram-Schmidt permite construir los vectores {q1 , q2 , ..., qn }
que son ortonormales, del modo siguiente:
u1
u1 = v1 q1 =
||u1 ||
u2
u2 = v2 − hq1 , v2 iq1 q2 =
||u2 ||
u3
u3 = v3 − hq1 , v3 iq1 − hq2 , v3 iq2 q3 =
||u3 ||
.. ..
. .
un
un = vn − hq1 , vn iq1 − · · · − hqn−1 , vn iqn−1 qn =
||un ||
del sistema anterior podemos obtener:

v1 = ||u1 ||q1
v2 = ||u2 ||q2 + hq1 , v2 iq1
v3 = ||u3 ||q3 + hq1 , v3 iq1 + hq2 , v3 iq2
v4 = ||u4 ||q4 + hq1 , v4 iq1 + hq2 , v4 iq2 + hq3 , v4 iq3
..
.
n−1
X
vn = ||un ||qn + hqi , vn iqi
i=1

de donde reordenando adecuadamente se obtiene:

A = [v1 | v2 | v3 | v4 | · · · | vn ]

reemplazando las expresiones para cada columna vi (i = 1, 2, 3, ..., n):


" 2
n−1
#
X X
A = ||u1 ||q1 ||u2 ||q2 + hq1 , v2 iq1 ||u3 ||q3 + hqi , v3 iqi · · · ||un ||qn + hqi , vn iqi


i=1 i=1
132 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

que puede escribirse de la forma siguiente:

hq1 , v2 i hq1 , v3 i hq1 , vn−1 i


 
1 ···

||u1 || 0 ··· 0
 ||u1 || ||u1 || ||u1 || 
hq2 , v3 i hq2 , vn−1 i
 
 0 ||u2 || 0  0 1

 ||u2 || ||u2 ||

A = [q1 |q2 | · · · |qn ] 

. .  
| {z } .  0

0 1


Q
0 0 · · · ||un || 
 ..
.


0 0 0 ··· 1
| {z }
R

de esta forma hemos conseguido la factorización:

A = QR

donde Q es una matriz ortonormal (QT Q = I) e R es una matriz triangular


superior.
En la práctica se procede calcular Q calculándose {q1 , q2 , ..., qn } mediante el
proceso de Gram-Schmidt y luego calcular R = QT A.
Ejemplo 4.1.16. Considere el siguiente circuito:

2Ω ig 15 Ω

6Ω 12 Ω
I2

125 V + I1
20

5Ω 13 Ω
I3 i0

Figura 4.1: Circuito para las preguntas 3, 4 y 5.

Escribir un sistema lineal de 3 ecuaciones en función de I1 , I2 , I3 con el


objetivo de calcular ig e i0 .
Resolución:
4.1. MÉTODOS DIRECTOS 133

Usando la ley de Kirchof, se obtiene el siguiente sistema para el circuito


mostrado:     
13 −6 −5 I1 125
 −6 66 −20   I2  =  0  (4.16)
−5 −20 25 I3 0
Luego, usando el proceso de ortonormalización de Gram-Schmidt se tiene el
siguiente cuadro:
i ui   qi  
13 0.8571946
u1
1 u1 = v1 =  −6  q1 = =  −0.3956283 
||u1 ||
−5 −0.3296902
   
15.13913 0.2340525
u2
2 u2 = v2 − hq1 , v1 i =  56.243478  q2 = =  0.8695298 
||u2 ||
−28.130435 −0.4348993
   
5.8454677 0.4587339
u3
3 u3 = v3 − hq1 , v3 i − hq2 , v3 i =  3.7670792  q3 = =  0.2956285 
||u3 ||
10.677721 0.8379540

luego, las matrices Q y R son:


 
0.8571946 0.2340525 0.4587339
Q = [q1 | q2 | q3 ] =  −0.3956283 0.8695298 0.2956285 
−0.3296902 −0.4348993 0.8379540
 
15.165751 −24.66083 −4.6156633
R = QT A =  0 64.682637 −29.433341 
0 0 12.74261
Usando factorización QR el sistema Ax = b se convierte en Rx = b̂ = QT b,
es decir:
    
15.165751 −24.66083 −4.6156633 x1 107.14933
 0 64.682637 −29.433341   x2  =  29.256558 
0 0 12.74261 x3 57.341744
y luego procedemos por sustitución regresiva, es decir:
b̂3
x3 = = 4.5
R33
b̂2 − R23 x3
x2 = = 2.5
R22
b̂1 − R12 x2 − R13 x3
x1 = = 12.5
R11
134 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

4.2. Métodos Indirectos


También llamados iterativos porque iniciando en un punto x0 ∈ Rn se
generan una secuencia de puntos xk que esperamos converjan a la solución
del sistema lineal dado en (4.1). Los métodos a estudiar están basados en el
método del punto fijo porque tienen la forma general siguiente:

x = Mx + d (4.17)

donde M es conocida como Matriz de iteración y d es llamado Vector de


iteración. Bajo condiciones adecuadas, el sistema (4.17) genera una secuen-
cia de puntos xk dados por

xk+1 = M xk + d (4.18)

que convergen a la solución del sistema lineal equivalente (4.1).


Para aproximar la solución exacta del sistema lineal Ax = b consideremos la
siguiente descomposición para la matriz A:

A=D+L+U (4.19)

donde  
a11 0 · · · 0 0
 0 a22 0 0 
 
D=
 ... ,

(4.20)
 
 0 0 an−1,n−1 0 
0 0 ··· 0 an,n
 
0 0 0 ··· 0 0
 a21 0 0 0 0 
 
L= 
 .
. 
(4.21)
 . 

 an−1,1 an−1,2 an−1,3 · · · 0 0 
an,1 an,2 an,3 · · · an,n−1 0
 
0 a12 · · · a1,n−2 a1,n−1 a1,n
 0 0 a2,n−2 a2,n−1 a2,n 
 
U = ..
. (4.22)
 
 . 
 0 0 0 0 an−1,n 
0 0 ··· 0 0 0
Los métodos iterativos a estudiar se obtienen eligiendo un sistema lineal equi-
valente de una forma conveniente a partir de las matrices D, L, U . Veremos
esto en detalle en cada una de las siguientes secciones.
4.2. MÉTODOS INDIRECTOS 135

4.2.1. Método de Jacobi


Reemplazando la descomposición de A = D +L+U en el sistema Ax = b:

(D + L + U )x = b

siempre que D sea invertible, podemos obtener:

x = −D−1 (L + U )x + D−1 b. (4.23)

el esquema de punto fijo asociado a (4.23) es

xk+1 = −D−1 (L + U )xk + D−1 b (4.24)

por tanto, la matriz de iteración asociada al método de Jacobi es

MJ = −D−1 (L + U ) (4.25)

y el vector de iteración es dJ = D−1 b.


De la definición de las matrices D, L y U se tiene que
 1 
0 ··· 0 0
 a11 

 0 1 
0 0 
 a22 
..
 
D−1 =  . , y
 
 1 
 0 0 0
 
an−1,n−1

 
 1 
0 0 ··· 0
an,n
 
0 a12 · · · a1,n−1 a1,n

 a21 0 a2,n−1 a2,n 

L+U =
 .. .. .. 
. . . 
 
 an−1,1 an−1,2 0 an−1,n 
an,1 an,2 · · · an,n−1 0

4.2.2. Método de Gauss-Seidel


Reemplazando (4.19) en (4.1) se obtiene:

x = (D − L)−1 U x + (D − L)−1 b. (4.26)

el esquema de punto fijo asociado a (4.23) es

xk+1 = (D − L)−1 U xk + (D − L)−1 b (4.27)


136 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

De la definición de las matrices D, L y U se tiene que


Ejemplo 4.2.1. Considere el sistema de ecuaciones lineales:

20x + 2y + 6z = 38
x + 20y + 9z = −23
2x − 7y − 20z = −57

(a) Calcular la matriz asociada al método de Gauss–Seidel para la resolu-


ción aproximada del sistema.

(b) Verifique que el sistema es convergente.

(c) Calcule aplicando el método de Gauss–Seidel, una aproximación de la


solución del sistema con un error inferior a 0.02.

Resolución:

(a) Las matrices D, L y U son:


     
20 0 0 0 0 0 0 −2 −6
D =  0 20 0  , L =  −1 0 0  , U =  0 0 −9 
0 0 −20 −2 7 0 0 0 0

La matriz asociada al método iterativo de Gauss–Seidel viene dado por:

MGS = (D − L)−1 U

reemplazando se obtiene
−1 −3
 

 −1   0
 10 10 
20 0 0 0 2 6
 
1 −87 
 
MGS =  1 20 0   0 0 9 =
 0 
2 −7 20 0 0 0

 200 200 
 −47 489 
0
4000 4000

(b) Para garantizar la convergencia del método, basta observar que la ma-
triz A es diagonal dominante.

(c) El esquema iterativo de Gauss–Seidel viene dado por:

x(k+1) = MGS x(k) + d


4.2. MÉTODOS INDIRECTOS 137
 
0
Usamos como punto inicial X 0 =  0 
0

−1 −3 19
   
 0 10
 1  
x01

x1 10   10   
1.9
        
1 −87     −249 
 1     
 x2  =  0  x02 
+  =  −1.245 


 
  200 200  

   200 
  3.47575
1
x3
 −47 489 
x30  13903 
0
4000 4000 4000

−1 −3 19
   
 0

x21
  1 
10 10  x
  1   10  
  
   0.981775
 2   1 −87   1   −249  
   
 x2  = 
  0   x2 + = −2.763176 

   200 200 


  200 
 3.915289
x23
 −47 489 
x31  13903 
0
4000 4000 4000

−1 −3 19

x31
  
x21
    
0 10 10 10
1.001730
        
−87 −249
 3   1
 2     
 x2  =  0   x2 +  =  −2.961966 
   200 200    200   
        
−47 489 13903
x33 0 4000 4000
x23 4000
3.986861

−1 −3 19
   
 0

x41
  3 
10 10  x
  1   10  
  
   1.000138
 4   1 −87   3   −249  
  
 x2  = 
  0   x2  + = −2.994094 

   200 200 
 

  200 
  3.997946
x43
 −47 489  x33  13903 
0
4000 4000 4000
Mientras que la solución exacta del sistema es
 
1
x∗ =  −3 
4

Notar que con 4 iteraciones el error es menor a 0.02


138 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 4.2.2. Considere el siguiente polinomio caracterı́stico P (λ) =


−λ3 + 1.08λ − 0.432. Suponga que P (λ) es el polinomio caracterı́stico de la
matriz de iteración M de alguno de los métodos iterativos estudiados (Gauss-
Jacobi o Gauss-Seidel), cuando es aplicado al sistema lineal Ax = b, responda
las siguientes preguntas:
(a) Indigue, justificando adecuadamente, ¿cuál es el método estudiado?
(b) Averigue si el método en estudio es convergente.
 
a b b
(c) Sabiendo que M =  b c b , determine los valores de a, b, c y d.
b b d
(d) Suponiendo que los elementos de la diagonal de la matriz A del sistema
son todos iguales a 5, determine los elementos restantes de A.
Resolución:

(a) Veamos primero el caso del método iterativo de Gauss-Seidel.


 −1  
a11 0 0 0 a12 a13
MGS = −(D + L)−1 U = −  a21 a22 0   0 0 a23  .
a31 a32 a33 0 0 0
Como la matriz inversa de una matriz triangular inferior es otra matriz
triangular inferior, entonces MGS puede expresarse como:
 (1) −1    
a11 0 0 0 a12 a13 0 m12 m13
MGS = −  a(1) a122 0   0 0 a23  =  0 m22 m23  .
 
21
(1) (1) (1) 0 0 0 0 m31 m33
a31 a32 a33
Ahora calculamos su polinomio caracterı́stico:
PGS (λ) = det(MGS − λI) = −λ(λ − m22 )(λ − m33 ) + m32 m23 λ.
Se puede observar que PGS no tiene término independiente, ası́, P (λ)
no es el polinomio caracterı́stico asociado al método de Gauss-Seidel.
(b) bla
(c) bla

4.2.3. Método de relajación


Capı́tulo 5

Métodos numéricos para


problemas de valor inicial

Un Problema de Valor Inicial tiene la forma siguiente:


0
y (t) = f (t, y), t0 ≤ t ≤ T

y(t0 ) = y0 (5.1)

En este capı́tulo estudiaremos técnicas numéricas que permitan aproximar la


solución exacta de (5.1). Para este fin es necesario saber si (5.1) tiene solución
y si ésta es única. La teorı́a de ecuaciones diferenciales ordinarias establece el
siguiente Teorema de existencia y unicidad de solución para (5.1), conocido
como teorema de Picard, el cual establece que si las funciones f y ∂f ∂y
son
continuas en un rectángulo cerrado D del plano XY con lados paralelos a los
ejes, y el punto t0 es un punto interior de D, entonces existe un número real
positivo H con la propiedad de que el problema (5.1) tiene solución única en
el intervalo | t − t0 |≤ H.
Si se debilita la condición de que la derivada parcial de f respecto de y sea
continua en el rectángulo y se exige que satisfaga la desigualdad conocida
como condición de Lipschitz en la variable y :
| f (t, y1 ) − f (t, y2 ) ≤ K | y1 − y2 | (5.2)
en los puntos del recinto D, se consigue una versión más fuerte del teorema
de Picard, que se conoce como el teorema de Picard - Lindelöf cuyo
enunciado es como sigue: Si f es continua en t e y en el rectángulo cerrado
D definido por:
| t − t0 |≤ a, | y − y0 |≤ b
y existe una constante K (constante de Lipschitz) independiente de t, y1 e
y2 tal que si (t, y1 ), (t, y2 ) son puntos interiores de D se cumple que:
| f (t, y1 ) − f (t, y2 ) |≤ K | y1 − y2 | (5.3)

139
140CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

(condición de Lipschitz), entonces la ecuación diferencial (5.1) tiene solu-


ción única y(t) definida en un entorno del punto t0 (| t − t0 |≤ H), tal que
y(t0 ) = y0 , siendo H = mı́n( Mb , a) donde M es la cota superior en D de la
función f en D, es decir | f (t, y) |≤ M, ∀ (t, y) ∈ D.
Este valor de H define el entorno del punto x0 para el cual existe solución
única para el problema (5.1). H es una cantidad que debemos tener siem-
pre presente, pues de no hacerlo, sólo obtendremos resultados que no tienen
ningún sentido.
Con este objetivo, primero consideramos una partición regular del intervalo
[0, T ], es decir:

0 = t0 < t1 < ... < ti < ... < tn−1 < tn = T (5.4)
tn − t0
donde h = ti+1 − ti = para todo i = 0, 1, ..., n − 1.
n
Los métodos a estudiar están basados en el segundo teorema fundamental
del cálculo, del cual sabemos que se cumple:
Z ti+1
y 0 (x) dx = y(ti+1 ) − y(ti )
ti

de donde se obtiene:
Z ti+1
y(ti+1 ) = y(ti ) + y 0 (x) dx (5.5)
ti

De (5.5) concluimos que para conocer el valor de y(ti+1 ) es necesario co-


nocer el valor de y(ti ) y el valor de la integral. Del capı́tulo anterior, co-
nocemos técnicas numéricas que permiten aproximar el valor de la integral,
ası́, obtenemos valores aproximados para y(ti+1 ) que serán denotados por
yi+1 (i = 0, ..., n − 1). Además, usaremos la notación fi para representar el
valor f (ti , yi )
Una forma sencilla de aproximar la integral bajo la curva de f (t, y(t)) en el
intervalo [ti , ti+1 ] es considerar el área del rectángulo mostrado en la Figura
5.1 con altura fi , es decir:
Z ti+1
y 0 (x) dx ≈ (ti+1 − ti )fi
ti

Por tanto, la identidad (5.5) da la siguiente igualdad:

yi+1 = yi + hfi = yi + hf (ti , yi ) (5.6)

El método mostrado en (5.6) es llamado Método de Euler explı́cito.


141

Figura 5.1: Área del rectángulo con altura fi .

Nada nos impide considerar ahora el rectángulo considerado en la Figura


5.2 de altura fi+1 . Ası́, la identidad (5.5) da la siguiente igualdad:

yi+1 = yi + hfi+1 = yi + hf (ti+1 , yi+1 ) (5.7)

donde (5.7) es llamado Método de Euler implı́cito.


142CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

Figura 5.2: Área del rectángulo con altura fi+1 .

Es más, definiendo:

ti + ti+1
ti+ 1 = , yi+ 1 = y(ti+ 1 ), fi+ 1 = f (ti+ 1 , yi+ 1 )
2 2 2 2 2 2 2

Considerando la Figura 5.3:


5.1. MÉTODOS DE TAYLOR 143

Figura 5.3: Área del rectángulo con altura fi+ 1 .


2

obtenemos el siguiente esquema numérico:


yi+1 = yi + hfi+ 1 = yi + hf (ti+ 1 , yi+ 1 ) (5.8)
2 2 2

Hasta ahora, los métodos descritos por (5.6), (5.7) y (5.8) han sido obtenidos
de forma intuitiva y geométrica, basándonos en el hecho de que la integral de
una función positiva coincide con el área bajo la curva. Una deducción más
formal será presentada en la sección siguiente.

5.1. Métodos de Taylor


Sea I ⊂ R un intervalo abierto y f : I → R una función tal que existen f 0 ,
f 00 , ..., f (n) para algún entero positivo n. Definimos el polinomio de Taylor
de la función f alrededor del punto x0 ∈ I del modo siguiente:

n
X f (i) (x0 )
Pn,x0 (x) = (x − x0 )i
i!
i=0 (5.9)
f (n) (x0 )
Pn,x0 (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + ... + (x − x0 )n
n!
Dados x, x0 ∈ I, existe s entre x y x0 tal que
f (t) = Pn,x0 (t) + Rn+1,x0 (t) (5.10)
144CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

Teorema 5.1. Sea I un intervalo, x0 ∈ I, f : I → R y dado n ∈ N existen


f, f 0 , f 00 , ..., f (n) , f (n+1) en I ◦ . Entonces, para cualquier x ∈ I con x 6= x0
existe un punto c en el intervalo abierto de extremos x0 y x tal que:
n
X f (i) (x0 ) f (n+1) (c)
f (x) − Pn,x0 (x) = f (x) − (x − x0 )i = (x − x0 )n+1 .
i=0
i! (n + 1)!

La expresión:
f (n+1) (ξ)
Rn+1,x0 (x) = (x − x0 )n+1 (5.11)
(n + 1)!
es conocido como Resto en la forma de Lagrange.
Demostración:
Sean x0 , x ∈ I valores fijos y tal que x0 6= x. Sin pérdidad de generalidad,
podemos suponer que x0 < x. Consideremos el intervalo J = [x0 , x], por
tanto J ⊂ I. Sobre J definamos las siguientes funciones:
ϕ:J → R
n
X f ( k)(t) (5.12)
t 7→ ϕ(t) := (x − t)k
k=0
k!

ψ:J → R
(5.13)
t 7→ ψ(t) := −(x − t)n+1
Desde que f (k) (0 ≤ k ≤ n) es continua y (x − t)k es una función polinómica
(y por tanto continua e infinitamente derivables), podemos garantizar que
ϕ es continua en J. Además, como f (k) (k = 0, . . . , n) son derivables en I ◦
entonces también son derivables en J ◦ . Por otro lado, podemos observar que
ψ es una función infinitamente derivable en J.
De lo anterior, tenemos que ϕ y ψ son funciones continuas en J y derivables
en J ◦ , ası́, podemos aplicar el Teorema del Valor Medio Generalizado, esto
es, existe c ∈ hx0 , xi tal que:
ψ 0 (c)(ϕ(x) − ϕ(x0 )) = ϕ0 (c)(ψ(x) − ψ(x0 )) (5.14)
A partir de 5.12 y 5.13 calculemos cada expresión:
ϕ(x) = f (x)
ϕ(x0 ) = Pn,x0 (x)
n n
X f (k+1) (t) X f (k) (t) f (n+1) (t)
ϕ0 (t) = (x − t)k − k(x − t)k−1 = (x − t)n
k=0
k! k=1
k! n!
ψ(x) = 0
ψ(x0 ) = −(x − x0 )n+1
ψ 0 (t) = (n + 1)(x − t)n
5.1. MÉTODOS DE TAYLOR 145

Reemplazando estos resultados en 5.14 se obtiene:

f (n+1) (c)
(n + 1)(x − c)n (f (x) − Pn,x0 (x)) = (x − c)n (x − x0 )n+1
n!
de lo anterior obtenemos:

f (n+1) (c)
Rn+1,x0 (x) = f (x) − Pn,x0 (x) = (x − x0 )n+1 , c ∈ hx0 , xi.
(n + 1)!

Ejemplo 5.1.1.√ Construir la fórmula de Taylor para el polinomio de grado


4 de f (x) = 3 + x alrededor√del punto 1 y obtener una cota del error
cometido al aproximar el valor 5.
Resolución:
La fórmula de Taylor para el polinomipo de grado 4 alrededor del punto 1
viene dado por:
4
X f (i) (1)
P4 (x) = (x − 1)i
i=0
i!
Calculamos las derivadas:

f (x) = 3+x ⇒ f (1) = 2
1 1
f 0 (x) = √ ⇒ f 0 (1) =
2 3+x 4
1 1
f 00 (x) = − p ⇒ f 00 (1) = −
4 (3 + x)3 32
3 3
f 000 (x) = p ⇒ f 000 (1) =
8 (3 + x)5 256
15 15
f (iv) (x) = − p ⇒ f (iv) (1) = −
16 (3 + x)7 2048
105 105
f (v) (x) = p ⇒ f (v) (1) = .
32 (3 + x)9 16384

Por tanto:

x − 1 (x − 1)2 (x − 1)3 5 (x − 1)4


P4 (x) = 2 + − + −
4 64 512 16384
luego
179
P4 (5) = = 2.79688,
64
146CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

encuanto el valor exacto es



5 = 2.23607.

2.8

2.6

2.4

2.2

1.8

1.6

1.4

1.2

1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

Figura 5.4: Polinomio de Taylor de orden 1

5.2. Métodos de Runge-Kutta


5.2.1. Runge-Kutta de 2 pasos
Estos presentan la siguiente forma:
K1 = f (ti , yi )
K2 = f (ti + αh, yi + βK1 h) (5.15)
yi+1 = yi + h(aK1 + bK2 )
donde se cumple las siguientes relaciones:
a+b = 1
1
αb = (5.16)
2
1
βb =
2
Entre los casos particulares más conocidos tenemos:
5.3. MÉTODOS MULTIPASOS 147

1
1. Método de Heun: Se presenta cuando b = , resultando:
2
K1
= f (ti , yi )
K2
= f (ti + h, yi + K1 h) (5.17)
h
yi+1 = yi + (K1 + K2 )
2
También es llamado Método de Euler Mejorado.
2. Método de Euler Modificado: Se presenta cuando b = 1, resultando:
K1 = f (ti , yi )
K2 = f (ti + h/2, yi + K1 h/2) (5.18)
yi+1 = yi + hK2

5.2.2. Runge-Kutta de 3 pasos


Estos presentan la siguiente forma:
K1 = f (ti , yi )
K2 = f (ti + h/2, yi + hK1 /2)
K3 = f (ti + h, yi + 2hK2 − hK1 ) (5.19)
h
yi+1 = yi + (K1 + 4K2 + K3 )
6

5.2.3. Runge-Kutta de 4 pasos


Estos presentan la siguiente forma:
K1 = f (ti , yi )
K2 = f (ti + h/2, yi + K1 h)
K3 = f (ti + h/2, yi + K2 h) (5.20)
K4 = f (ti + h, yi + K3 h)
h
yi+1 = yi + (K1 + 2K2 + 2K3 + K4 )
6

5.3. Métodos Multipasos


5.4. Ejercicios Propuestos
1. Use el teorema de Picard-Lindelöf para demostrar que el problema de
valor inicial:
y 0 = tan(y), y(0) = 0
tiene una solución en el intervalo | x |< π4 .
148CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

2. Los métodos para resolver problemas de valor inicial también se pue-


den usar para calcular integrales, tanto definidas como indefinidas. Por
ejemplo, podemos calcular:
Z 2
exp(−s2 ) ds
0
resolviendo el problema de valor inicial:
y 0 = exp(−x2 ) y(0) = 0
con t en el intervalo [0,2]. Dé la solución a este problema usando el
método de la serie de Taylor de orden 4. Al consultar una tabla de la
función error Z t
2
erf (t) = √ exp(−s2 ) ds
2 0
obtenemos y(2) ≈ 0.8820813907.
3. Deduzca las fórmulas de Runge -Kutta de tercer orden:
1
y(x + h) = y(x) + (2k1 + 3k2 + 4k3 )
9
donde: 
 k1 = hf (x, y)

k2 = hf (x + 21 , y + 12 k1 )
 k = hf (x + 3 , y + 3 k )

3 4 4 2
Demuestre que para la ecuación diferencial y 0 = x + y concuerda con el
método de la serie de Taylor de orden 3.
4. Calcule la solución de:
y 0 = −2xy 2 y(0) = 1
en x = 1 usando h = 0.25 y el método de Adams - Bashforth - Moulton
en conjunción con el método de Runge - Kutta de cuarto orden. Muestre
la solución calculada usando cinco dı́gitos significativos en 0.25, 0.5,
0.75, 1.0. Compare sus resultados con la solución exacta:
1
y(x) =
1 + x2
5. Utilice el método de Runge - Kutta de cuarto orden para aproximar la
solución exacta del problema de valor inicial siguiente:
x2 y 00 − 2xy 0 + 2y = x3 ln(x), 1 ≤ x ≤ 1.5
y(1) = 0, y 0 (1) = 0
tomando h = 0.05.
Capı́tulo 6

Prácticas Calificadas

6.1. Examen Parcial 2015-2


Problema 1:
Conteste verdadero o falso en cada caso con la justificación:

a. El coeficiente del término de mayor grado del polinomio de in-


terpolación que cumple f(0)=1; f(1)=2; f’(1)=3 es 2.

b. Al calcular −10π + 6e − 3/62 usando aritmética de tres dı́gitos


con redondeo el error relativo es 3.6 × 10−3 .
2
√ de punto fijo xi+1 = xi + 0.25(xi − 3) converge
c. La iteración
siempre a 3 si se escoge un punto inicial x0 adecuado.

d. Si f (x) = xn−1 para n ≥ 1 entonces si {x1 , x2 , ..., xn+1 } son


distintos puntos de interpolación entonces f [x1 , ..., xn ] = 1.

e. El método de Newton puede considerarse como un caso lı́mite


del método de la falsa posición.

Resolución:

a. Verdadero. Teniendo tres datos podemos considerar que el polinomio


es de grado 2 y por el método de coeficientes indeterminados se tiene:
P (X) = ax2 +bx+c y de las condiciones iniciales establecemos: P (0) =
c = 1 y de las otras a + b + c = 2 y también 2a + b = 3 que nos da las
ecuaciones:
a + b + 1 = 2 y 2a + b = 3

149
150 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

de donde se obtiene a = 2; b = −1. Por tanto, el coeficiente buscado es


a = 2.

b. Verdadero. −10π + 6e − 3/62 = −31.4 + 16.3 − 0.0484 = −15.1 y


| − 15.1 − (−15.154622)|
n = −15.154622 tenemos: er = = 3.6 × 10−3 .
| − 15.154622|

c. Falso. El MPF con g(x) = x + 0.25(x2 − 3) entonces g 0 (x) = 1 +√0.5x


y como se tendrı́a que tener convergencia los xi serı́an cercanos a 3 y
por tanto g 0 (x) > 0 lo cual no asegura la convergencia.

f (n−1) (a)
d. Verdadero. Podemos usar la fórmula f [x1 , ..., xn ] = y dife-
(n − 1)!
renciando f (x) = xn−1 se produce lo siguiente:

f 0 (x) = (n − 1)xn−2
f 00 (x) = (n − 1)(n − 2)xn−3
..
.
f (n−1) (x) = (n − 1)!
f (n) (x) = 0

y por tanto:
f (n−1) (a)
f [x1 , ..., xn ] = = 1.
(n − 1)!

e. Falso. Es caso lı́mite del método de la secante pero no del método de


la falsa posición ya que este requiere que se cumpla f (a)f (b) < 0.

Problema 2:
Se pide:
−3f (x0 ) + 4f (x0 + h) − f (x0 + 2h)
a. Demuestre que es una apro-
2h
ximación para f 0 (x0 ).

b. Dar la expresión para el término principal del error.

c. Si f (x) = xsen(x) + x2 cos(x) y h = 0.1, establecer el valor de


f 0 (1.2).

Resolución:
6.1. EXAMEN PARCIAL 2015-2 151

a. Desarrollamos en serie de Taylor cada una de las expresiones presentes


en
−3f (x0 ) + 4f (x0 + h) − f (x0 + 2h)
E=
2h
como sigue:
−3f (x0 ) = −3f (x0 )
h2 f 00 (x0 ) h3 f 000 (x0 )
 
0
4f (x0 + h) = 4 f (x0 ) + hf (x0 ) + + + ...
2 3!
!
(2h)2 f 00 (x0 ) (2h)3 f 000 (x0 )
−f (x0 + 2h) = − f (x0 ) + (2h)f 0 (x0 ) + + + ...
2! 3!

Por tanto al sumar para obtener E:


2h2 000
E = f 0 (x0 ) − f (x0 ) + . . . (6.1)
6
por tanto:
−3f (x0 ) + 4f (x0 + h) − f (x0 + 2h)
f 0 (x0 ) ≈ .
2h

b. A partir de (6.1) podemos concluir que el término principal del error


es 2
2h2 000

2h 000
T = f (x0 ) = |f (x0 )|.
6 6
c. De acuerdo a la expresión para f 0 (x0 ), considerando h = 0.1, el valor
aproximado de f 0 (1.2) es:
−3f (1.2) + 4f (1.3) − f (1.4)
f 0 (1.2) ≈
2 · (0.1)
−3(1.64024) + 4(1.70470) − 1.71277
f 0 (1.2) ≈
0.2
f 0 (1.2) ≈ 0.92655.

Problema 3:
Usando el MN y el MB determine la raı́z máxima de f (x) = x3 − 6x2 +
11x − 6.1 , con un error de 10−3 . Para MN usar x0 = 3 y para MB usar
[a, b] = [3, 3.5].
152 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

Resolución:
Usando el método de Newton se debe de usar para todo k ≥ 0 la siguiente
relación:
f (xk )
xk+1 = xk −
f 0 (xk )
x3k − 6x2k + 11xk − 6.1
xk+1 = xk − .
3x2k − 12xk + 11

Los resultados usando el método de Newton son mostrados en la Tabla 6.1.

i xi error
0 3.00000000 3.00000000
1 3.05000000 0.05000000
2 3.04669556 0.00330444
3 3.04668053 0.00001503

Tabla 6.1: Resultados del método de Newton

Para el método de la bisección, iniciando en [a, b] = [3, 3.5], se verifica que


f (a)f (b) < 0, por tanto, los nuevos intervalos en cada iteración i se muestran
en la Tabla 6.2.

i a c b f (a) f (c) f (b) error


0 3.000000 3.250000 3.500000 -0.100000 0.603125 1.775000 0.500000
1 3.000000 3.125000 3.250000 -0.100000 0.198828 0.603125 0.250000
2 3.000000 3.062500 3.125000 -0.100000 0.036963 0.198828 0.125000
3 3.000000 3.031250 3.062500 -0.100000 -0.034540 0.036963 0.062500
4 3.031250 3.046875 3.062500 -0.034540 0.000445 0.036963 0.031250
5 3.031250 3.039063 3.046875 -0.034540 -0.017238 0.000445 0.015630
6 3.039063 3.042969 3.046875 -0.017238 -0.008444 0.000445 0.007810
7 3.042969 3.044922 3.046875 -0.008444 -0.004012 0.000445 0.00391
8 3.044922 3.045898 3.046875 -0.004012 -0.001786 0.000445 0.00195

Tabla 6.2: Resultados del método de la bisección


6.1. EXAMEN PARCIAL 2015-2 153

Problema 4:
El dinero necesario para pagar la cuota correspondiente a un crédi-
to hipotecario a interés fijo se suele estimar mediante la denominada
A[1 − (1 + i)−n ]
’ecuación de la anualidad ordinaria’ Q = en donde
i
Q es la cantidad (en dólares) pedida del préstamo, A es la cuota que
debe pagar el beneficiario del préstamo, i es la tasa de interés (en tanto
por 1) fijado por la entidad bancaria que concede el préstamo y n es
el número de periodos durante los cuales se realizan pagos de la cuo-
ta. Una pareja desea adquirir una vivienda mediante un préstamo de
150000 dólares a pagar semestralmente durante un plazo de 15 años.
La cantidad máxima que ellos desean pagar es de 900 dólares mensua-
les, calcular, usando MN cuál serı́a el tipo máximo de interés al que
pueden negociar su préstamo con las entidades bancarias, Use el MN
con i0 = 0.03.

Resolución:
Puesto que el pago es semestral, en 15 años realizaran un total de 30 cuotas
demás dado que pueden pagar 900 euros al mes, cada semestre podrá afrontar
el pago de 5400 euros. Ello hace que la ecuación de la anualidad ordinaria
quede:
5400
150000 = [1 − (1 + i)−30 ]
i
5400
f (i) = 150000 − [1 − (1 + i)−30 ] = 0
i
" #
−30
5400 1 − (1 + i)
f 0 (i) = − 30(1 + i)−31 .
i i
Por lo que el método de Newton con i0 = 0.03 nos conducirá a la siguiente
sucesión de valores:

k ik error
0 0.03000000 0.03000000
1 0.00227545 0.03227545
2 0.00449705 0.00677249
3 0.00503585 0.00053881
4 0.00503892 0.00000307

Por tanto, el interés al que pueden acceder es de i = 0.5 % aproximada-


mente.
154 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

Problema 5:
Sea f : R → R una función continua y acotada (es decir,
∃M/|f (x)|M, ∀x ∈ R). Demostrar que la ecuación f (x) − x = 0, tiene
al menos una raı́z real.

Resolución:
Como f (x) es acotada se tiene que existe M tal que −M < f (x) < M
para todo x ∈ R, entonces definimos la función h : [−M, M ] → R del modo
siguiente: h(x) = f (x) − x. Observe que h es una función continua y que
además h(−M ) = f (x) + M > 0 y h(M ) = f (M ) − M < 0. Es decir,
h(M ) < 0 < h(−M ) y como h es continua, podemos aplicar el Teorema del
Valor Intermedio para garantizar que existe c ∈< −M, M > tal que h(c) = 0,
y esto completa la demostración.

Problema 6:
Deduzca la expresión para determianr el número mı́nimo de iteraciones
que se debe realizar en el Método de la Bisección, para asegurar que se
logre un error menor a ε, si el intervalo donde se empieza la iteración
es [a, b].

Resolución:
De la teorı́a de la fórmula para el error en el método de la Bisección se
b−a
establece como sigue: en = |xn − n| ≤ n+1 de donde se debe cumplir
2
b−a
en = |xn − n| ≤ n+1 < ε y para hallar el número de pasos necesarios se
2
b−a b−a
tendrá n+1 < ε que equivale a 2n+1 > , de donde tomando logaritmos
2 ε
b−a
naturales: (n + 1)ln(2) > ln( ) que equivale finalmente a:
ε

b−a
ln( )
n> ε −1
ln(2)
6.1. EXAMEN PARCIAL 2015-2 155

Problema 7:
Asuma que un polinomio de interpolación pasa por los puntos:

x 0 15 18 22 24
f (x) 22 24 37 25 123

Construir la tabla de diferencias dividas y el polinomio de interpolación


de Newton.

Resolución:
Para Newton construimos la tabla de diferencias divididas:

k xk f (xk ) f [xk , xk+1 ] f [xk , xk+1 , xk+2 ] f [xk , xk+1 , xk+2 , xk+3 ]
0 0 22
1 15 24 2/15
2 18 37 13/3 7/30
3 22 25 -3 -22/21 -269/4620

Por tanto el polinomio de Newton estará dado por:

2 7 269
N (x) = 22 + x + x(x − 15) − x(x − 15)(x − 18).
15 30 4620
156 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

6.2. Segunda Práctica Calificada


Problema 1:
Conteste verdadero o falso en cada caso con la justicación:

a. Si para un metodo de punto fijo se tiene x = g(x) = 1 + 0.5 sen(x)


entonces la iteración de PF converge a una solución, sin importar
el punto inicial x(0) .
1
b. Si g : [0, 1] → [0, 1] y está definida por g(x) = (1+x2 )
entonces
|g(x)| < 8(3)9 0.5 y la serie de punto fijo converge.
1
c. Si se toma f (x) = 3x 3 ) con x(0) > 0 entonces la sucesión formada
usando el Método de Newton converge a la raı́z.

d. Si se toma los puntos de interpolación {(15, 24), (18, 37), (22, 25)}
entonces una aproximación a f 00 (18) es -2.096.

e. Dado n + 1 puntos no colineales el polinomio de interpolación


tiene siempre n raı́ces reales.

Resolución :

a. Verdadero. x = g(x) = 1 + 21 sin(x) derivando g(x) → g 0(x) = 12 sin(x)

1 1
=⇒ −1 ≤ sin(x) ≤ 1 =⇒ 0 ≤ | sin(x)| ≤
2 2
1
=⇒ |g 0(x) | ≤ ≤ 1 ←−
2
converge.

b. Verdadero. g : [0, 1] → [0, 1] g(x) = 1


1+x2
−→ g 0(x) = −1(+x2 )−2 2x =
−2x
1+x2

9
=⇒ |g 0(x) | ≤ √ < 1 ←−
3
converge.
1
1 3x 3
c. Falso. f(x) = 3x 3 g(x) = x − −2 −→ g(x) = x − 3x = −2x
x 3

−→ g 0(x) = −2 > 1
6.2. SEGUNDA PRÁCTICA CALIFICADA 157

−→ |g 0(x) | = 2 > 1 No converge


Si escogemos un x0 > 0 el |g(x) 0 | > 1 por lo tanto no se puede asegurar
que converge.

x0 = 15 x1 = 18 x2 = 82
d. V o F?. Como
f (x0 ) = 24 f (x1 ) = 37 f (x2 ) = 25

24(24 − 18)(x − 22) 37(x − 15)(x − 22) 24(x − 18)(x − 15)


f (x) = + +
(−3)(−7) (3)(−4) (4)(7)
−22 2 817
f (x) = x + x + cte
21 4
−22 ∗ 2
−→ f (x)00 = −→ f (18)00 ≈ −2.096
21
e. Falso. Por (NM) puntos pasa un unico polinomio de grado ”n”por lo
tanto el numero de raices tendra que ser n-raices ≤ n; no necesariamente
tendra ” n ” raı́ces.

Problema 2:
Una banda metálica flexible de 10 m de longitud se dobla en forma de
arco circular al asegurar los extremos entre si por medio de un cable de
8 pies de longitud. Use el método de Newton para aproximar el radio
r del arco circular. Use como punto inicial r(0) = 4 con al menos 4 cde.

Resolución:
Del gráfico
4
10 = 2θr, sin(θ) =
r
4
→ θ = arcsin( )
r
4
⇒ arcsin( = 5
r
4 5 5 4
⇒ arcsin( ) = ⇒ sin( ) =
r r r r
r 5 r 5
= csc( ) ⇒ f(r) = − csc( )
4 r 4 r
Por el método de Newton:
rn
4
− csc( r5n )
rnH = rn −
( 14 + csc( r5n ) cot( r5n ) r52 )
n
158 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

csc( r5n ). cot( r5n ) r5n + csc( r5n )


rnH =
( 14 + csc( r5n ) cot( r5n ) r52 )
n

⇒ r0 = 4
r0 = 4 r5 = 4.363385
r1 = 4.14.. r6 = 4.38113085
r2 = 4.240266 r7 = 4.393291
r3 = 4.298663 r8 = 4.401660281
r4 = 4.337317 r9 = 4.407436912
⇒ r = 4.4204
Problema 3:
Usando la tabla mostrada a continuación, construir el polinomio de
interpolación de Newton y calcular el valor aproximado de f 000 (0.7)
(tercera derivada).

x 0.6 0.8 0.9 1.1


f (x) 1.16454 1.51736 1.68333 1.99121

Resolución:

x 0.6 0.8 0.9 1.1


f (x) 1.16484 1.51736 1.68333 1.99121

000
f (α)
f [x0 , x1 , x2 , x3 ] =
8!
000
f (α) = 6xf [x0 , x1 , x2 , x3 ]

n x1 f(x1 ) f[x0 , x1 ] f[x0 , x1 ; x2 ]


0 0.6 1.16464 1.7636
1 0.8 1.51736 -0.346333
2 0.9 1.68333 1.6597 -0.411
3 1.1 1.99121 1.5394

→ f 000 (0.7) = 6(−0.129334) = −0.776004.


6.2. SEGUNDA PRÁCTICA CALIFICADA 159

Problema 4:
Asuma que se tienen los puntos de interporlación x(0) , x(1) , x(2) igual-
mente espaciados por una cantidad h y tambien si |f (α)| ≤ M , deter-
mine una expresión (en términos de h y M ) para el máximo error que
se produce en el polinomio de interpolación.

Resolución:
|f 000 (α)| ≤ M
sabemos que:
n
f (n+1) (α) Y
Error = (x − xi )
(n + 1)! i=0
pero:
x − x0 ≤ 2h
x − x1 ≤ 2h
x − x2 ≤ 2h

=⇒ |(x − x0 )(x − x1 )(x − x2 )| ≤ 8h3


f 000
(α)
=⇒ Error = (x − x0 )(x − x1 )(x − x2 )
3!
000
8h3 M

f (α)
=⇒
(x − x0 )(x − x1 )(x − x2 ) ≤ .
3! 3!
Problema 5:
Halle el valor de x con una aproximacion de dos decimales en el cual
la curva y = e−x ln(x) tiene un punto de inflexión. Use un método de
punto fijo con x0 = 1.5.

Resolución:
Los puntos de inflexión de la curva y = e−x ln(x) se hallan con la segunda
derivada igualando a cero, por tanto:

e−x e−x e−x


⇒ y 00 (x) = e−x ln(x) − − − 2 =0
x x x
de lo anterior se obtiene:
2 1
x = e( x + x2 ) ,
160 CAPÍTULO 6. PRÁCTICAS CALIFICADAS

por tanto, el esquema de punto fijo resulta


( x2 + 1
)
xn+1 = e n x2
n

Iniciando en x0 = 1.5 obtenemos:


x1 = 5.9166935
x2 = 1.4428 ;
x3 = 6.46602
x4 = 1.395464;
x5 = 7.005
x7 = 1.357780
Para varias iteraciones se tiene:

x = 2.0590296 ⇒ x ≈ 2.05.
Problema 6:
2 3
Sea el polinomio P3 (x)
R 2 = a0 + a1 x + a2 x + a3 x tal que P3 (0) = 1 ,
P3 (2) = 3 y tambien 0 P3 (x)dx = 4. Hallar el valor de P3 (1)

Resolución
De los datos sobre P3 se obtiene:

P3 (0) = 1 = a0 + a1 0 + a2 02 + a3 03 → a0 = 1

P3 (x) = 1 + a1 x + a2 x2 + a3 x3
P3 (2) = 3 = 1 + a1 2 + a2 22 + a3 23 → a1 + 2a2 + 4a3 = 1
Z 2
(1 + a1 x + a2 x2 + a3 x3 ) = 4
0
2
x 2 x3 x4
2 + a1 |0 + a2 |20 + a3 |20 = 4 → 3a1 + 4a2 + 6a3 = 3,
2 3 4
después de resolver el sistema se obtiene:

a1 = 2a3 + 1

a2 = −3a3
Piden:

P3 (1) = a0 + a1 + a2 + a3 = 1 + (2a3 + 1) + (−3a3 ) + a3 = 2,


→ P3 (1) = 2.
Bibliografı́a

[1] D. G. Luenberger, Y. Ye, et al., Linear and nonlinear programming. Sprin-


ger, third ed., 2008.

[2] M. Dowell and P. Jarratt, “A modified regula falsi method for computing
the root of an equation,” BIT Numerical Mathematics, vol. 11, no. 2,
pp. 168–174, 1971.

[3] A. Quarteroni, R. Sacco, and F. Saleri, Numerical mathematics, vol. 37.


Springer Science & Business Media, 2010.

[4] J. Herskovits and S. R. Mazorche, “A feasible directions algorithm for


nonlinear complementarity problems and applications in mechanics,”
Structural and Multidisciplinary Optimization, vol. 37, no. 5, pp. 435–
446, 2009.

[5] A. Ramı́rez, S. Mazorche, J. Herskovits, and G. Chapiro, “An interior


point algorithm for mixed complementarity nonlinear problems,” June
2017. Submitted.

[6] A. Ramı́rez, S. Mazorche, and G. Chapiro, “Numerical simulation of


an in situ combustion model formulated as mixed complementarity pro-
blem,” Revista Interdisciplinar de Pesquisa em Engenharia, vol. 2, no. 17,
pp. 172–181, 2016.

[7] G. Chapiro, A. E. Gutierrez, J. Herskovits, S. R. Mazorche, and W. S.


Pereira, “Numerical solution of a class of moving boundary problems with
a nonlinear complementarity approach,” Journal of Optimization Theory
and Applications, vol. 168, no. 2, pp. 534–550, 2016.

[8] A. E. R. Gutiérrez, “Aplicação do método de complementaridade não


linear para o estudo de combustão de oxigênio in situ,” 2013.

161

También podría gustarte