Está en la página 1de 91

Cálculo Numérico con aplicaciones para las

ciencias e ingenierı́a

Angel Ramirez - Irla Mantilla

06 de Abril de 2015
2
Índice general

1. Búsqueda de Raı́ces en Ecuaciones No Lineales 7


1.1. Método de la bisección . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 10
1.1.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 13
1.2. Método de la falsa posición . . . . . . . . . . . . . . . . . . . . 15
1.2.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 17
1.2.2. Análisis de Error . . . . . . . . . . . . . . . . . . . . . 19
1.2.3. Método de la falsa posición modificada . . . . . . . . . 20
1.3. Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 26
1.3.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 28
1.4. Método de la secante . . . . . . . . . . . . . . . . . . . . . . . 29
1.5. Método del punto fijo . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.1. Análisis de convergencia . . . . . . . . . . . . . . . . . 32
1.5.2. Análisis de error . . . . . . . . . . . . . . . . . . . . . 35
1.6. Métodos para sistemas de ecuaciones no lineales . . . . . . . . 40
1.6.1. Método de Newton . . . . . . . . . . . . . . . . . . . . 40
1.6.2. Método del punto fijo . . . . . . . . . . . . . . . . . . . 40
1.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2. Interpolación polinomial 43
2.1. Método de coeficientes indeterminados . . . . . . . . . . . . . 44
2.2. Método de Lagrange . . . . . . . . . . . . . . . . . . . . . . . 44
2.3. Método de Newton . . . . . . . . . . . . . . . . . . . . . . . . 46
2.4. Método de Diferencias Divididas . . . . . . . . . . . . . . . . . 48
2.5. Análisis de error . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.6. Fenómeno Runge . . . . . . . . . . . . . . . . . . . . . . . . . 56

3. Integración Numérica 59
3.1. Método del Trapecio . . . . . . . . . . . . . . . . . . . . . . . 60
3.1.1. Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3
4 ÍNDICE GENERAL

3.1.2. Compuesto . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2. Método de Simpson . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2.1. Simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2.2. Compuesto . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3. Cuadratura Gaussiana . . . . . . . . . . . . . . . . . . . . . . 73
3.3.1. Polinomios Ortogonales . . . . . . . . . . . . . . . . . . 73
3.4. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . 74

4. Sistemas de ecuaciones lineales 77


4.1. Métodos Directos . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1. Eliminación Gaussiana . . . . . . . . . . . . . . . . . . 77
4.1.2. Factorización LU . . . . . . . . . . . . . . . . . . . . . 77
4.1.3. Factorización QR . . . . . . . . . . . . . . . . . . . . . 79
4.2. Métodos Indirectos . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1. Método de Jacobi . . . . . . . . . . . . . . . . . . . . . 82
4.2.2. Método de Gauss-Seidel . . . . . . . . . . . . . . . . . 82
4.2.3. Método de relajación . . . . . . . . . . . . . . . . . . . 82

5. Métodos numéricos para problemas de valor inicial 83


5.1. Métodos de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . 89
Agradecimientos
No podrı́a haber escrito este pedazo de libro en español sin la inestimable
ayuda de ...
6 ÍNDICE GENERAL
Capı́tulo 1

Búsqueda de Raı́ces en
Ecuaciones No Lineales

Esta capı́tulo se centra en el problema de encontrar un cero de una función


real de variable real. En primer lugar, algunos de los aspectos teóricos y
numéricos de encontrar ceros en R pueden ser convenientes para el mismo
problema para funciones de Rn en R.
Por lo tanto, nuestro problema es hallar x tal que:
f (x) = 0 (1.1)
donde f : Rn → R es una función no lineal por lo general, veremos que
condiciones debe de satisfacer f para aproximar una raı́z de ella.
Es común encontrarnos con funciones f : D ⊂ R → R no lineales para
las cuales deseamos encontrar sus raı́ces, que normalmente, o son difı́ciles
o incluso hasta imposible calcularlas de forma analı́tica y exacta. Con el
objetivo de paliar este problema, los métodos numéricos a estudiar en este
capı́tulo, nos ayudarán a encontrar la raı́z de la función de una forma tan
aproximada como lo deseemos, para ello, se estudiarán métodos numéricos
adecuados y su respectiva implementación en un computador.
Entonces, antes de buscar las raı́ces de una función dada, primero debemos de
garantizar la existencia de la raı́z ası́ como su unicidad en un intervalo dado,
para que ası́ puedan ser aplicados algunos de los métodos que se estudiarán
a continuación. Por tanto, recordemos el siguiente teorema básico del cálculo
diferencial.
Teorema 1.1 Sea f : [a, b] ⊂ R → R una función continua la cual satisface
que f (a)f (b) < 0, entonces existe c ∈ ha, bi tal que f (c) = 0.
El teorema anterior garantiza la existencia de al menos una raı́z para la fun-
ción, para garantizar la unicidad debemos de utilizar algún otro argumento,

7
8CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

por ejemplo, que la función sea monótona o que tenga derivada positiva en
el intervalo.
Un uso adecuado del Teorema 1.1 permitirá deducir el Método de la Bisección
que se detalla a continuación.

1.1. Método de la bisección


Este método surge de forma natural al aplicar adecuadamente el Teorema
1.1, pues, básicamente consiste en reducir el intervalo inicial a la mitad en
cada iteración, de modo que se consigue aislar la raı́z en cada nuevo intervalo.
La elección del nuevo intervalo se basa en el Teorema 1.1. Es decir:
Dada una función f y dado un intervalo inicial [a0 , b0 ] que satisfacen las con-
diciones del Teorema 1.1, calculamos el punto medio c0 = a0 +b 2
0
, obteniendo
ası́ dos nuevos subintervalos I1 = [a0 , c0 ] e I2 = [c0 , b0 ]. El nuevo intervalo
[a1 , b1 ] será aquel que siga cumpliendo la condición del Teorema 1.1. Repe-
timos el proceso hasta la iteración n y obtenemos un intervalo final [an , bn ]
más pequeño que el original que contiene a la raı́z.

Figura 1.1: Esquema del método de la bisección

A continuación presentamos el Algoritmo del método de la bisección:

Algoritmo 1 (Método de la bisección.)


1.1. MÉTODO DE LA BISECCIÓN 9

Paso 1: Ingresar una función continua f .


Paso 2: Ingresar intervalo inicial [a0 , b0 ].
Paso 3: Verificar que f (a0 )f (b0 ) < 0, caso contrario regresar al Paso 2.
a0 + b 0
Paso 4: Calcular c0 = y f (c0 ).
2
Paso 5: Hacer k = 0.
Si f (a0 )f (c0 ) < 0 entonces:
ak+1 = ak , bk+1 = ck y f (bk+1 ) = f (ck ),
sino:
ak+1 = ck , bk+1 = bk y f (ak+1 ) = f (ck ).
Y el nuevo intervalo será [ak+1 , bk+1 ].
Paso 6: Mientras |ck+1 − ck | > T olerancia hacer
ak+1 + bk+1
ck+1 =
2
Calcular f (ck+1 ).
k = k + 1;
Si f (a0 )f (c0 ) < 0 entonces:
ak+1 = ak , bk+1 = ck y f (bk+1 ) = f (ck ),
sino:
ak+1 = ck , bk+1 = bk y f (ak+1 ) = f (ck ).
Y el nuevo intervalo será [ak+1 , bk+1 ].
Paso 7: La aproximación de la raı́z viene dada por:
ak+1 + bk+1
ck+1 = .
2
Ejemplo: Aproximar una raı́z para la función

f (x) = 2 arctan(x − 3) − 0.02x2 .

Resolución
Primero observamos que la función f es continua en todo R.
Considerando el intervalo [0, 4], se observa que f (0)f (4) < 0, entonces, por
el Teorema 1.1 podemos concluir que existe al menos una raı́z r de f en el
intervalo [0, 4].
Para garantizar unicidad, observemos que:
2
f 0 (x) = − 0.04x.
1 + (x − 3)2
Pero, para todo x ∈ [0, 4] se cumplen:
2
0.2 ≤ ≤ 2,
1 + (x − 3)2
0 < 0.2 − 0.16 ≤ 0.2 − 0.04x,
10CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

es decir: f 0 (x) > 0 para todo x ∈ [0, 4], por tanto, la función f es creciente y
ası́, la raı́z es única en el intervalo inicial [0, 4].
Garantizada la existencia y unicidad de una raı́z r en [0, 4], procedemos a
aproximarla mediante el método de la bisección, los cuales se muestran en la
Tabla 1.1.

Tabla 1.1: Mét. de la bisección para f (x) = 2 arctan(x − 3) − 0.02x2 .


i ai bi ci f (c) |ci+1 − ci | < 10−5
0 0 4 2 -1.6507963 F
1 2 4 3 -0.1800000 F
2 3 4 3.5 0.6822952 F
3 3 3.5 3.25 0.2787073 F
4 3 3.25 3.125 0.0533975 F
5 3 3.125 3.0625 -0.0627405 F
6 3.0625 3.125 3.09375 -0.0044722 F
7 3.09375 3.125 3.109375 0.0245197 F
8 3.09375 3.109375 3.1015625 0.0100371 F
9 3.09375 3.1015625 3.09765625 0.0027857 F
10 3.09375 3.09765625 3.09570313 -0.0008425 F
11 3.09570313 3.09765625 3.09667969 0.0009718 F
12 3.09570313 3.09667969 3.09619141 0.0000647 F
13 3.09570313 3.09619141 3.09594727 -0.0003889 F
14 3.09594727 3.09619141 3.09606934 -0.0001621 F
15 3.09606934 3.09619141 3.09613037 -0.0000487 F
16 3.09613037 3.09619141 3.09616089 0.0000080 F
17 3.09613037 3.09616089 3.09614563 -0.0000203 E

De la Tabla 1.1 podemos observar que:

|c17 − c16 | = 0.00000203 < 10−5 ,

entonces, tenemos que: r ≈ c17 = 3.09614563.

1.1.1. Análisis de convergencia


Hasta ahora, sólo hemos aplicado el método de la bisección de forma
mecánica y práctica, pero tal vez aún no nos hemos preguntado si el método
de la bisección funciona siempre. Es objetivo de esta sección confirmar y
demostrar el porqué funciona este método.
1.1. MÉTODO DE LA BISECCIÓN 11

Figura 1.2: Método gráfico para estimar el valor de la raı́z r.

Recordando que el método de la bisección en cada iteración reduce el intervalo


a la mitad, entonces, en la iteración n se cumple que:

1
|bn − an | = |bn−1 − an−1 |
2
lo anterior implica que:

1
|bn − an | = |b0 − a0 |
2n
cuando n → ∞ se tiene que lı́m |bn − an | = 0, ası́, podemos concluir que:
n→∞

lı́m (bn − an ) = 0 (1.2)


n→∞

Por otro lado, observamos que los intervalos generados en cada iteración
satisfacen la siguiente relación:

a0 ≤ a1 ≤ a2 ≤ · · · an ≤ b n ≤ · · · ≤ b 3 ≤ b 2 ≤ b 1 ≤ b 0

es decir, la sucesión {an }∞


n=0 es una sucesión creciente y acotada por b0 , por
tanto, es una sucesión convergente. Del mismo modo, la sucesión {bn }∞ n=0 es
12CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Figura 1.3: Este gráfico es nuevo

una sucesión decreciente y acotada por a0 , entonces, también es una sucesión


convergente. Ası́, a partir de la ecuación (1.2) se obtiene:
0 = lı́m (bn − an ) = lı́m bn − lı́m an
n→∞ n→∞ n→∞

es decir:
lı́m bn = lı́m an . (1.3)
n→∞ n→∞

La ecuación (1.4) nos dice que los extremos de los intervalos [an , bn ] van a
coincidir en el lı́mite, sea r este lı́mite común. Por otro lado, como f es una
función continua, se cumple también lo siguiente:
lı́m f (an ) = f ( lı́m an ) = f (r) = f ( lı́m bn ) = lı́m f (bn ).
n→∞ n→∞ n→∞ n→∞

Recordemos que los extremos del intervalo en el método de la bisección son


elegidos tal que f (an )f (bn ) < 0, entonces, tomando nuevamente lı́mite obte-
nemos:
0 ≥ lı́m f (an )f (bn ) = lı́m f (an ) lı́m f (bn ) = f (r)f (r) ≥ 0.
n→∞ n→∞ n→∞

de donde obtenemos: f (r) = 0, es decir, r es raı́z de la función f . Esto nos


permite concluir que el método de la bisección siempre converge a una raı́z
de una función continua.
1.1. MÉTODO DE LA BISECCIÓN 13

1.1.2. Análisis de error


El análisis de convergencia realizado en la sección anterior. nos dice que
después de realizar un número infinito de veces el método de la bisección,
este nos dará el valor exacto de la raı́z r de una función coninua f , siempre
que el intervalo inicial [a, b] satisfaga f (a)f (b) < 0. Lamentablemente un pro-
ceso infinito no puede ser realizado por ningún computador y mucho menos
hacerlo manualmente.
Lo que garantiza el análisis de convergencia y podemos rescatar, es que cuan-
do mayor número de iteraciones realicemos, la aproximación xn estará más
cerca de la raı́z, entonces es natural la siguiente pregunta: ¿Será posible
determinar apriori el número de iteraciones de forma que alcancemos una
tolerancia de error ingresada al inicio del proceso?.
Veamos que la pregunta anterior tiene una respuesta afirmativa, para ello
consideremos una función f y un intevalo inicial [a0 , b0 ] que satisfacen las
condiciones del Teorema 1.1. Sea r la raı́z tal que r ∈ [a0 , b0 ], después de n
iteraciones se ha reducido el intervalo inicial al intervalo [an , bn ] y la aproxi-
an + b n
mación a la raı́z r en ese intervalo es cn = . Por tanto, el error en la
2
iteración n viene dado por:
en = |r − cn | (1.4)
Por ser cn el punto medio del intervalo [an , bn ], el cual contiene a la raı́z r,
podemos concluir que:
1 1 1
|r − cn | ≤ (bn − an ) = 2 (bn−1 − an−1 ) = ... = n+1 (b0 − a0 )
2 2 2
Dada una tolerancia inicial tol, tal que deseamos que en < tol, entonces,
bastará exigir que:
1
n+1
(b0 − a0 ) < tol,
2
tomando logaritmos para despejar n, se obtiene:
 
b 0 − a0
log
tol
n> − 1. (1.5)
log(2)

Ası́, la relación (1.5) nos permite determinar apriori un número mı́nimo de


iteraciones a realizar para alcanzar una tolerancia de error deseada.
Ejemplo 1.1.1. Sea f (x) = x3 − 2x−1 + 3. ¿Cuántas iteraciones se necesita
para aproximar una raı́z con una tolerancia de error de 10−5 ?.
Resolución
14CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

La función f tiene como dominio R\{0}. Además: f (−2) = −4 y f (−1) = 4,


es decir, f (−1)f (−4) < 0 y como la función f es continua en [−2, −1],
entonces, por el Teorema 1.1 concluimos que existe una raı́z r ∈ h−2, −1i.
Para garantizar la unicidad, vemos que:

2
f 0 (x) = 3x2 + > 0 para todo x ∈ [−2, −1],
x2

es decir, f es una función creciente en ese intervalo. Ası́, podemos garantizar


que existe una única raı́z r ∈ h−2, −1i.
Para calcular el número de iteraciones necesarias para obtener una tolerancia
de error de 10−5 , hacemos uso de la relación (1.5), donde a0 = −2, b0 = −1,
es decir:
5
n > − 1 ≈ 15.6
log(2)
es decir, debemos tomar n = 16 iteraciones. Los resultados pueden observarse
en la Tabla 1.2.

Tabla 1.2: Met. de la bisección para f (x) = x3 − 2x−1 + 3.


i ai bi ci f (c)
0 -2 -1 -1.5 0.958333
1 -2 -1.5 -1.75 -1.216518
2 -1.75 -1.5 -1.625 -0.060246
3 -1.625 -1.5 -1.5625 0.465303
4 -1.625 -1.5625 -1.59375 0.206715
5 -1.625 -1.59375 -1.609375 0.074296
6 -1.625 -1.609375 -1.617188 0.007292
7 -1.625 -1.617188 -1.621094 -0.02641
8 -1.621094 -1.617188 -1.619141 -0.009542
9 -1.619141 -1.617188 -1.618164 -0.001121
10 -1.618164 -1.617188 -1.617676 0.003086
11 -1.618164 -1.617676 -1.61792 0.000983
12 -1.618164 -1.61792 -1.618042 -0.000069
13 -1.618042 -1.61792 -1.617981 0.000457
14 -1.618042 -1.617981 -1.618011 0.000194
15 -1.618042 -1.618011 -1.618027 0.000063
16 -1.618042 -1.618027 -1.618034 -0.000003
1.2. MÉTODO DE LA FALSA POSICIÓN 15

1.2. Método de la falsa posición


Dada una función f : [a, b] → R continua en [a, b] y tal que f (a)f (b) < 0.
Iniciando en el intervalo [x0 , x1 ] = [a, b], la idea es generar una sucesión de
intervalos [xk−1 , xk ] (k ≥ 1) tal que la raı́z de f se encuentre en él. Con este
objetivo, nada nos impide considerar la recta secante que pasa por los puntos
(xk−1 , f (xk−1 )) y (xk , f (xk )) dada por

f (xk−1 ) − f (xk )
y − f (xk ) = (x − xk ) (1.6)
xk−1 − xk

Figura 1.4: Método gráfico para estimar el valor de la raı́z r.

De la Figura 1.4 observamos que la intersección de la recta secante con


el eje x es el punto (xk+1 , 0), que reemplazando en (1.6) nos da el valor de
xk+1 :
xk−1 − xk
xk+1 = xk − f (xk ) (1.7)
f (xk−1 ) − f (xk )
Para elegir el nuevo intervalo [xk−1 , xk ], seguimos la idea del método de la
bisección, es decir, elegimos aquel que satisface

f (xk−1 )f (xk ) < 0


16CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

y la nueva aproximación de la raı́z x̂ es calculada de forma análoga al cálculo


de xk+1 . El proceso termina cuando la aproximación xk+1 satisfaga la condi-
ción f (xk+1 ) = 0 o |xk+1 − xk | < Tolerancia.
Algoritmo 1: Algoritmo del Método de la Secante
Entrada: Intervalo [a, b] tal que f (a)f (b) < 0. Tolerancia: tol.
1 inicio
2 k ← 1;
3 ak ← a;
4 bk ← b;
b k − ak
5 xk ← ak − f (ak ) ;
f (bk ) − f (ak )
6 mientras |f (xk )| > tol hacer
7 si f (ak )f (xk ) < 0 entonces
8 ak+1 ← ak ;
9 bk+1 ← xk ;
10 en otro caso
11 ak+1 ← xk ;
12 bk+1 ← bk .
13 fin si
14 k ← k + 1;
b k − ak
15 xk ← ak − f (ak ) .
f (bk ) − f (ak )
16 fin mientras
17 devolver xk .
18 fin

Ejemplo 1.2.1. Sea f (x) = x2 ln(x) − x. Dé un intervalo donde exista una
raı́z de la función f y aproxı́mela con una tolerancia de error de 10−5 .
Resolución
La función f tiene como dominio x > 0. Además: f (0.5) = −0.6931472 y
f (2) = 0.6931472, es decir, f (0.5)f (2) < 0 y como la función f es continua
en [0.5, 2], entonces, por el Teorema 1.1 concluimos que existe una raı́z r ∈
h0.5, 2i.
Para garantizar la unicidad, para todo x ∈ [0.5, 2] se cumple que:

f 0 (x) = 2x ln(x) + x − 1,

f 00 (x) = 2 ln(x) + 3.
El punto crı́tico de f es x = 1 donde f 0 (1) = 0. La Tabla 1.3 muestra el
análisis de signo para esbozar la gráfica de la función f dada en la Figura 1.5.
1.2. MÉTODO DE LA FALSA POSICIÓN 17

Tabla 1.3: Análisis de signo para f = x2 ln(x) − x.


x<1 x>1
f 0 (x) - +
00
f (x) + +

0.8

0.6

0.4

0.2

-0.2

-0.4

-0.6

-0.8

-1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figura 1.5: f (x) = x2 ln(x) − x.

La Figura 1.5 garantiza que f tiene una única raı́z en el intervalo [0.5, 2],
por tanto, inicializando en [a0 , b0 ] = [0.5, 2] la Tabla 1.4 muestra las iteracio-
nes hasta que se cumple que |f (x)| ≤ 10−5 .

1.2.1. Análisis de convergencia


En la iteración k + 1 el error para el método de la regla falsa se obtiene
xk−1 − xk
ek+1 = xk+1 − x̂ = xk − f (xk ) − x̂ (1.8)
f (xk−1 ) − f (xk )
reordenando (1.8)
 
 f (xk ) − f (x̂) 
ek+1 = xk − x̂ − 
 f (xk−1 ) − f (xk )  .
 (1.9)

xk−1 − xk
18CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Tabla 1.4: Met. de la Falsa Posición para f (x) = x2 log(x) − x.


i ai bi ci f (ci )
0 0.500000 2.000000 1.198490 -0.938416
1 0.500000 2.000000 1.198490 -0.938416
2 1.198490 2.000000 1.638086 -0.313789
3 1.638086 2.000000 1.742621 -0.056052
4 1.742621 2.000000 1.760031 -0.008799
5 1.760031 2.000000 1.762733 -0.001353
6 1.762733 2.000000 1.763148 -0.000207
7 1.763148 2.000000 1.763211 -0.000032
8 1.763211 2.000000 1.763221 -0.000005

Hacemos uso de la siguiente notación

f (b) − f (a)
f [a, b] := (1.10)
b−a

para reordenar la expresión dada en (1.9)


   
f [xk , x̂] f [xk−1 , xk ] − f [xk , x̂]
ek+1 = ek 1 − = ek (1.11)
f [xk−1 , xk ] f [xk−1 , xk ]

ahora acomodamos convenientemente (1.11) para obtener


 
f [xk−1 , xk , x̂]
ek+1 = ek ek−1 (1.12)
f [xk−1 , xk ]

donde se ha usado la notación siguiente

f [a, b] − f [b, c]
f [a, b, c] := . (1.13)
a−c

Usando (1.10) y (1.13) para xk−1 , xk , x̂ (en ese orden), podemos definir el
siguiente polinomio

P2 (x) = f (xk−1 ) + f [xk−1 , xk ](x − xk−1 ) + f [xk−1 , xk , x̂](x − xk−1 )(x − xk )

el cual satisface P2 (xk−1 ) = f (xk−1 ), P2 (xk ) = f (xk ) y P2 (x̂) = f (x̂).


Definimos la función g : [xk−1 , xk ] → R como sigue

g(x) = f (x) − P2 (x). (1.14)


1.2. MÉTODO DE LA FALSA POSICIÓN 19

De (1.14) se observa g(xk−1 ) = g(xk ) = g(x̂) = 0, por tanto, se puede


aplicar el Teorema de Rolle para concluir que existe ηk ∈ hxk−1 , xk i tal que
g 00 (ηk ) = 0. Esto implica
f 00 (ηk )
= f [xk−1 , xk , x̂]. (1.15)
2
Por otro lado, del Teorema del Valor Medio, existe ξk ∈ hxk−1 , xk i tal que

f 0 (ξk ) = f [xk−1 , xk ]. (1.16)

Usando (1.15) y (1.16) en (1.12) se obtiene


f 00 (ηk )
ek+1 = ek ek−1 . (1.17)
2f 0 (ξk )
Con el objetivo de acotar f 00 y f 00 , vamos a imponer que f ∈ C 2 ([x0 , x1 ])
y f 0 (x) 6= 0 para todo x ∈ [x0 , x1 ], luego, para k suficientemente grande
podemos considerar lo siguiente, [1]:

ek+1 = M ek ek−1 . (1.18)


f 00 (x̂)
donde M = . De la definición de ek dada en (1.8) podemos concluir a
2f 0 (x̂)
partir de (1.18) que el método de la Regla Falsa converge para puntos x0 , x1
suficientemente cerca de x̂.

1.2.2. Análisis de Error


Para el análisis de error, consideramos la igualdad (1.18) y definimos la
sucesión yk = ln(M ek ), que reemplazando en (1.18) resulta

yk+1 = yk + yk−1 , (1.19)

considerando yk = rk para resolver (1.19), se obtiene que


√ √
1+ 5 1− 5
r1 = , y r2 = = 1 − r1 .
2 2
por tanto, la solución de (1.19) viene dada por

yk = Ar1k + Br2k . (1.20)

A partir de (1.20) se obtiene la siguiente relación

yk − r1 yk−1 = Br2k−1 (1.21)


20CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

tomando lı́mite

lı́m (yk − r1 yk−1 ) = lı́m Br2k−1 = 0. (1.22)


k→∞ k→∞

usando la definición de yk en (1.22) y de las propiedades de logaritmos se


obtiene
 
1−r1 ek
lı́m (yk − r1 yk−1 ) = lı́m M = 0, (1.23)
k→∞ k→∞ erk−1
1

y dado que ek es una sucesión convergente, resulta que

 
ek
lı́m = M r1 −1 . (1.24)
k→∞ erk−1
1

El resultado obtenido en (1.24) nos permite afirmar que el método de Regla


Falsa es superlineal.

1.2.3. Método de la falsa posición modificada

Se observa en la Tabla 1.4 que el extremo derecho del intervalo en ca-


da iteración permanece constante. En general, cuando la función es convexa
(cóncava) creciente o decreciente, entonces al aplicar el método de falsa po-
sición, uno de los extremos del intervalo inicial permanece constante. Esta
caracterı́sca impide que la convergencia sea rápida y que tomemos como cri-
terio de parada que la longitud del intervalo [xk−1 , xk ] sea suficientemente
pequeño para algún k > 0.
Con el objetivo de superar estas dificultades, se hace una modificación al
Método de Falsa Posición. Cuando se observe que algún extremo del inter-
valo permanece constante en dos iteraciones (al menos), entonces, se aplica
el Algoritmo de Illinois, el cual considera un factor α de la imagen del
extremo que permance constante para el cálculo del siguiente punto. Este al-
goritmo es descrito en detalle en [2] y presentado a continuación. El objetivo
de la introducción del factor α es el prevenir que algún extremo permanezca
constante.
1.2. MÉTODO DE LA FALSA POSICIÓN 21

Algoritmo 2: Método de la Falsa Posición Modificada


Parámetros: α = 0.5.
Entrada: Puntos x0 y x1 tal que f (x0 )f (x1 ) < 0. Tolerancias: Tol, δ.
1 inicio
2 k ← 1;
x1 − x 0
3 x ← x1 − f (x1 ) ;
f (x1 ) − f (x0 )
4 mientras |f (x)| > Tol y |x − x1 | > δ hacer
5 si f (x)f (x1 ) < 0 entonces
6 x0 ← x1 ;
7 f0 ← f (x0 )
8 en otro caso
9 f0 ← αf (x0 );
10 fin si
11 k ← k + 1;
12 x1 ← x;
x1 − x0
13 x ← x1 − f (x1 )
f (x1 ) − f (x0 )
14 fin mientras
15 devolver x.
16 fin

Si aplicamos el método de la Regla Falsa Modificada al Ejemplo 1.2.1 se


obtienen los resultados dados en la Tabla 1.5.

Tabla 1.5: Método de la Regla Falsa Modificada


i ai bi ci f (ci )
0 0.500000 2.000000 1.198490 -0.938416
1 2.000000 1.198490 1.638086 -0.313789
2 2.000000 1.638086 1.800302 0.105309
3 1.638086 1.800302 1.759541 -0.010146
4 1.800302 1.759541 1.763123 -0.000276
5 1.800302 1.763123 1.763317 0.000260
6 1.763123 1.763317 1.763223 -0.000000

La interpretación gráfica del Método de la Regla Falsa Modificada para


el Ejemplo 1.2.1 se observa en la Figura 1.6.
22CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1 -1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

(a) Paso 1 (b) Paso 2


0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

-0.2 -0.2

-0.4 -0.4

-0.6 -0.6

-0.8 -0.8

-1 -1
0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

(c) Paso 3 (d) Paso 4

Figura 1.6: Interpretación gráfica del Método de la Falsa Posición Modificada.

Consideremos ahora la función siguiente dada en [2]

f (x) = 2xe−n + 1 − 2e−nx , n = 1, 2, . . . (1.25)

En la Tabla 1.6 se resumen los números de iteraciones al aplicar el Método


de la Bisección (MB), Método de la Regla Falsa (MRF) y el Método de
la Regla Falsa Modificada (MRFM) para la función f dada en (1.25) para
cuatro valores diferentes de n.

n MB MRF MRFM
1 50 19 8
5 50 19 9
15 50 19 11
20 50 19 10

Tabla 1.6: Número de iteraciones. Criterio de parada: |f (x)| ≤ 10−19 .


1.3. MÉTODO DE NEWTON 23

1.3. Método de Newton


El método de Newton es un método clásico y uno de los más rápidos para
aproximar una raı́z de una función no lineal f : [a, b] ⊂ R → R,
Para deducir el método de Newton, supongamos que xn es una buena apro-
ximación de la raı́z x̂ de f , es decir, | x̂ − xn | es bien pequeño, f ∈ C 2 ([a, b])
y f 0 (xn ) 6= 0; el polinomio de Taylor para f alrededor de xn viene dado por:

(x − xn )2 00
f (x) = f (xn ) + (x − xn )f 0 (xn ) + f (x ) (1.26)
2

donde x está entre x y xn . Como hemos supuesto que x̂ está bien cerca de
xn se tiene en (1.26) con x = x̂ lo siguiente:

(x̂ − xn )2 00
f (x̂) = f (xn ) + (x̂ − xn )f 0 (xn ) + f (x̂ ) (1.27)
2

pero f (x̂) = 0, y desde que | x̂ − xn | es bien pequeño, entonces el término


(x̂ − xn )2 es mucho menor, de aquı́ en (1.27):

0 ≈ f (xn ) + (x̂ − xn )f 0 (xn ) (1.28)

de (1.28) obtenemos:
f (xn )
x̂ ≈ xn − (1.29)
f 0 (xn )

la nueva aproximación dada por (1.29) será el nuevo término de la sucesión,


es decir:
f (xn )
xn+1 = xn − 0 , ∀ n ≥ 0. (1.30)
f (xn )

En resumen, el método de Newton comienza con una buena aproximación


inicial x0 y a partir de él se genera una sucesión de puntos {xn }∞
n=0 definida
por (1.30). Geométricamente significa que empezando en el punto inicial x0
que no esté muy lejos de la raı́z, se efectúa un desplazamiento a lo largo de
la tangente hacia su intersección con el eje ”x”, y se toma éste como la si-
guiente aproximación. Esto se realiza hasta que valores de xn sucesivos estén
suficientemente próximos o el valor de la función esté suficientemente cerca
de cero. Esta interpretación geométrica puede observarse en la Figura 1.7.
24CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.7: Interpretación geométrica del Método de Newton.

La rapidez del método de Newton se ve ensombrecida debido a que es


necesario conocer f 0 (x), porque en (1.30) es necesario calcular en cada ite-
ración los valores de f (xn ) y f 0 (xn ). La relación (1.30) sugiere que debemos
verificar que f 0 (xn ) no esté muy próxima de cero, de lo contrario el método
no va a funcionar.
Ejemplo 1.3.1. Aplique el método de Newton para encontrar un cero de:
π
f (x) = x − 0.8 − 0.2 sen(x), x ∈ [0, ]
2
Resolución:
Tenemos:
f (x) = x − 0.8 − 0.2 sen(x)
f 0 (x) = 1 − 0.2 cos(x)
π
x0 =
4
y aplicando la relación (1.30) codificado en el programa Newton.sce(Ver
apéndice)se obtiene:
1.3. MÉTODO DE NEWTON 25

i xi f (xi ) f 0 (xi )
0 0.785398 -0.156023 0.858579
1 0.967121 0.002470 0.886466
2 0.964335 0.000001 0.886007
3 0.964334 0.000000


Ejemplo 1.3.2. Use el método de Newton en la ecuación x2 = N para


deducir el algoritmo para obtener la raı́z cuadrada de un número positivo N .
Resolución:
Resolver x2 = N es hallar un cero de f (x) = x2 − N ⇒ f 0 (x) = 2x y por el
método de Newton se obtiene:

x2n − N
 
f (xn ) 1 N
xn+1 = xn − 0 = xn − = xn +
f (xn ) 2xn 2 xn

Ejemplo 1.3.3. Hallar aproximadamente una solución de la siguiente ecua-


ción:
x3 + 4x2 − 10 = 0.

Resolución:
Para hallar una solución de la ecuación dada, es equivalente a encontrar una
raı́z de f (x) = x3 + 4x2 − 10, la cual es continua y diferenciable en todo R.
Además, observemos que:

f (1) = −5, f (2) = 14, entonces, f (1)f (2) < 0

ası́, el Teorema 1.1 garantiza la existencia de al menos una solución en [1, 2].
Por otro lado:

f 0 (x) = 3x2 + 8x > 0 para todo x ∈ [1, 2],

es decir, la función f : [1, 2] → R es creciente en [1, 2] y ası́ la raı́z x̂ en ese


intervalo es única.
Aplicamos ahora la relación (1.30) codificado en el programa Newton.sce(Ver
apéndice) para obtener los resultados mostrados en la Tabla 1.7 con un cri-
terio de parada dado por |xn+1 − xn | < 10−5 :
26CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Tabla 1.7: Mét. de Newton para f (x) = x3 + 4x2 − 10.


n xn f (xn ) f 0 (xn ) xn f (xn ) f 0 (xn )
0 2.0000000 14.0000000 28.0000000 1.0000000 -5.0000000 11.0000000
1 1.5000000 2.3750000 18.7500000 1.4545455 1.5401953 17.9834711
2 1.3733333 0.1343455 16.6448000 1.3689004 0.0607197 16.5728681
3 1.3652620 0.0005285 16.5139172 1.3652366 0.0001088 16.5135057
4 1.3652300 0.0000000 16.5133991 1.3652366 0.0000000 16.5133991
5 1.3652300 0.0000000 16.5133991

En la Tabla 1.7 observamos que |x5 − x4 | < 10−5 cuando empezamos en


x0 = 2 y |x4 − x3 | < 10−5 cuando empezamos en x0 = 1. Además el crite-
rio de parada permite garantizar que la raı́z es exacta hasta el quinto decimal.


1.3.1. Análisis de convergencia


El error absoluto en la iteración n + 1 viene dado por:
en+1 = x̂ − xn+1 ,
y considerando xn+1 la aproximación dado por el método de Newton en la
relación (1.30), se obtiene:
en f 0 (xn ) + f (xn )
 
f (xn )
en+1 = x̂ − xn − 0 = . (1.31)
f (xn ) f 0 (xn )
Por otro lado, suponiendo que f ∈ C 2 ([a, b]), podemos desarrollar el polino-
mio de Taylor de segundo orden alrededor de xn , es decir:

0 f 00 (ξ)
f (x) = f (xn ) + f (x)(x − xn ) + (x − xn )2
2
donde ξ es un valor entre x y xn .
Desde que se supone que x̂ está muy próximo de xn , podemos reemplazar en
la ecuación anterior:
f 00 (ξ)
0 = f (x̂) = f (xn ) + f 0 (x)(x̂ − xn ) + (x̂ − xn )2 , (1.32)
2
donde ξ es un valor entre x̂ y xn , por tanto:
f 00 (ξ) f 00 (ξ) 2
f (xn ) + f 0 (x)(x̂ − xn ) = − (x̂ − xn )2 = − e
2 2 n
1.3. MÉTODO DE NEWTON 27

Reemplazando en (1.31), concluimos:


f 00 (ξ)
 
en+1 = − 0 e2 ,
2f (xn ) n
si además se tiene que f 0 (x) 6= 0 para todo x ∈ [a, b], entonces:
f 00 (x)

2
|en+1 | ≤ M en donde M = máx − 0

x∈[a,b] 2f (x)
Teorema 1.2 Sea f : [a, b] ⊂ R → R tal que f y f 0 son continuas. Sea
x̂ ∈ ha, bi tal que f (x̂) = 0 y f 0 (x̂) 6= 0, si además existen R, L > 0 tales que:

|f 0 (x) − f 0 (y)| ≤ L|x − y| para todo x, y ∈ B(x̂, R). (1.33)

entonces ∃ δ > 0 tal que si |x0 − x̂| < δ, entonces la sucesión {xn }∞
n=0 dada
por (1.30) converge a x̂ para cualquier punto inicial x0 ∈ B(x̂, δ).

Demostración:
Como f 0 es continua y f 0 (x̂) 6= 0, entonces existe R1 > 0 tal que f 0 (x) 6= 0
para todo x ∈ B(x̂, R1 ). Definamos:
 
1
c0 = sup < ∞. (1.34)
x∈B(x̂,R1 ) f 0 (x)

Para R2 = mı́n{R, R1 } definamos:


f (x)
g(x) = x − para todo x ∈ B(x̂, R2 ).
f 0 (x)
observando que g(x̂) = x̂. Además:
f (x)
g(x) − g(x̂) = x− − x̂
f 0 (x)
f (x)
= (x − x̂) − 0
f (x)
1
= [f (x̂) − f (x) − f 0 (x)(x̂ − x)]
f 0 (x) Z
1 
1 0 0
= (f (x + t(x̂ − x)) − f (x)) dt (x̂ − x)
f 0 (x) Z0
1
1
|g(x) − g(x̂)| ≤ |f 0 (x + t(x̂ − x)) − f 0 (x)| dt |(x̂ − x)|
|f 0 (x)| 0
Z 1
(1.33) L
≤ |t(x̂ − x)| dt|x̂ − x|
|f 0 (x)| 0
28CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

utilizando (1.34) se tiene:


Lc0
|g(x) − g(x̂)| ≤ |x̂ − x|2 . (1.35)
2
 
2 L c0 δ
Definamos δ < mı́n R2 , , entonces α = < 1. Por tanto, dado
L c0 2
x ∈ B(x̂, δ) se tiene:
L c0 δ
|g(x) − g(x̂)| ≤ |x̂ − x| = α δ < δ =⇒ g(x) ∈ B(x̂, δ). (1.36)
2
Ası́, dado x0 ∈ B(x̂, δ), por (1.30) y (1.36) implican que:
|x1 − x̂| = |g(x0 ) − g(x̂)| < δ =⇒ x1 ∈ B(x̂, δ)
y procediendo de forma inductiva: xn ∈ B(x̂, δ).
Por otro lado, de (1.36) también se tiene lo siguiente:
|xn+1 − x̂| ≤ α |xn − x̂| ≤ αn |x0 − x̂| para todo n ≥ 0
es decir, cuando n → ∞ la relación anterior implica que xn → x̂.

1.3.2. Análisis de error


El teorema siguiente nos informa que es posible encontrar una cota para
el error en el método de Newton.
Teorema 1.3 Sean f, f 0 , x̂, δ como en el Teorema 1.2, entonces existe M > 0
tal que si M δ < 1, se cumple que:
|xn+1 − xn | ≤ M |xn − x̂|2 , y, (1.37)
n
(M δ)2
|xn − x| ≤ . (1.38)
M
Demostración:
De la demostración del Teorema 1.2 se obtiene la desigualdad (1.35). Enton-
c0 L
ces, considerando x0 ∈ B(x̂, δ) y M = se tiene que:
2
|xn+1 − x̂| ≤ M |xn − x̂|2
c0 Lδ
observe que M δ = = α < 1, demostrando ası́ la desigualdad (1.37).
2
En la desigualdad (1.37), multiplicando por M a ambos lados se obtiene:
M |xn − x̂| ≤ (M |xn−1 − x̂|)2
1.4. MÉTODO DE LA SECANTE 29

procediendo de forma recursiva:

n
(M δ)2
|xn − x̂| ≤
M

probando ası́ la cota de error dada por (1.38).

Los teoremas 1.2 y 1.3 nos dicen que el método de Newton tiene como prin-
cipal desventaja la elección del punto inicial x0 , el cual debe de estar cerca
de la raı́z x̂ de la función f . Sin embargo, cuando esto ocurre, la relación
(1.37) nos dice que el método de Newton converge a la solución de forma
cuadrática, es decir, el número de decimales exactos se duplica en cada ite-
ración. Otra desventaja del método de Newton es el cálculo de la derivada y
posterior evaluación en cada iteración.

1.4. Método de la secante

Una de las desventajas del método de Newton es la necesidad de que la


función f sea derivable y que no se anule en cada iteración. El Método de
la secante descrito a continuación no hace uso de la derivada de la función.
Para ello, dado dos puntos iniciales x0 y x1 , se considera la recta secante que
pasa por los puntos (x0 , f0 ), (x1 , f1 ) dada por

Algoritmo 3: Algoritmo del Método de la Secante


Entrada: x0 , x1 , tol.
1 inicio
2 k ← 1;
3 mientras condição de parada não é satisfeita hacer
fk (xk − xk−1 )
4 xk+1 ← xk − ;
fk − fk−1
5 xk−1 ← xk ;
6 xk ← xk+1 ;
7 k ← k + 1;
8 fin mientras
9 devolver xk ;
10 fin
30CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.8: Interpretación geométrica del Método de la Secante.

Ejemplo 1.4.1. Sea el polinomio P (x) = x3 − 2x2 + 4x − 4. Se pide:

1. Demostrar analı́ticamente que es la única raı́z del polinomio.

2. Encontrar una raı́z de dicho polinomio con una precisión de 10−6 .

Resolución:

1. Para demostrar que existe una única raı́z, en este caso, basta analizar
la derivada del polinomio
 2
0 2 4 24
P (x) = 3x − 4x + 4 = 3 x − + > 0 para todo x ∈ R.
6 9

Por tanto, el polinomio es una función creciente en todo su dominio y


ası́, intersecta al eje x sólo una vez, garantizando ası́ la unicidad de la
raı́z.
1.5. MÉTODO DEL PUNTO FIJO 31

2. Para aproximar la raı́z, consideramos como aproximaciones iniciales los


puntos x0 = 3 y x1 = 6. Las iteraciones realizadas se muestran en la
Tabla 1.8 con el criterio de parada |xi+1 − xi | < 10−5 .

Tabla 1.8: Método de la Secante para P (x) = x3 − 2x2 + 4x − 4.


i xi−1 xi xi+1 |xi+1 − xi | f (xi+1 )
1 3.000000 6.000000 2.65306122 3.34693878 11.20896905
2 6.000000 2.653061 2.40752500 0.24553623 7.99218686
3 2.653061 2.407525 1.79748326 0.61004174 2.53561237
4 2.407525 1.797483 1.51400332 0.28347994 0.94200877
5 1.797483 1.514003 1.34643306 0.16757027 0.20089249
6 1.514003 1.346433 1.30101021 0.04542284 0.02091146
7 1.346433 1.301010 1.29573267 0.00527755 0.00051994
8 1.301010 1.295733 1.29559810 0.00013457 0.00000138
9 1.295733 1.295598 1.29559774 0.00000036 0.00000000

1.5. Método del punto fijo


Primero debemos de saber que significa que un punto x̂ sea un punto fijo
para una función g.

Definición 1.1 Dada una función g : [a, b] ⊂ R → R, decimos que un punto


x̂ ∈ [a, b] es un punto fijo de g cuando satisface lo siguiente:

g(x̂) = x̂.

De forma natural surge la pregunta: ¿Qué relación tiene el punto fijo de una
función g con la búsqueda de una raı́z para una función f ?. Pues veamos,
si x̂ es punto fijo de g entonces g(x̂) = x̂, es decir, x̂ es una raı́z para la
función f (x) = g(x) − x. Recı́procamente, si r es una raı́z de una función f ,
entonces f (r) = 0, es decir, r es punto fijo de la función g(x) = x − f (x). Por
tanto, buscar una raı́z para una función f es equivalente a buscar el punto
fijo para alguna función g adecuada. Los teoremas siguientes dan condiciones
necesarias para que una función g tenga punto fijo.

Teorema 1.4 Sea g : [a, b] ⊂ R → [a, b] una función continua. Entonces


existe x̂ ∈ ha, bi tal que g(x̂) = x̂, es decir, existe un punto fijo para la
función g.
32CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

Demostración:
Definamos: f : [a, b] ⊂ R → R del modo que sigue: f (x) = x − g(x). De
donde observamos:

f (a) = a − g(a) < 0, porque g(a) ∈ [a, b],

f (b) = b − g(b) > 0, porque g(b) ∈ [a, b],


es decir, f (a) < 0 < f (b) y f es una función continua, entonces, por el
Teorema 1.1, concluimos que existe x̂ ∈ ha, bi tal que f (x̂) = 0, y de la
definición de f se tiene que x̂ satisface g(x̂) = x̂, que es lo querı́amos probar.

Teorema 1.5 Sea g : R → R una función continua y acotada. Entonces


existe x̂ tal que g(x̂) = x̂, es decir, existe un punto fijo para la función g.

Demostración:
Como g es una función acotada, entonces, existe k > 0 tal que |g(x)| < k
para todo x ∈ R, es decir:

−k < g(x) < k.

Definamos: f : [−k, k] ⊂ R → R del modo que sigue: f (x) = x − g(x), y


observamos que:

f (k) = k − g(k) < 0, porque g(k) ∈ [−k, k],

f (−k) = −k − g(−k) > 0, porque g(−k) ∈ [−k, k],


es decir, f (k) < 0 < f (−k), ası́, por el Teorema 1.1 existe x̂ ∈ h−k, ki tal
que f (x̂) = 0. Por tanto, x̂ es un punto fijo para g.

1.5.1. Análisis de convergencia


Los teoremas anteriores garantizan la existencia de un punto fijo punto
fijo. El siguiente resultado nos permite asegurar la unicidad del punto fijo, y
va más allá, porque nos dice como calcular el punto fijo.

Teorema 1.6 Sea g : R → R acotada y diferenciable, tal que existe λ ∈ h0, 1i


que satisface: |g 0 (x)| ≤ λ < 1 para todo x ∈ R. Entonces, existe un único
punto fijo x̂ de la función g. Además, la sucesión de puntos {xn }∞
n=0 generada
por:
xn = g(xn−1 ) para todo n ≥ 1, (1.39)
converge al único punto fijo x̂ para cualquier punto inicial x0 ∈ R.
1.5. MÉTODO DEL PUNTO FIJO 33

Demostración:
Desde que g es diferenciable en R, entonces es continua en R, y por hipótesis
es acotada, entonces existe k ∈ R, k > 0 tal que |g(x)| ≤ k. Luego, por el
Teorema 1.5 concluimos que existe un punto fijo x̂ ∈ h−k, ki de g.
Demostremos que el punto fijo es único. En efecto, supongamos que existe
otro punto fijo x∗ de la función g, es decir: g(x∗ ) = x∗ . Sin pérdida de
generalidad podemos suponer que x̂ < x∗ . Podemos aplicar el Teorema del
Valor Medio en el intervalo [x̂, x∗ ] para obtener un punto c ∈ hx̂, x∗ i tal que:

|g(x∗ ) − g(x̂)| = |g 0 (c)(x∗ − x̂)| ≤ λ|(x∗ − x̂)|

Desde que x̂ y x∗ son puntos fijos de g, la relación anterior implica:

|x∗ − x̂| ≤ λ|x∗ − x̂|,

es decir:

0 ≤ (1 − λ)|x∗ − x̂| ≤ 0 ⇒ (1 − λ)|x∗ − x̂| = 0

pero λ < 1, entonces x∗ = x̂. Por tanto, el punto fijo es único.


Resta probar la convergencia de la sucesión {xn }∞
n=0 hacia el único punto fijo
x̂. Veamos:

|xn − x̂| = |g(xn−1 ) − g(x̂)| = |g 0 (cn )(xn−1 − x̂)| (1.40)

para algún cn entre xn y x̂. Por hipótesis, existe λ ∈ h0, 1i tal que |g 0 (x)| ≤
λ < 1, entonces, la ecuación (1.40) implica:

|xn − x∗ | ≤ λ |xn−1 − x̂|. (1.41)

Repitiendo n veces el proceso de la ecuación (1.40) , la relación (1.41) permite


observar lo siguiente:
|xn − x̂| ≤ λn |x0 − x̂| (1.42)

Como λ ∈ h0, 1i, entonces lı́m λn = 0, por tanto, se satisface:


n→∞

lı́m xn = x̂,
n→∞

ası́ hemos probado la convergencia.


34CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

(a) Paso 1 (b) Paso 2

(c) Paso 3 (d) Paso 4

Figura 1.9: Interpretación geométrica del Método de Punto Fijo.

Ejemplo 1.5.1. Aproxime la raı́z para la siguiente función


1
f (x) = arctan(x − 2) − x.
3
Resolución:
Observar que el dominio de f es R. Recordando que aproximar una raı́z
def es equivalente a aproximar el punto fijo para una función g adecuada.
Podemos considerar por ejemplo:
1
g(x) = arctan(x − 2).
3
Primero verifiquemos que se cumplen las condiciones del Teorema 1.6. En
efecto, el dominio de g es R, y es acotada en su dominio porque:

1 π
|g(x)| = arctan(x − 2) < para todo x ∈ R,
3 6
1.5. MÉTODO DEL PUNTO FIJO 35

además:

0
1 ≤ 1 = λ < 1 para todo x ∈ R.

|g (x)| =

2
3(1 + (x − 2) ) 3
Por tanto, se satisfacen las condiciones del Teorema 1.6 y ası́ concluimos que
existe un único punto fijo x̂ de la función g, el cual también es raı́z de la
función f .
En la Tabla 1.9 se muestran los resultados después de aplicar el método del
punto fijo a la función g y se ha detenido cuando |xi+1 − xi | < 10−5 . Se
muestran los resultados para dos puntos iniciales: x0 = 0 y para x0 = 50,
para ambos casos se da la convergencia hacia la solución.

Tabla 1.9: Met. del punto fijo para f (x) = arctan(x − 2)/3 − x
i xi g(xi ) f (xi ) xi g(xi ) f (xi )
0 0 -0.36905 -0.36905 50 0.516655 -49.483345
1 -0.36905 -0.390459 -0.021409 0.516655 -0.325876 -0.842532
2 -0.390459 -0.39153 -0.001071 -0.325876 -0.388248 -0.062372
3 -0.39153 -0.391583 -0.000053 -0.388248 -0.39142 -0.003172
4 -0.391583 -0.391585 -0.000003 -0.39142 -0.391577 -0.000158
5 -0.391585 -0.391586 0.000000 -0.391577 -0.391585 -0.000008
6 -0.391585 -0.391586 0.000000

1.5.2. Análisis de error


Hasta ahora hemos analizado la convergencia del método del punto fijo.
Similar al método de la bisección, para el método del punto fijo se puede
establecer también una cota para el error absoluto, entre la solución exacta
y la aproximada.
Teorema 1.7 Sean g, λ, {xn }∞ n=0 y x0 establecidos como en el Teorema 1.6
y sea x̂ el punto fijo de g. Entonces, en la iteración n se cumple:
λn
|x̂ − xn | ≤ |x1 − x0 |.
1−λ

Demostración:
De la definición de xn en (1.39), x̂ punto fijo de g y de la condición que
cumple λ para g 0 , se cumple:
|xn − xn−1 | = |g(xn−1 ) − g(xn−2 )| = |g 0 (c∗ )||xn−1 − xn−2 | ≤ λ|xn−1 − xn−2 |
36CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

para algún c∗ entre xn−1 y xn−2 .


Repitiendo el proceso anterior n−1 veces, se obtiene la siguiente desigualdad:

|xn − xn−1 | ≤ λn−1 |x1 − x0 | (1.43)

Consideremos ahora m, n ∈ N, m > n, entonces:

|xm − xn | = |xm − xm−1 + xm−1 − · · · − xn+1 + xn+1 − xn |


≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xn+1 − xn |
≤ λm−1 |x1 − x0 | + λm−2 |x1 − x0 | + · · · + λn |x1 − x0 |
≤ (λm−1 + λm−2 + · · · + λn )|x1 − x0 |
≤ λn (λm−n−1 + λm−n−2 + · · · + λ2 + λ + 1)|x1 − x0 |
≤ λn (1 + λ + · · · + λm−n−1 + λm−n + · · · + λm )|x1 − x0 |

ahora, fijando n y haciendo m → ∞, entonces xm → x̂ y obtenemos:


λn
|x̂ − xn | ≤ |x1 − x0 | (1.44)
1−λ

Por lo general, una función sólo está definida en un intervalo [a, b] ⊂ R,


cuando suceda ello, el siguiente resultado da condiciones suficientes similares
a los presentados en el Teorema 1.6.

Teorema 1.8 Sea g : [a, b] ⊂ R → [a, b] ⊂ R continua en [a, b] y diferen-


ciable en ha, bi, tal que existe λ ∈ h0, 1i que satisface: |g 0 (x)| ≤ λ < 1 para
todo x ∈ ha, bi. Entonces, existe un único punto fijo x̂ ∈ ha, bi de la función
g. Además, la sucesión de puntos {xn }∞ n=0 generada por:

xn = g(xn−1 ) para todo n ≥ 1, (1.45)

converge al único punto fijo x̂ para cualquier punto inicial x0 ∈ ha, bi. Además,
en la iteración n se sigue cumpliendo:
λn
|x̂ − xn | ≤ |x1 − x0 |. (1.46)
1−λ
La demostración del Teorema 1.8 es muy similar a la presentada en el Teo-
rema 1.6. El siguiente ejemplo muestra una aplicación del Teorema 1.8.
Ejemplo 1.5.2. ¿Cuántas√iteraciones serán necesarias para aproximar una
x2 + 1
raı́z de la función f (x) = − x con una tolerancia de error menor a
5
10−5 ?.
Resolución:
1.5. MÉTODO DEL PUNTO FIJO 37

Veamos primero
√ si la función f tiene al menos una raı́z. Para ello, conside-
x2 + 1
remos g(x) = definida en el intervalo |x| ≤ 1. En este intervalo se
5
tiene:
√ √
x2 + 1 2
−1 < 0 ≤ ≤ <1
5 5

es decir, si |x| ≤ 1 se cumple: |g(x)| ≤ 1.


Además:


0 2 x 2
|g (x)| = √ ≤ < 1 para todo x ∈ h−1, 1i.
5 x2 + 1 5

Entonces, por el Teorema 1.8 podemos concluir que existe un único punto
fijo x̂ de la función g en el intervalo |x| ≤ 1 y por tanto, x̂ será también la
única raı́z de f en el mismo intervalo.
Calculemos ahora el número de iteraciones necesarias para alcanzar una to-
lerancia de error menor a 10−5 , para ello hacemos uso de (1.46), donde:

2
λ= , y si x0 = −0.5 ⇒ x1 = g(x0 ) ≈ 0.224,
5

por tanto:

10−5 (1 − λ)
 
log
|x1 − x0 |
n> = 12.8,
log(λ)

es decir, si tomamos n = 13 garantizamos la tolerancia de error pedida.


Si cambiamos el punto inicial a x0 = 0.5, se tiene que: x1 = g(x0 ) ≈ 0.224,
por tanto: n > 11.7, es decir, si tomamos n = 12 iteraciones garantizamos la
tolerancia de error pedida.
La Tabla 1.10 muestra los resultados después de aplicar el método de Punto
Fijo para g, los cálculos se han hecho hasta el número de iteraciones estimado
para cada punto inicial x0 .
38CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES


x2 + 1
Tabla 1.10: Mét. punto fijo para f (x) = − x.
5
i xi g(xi ) f (xi ) xi g(xi ) f (xi )
0 -0.500000 0.223607 0.723607 0.500000 0.223607 -0.276393
1 0.223607 0.204939 -0.018668 0.223607 0.204939 -0.018668
2 0.204939 0.204157 -0.000782 0.204939 0.204157 -0.000782
3 0.204157 0.204125 -0.000031 0.204157 0.204125 -0.000031
4 0.204125 0.204124 -0.000001 0.204125 0.204124 -0.000001
5 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
6 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
7 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
8 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
9 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
10 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
11 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
12 0.204124 0.204124 0.000000 0.204124 0.204124 0.000000
13 0.204124 0.204124 0.000000

Podemos observar que en ambos casos se cumple que |x6 − x5 | < 10−5 , es
decir, se alcanzó la tolerancia pedida mucho antes del valor estimado para el
número de iteraciones n.

Ejemplo 1.5.3. ¿Cuántas iteraciones serán necesarias para aproximar una


raı́z de la función f (x) = x2 − e−x con una tolerancia de error menor a 10−5 ?.
Resolución:
Veamos primero √ si la función f tiene al menos una raı́z. Para ello, conside-
remos g(x) = e−x definida en el intervalo [0, 1]. En este intervalo se tiene:

0≤ e−1 ≤ g(x) ≤ 1

es decir, se cumple: g(x) ⊂ [0, 1] para todo x ∈ [0, 1].


Además:

e−x 1
|g 0 (x)| = ≤ < 1 para todo x ∈ h0, 1i.

2 2

Entonces, por el Teorema 1.8 podemos concluir que existe un único punto
fijo x̂ de la función g en el intervalo [0, 1] y por tanto, x̂ será también la única
raı́z de f en el mismo intervalo.
1.5. MÉTODO DEL PUNTO FIJO 39

El número de iteraciones necesarias para alcanzar una tolerancia de error


menor a 10−5 , se calcula usando (1.46), donde:

1 √
λ= , y si x0 = 0 ⇒ x1 = g(x0 ) = ex0 ≈ 0.7788,
2

por tanto:

n > 15.77,

es decir, si tomamos n = 16 garantizamos la tolerancia de error pedida.


La Tabla 1.11 muestra los resultados después de aplicar el método de Punto
Fijo para g, los cálculos se han hecho hasta el número de iteraciones estimado
para cada punto inicial x0 .

Tabla 1.11: Mét. punto fijo para f (x) = x2 − e−x .


i xi g(xi ) f (xi )
1 0.50000000 0.77880078 0.27880078
2 0.77880078 0.67746297 0.10133782
3 0.67746297 0.71267379 0.03521082
4 0.71267379 0.70023667 0.01243711
5 0.70023667 0.70460470 0.00436803
6 0.70460470 0.70306752 0.00153719
7 0.70306752 0.70360810 0.00054058
8 0.70360810 0.70341794 0.00019015
9 0.70341794 0.70348483 0.00006688
10 0.70348483 0.70346130 0.00002352
11 0.70346130 0.70346958 0.00000827
12 0.70346958 0.70346667 0.00000291
13 0.70346667 0.70346769 0.00000102
14 0.70346769 0.70346733 0.00000036
15 0.70346733 0.70346746 0.00000013
16 0.70346746 0.70346741 0.00000004

Observar que |x12 − x11 | < 10−5 .


40CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

1.6. Métodos para sistemas de ecuaciones no


lineales
En esta sección vamos a considerar el siguiente sistema de ecuaciones no
lineales
f1 (x1 , . . . , xn ) = 0,
f2 (x1 , . . . , xn ) = 0,
.. (1.47)
.
fn (x1 , . . . , xn ) = 0.
Considerando ahora la notación vectorial, sea F : Rn → Rn definido por
F (x) = (f1 (x), f2 (x), . . . fn (x)).
Entonces, el problema ahora es encontrar x̂ ∈ Rn tal que
F (x̂) = 0. (1.48)
Para aproximar el valor exacto de x̂ haremos uso de dos métodos numéricos
clásicos que describiremos a continuación.

1.6.1. Método de Newton


Este método hace uso del polinomio de Taylor para varias variables

1.6.2. Método del punto fijo

1.7. Ejercicios
1. Utilice el método de Punto Fijo para determinar una aproximación con
un error absoluto inferior a 5×10−5 , del único cero de la función
f (x) = 1 + x + exp(x) = 0
que se sabe está en el intervalo [−2, −1].
2. Localice gráficamente las raı́ces de f (x) = 0, siendo f (x) =| x |
− exp(x). Use el método de Bisección para determinar un valor apro-
ximado para los ceros de f con un error que no exceda a 0.15.
3. Aplique el método de Newton a f (x) = x2 −q (donde q > 0). Demuestre
que si xn tiene después del punto decimal k dı́gitos correctos, entonces
xn+1 tendrá después del punto decimal al menos 2k−1 dı́gitos correctos,
con tal que q > 0.006 y k ≥ 1.
1.7. EJERCICIOS 41

4. En el método de la Secante demuestre que si xn → q conforme n → ∞


y si f 0 (q) 6= 0, entonces q es un cero de f .

5. Aproxime la solución para el sistema de ecuaciones no lineales siguien-


tes:
 x + 1 ln(x x ) − 2 = 0

1 1 2
2
x1 x22 + 5x2 − 3 = 0

con un error menor a 10−5 .

6. Compare el número de iteraciones que realizan el Método de la Bi-


sección, el Método de la Regla Falsa y el Método de la Regla Falsa
Modificada al ser aplicadas a las siguientes funciones, [2]:

a) f (x) = x2 − (1 − n)n , n = 1, 2, 3, . . ..
b) f (x) = (1 + (1 − n) )x − (1 − nx)2 ,
2
n = 1, 2, 3, . . ..

Use n = 2, 5, 15, 20.

7. Localice gráficamente los ceros de las siguientes funciones

a) f (x) = 4cos(x) − c) f (x) = 1 − e) f (x) = x3 + x −


exp(2x). x ln(x). 1000.
b) f (x) = x/2 −
tan(x). d ) f (x) = 2x − 3x. f ) f (x) = x2 − e−x .

8. Determine con un error absoluto menor de 0.001 la solución de la ecua-


ción x − cos(x) = 0.

9. Considere la función f (x) = x2 /2 + x(ln(x) − 1). Obtener los puntos


crı́ticos con el auxilio del método de las secantes.

10. Considere la ecuación f (x) = 4x3 + 3x − 1 = 0. Intente obtener una


raı́z real de la ecuación usando el método de las secantes. Use x0 = 0 y
x1 = 1 como estimativas iniciales de la raı́z buscada. Haga 5 iteraciones
de forma ordenada.

11. Considere la ecuación f (x) = 2x4 + 3x2 − 10 = 0. Realice 3 iteraciones


del método de las secantes iniciando en x0 = 0.5 y x1 = 1.2.

12. Use el método de Newton para obtener la menor raı́z positiva de las
siguientes ecuaciones:
42CAPÍTULO 1. BÚSQUEDA DE RAÍCES EN ECUACIONES NO LINEALES

a) x/2 − tan(x) = 0.
b) 2cos(x) − exp(x)/2 = 0.
c) x5 − 6 = 0.
13. Usando el método de Regula Falsi resuelva la ecuación x + tan(x) = 0
partiendo del intervalo [1.9, 2.1] iterando hasta que la solución tenga
una precisión de 0.001. Repetir el cálculo pero usando el método de
Newton partiendo de x = 1.7 hasta alcanzar una precisión de 0.0001.
14. Considere la ecuación 2x − cos(x) = 3. Se pide
a) Demostrar que esta ecuación tiene una sóla raı́z.
b) Determinar el valor de la raı́z mediante el método de Newton-
Raphson, partiendo del punto x = 0 y haciendo las iteraciones
necesarias para que el error sea menor que 0.0001.
15. Considere la función f (x) = exp(x) − 4x2 . Se pide:
a) Localizar graficamente las raı́ces de la función f .
b) Considere el intervalo I = [−1, 5]. Realizar dos iteraciones del
método de la bisección y escoja el punto medio del último intervalo
obtenido como aproximación inicial para el método de Newton.
Aplique el método de Newton hasta alcanzar una precisión de
10−2 . Comparando con la localización de los zeros realizada en el
item anterior, identifique cual raı́z fue obtenida en este proceso y
justifique por que la convergencia fue para esta raı́z.
16. Aplique el método de Newton-Raphson a la ecuación x3 −2x2 −3x+10 =
0 con x0 = 1.9. Justifique los resultados obtenidos.
17. El valor de π puede ser obtenido como solución de las siguientes ecua-
ciones sin(x) = 0 y cos(x) + 1 = 0.
a) Aplique el método de Newton con x0 = 3 y precisión 10−2 en cada
caso y compare los resultados. Justifique los resultados obtenidos.
b) ¿Puede aplicarse el método de la bisección en la resolución de la
ecuación cos(x) + 1 = 0 para obtener el valor de π?.
18. Use el método del punto fijo para encontrar una raı́z de f (x) = x3 +
4x2 − 10 en el intervalo [1, 2].
19. Use el método del punto fijo para encontrar una raı́z de f (x) = x −
x4/5 − 2.
Capı́tulo 2

Interpolación polinomial

Dada una función continua f para la cual sólo conocemos su valor yi para
n + 1 puntos discretos xi , es decir:

f (xi ) = yi , i = 0, 1, 2, ..., n. (2.1)

El objetivo de este capı́tulo es encontrar un polinomio Pn de grado n y esta-


blecer condiciones para la función f tal que se cumpla la siguiente condición
de interpolación, es decir:

Pn (xi ) = f (xi ), i = 0, 1, 2, ..., n. (2.2)

Como primer paso es garantizar la existencia del polinomio Pn , el cual, en


forma general tiene la forma:

Pn (x) = a0 + a1 x + a2 x2 + ... + an xn (2.3)

Como Pn debe de satisfacer (2.2), entonces:

a0 + a1 xi + a2 x2i + ... + an xni = f (xi ), i = 0, 1, 2, ..., n. (2.4)

El conjunto de ecuaciones dado por (2.4) al ser escrito de forma matricial


queda como sigue:
   
  a0 f (x0 )
1 x0 x20
··· x30 xn0  a1   f (x1 ) 
 1 x1 x21
··· x31 xn1    

 ..

 a2 =
  f (x2 ) 
 (2.5)
 .  ..   .. 
. .
2
1 xn xn xn · · · xnn
3
   
an f (xn )

43
44 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

donde observamos que la matriz asociada al sistema lineal (2.5) es conocida


como matriz de Vandermonde, cuyo determinante se calcula como:

1 x0 x2 x 3 · · · xn
0 0 0
1 x1 x2 x3 · · · xn
1 1 1
= (2.6)

..
.
1 xn x2n x3n · · · xnn

podemos observar que para garantizar la existencia y unicidad del polinomio


Pn es necesario y suficiente que los n + 1 puntos xi (i = 0, 1, 2, ..., n) sean
todos distintos, lo cual será considerado de ahora en adelante salvo se
mencione explı́citamente lo contrario.
Una vez garantizada la existencia y unicidad del polinomio Pn , ahora llamado
Polinomio de interpolación, procedemos a estudiar algunos métodos que
nos permiten calcularlo.

2.1. Método de coeficientes indeterminados


2.2. Método de Lagrange
Este método fue desarrollado por Lagrange () el cual consiste primero en
definir los llamados polinomios de Lagrange dados por:
n
Y (x − xj )
Li (x) = (2.7)
j=0
(xi − xj )
j6=i

es fácil observar que todas las Li (i = 0, 1, ..., n) cumplen las siguientes pro-
piedades:
Cada Li es un polinomio de grado n.

1, i = j
Li (xj ) =
0, i 6= j
Calculadas todas las Li , definimos:
n
X
Pn (x) = f (x0 )L0 (x) + · · · + f (xn )Ln (x) = f (xj )Lj (x). (2.8)
j=0

De la forma como es construido el polinomio Pn dado en (2.8), puede obser-


varse que satisface la condición de interpolación dado en (2.2). Por tanto, Pn
es el polinomio de interpolación dado en la forma de Lagrange.
2.2. MÉTODO DE LAGRANGE 45

Ejemplo 2.2.1. Dados los puntos (−1, 1), (2, −1), (0, −1). Calcule el poli-
nomio de interpolación en la forma de Lagrange.
Resolución:
Dados los 3 puntos, procedemos a calcular L0 , L1 y L2 según (2.7):

(x − 2)(x − 0) (x − 2)x
L0 (x) = =
(−1 − 2)(−1 − 0) 3
(x + 1)(x − 0) (x + 1)x
L1 (x) = =
(2 + 1)(2 − 0) 6
(x + 1)(x − 2) (x + 1)(x − 2)
L2 (x) = =−
(0 + 1)(0 − 2) 2

luego, el polinomio de interpolación en la forma de Lagrange (2.8) viene dado


por:

P2 (x) = f (x0 )L0 (x) + f (x1 )L1 (x) + f (x2 )L2 (x)

P2 (x) = L0 (x) − L1 (x) − L2 (x)

(x − 2)x (x + 1)x (x + 1)(x − 2)


P2 (x) = − +
3 6 2

La Figura 2.1 muestra los puntos dados con el polinomio de interpolación


P2 (x).
46 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Figura 2.1: P2 (x) vs f (xi )

Dados los puntos (x0 , f (x0 )), ..., (xn , f (xn )) es relativamente fácil calcular
Pn en la forma de Lagrange, pero, ¿qué sucede si agregamos a los puntos ini-
ciales el punto (xn+1 , f (xn + 1))?. Ante esta situación, el método de Lagrange
no es ventajoso, porque tenemos que rehacer todos los cálculos para obtener
el polinomio Pn+1 . El método de Newton, descrito en la siguiente sección,
resuelve este problema.

2.3. Método de Newton


Dados los puntos {(xi , yi )}ni=0 y construimos el polinomio de interpolación
Pn . A este conjunto de puntos vamos a agregar un nuevo punto (xn+1 , yn+1 )
y deseamos calcular el polinomio de interpolación Pn+1 aprovechando que ya
conocemos Pn .
Dado que Pn+1 es de grado n + 1 y Pn es de grado n, luego se cumple:

Pn+1 (x) = Pn (x) + Qn+1 (x) (2.9)


2.3. MÉTODO DE NEWTON 47

para algún polinomio Qn+1 de grado n+1. Reemplazando x = xi (i = 0, ..., n)


en (2.9), se obtiene:

Pn+1 (xi ) = Pn (xi ) + Qn+1 (xi ) ⇒ Qn+1 (xi ) = 0. (2.10)

Es decir, (2.10) nos dice que x0 , x1 , ..., xn son las n + 1 raı́ces del polinomio
Qn+1 . Por tanto:
Qn+1 (x) = an+1 θn+1 (x) (2.11)
para alguna constante an+1 ∈ R y donde

θn+1 (x) = (x − x0 )(x − x1 )...(x − xn ).

Reemplazamos en (2.10) para x = xn+1 y obtenemos:

yn+1 = Pn (xn+1 ) + an+1 θn+1 (xn+1 )

de ahı́:
yn+1 − Pn (xn+1 )
an+1 = (2.12)
θn+1 (xn+1 )

Ejemplo 2.3.1. Para los puntos (−1, 1), (2, −1), (0, −1) del ejemplo ante-
rior, calcule el nuevo polinomio de interpolación después de agregar el punto
(−2, −2).
Resolución:
Procedemos de la forma siguiente:
Para (x0 , y0 ), definimos P0 (x) = y0 = 1.

Para (x0 , y0 ), (x1 , y1 ) calculamos


y1 − P0 (x1 ) 2
a1 = =− ,
(x1 − x0 ) 3
luego:
2
P1 (x) = P0 (x) + a1 (x − x0 ) = 1 − (x + 1).
3
Para (x0 , y0 ), (x1 , y1 ), (x2 , y2 ) calculamos
y2 − P1 (x2 ) 2
a2 = = ,
(x2 − x1 )(x2 − x0 ) 3
luego:
2 2
P2 (x) = P1 (x) + a2 (x − x0 )(x − x1 ) = 1 − (x + 1) + (x + 1)(x − 2).
3 3
48 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Para (x0 , y0 ), (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) calculamos


y3 − P2 (x3 ) 19
a3 = = ,
(x3 − x2 )(x3 − x1 )(x3 − x0 ) 24
luego:
P3 (x) = P2 (x) + a3 (x − x0 )(x − x1 )(x − x2 )

2 2 19
P3 (x) = 1 − (x + 1) + (x + 1)(x − 2) + (x + 1)(x − 2)x.
3 3 24
Los resultados pueden observarse en la Figura 2.2.

Figura 2.2: yi vs P3 (x)

2.4. Método de Diferencias Divididas


El valor de an+1 dado en (2.12) es llamada Fórmula de diferencia
dividida de orden n + 1 y es denotada por
f [x0 , x1 , ..., xn , xn+1 ] := an+1 (2.13)
2.4. MÉTODO DE DIFERENCIAS DIVIDIDAS 49

y por convención se acepta que:

f [x0 , x0 ] := a0 = y0 (2.14)

Ası́, el polinomio de interpolación en la forma de Newton puede ser escrito


como sigue:
n+1
X i−1
Y
Pn+1 (x) = f [x0 , x0 ] + ai (x − xj ) (2.15)
i=1 j=0

y usando la notación (2.13) se tiene:


n+1
X i−1
Y
Pn+1 (x) = f [x0 , x0 ] + f [x0 , ..., xi ] (x − xj ) (2.16)
i=1 j=0

Una ventaja de la notación usada en (2.13) es que permite obtener cada


coeficiente dado en (2.16) de una forma práctica, que mostraremos a conti-
nuación:
Consideremos los puntos:

(xi , yi ), (xi+1 , yi+1 ), · · · (xi+n , yi+n ), (xi+n+1 , yi+n+1 ), (2.17)

y consideremos los polinomios siguientes:

Pn interpola a (xi , yi ), (xi+1 , yi+1 ), · · · (xi+n , yi+n ),

es decir
Pn (xi+j ) = yi+j j = 0, 1, 2, ..., n
Qn interpola a (xi+1 , yi+1 ), · · · (xi+n , yi+n ), (xi+n+1 , yi+n+1 ),
es decir
Qn (xi+j ) = yi+j j = 1, 2, 3, ..., n + 1.
Por tanto, de (2.16) los polinomios Pn y Qn tienen la siguiente forma:
n
X
Pn (x) = f [xi , xi ] + f [xi , xi+1 , ..., xi+j ](x − xi )...(x − xi+j−1 ) (2.18)
j=1

n+1
X
Qn (x) = f [xi+1 , xi+1 ] + f [xi+1 , xi+2 , ..., xi+j ](x − xi+1 )...(x − xi+j−1 )
j=2
(2.19)
50 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Ahora, a partir de (2.18) y (2.19) construimos un polinomio Hn+1 de grado


n + 1 que interpola a todos los puntos dados en (2.17), el cual es dado por
xi+n+1 − x x − xi
Hn+1 (x) = Pk (x) + Qk (x) (2.20)
xi+n+1 − xi xi+n+1 − xi
De la unicidad del polinomio de interpolación y usando nuevamente (2.16),
el polinomio Hn+1 también puede ser escrito como:
n+1
X
Hn+1 (x) = f [xi , xi ] + f [xi , xi+1 , ..., xi+j ](x − xi )(x − xi+1 )...(x − xi+j−1 )
j=1
(2.21)
procedemos a igualar los coeficientes de grado n + 1 en las expresiones de
Hn+1 dadas en (2.20) y (2.21), obteniendo la diferencia dividida de orden
n + 1 del modo siguiente:
f [xi+1 , xi+2 , ..., xi+n+1 ] − f [xi , xi+1 , ..., xi+n ]
f [xi , xi+1 , ..., xi+n+1 ] = (2.22)
xi+n+1 − xi
Por simplicidad, consideremos los puntos (xi , yi ), (xi+1 , yi+1 ), (xi+2 , yi+2 ) y
(xi+3 , yi+3 ), podemos representar la expresión dada en (2.22) en una forma
más práctica en la siguiente tabla:

∆(0) ∆(1) ∆(2) ∆(3)

xi yi

xi+1 yi+1 f [xi , xi+1 ]

xi+2 yi+2 f [xi+1 , xi+2 ] f [xi , xi+1 , xi+2 ]

xi+3 yi+3 f [xi+2 , xi+3 ] f [xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 ]

Figura 2.3: Tabla de diferencias divididas.

donde cada ∆(j) , (j = 1, 2, 3) representa la diferencia dividida de orden j.


Luego, el polinomio de interpolación en la forma de Newton es:
P3 (x) = f [xi , xi ]+f [xi , xi+1 ](x−xi )+f [xi , xi+1 , xi+2 ](x−xi )(x−xi+1 )+f [xi , xi+1 , xi+2 , xi+3 ](x−

Ejemplo 2.4.1. Considere los puntos (1, 1/2), (0, −1/2), (3/2, 1) y (2, 2).
Use el método de diferencias divididas para calcular el polinomio de interpo-
lación en la forma de Newton.
2.4. MÉTODO DE DIFERENCIAS DIVIDIDAS 51

Resolución:
Construimos la tabla según la Figura 2.3:

∆(0) ∆(1) ∆(2) ∆(3)

1
1
2

1
0 − 1
2

2 9 15
1 −
3 4 4

3 3
2 2 − 3
4 4

Figura 2.4: Tabla de diferencias divididas para el ejemplo dado.

De la Figura 2.4 podemos construir el polinomio de interpolación en la


forma de Newton, dado por:

 
1 15 2
P3 (x) = + (x − 1) − (x − 1)x + 3(x − 1)x x − .
2 4 3

La Figura 2.5 muestra el polinomio de interpolación P3 con los puntos dados.


52 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Figura 2.5: Polinomio de interpolación por diferencias divididas.

Una ventaja del método de diferencias divididas es que nos permite en-
contrar también el polinomio de interpolación para un subconjunto de los
puntos dados, por ejemplo, a partir de la Figura 2.4 podemos obtener el poli-
nomio de interpolación P2 para los puntos (0, −1/2), (2/3, 1) y (2, 2), el cual
es dado por:

 
1 9 3 2
P2 (x) = − + x − x x − .
2 4 4 3
2.5. ANÁLISIS DE ERROR 53

Figura 2.6: Diferencias divididas para un subconjunto de puntos.

2.5. Análisis de error


Dados los puntos (x0 , y0 ), (x1 , y1 ), ..., (xn , yn ), vamos a suponer que los
valores yi (i = 0, ..., n) son imágenes de cada xi para alguna función continua
f , es decir:
yi = f (xi ) para todo i = 0, 1, ..., n.
Por los puntos dados, podemos construir un polinomio de interpolación Pn
que satisface:
Pn (xi ) = yi .
Ahora, dado un punto x tal que x 6= xi para todo i = 0, 1, ..., n y:
a := mı́n {xi } ≤ x ≤ máx {xi } =: b
i=1,...,n i=1,...,n

y al aproximar el valor f (x) usando Pn es lógico que se comete un error. La


pregunta es, se puede saber que tan buena es la aproximación? es decir, qué
se puede decir del error:
E(x) = f (x) − Pn (x) (2.23)
54 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

Para responder esta pregunta, fijando x definamos g : [a, b] → R como sigue:

θn+1 (t)
g(t) = f (t) − Pn (t) − [f (x) − Pn (x)] (2.24)
θn+1 (x)

donde
θn+1 (t) = (t − x0 )(t − x1 )...(t − xn−1 )(t − xn ).
Observemos que si t = xi (i = 0, 1, 2, ..., n) en (2.24), entonces g(xi ) = 0. Ası́
mismo, si t = x, también implica g(x) = 0. Es decir, {x0 , ..., xn , x} son n + 2
raı́ces de la función g.
Luego, exigiendo que f sea n+1 veces derivable, podemos aplicar el Teorema
de Rolle continuamente y obtenemos que existe ξ ∈ (a, b) tal que

g (n+1) (ξ) = 0.

Ası́, a partir de (2.24) se tiene:

(n + 1)!
g (n+1) (t) = f (n+1) (t) − E(x)
θn+1 (x)

Por tanto:
(n + 1)!
g (n+1) (ξ) = f (n+1) (ξ) − E(x) = 0
θn+1 (x)
lo que implica
f (n+1) (ξ)
E(x) = θn+1 (x) (2.25)
(n + 1)!
La relación dada en (2.25) nos da una expresión para el error que se comete
en algún punto x ∈ (a, b). Observar que E(xi ) = 0 para todo i = 0, 1, ..., n.
x8 3cos(2x)
Ejemplo 2.5.1. Sea f (x) = − . Calcule una cota del error
84 8
cuando se aproxima f (0.65) cuando se considera 5 puntos uniformemente
espaciados en [0, 1].
Resolución:
Consideremos la partición uniforme:

x0 = 0, x1 = 0.25, x2 = 0.5, x3 = 0.75, x4 = 1.

Es decir, n = 4, luego, el error (2.25) viene dado por:

f (v) (ξ)
E(x) = (x − x0 )(x − x1 )(x − x2 )(x − x3 )(x − x4 )
5!
2.5. ANÁLISIS DE ERROR 55

para algún ξ ∈ (0, 1).


Calculando f (v) se obtiene:
f (v) (x) = 12sen(2x) + 80x3 , para todo x ∈ [0, 1].
Luego:
|f (v) (x)| ≤ 92,
por tanto:
(v)
f (ξ)
|E(x)| = (x − x0 )(x − x1 )(x − x2 )(x − x3 )(x − x4 )
5!
92
|E(0.65)| ≤ |(0.65)(0.40)(0.15)(−0.15)(−0.35)| = 0.0016.
120
El polinomio de interpolación P4 es:
       
3 1 1 1 1 1
P4 (x) = − +0.1836x+0.6450x x − −0.3191x x − x− −0.0505x x − x− x
8 4 4 2 4 2
Luego, los valores son:
f (0.65) = −0.0999327, P4 (0.65) = −0.1002010
por tanto, el error exacto es:
|E(0.65)| = |f (0.65) − P4 (0.65)| = 0.0002683 < 0.0016.
La Figura 2.7 compara los valores de f y P4 para los puntos de la partición
considerada.

Figura 2.7: Análisis de error.


56 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL

En la Figura 2.7 podemos observar la buena aproximación de P4 en rela-


ción a f dentro del intervalo de interpolación [0, 1] y tal vez nos hace suponer
que la aproximación mejorará conforme aumentemos el número de puntos en
la partición. En la siguiente sección mostramos un ejemplo en el cual obser-
varemos que nuestra suposición está errada.

2.6. Fenómeno Runge

Consideremos la función siguiente:

1
f (x) = , para todo x ∈ [−1, 1]. (2.26)
1 + 25x2

Consideremos también una partición regular en el intervalo [−1, 1]

−1 = x0 < x1 < · · · < xn−1 < xn = 1 (n es impar). (2.27)

La Figura 2.8 muestra la gráfica de la función f comparándola con los poli-


nomios de interpolación P5 , P9 y P11 . Podemos observar que la aproximación
en los extremos del intervalo cada vez empeora conforme aumenta el valor
del grado del polinomio de interpolación. En general, se prueba que:

 
lı́m máx |f (x) − Pn (x)| = ∞. (2.28)
n→∞ −1≤x≤1
2.6. FENÓMENO RUNGE 57

0.8

0.6

0.4

0.2

−0.2

−0.4
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

Figura 2.8: Fenómeno Runge.


58 CAPÍTULO 2. INTERPOLACIÓN POLINOMIAL
Capı́tulo 3

Integración Numérica

Es bien conocido el Teorema Fundamental del Cálculo, el cual establece


que:
Teorema 3.1 Sea f : [a, b] → R una función continua. Luego:
Si definimos F : [a, b] → R como sigue:
Z x
F (x) = f (t) dt,
a

entonces se cumple que

F 0 (x) = f (x) para todo x ∈ [a, b].

Tal función F es llamada primitiva o antiderivada de la función f .


Si una función G es una primitiva de f en [a, b], entonces:
Z b
f (x) dx = G(b) − G(a).
a

Por tanto, dada f : [a, b] → R una función continua, para calcular


Z b
f (x) dx (3.1)
a

el Teorema 3.1 establece que sólo es necesario hallar una primitiva G de


la función f . En la práctica, hallar la función G no siempre es posible, es
conocido que para ciertas funciones f es imposible hallar una primitiva y ası́
no es posible usar el Teorema 3.1.
Nuestro objetivo en el presente capı́tulo será aproximar el valor de la integral
dada en (3.1).

59
60 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

3.1. Método del Trapecio


Para una función f que satisface las condiciones del Teorema 3.1 y que
además f (x) ≥ 0 para todo x ∈ [a, b], sabemos que la integral dada en (3.1)
viene dada por el área bajo la curva de f . Esta área puede ser aproximada
intuitivamente por el área del trapecio tal y como se muestra en la Figura
3.1, es decir Z b  
f (a) + f (b)
f (x) dx ≈ (b − a) . (3.2)
a 2

Figura 3.1: Área del trapecio bajo la gráfica de f .

En la siguiente sección obtendremos de forma analı́tica la expresión dada


en (3.2) con su respectivo término de error.

3.1.1. Simple
Siendo f : [a, b] → R una función continua y consideramos x0 = a, x1 = b.
Con la finalidad de utilizar interpolación polinomial, exigimos que f sea dos
veces derivable. Luego, se cumple
f (x) = P1 (x) + E1 (x) (3.3)
donde
(x − x0 )
P1 (x) = f0 + (f1 − f0 )
h
3.1. MÉTODO DEL TRAPECIO 61

y la expresión para el error viene dado por


f 00 (zx )
E1 (x) = (x − x0 )(x − x1 )dx
2
para algún zx ∈ hx0 , x1 i. Luego:
Z x1 x1  
(x − x0 )
Z
P1 (x)dx = f0 + (f1 − f0 )
x0 x0 h
(3.4)
h
= (f0 + f1 ),
2
Z x1
ET S = E1 (x) dx
x0
x1
f 00 (zx )
Z
= (x − x0 )(x − x1 ) dx
x0 2
(3.5)
f 00 (ξ) x1
Z
= (x − x0 )(x − x1 )dx
2 x0

f 00 (ξ) 3
= − h,
12
donde se ha observado que g(x) = (x − x0 )(x − x1 ) no cambia de signo para
todo x ∈ [x0 , x1 ], por tanto, para usar el teorema del valor medio para inte-
grales exigimos que f 00 sea continua en [x0 , x1 ] y ası́ obtenemos la expresión
para el error ET S.
Luego, integrando (3.3) y reemplazando en él los resultados obtenidos en
(3.4) y (3.5) se obtiene
Z x1
h f 00 (ξ) 3
f (x)dx = (f0 + f1 ) − h (3.6)
x0 2 12

luego, a partir de (3.6), se denomina método del trapecio simple para la


función f a la siguiente igualdad:
Z x1
h
f (x)dx ≈ M T S(f ) = (f0 + f1 ) (3.7)
x0 2

3.1.2. Compuesto
Es natural pensar que usar el método del trapecio simple para una función
f da en general aproximaciones muy alejadas del valor exacto de la integral,
como puede observarse en la Figura 3.1. Con el objetivo de mejorar la apro-
ximación, es natural pensar en considerar una partición regular del intervalo
62 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

[a, b], es decir, dado un número natural n se construyen n subintervalos del


modo siguiente:
a = x0 < x1 < ... < xn−1 < xn = b
xn − x0 b−a
donde h = = y xi = x0 + ih (i = 0, ..., n).
n n
Luego aplicamos el MTS en cada subintervalo Ii = [xi , xi+1 ], (i = 0, ..., n−1).
Veamos el procedimiento:
Z xn n−1 Z
X xi+1 n−1
X n−1
X
f (x)dx = f (x)dx = MTSi (f ) + ETSi
x0 i=0 xi i=0 i=0

donde
Z xi+1
h
MTSi (f ) = f (x) dx = (fi + fi+1 ), i = 0, ..., n − 1
xi 2

y el error total es
n−1 n−1 00
X X f (ξi )
ETC = ETSi = − h3 (3.8)
i=0 i=0
12

donde cada ξi ∈ Ii (i = 0, ..., n − 1).


El método del trapecio compuesto es definido como:
n−1 n−1
X X h
M T C(f ) = M T Si (f ) = (fi + fi+1 ) (3.9)
i=0 i=0
2

realizando la suma en (3.9), el método del trapecio compuesto queda


n−1
!
h X
M T C(f ) = f0 + 2 fi + fn (3.10)
2 i=1

A continuación vamos a analizar el error para el método del trapecio com-


puesto, ETC, con el objetivo de encontrar una forma más simple de acotar.
Sabemos que f 00 es continua en el intervalo cerrado y acotado [a, b], por tanto,
existen x∗ , x̂ ∈ [a, b] donde f 00 alcanza su mı́nimo y máximo respectivamente,
es decir
f 00 (x∗ ) ≤ f 00 (x) ≤ f 00 (x̂) para todo x ∈ [a, b] (3.11)
en particular, para ξi ∈ Ii ⊂ I, (i = 0, ..., n − 1) también se cumple

f 00 (x∗ ) ≤ f 00 (ξi ) ≤ f 00 (x̂) (3.12)


3.1. MÉTODO DEL TRAPECIO 63

sumando para i = 0, ..., n − 1 en (3.12) se obtiene


n−1
X
00 ∗
n f (x ) ≤ f 00 (ξi ) ≤ n f 00 (x̂) (3.13)
i=0

es decir
n−1
X
f 00 (ξi )
i=0
f 00 (x∗ ) ≤ ≤ f 00 (x̂)
n
dado que f 00 es una función continua en [a, b], entonces podemos aplicar el
Teorema del Valor Intermedio, es decir, existe ξ ∈ ha, bi tal que
n−1
X
f 00 (ξi )
i=0
f 00 (ξ) = (3.14)
n
Reemplazando adecuadamente (3.14) en la expresión para el error del método
del trapecio compuesto dado por (3.8), obtenemos
n−1 00
X f (ξi ) h3 00
ETC = − h3 = −n f (ξ) para algún ξ ∈ ha, bi. (3.15)
i=0
12 12

o de forma equivalente
h3 00 (b − a)3 00
ETC = −n f (ξ) = − f (ξ) para algún ξ ∈ ha, bi. (3.16)
12 12n2

Ejemplo 3.1.1. Aplice el MTS a la siguiente integral


Z e
x2 ln(x) dx.
1

Luego, estime el número de subintervalos n para alcanzar una aproximación


de 10−2 al usar el MTC.
Resolución:
Aplicando el MTS a f (x) = x2 ln(x) se tiene
0 + e2
   
f (1) + f (e)
M T S(f ) = (e − 1) = (e − 1) = 6.34824.
2 2
Ahora, para estimar el número de subintervalos n, debemos acotar f 00 según
lo sugiere la fórmula dada en (3.16). A partir de f obtenemos:
f 00 (x) = 2 ln(x) + 3
64 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

y como 1 ≤ x ≤ e, entonces

|f 00 (x)| ≤ 2 ln(e) + 3 = 5.

Por tanto, de (3.16) se obtiene


(e − 1)3 00 (e − 1)3

|ET C| = f (ξ) ≤ 5

12n2 12n2

y queremos una tolerancia de error de 10−2 , por tanto, exigimos que:


(e − 1)3

5 ≤ 10−2
12n2
de donde se obtiene
r
5 × 102 (e − 1)3
n≥ ≈ 14.53.
12
Por tanto, debemos tomar n = 15 como número de subintervalos para alcan-
zar la tolerancia pedida. La Tabla 3.1 muestra los cálculos respectivos.

Tabla 3.1: Resultados del MTC para f (x) = x2 ln(x).


i xi f (xi ) Peso Peso f (xi )
0 1.0000 0.00000000 1 0.00000000
1 1.1146 0.13472274 2 0.26944547
2 1.2291 0.31163516 2 0.62327032
3 1.3437 0.53330895 2 1.06661791
4 1.4582 0.80208584 2 1.60417169
5 1.5728 1.12011539 2 2.24023078
6 1.6873 1.48938419 2 2.97876839
7 1.8019 1.91173888 2 3.82347776
8 1.9164 2.38890456 2 4.77780912
9 2.0310 2.92249983 2 5.84499966
10 2.1455 3.51404919 2 7.02809838
11 2.2601 4.16499338 2 8.32998675
12 2.3746 4.87669810 2 9.75339620
13 2.4892 5.65046148 2 11.30092296
14 2.6037 6.48752041 2 12.97504082
15 2.7183 7.38905610 1 7.38905610
3.2. MÉTODO DE SIMPSON 65

De la Tabla 3.1 se obtiene

M T C(f ) = 4.58238800,

y realizando una simple integración por partes se puede obtener en este caso
el valor exacto de la integral, es decir
Z e
2e3 1
f (x) dx = + = 4.57456376,
1 9 9

por tanto, se puede calcular el error exacto


Z e

|ET C| = f (x) dx − M T C(f ) = 0.00782 < 0.01.
1

3.2. Método de Simpson


En la sección anterior, hemos usado interpolación polinomial con dos
puntos, a saber, los extremos del intervalo [a, b]. Con esos puntos hemos
deducido el método del trapecio simple para luego generalizar realizando una
partición regular de [a, b] y obtener ası́ el método del trapecio compuesto.
Siguiendo con esta idea, en el intervalo [a, b] consideramos los puntos

a+b
a = x0 < x1 = < x2 = b,
2
y definiendo h = x2 −x1 = x1 −x0 . Con los puntos x0 , x1 y x2 podemos aplicar
interpolación polinomial para obtener otro método de integración numérica,
que será descrito en la siguiente sección.

3.2.1. Simple
Dado que tenemos los puntos (x0 , f0 ), (x1 , f1 ) y (x2 , f2 ), usamos inter-
polación polinomial mediante el método de coeficientes indeterminados para
obtener P2 , polinomio de segundo grado, que se puede expresar de la siguiente
forma
P2 (x) = p + qx + rx2 (3.17)
que satisface

P2 (x0 ) = f0 , P2 (x1 ) = f1 , y P2 (x2 ) = f2 . (3.18)


66 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Se cumple

f (x) = P2 (x) + E(x) (3.19)

donde E(x) representa el error cometido en la interpolación. Integrando

Z x2 Z x2 Z x2
f (x) dx = P2 (x) dx + E(x) dx (3.20)
x0 x0 x0

Definimos el Método de Simpson simple para la función f a la siguiente


expresión
Z x2
M SS(f ) = P2 (x) dx. (3.21)
x0

lo cual es representado geométricamente en la Figura 3.2.

Figura 3.2: Área del trapecio bajo la gráfica de f .

Vamos a usar las relaciones dadas en (3.17) y (3.18) para encontrar una
3.2. MÉTODO DE SIMPSON 67

expresión de M SS(f ) dado en (3.21).


Z x2
M SS(f ) = P2 (x) dx
x0
 x
x2 x3 2

= px + q + r
2 3 x0
q r
= p(x2 − x0 ) + (x22 − x20 ) + (x32 − x30 )
2 3

(x2 − x0 )
= [6p + 3q(x2 + x0 ) + 2r(x22 + x2 x0 + x20 )]
6
(x2 − x0 )
= [(p + qx2 + rx22 ) + (p + qx0 + rx20 ) + 2q(x0 + x2 ) +
6
+ r(x22 + 2x2 x0 + x20 ) + 4p]
"    2 #
(x2 − x0 ) x0 + x2 x0 + x2
= f0 + f2 + 4q + 4r + 4p
6 2 2
(x2 − x0 )
= [f0 + f2 + 4(qx1 + rx21 + p)]
6
(x2 − x0 ) 2h
= [f0 + 4f1 + f2 ] = [f0 + 4f1 + f2 ]
6 6

Ası́ el Método de Simpson simple dado en (3.21) queda expresado de la


siguiente forma
h
M SS(f ) = [f0 + 4f1 + f2 ] (3.22)
3
La expresión del error en la interpolación viene dado por

f 000 (ξ)
ESS = (x − x0 )(x − x1 )(x − x2 ) (3.23)
6

A diferencia del método del trapecio simple, para el método de Simpson


simple no es simple determinar el error para la aproximación de la integral a
partir de (3.23). Para este objetivo vamos a usar otro método que pasamos
a describir a continuación. Primero consideramos el intervalo [−h, h] y la
68 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

siguiente función que describe el error para cada valor de h:


Z h
E(h) = f (x) dx − M SS(f )
−h
(3.24)
Z h
h
= f (x) dx − [f (−h) + 4f (0) + f (h)]
−h 3
A partir de (3.24) se calculan las derivadas de E que se muestran en la Tabla
3.2.

Tabla 3.2: Derivadas de la función de error E dada por (3.24)


Z h
h
E(h) = f (x) dx − [f (−h) + 4f (0) + f (h)]
−h 3
2 2 4 h
E 0 (h) = f (h) + f (−h) − f (0) − [−f 0 (−h) + f 0 (h)]
3 3 3 3
1 0 1 h
E 00 (h) = f (h) − f 0 (−h) − [f 00 (−h) + f 00 (h)]
3 3 3
h
E 000 (h) = − [−f 000 (−h) + f 000 (h)]
3
1 h
E (iv) (h) = − [−f 000 (−h) + f 000 (h)] − [f (iv) (−h) + f (iv) (h)]
3 3
2 2 h
E (v) (h) = − f (iv) (−h) − f (iv) (h) − [−f (v) (−h) + f (v) (h)]
3 3 3

De la Tabla 3.2 se observa que


E(0) = 0, E 0 (0) = 0, E 00 (0) = 0,
4 (3.25)
E 000 (0) = 0, E (iv) (0) = 0, E (v) (0) = − f (iv) (0).
3
Usando E (iv) de la Tabla 3.2 y acomodando como sigue
 000
f (h) − f 000 (−h)
  (iv)
f (h) + f (iv) (−h)

(iv) 2h
E (h) = − + (3.26)
3 2h 2
Exigiendo que f (iv) exista y sea continua en [−h, h], entonces podemos aplicar
el Teorema del Valor Medio y Teorema del Valor Intermedio en (3.26) para
garantizar la existencia de ξ1 , ξ2 ∈ h−h, hi tal que
2h (iv)
E (iv) (h) = − [f (ξ1 ) + f (iv) (ξ2 )] (3.27)
3
3.2. MÉTODO DE SIMPSON 69

acomodando de forma adecuada (3.27) con la finalidad de aplicar nuevamente


el Teorema del Valor Intermedio, se tiene
4h f (iv) (ξ1 ) + f (iv) (ξ2 )
 
(iv)
E (h) = − (3.28)
3 2

nuevamente, como f (iv) es continua, entonces en (3.28) existe ξ ∈ h−h, hi tal


que
4h
E (iv) (h) = − f (iv) (ξ) (3.29)
3
Ahora, integrando E (iv) de (3.29) y usando (3.25) se obtiene

f (iv) (ξ)h5
E(h) = − (3.30)
90
Por tanto, a partir de (3.19) junto a (3.21) y (3.30) se tiene la siguiente
igualdad
Z x2
h f (4) (ξ)h5
f (x) dx = [f (x0 ) + 4f (x1 ) + f (x2 )] − (3.31)
x0 3 90

3.2.2. Compuesto
De una forma análoga al método del trapecio compuesto, vamos a consi-
derar una partición regular del intervalo [a, b], es decir:

a = x0 < x1 < ... < xn−1 < xn = b,


b−a
donde h = . Dado que para aplicar el método de Simpson simple nece-
n
sitamos 3 puntos: xi−1 , xi , xi+1 , el número de intervalos n está restringido
a que sea un número natural par.
Veamos el procedimiento:
n n
Z xn 2 Z
X x2i 2
X
f (x)dx = f (x)dx = MSSi (f ) + ESC
x0 i=1 x2i−2 i=1

donde
Z x2i
h n
M SSi (f ) = f (x) dx = (f2i−2 + 4f2i−1 + f2i ), i = 1, ...,
x2i−2 3 2
n
2
X h5
ESC = − f (4) (ξi ) (3.32)
i=1
90
70 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

El Método de Simpson Compuesto es definido como:


n n
2 2
X X h
M SC(f ) = M SSi (f ) = (f2i−2 + 4f2i−1 + f2i ) (3.33)
i=1 i=1
3

realizando la suma en (3.33), el método de Simpson compuesto queda


 n n

2 2
−1
h X X
M SC(f ) = f0 + 4 f2i−1 + 2 f2i + fn  (3.34)
3 i=1 i=1

De un modo análogo para el análisis de error para el método del trapecio


compuesto, vamos a encontrar una forma más adecuada para el error para el
método de Simpson compuesto dado por (3.32).
Usando (3.30) y sabiendo que f (iv) es continua en el intervalo cerrado y
acotado [a, b], por tanto, existen x∗ , x̂ ∈ [a, b] donde f (iv) alcanza su mı́nimo
y máximo respectivamente, es decir

f (iv) (x∗ ) ≤ f (iv) (x) ≤ f (iv) (x̂) para todo x ∈ [a, b] (3.35)
n
en particular, para ξi ∈ [x2i−2 , x2i ] ⊂ [a, b], (i = 1, ..., ) también se cumple
2

f (iv) (x∗ ) ≤ f 00 (ξi ) ≤ f (iv) (x̂) (3.36)


n
sumando para i = 1, ..., en (3.36) se obtiene
2
n
2
n (iv) ∗ X n
f (x ) ≤ f (iv) (ξi ) ≤ f (iv) (x̂) (3.37)
2 i=1
2

es decir n
2
X
2 f (iv) (ξi )
i=1
f (iv) (x∗ ) ≤ ≤ f (iv) (x̂)
n
dado que f (iv) es una función continua en [a, b], entonces aplicamos de nuevo
el Teorema del Valor Intermedio, es decir, existe ξ ∈ ha, bi tal que
n
2
X
2 f (iv) (ξi )
i=1
f (iv) (ξ) = (3.38)
n
3.2. MÉTODO DE SIMPSON 71

Reemplazando adecuadamente (3.38) en la expresión dado por (3.32), obte-


nemos
n
2
X f (iv) (ξi ) h5 (iv)
ESC = − h5 = −n f (ξ) para algún ξ ∈ ha, bi. (3.39)
i=1
90 180
o de forma equivalente
h5 (iv) (b − a)5 (iv)
ESC = −n f (ξ) = − f (ξ) para algún ξ ∈ ha, bi. (3.40)
180 180n4
Ejemplo 3.2.1. Aplice el MSS a la siguiente integral
Z e
x2 ln(x) dx.
1
Luego, estime el número de subintervalos n para alcanzar una aproximación
de 10−2 al usar el MSC.
Resolución:
Aplicando el M SS a f (x) = x2 ln(x) se tiene
(e − 1)
M SS(f ) = (f (1) + 4f ((1 + e)/2) + f (e)) = 4.57135.
6
Ahora, para estimar el número de subintervalos n, debemos acotar f (iv) según
lo sugiere la fórmula dada en (3.40). A partir de f obtenemos:
2
f (iv) (x) = − ,
x2
y como 1 ≤ x ≤ e, entonces
|f (iv) (x)| ≤ M = 2.
Por tanto, de (3.40) se obtiene
(e − 1)5 (iv) (e − 1)5

|ESC| = f (ξ) ≤ M
180n4 180n4

y queremos una tolerancia de error de tol = 10−2 , por tanto, exigimos que:
(e − 1)5

M ≤ tol
180n4
de donde se obtiene
r
M (e − 1)5
4
n≥ ≈ 2.01980,
180 tol
ası́, debemos tomar n = 4 porque debe ser un número par.

La Tabla 3.3 muestra los cálculos respectivos.


72 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

Tabla 3.3: Resultados del MSC para f (x) = x2 ln(x).


i xi f (xi ) Peso Peso f (xi )
0 1.00000 0.00000 1 0.00000
1 1.42957 0.73036 4 2.92142
2 1.85914 2.14337 2 4.28673
3 2.28871 4.33717 4 17.34869
4 2.71828 7.38906 1 7.38906

De la Tabla 3.3 se obtiene


M SC(f ) = 4.57434,
y sabemos que el valor exacto de la integral es
Z e
2e3 1
f (x) dx = + = 4.57456,
1 9 9
por tanto, se puede calcular el error exacto
Z e

|ESC| = f (x) dx − M SC(f ) = 0.00023 < 0.01.
1

Z 2
Ejemplo 3.2.2. Determine el número de intervalos n para aproximar e2x sen(3x) dx
0
con una exactitud de 10−4 usando el método del trapecio compuesto y méto-
do de Simpson compuesto.
Resolución:
Sea f (x) = e2x sen(3x), luego:
f 0 (x) = e2x (2sen(3x) + 3cos(3x))
f 00 (x) = e2x (−5sen(3x) + 12cos(3x))
f 000 (x) = e2x (−46sen(3x) + 9cos(3x))
f (iv) (x) = e2x (−119sen(3x) − 120cos(3x))
Para el método del trapecio se tiene que:
b − a 2 00
ET (f ) = − h f (ξ) para algún ξ ∈ ha, bi.
12
Por tanto, debemos acotar f (00) (x) para todo 0 ≤ x ≤ 2. Por dato, obtenemos
lo siguiente:
p
|e2x | ≤ e4 , | − 5sen(3x) + 12cos(3x)| ≤ (5)2 + (12)2 ,
3.3. CUADRATURA GAUSSIANA 73

entonces:
|f (00) (x)| ≤ M
p
donde M = e4 (5)2 + (12)2 = 709.77595. Ahora, acotamos ET (f ), es decir:
22 (00) 2M

|ET (f )| = 2
f (ξ) ≤ 2 ≤ 10−4
12n2 3n
de donde obtenemos:
r
2M 104
n≥ = 2175.2792,
3
por tanto, para el método del trapecio tenemos que tomar n = 2176.
Para el método de Simpson compuesto, debemos acotar f (iv) (x) para todo
0 ≤ x ≤ 2. De esto, tenemos lo siguiente:
p
|e2x | ≤ e4 , | − 119sen(3x) − 120cos(3x)| ≤ (119)2 + (120)2 ,

entonces:
|f (iv) (x)| ≤ M
p
donde M = e4 (119)2 + (120)2 = 9227.0874. Ahora, acotamos ES(f ), es
decir:
24

8M
≤ 10−4
(iv)

|ES(f )| = 2

4
f (ξ) ≤
180n 45n4
de donde obtenemos:
r
4 8M 104
n≥ = 63.640785
45
por tanto, para el método de Simpson tenemos que n = 64.

3.3. Cuadratura Gaussiana


3.3.1. Polinomios Ortogonales
1. Polinomios de Legendre:
I = [−1, 1],
w(x) = 1,
L0 (x) = 1,
L1 (x) = x,
2n + 1 n
Ln+1 (x) = xLn (x) − Ln−1 (x) ∀n ≥ 1.
n+1 n+1
74 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA

2. Polinomios de Laguerre:
I = [0, ∞i,
w(x) = e−x ,
L0 (x) = 1,
L1 (x) = 1 − x,
(2n + 1 − x) n
Ln+1 (x) = Ln (x) − Ln−1 (x) ∀n ≥ 1.
n+1 n+1
3. Polinomios de Hermite:
I = h−∞, +∞i,
2
w(x) = e−x ,
H0 (x) = 1,
H1 (x) = 2x,
Hn+1 (x) = 2xHn (x) − 2nHn−1 (x) ∀n ≥ 1.

4. Polinomios de Tchebyshev de primera especie:


I = [−1, 1],
1
w(x) = √ ,
1 − x2
T0 (x) = 1,
T1 (x) = x,
Tn+1 (x) = 2xTn (x) − Tn−1 (x) ∀n ≥ 1.

3.4. Ejercicios Propuestos


1. Dados los siguientes puntos de una función y = f (x):

x 0 1 2 3 4
y 0.78 2.04 3.71 4.11 3.89
Z 4
determine un valor aproximado de la integral f (x)dx.
0

a) Por la regla del Trapecio


b) Por la regla de Simpson
2. Cuántos intervalos serán precisos para aproximar la integral con un
error menor que 5×10−4 , donde:
Z 2
exp(−x)
dx
1 x
3.4. EJERCICIOS PROPUESTOS 75

a) Por la regla del Trapecio


b) Por la regla de Simpson

3. Aproximar la integral: Z 1
4
dx
0 1 + x2
utilizando el método de Romberg, con una tolerancia de 5 × 10−9 y 20
iteraciones.
R1
4. Deduzca la fórmula de Newton - Cotes para 0 f (x) dx, usando po-
linomios de interpolación de Lagrange con nodos 0, 31 , 23 , 1. Use este
resultado para evaluar la integral cuando f (x) = sen(πx).

5. Encuentre la fórmula
Z 1
f (x) dx ≈ A0 f (0) + A1 f (1)
0

que resulta exacta para todas las funciones de la forma


πx
f (x) = a exp(x) + bcos( )
2
Z b
6. Determine la regla de integración para f (x) dx apoyándose en la
a
regla de cuadratura gaussiana:
Z 1
1 1
f (x) dx ≈ f (− √ ) + f ( √ )
−1 3 3
76 CAPÍTULO 3. INTEGRACIÓN NUMÉRICA
Capı́tulo 4

Sistemas de ecuaciones lineales

A continuación consideremos el siguiente sistema lineal:


    
a11 a12 · · · a1,n−1 a1,n x1 b1
 a21 a22 a2,n−1 a2,n   x2   b2
   
 
...   ..   ..
 .  = 
 

    . 

 an−1,1 an−1,2 an−1,n−1 an−1,n   xn−1   bn−1 
an,1 an,2 · · · an,n−1 an,n xn bn

que escrito en forma matricial:

Ax = b (4.1)

donde A ∈ Rn×n , x ∈ Rn y b ∈ Rn .

4.1. Métodos Directos


4.1.1. Eliminación Gaussiana
4.1.2. Factorización LU
Recordemos lo siguiente:
Una matriz L es llamada Triangular Inferior cuando tiene la forma:
 
a11 0 0 ··· 0 0
 a21 a22 0 0 0 
 
L=
 .. 
 . 

 an−1,1 an−1,2 an−1,3 · · · an−1,n−1 0 
an,1 an,2 an,3 · · · an,n−1 an,n

77
78 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

Una matriz U es llamada Triangular Superior cuando tiene la forma:


 
a11 a12 · · · a1,n−2 a1,n−1 a1,n
 0 a22 a2,n−2 a2,n−1 a2,n 
 
U =
 .
.. 

 
 0 0 0 an−1,n−1 an−1,n 
0 0 ··· 0 0 an,n

Consideremos la siguiente matriz


 
0 1
A= (4.2)
1 0

observamos que det(A) = −1 6= 0. Deseamos calcular L y U tal que A = LU ,


es decir
    
0 1 l11 0 u11 u12
A= = (4.3)
1 0 l21 l22 0 u22

De (4.3) obtenemos el siguiente sistema de ecuaciones:

0 = l11 u11 (4.4)


1 = l11 u12 (4.5)
1 = l21 u11 (4.6)
0 = l21 u12 + l22 u22 (4.7)

De (4.4) se obtiene:
l11 = 0 o u11 = 0.

Si l11 = 0 entonces contradecimos (4.5).


Si u11 = 0 entonces contradecimos (4.6).
Por tanto, podemos concluir que no existen matrices L y U tal que A = LU ,
a pesar que la matriz A es no singular.
El ejemplo anterior nos motiva a establecer condiciones sobre una matriz A
tal que pueda existir la factorización LU .
Antes de estudiar las técnicas que nos permitan calcular la factorización LU
de una matriz A, debemos saber primero qué condiciones debe cumplir la
matriz A para que exista la factorización LU .
4.1. MÉTODOS DIRECTOS 79

Factorización de Doolitle

Factorización de Crout

Factorización de Cholesky

4.1.3. Factorización QR
Processo de ortogonalización de Gram-Schmidt

Dados los vectores {v1 , v2 , ..., vn } linealmente independientes, el proceso


de ortogonalización de Gram-Schmidt permite construir los vectores {q1 , q2 , ..., qn }
que son ortonormales, del modo siguiente:

u1
u1 = v1 q1 =
||u1 ||
u2
u2 = v2 − hq1 , v2 iq1 q2 =
||u2 ||
u3
u3 = v3 − hq1 , v3 iq1 − hq2 , v3 iq2 q3 =
||u3 ||
.. ..
. .
un
un = vn − hq1 , vn iq1 − · · · − hqn−1 , vn iqn−1 qn =
||un ||
del sistema anterior podemos obtener:

v1 = ||u1 ||q1
v2 = ||u2 ||q2 + hq1 , v2 iq1
v3 = ||u3 ||q3 + hq1 , v3 iq1 + hq2 , v3 iq2
v4 = ||u4 ||q4 + hq1 , v4 iq1 + hq2 , v4 iq2 + hq3 , v4 iq3
..
.
n−1
X
vn = ||un ||qn + hqi , vn iqi
i=1

de donde reordenando adecuadamente se obtiene:

A = [v1 | v2 | v3 | v4 | · · · | vn ]

reemplazando las expresiones para cada columna vi (i = 1, 2, 3, ..., n):


" #
2
X n−1
X
A = ||u1 ||q1 ||u2 ||q2 + hq1 , v2 iq1 ||u ||q + hq i 3 i ···
, v iq ||un ||qn + hqi , vn iqi

3 3

i=1 i=1
80 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

que puede escribirse de la forma siguiente:

hq1 , v2 i hq1 , v3 i hq1 , vn−1 i


 
1 ···

||u1 || 0 ··· 0
 ||u1 || ||u1 || ||u1 || 
hq2 , v3 i hq2 , vn−1 i
 
 0 ||u2 || 0  0 1

 ||u2 || ||u2 ||

A = [q1 |q2 | · · · |qn ] 

. .  
| {z } .  0

0 1


Q
0 0 · · · ||un || 
 ..
.


0 0 0 ··· 1
| {z }
R

de esta forma hemos conseguido la factorización:

A = QR

donde Q es una matriz ortonormal (QT Q = I) e R es una matriz triangular


superior.
En la práctica se procede calcular Q calculándose {q1 , q2 , ..., qn } mediante el
proceso de Gram-Schmidt y luego calcular R = QT A.
Ejemplo 4.1.1. Considere el siguiente circuito:

2Ω ig 15 Ω

6Ω 12 Ω
I2

125 V + I1
20

5Ω 13 Ω
I3 i0

Figura 4.1: Circuito para las preguntas 3, 4 y 5.

Escribir un sistema lineal de 3 ecuaciones en función de I1 , I2 , I3 con el


objetivo de calcular ig e i0 .
Resolución:
4.1. MÉTODOS DIRECTOS 81

Usando la ley de Kirchof, se obtiene el siguiente sistema para el circuito


mostrado:     
13 −6 −5 I1 125
 −6 66 −20   I2  =  0  (4.8)
−5 −20 25 I3 0
Luego, usando el proceso de ortonormalización de Gram-Schmidt se tiene el
siguiente cuadro:
i ui   qi  
13 0.8571946
u1
1 u1 = v1 =  −6  q1 = =  −0.3956283 
||u1 ||
−5 −0.3296902
   
15.13913 0.2340525
u2
2 u2 = v2 − hq1 , v1 i =  56.243478  q2 = =  0.8695298 
||u2 ||
−28.130435 −0.4348993
   
5.8454677 0.4587339
u3
3 u3 = v3 − hq1 , v3 i − hq2 , v3 i =  3.7670792  q3 = =  0.2956285 
||u3 ||
10.677721 0.8379540

luego, las matrices Q y R son:


 
0.8571946 0.2340525 0.4587339
Q = [q1 | q2 | q3 ] =  −0.3956283 0.8695298 0.2956285 
−0.3296902 −0.4348993 0.8379540
 
15.165751 −24.66083 −4.6156633
R = QT A =  0 64.682637 −29.433341 
0 0 12.74261
Usando factorización QR el sistema Ax = b se convierte en Rx = b̂ = QT b,
es decir:
    
15.165751 −24.66083 −4.6156633 x1 107.14933
 0 64.682637 −29.433341   x2  =  29.256558 
0 0 12.74261 x3 57.341744
y luego procedemos por sustitución regresiva, es decir:
b̂3
x3 = = 4.5
R33
b̂2 − R23 x3
x2 = = 2.5
R22
b̂1 − R12 x2 − R13 x3
x1 = = 12.5
R11
82 CAPÍTULO 4. SISTEMAS DE ECUACIONES LINEALES

4.2. Métodos Indirectos


También llamados iterativos porque iniciando en un punto x0 ∈ Rn se
generan una secuencia de puntos xk que esperamos converjan a la solución
del sistema lineal dado en (4.1). Los métodos a estudiar están basados en el
método del punto fijo porque tienen la forma general siguiente:

x = Mx + d (4.9)

donde M es conocida como Matriz de iteración y d es llamado Vector de


iteración. Bajo condiciones adecuadas, el sistema (4.9) genera una secuencia
de puntos xk dados por
xk+1 = M xk + d (4.10)
que convergen a la solución del sistema lineal equivalente (4.1).

4.2.1. Método de Jacobi


4.2.2. Método de Gauss-Seidel
4.2.3. Método de relajación
Capı́tulo 5

Métodos numéricos para


problemas de valor inicial

Un Problema de Valor Inicial tiene la forma siguiente:


0
y (t) = f (t, y), t0 ≤ t ≤ T

y(t0 ) = y0 (5.1)

En este capı́tulo estudiaremos técnicas numéricas que permitan aproximar la


solución exacta de (5.1). Para este fin es necesario saber si (5.1) tiene solución
y si ésta es única. La teorı́a de ecuaciones diferenciales ordinarias establece el
siguiente Teorema de existencia y unicidad de solución para (5.1), conocido
como teorema de Picard, el cual establece que si las funciones f y ∂f ∂y
son
continuas en un rectángulo cerrado D del plano XY con lados paralelos a los
ejes, y el punto t0 es un punto interior de D, entonces existe un número real
positivo H con la propiedad de que el problema (5.1) tiene solución única en
el intervalo | t − t0 |≤ H.
Si se debilita la condición de que la derivada parcial de f respecto de y sea
continua en el rectángulo y se exige que satisfaga la desigualdad conocida
como condición de Lipschitz en la variable y :
| f (t, y1 ) − f (t, y2 ) ≤ K | y1 − y2 | (5.2)
en los puntos del recinto D, se consigue una versión más fuerte del teorema
de Picard, que se conoce como el teorema de Picard - Lindelöf cuyo
enunciado es como sigue: Si f es continua en t e y en el rectángulo cerrado
D definido por:
| t − t0 |≤ a, | y − y0 |≤ b
y existe una constante K (constante de Lipschitz) independiente de t, y1 e
y2 tal que si (t, y1 ), (t, y2 ) son puntos interiores de D se cumple que:
| f (t, y1 ) − f (t, y2 ) |≤ K | y1 − y2 | (5.3)

83
84CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

(condición de Lipschitz), entonces la ecuación diferencial (5.1) tiene solu-


ción única y(t) definida en un entorno del punto t0 (| t − t0 |≤ H), tal que
y(t0 ) = y0 , siendo H = mı́n( Mb , a) donde M es la cota superior en D de la
función f en D, es decir | f (t, y) |≤ M, ∀ (t, y) ∈ D.
Este valor de H define el entorno del punto x0 para el cual existe solución
única para el problema (5.1). H es una cantidad que debemos tener siem-
pre presente, pues de no hacerlo, sólo obtendremos resultados que no tienen
ningún sentido.
Con este objetivo, primero consideramos una partición regular del intervalo
[0, T ], es decir:

0 = t0 < t1 < ... < ti < ... < tn−1 < tn = T (5.4)
tn − t0
donde h = ti+1 − ti = para todo i = 0, 1, ..., n − 1.
n
Los métodos a estudiar están basados en el segundo teorema fundamental
del cálculo, del cual sabemos que se cumple:
Z ti+1
y 0 (x) dx = y(ti+1 ) − y(ti )
ti

de donde se obtiene:
Z ti+1
y(ti+1 ) = y(ti ) + y 0 (x) dx (5.5)
ti

De (5.5) concluimos que para conocer el valor de y(ti+1 ) es necesario co-


nocer el valor de y(ti ) y el valor de la integral. Del capı́tulo anterior, co-
nocemos técnicas numéricas que permiten aproximar el valor de la integral,
ası́, obtenemos valores aproximados para y(ti+1 ) que serán denotados por
yi+1 (i = 0, ..., n − 1). Además, usaremos la notación fi para representar el
valor f (ti , yi )
Una forma sencilla de aproximar la integral bajo la curva de f (t, y(t)) en el
intervalo [ti , ti+1 ] es considerar el área del rectángulo mostrado en la Figura
5.1 con altura fi , es decir:
Z ti+1
y 0 (x) dx ≈ (ti+1 − ti )fi
ti

Por tanto, la identidad (5.5) da la siguiente igualdad:

yi+1 = yi + hfi = yi + hf (ti , yi ) (5.6)

El método mostrado en (5.6) es llamado Método de Euler explı́cito.


85

Figura 5.1: Área del rectángulo con altura fi .

Nada nos impide considerar ahora el rectángulo considerado en la Figura


5.2 de altura fi+1 . Ası́, la identidad (5.5) da la siguiente igualdad:

yi+1 = yi + hfi+1 = yi + hf (ti+1 , yi+1 ) (5.7)

donde (5.7) es llamado Método de Euler implı́cito.


86CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

Figura 5.2: Área del rectángulo con altura fi+1 .

Es más, definiendo:

ti + ti+1
ti+ 1 = , yi+ 1 = y(ti+ 1 ), fi+ 1 = f (ti+ 1 , yi+ 1 )
2 2 2 2 2 2 2

Considerando la Figura 5.3:


5.1. MÉTODOS DE TAYLOR 87

Figura 5.3: Área del rectángulo con altura fi+ 1 .


2

obtenemos el siguiente esquema numérico:

yi+1 = yi + hfi+ 1 = yi + hf (ti+ 1 , yi+ 1 ) (5.8)


2 2 2

Hasta ahora, los métodos descritos por (5.6), (5.7) y (5.8) han sido obtenidos
de forma intuitiva y geométrica, basándonos en el hecho de que la integral de
una función positiva coincide con el área bajo la curva. Una deducción más
formal será presentada en la sección siguiente.

5.1. Métodos de Taylor


Sea I ⊂ R un intervalo abierto y f : I → R una función tal que existen
f 0 , f 00 , ..., f (n) y f (n+1) para algún entero positivo n. Dados x, x0 ∈ I, existe
s entre x y x0 tal que

f (t) = Pn,x0 (t) + Rn+1,x0 (t) (5.9)

donde Pn,x0 (t) es llamado polinomio de Taylor de orden n y viene dado


por

f (00) (x0 ) f (n) (x0 )


Pn,x0 (t) = f (x0 ) + f 0 (x0 )(t − x0 ) + (t − x0 )2 + ... + (t − x0 )n
2! n!
(5.10)
88CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

además
f (n+1) (s)
Rn+1,x0 (t) = (t − x0 )n+1 (5.11)
(n + 1)!
conocido como Resto en la forma de Lagrange.
Ejemplo 5.1.1.√ Construir la fórmula de Taylor para el polinomio de grado
4 de f (x) = 3 + x alrededor√del punto 1 y obtener una cota del error
cometido al aproximar el valor 5.
Resolución:
La fórmula de Taylor para el polinomipo de grado 4 alrededor del punto 1
viene dado por:
4
X f (i) (1)
P4 (x) = (x − 1)i
i=0
i!
Calculamos las derivadas:

f (x) = 3+x ⇒ f (1) = 2
1 1
f 0 (x) = √ ⇒ f 0 (1) =
2 3+x 4
1 1
f 00 (x) = − p ⇒ f 00 (1) = −
4 (3 + x)3 32
3 3
f 000 (x) = p ⇒ f 000 (1) =
8 (3 + x)5 256
15 15
f (iv) (x) = − p ⇒ f (iv) (1) = −
16 (3 + x)7 2048
105 105
f (v) (x) = p ⇒ f (v) (1) = .
32 (3 + x)9 16384

Por tanto:

x − 1 (x − 1)2 (x − 1)3 5 (x − 1)4


P4 (x) = 2 + − + −
4 64 512 16384
luego
179
P4 (5) = = 2.79688,
64
encuanto el valor exacto es

5 = 2.23607.
5.2. EJERCICIOS PROPUESTOS 89

2.8

2.6

2.4

2.2

1.8

1.6

1.4

1.2

1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

Figura 5.4: Polinomio de Taylor de orden 1

5.2. Ejercicios Propuestos


1. Use el teorema de Picard-Lindelöf para demostrar que el problema de
valor inicial:
y 0 = tan(y), y(0) = 0
tiene una solución en el intervalo | x |< π4 .
2. Los métodos para resolver problemas de valor inicial también se pue-
den usar para calcular integrales, tanto definidas como indefinidas. Por
ejemplo, podemos calcular:
Z 2
exp(−s2 ) ds
0

resolviendo el problema de valor inicial:


y 0 = exp(−x2 ) y(0) = 0
con t en el intervalo [0,2]. Dé la solución a este problema usando el
método de la serie de Taylor de orden 4. Al consultar una tabla de la
función error Z t
2
erf (t) = √ exp(−s2 ) ds
2 0
obtenemos y(2) ≈ 0.8820813907.
90CAPÍTULO 5. MÉTODOS NUMÉRICOS PARA PROBLEMAS DE VALOR INICIAL

3. Deduzca las fórmulas de Runge -Kutta de tercer orden:


1
y(x + h) = y(x) + (2k1 + 3k2 + 4k3 )
9
donde: 
 k1 = hf (x, y)

k2 = hf (x + 21 , y + 12 k1 )
 k = hf (x + 3 , y + 3 k )

3 4 4 2

Demuestre que para la ecuación diferencial y 0 = x + y concuerda con el


método de la serie de Taylor de orden 3.

4. Calcule la solución de:

y 0 = −2xy 2 y(0) = 1

en x = 1 usando h = 0.25 y el método de Adams - Bashforth - Moulton


en conjunción con el método de Runge - Kutta de cuarto orden. Muestre
la solución calculada usando cinco dı́gitos significativos en 0.25, 0.5,
0.75, 1.0. Compare sus resultados con la solución exacta:
1
y(x) =
1 + x2

5. Utilice el método de Runge - Kutta de cuarto orden para aproximar la


solución exacta del problema de valor inicial siguiente:

x2 y 00 − 2xy 0 + 2y = x3 ln(x), 1 ≤ x ≤ 1.5


y(1) = 0, y 0 (1) = 0

tomando h = 0.05.
Bibliografı́a

[1] D. G. Luenberger, Y. Ye, et al., Linear and nonlinear programming. Sprin-


ger, third ed., 2008.

[2] M. Dowell and P. Jarratt, “A modified regula falsi method for computing
the root of an equation,” BIT Numerical Mathematics, vol. 11, no. 2,
pp. 168–174, 1971.

91

También podría gustarte