Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MN2007VF2 PDF
MN2007VF2 PDF
etodos Num
ericos
Sergio Plaza1
1
Depto. de Matem atica, Facultad de Ciencias, Universidad de Santiago de Chile, Casilla 307Correo
2. Santiago, Chile. email splaza@lauca.usach.cl, Homepage http://lauca2.usach.cl/splaza
Contenidos
1 Teora de Error 1
1.1 Representaci
on punto otante de n
umeros . . . . . . . . . . . . . . . . . . . . . 1
1.2 Corte y redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Precisi
on de la representacion punto otante . . . . . . . . . . . . . . . . 5
1.2.2 Unidad de redondeo de un computador . . . . . . . . . . . . . . . . . . . 5
1.2.3 Mayor entero positivo representable en forma exacta . . . . . . . . . . . . 6
1.2.4 Underowoverow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Denici
on y fuentes de errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Fuentes de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Perdida de dgitos signicativos . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Propagaci
on de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Propagaci
on de error en evaluaci
on de funciones . . . . . . . . . . . . . . . . . . . 14
1.5 Errores en sumas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Estabilidad en metodos numericos . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Inestabilidad numerica de metodos . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Ecuaciones no Lineales 24
2.1 Metodo de biseccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 An
alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 An
alisis del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Metodo de Newton multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Metodo de la secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 An
alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Metodo de la posici
on falsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
i
ii
4 Interpolaci
on 153
4.1 Interpolaci
on de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.1.1 Aproximaci
on lineal por trozo o de grado 1 . . . . . . . . . . . . . . . . . 153
4.2 Polinomio de Lagrange de grado n . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.4 Metodo de las diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5 C
alculo de diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
iii
4.6 Interpolaci
on de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.7 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5 Derivadas Num
ericas 183
5.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
6 Spline C
ubicos 189
6.1 Construcci
on de Spline c
ubicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.2 Otra forma de construir spline c
ubicos naturales . . . . . . . . . . . . . . . . . . 193
6.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
8 Integraci
on Num
erica 205
8.1 Regla de los trapecios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.3 Regla de Simpson ( 38 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.4 F
ormulas de NewtonCotes cerradas de (n + 1) puntos . . . . . . . . . . . . . . 209
8.5 F
ormulas abiertas de NewtonCotes . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.6 Integraci
on de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.7 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
9 Soluci
on num
erica de ecuaciones diferenciales ordinarias 221
9.1 Metodo de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.1.1 An
alisis del error para el m
odulo de Euler . . . . . . . . . . . . . . . . . . 223
9.2 Metodo de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
9.3 Metodo del punto medio o metodo de Euler mejorado . . . . . . . . . . . . . . . 225
9.4 Metodos de RungeKutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
iv
Teora de Error
1.1 Representaci
on punto flotante de n
umeros
Cada x R , con x = 0 , puede ser representado de modo u
nico en su forma normalizada
x = x 10e (1.1)
4. e = 0.27182818 . . . 101
x = x 2e (1.2)
1
Sergio Plaza 2
x = (0.a1 a2 . . .)2 = a1 21 + a2 22 + + ak 2k +
con a1 = 1 y ai = 0 o 1 para i 2 .
x = 23 + 22 + 20 + 21 + 23 + 24 + 25
= (21 + 22 + 24 + 25 + 27 + 28 + 29 ) 24 ,
x = (0.a1 a2 . . . ak . . .)
a1 a2 ak
= + 2 + + k +
= a1 1 + a2 2 + + ak k + .
Definicion 1.1 Sea x R , x = 0 , con representaci on en una base entera > 1 dada por
(1.4). La representaci
on punto foltante por corte en el dgito k de x es dada por
donde L e U .
(0.a1 a2 . . . ak ) e , si 0 ak+1 < 2
f l (x) = (1.6)
(0.a1 a2 . . . ak ) + 0.00 . . . posici
1 e , si
2 ak+1 <
on k
donde L e U .
Observaci on. Esta denicion formal no es otra que la que usamos comunmente al redondear
cantidades a diario, por ejemplo al calcular el promedio nal de las notas obtenidas en este
curso.
donde
a) 0
xfxl(x)
k+1 cuando f l (x) es obtenido por corte desde x
k+1
b) 0
xfxl(x)
2 cuando f l (x) es obtenido por redondeo desde x .
Notemos que desde la formula b), para redondeo a k dgitos, tenemos que
1 k+1
|E(f l(x))| = |x f l(x)| |x| ,
2
ahora, como x = x e y |
x| < 1 , obtenemos
1 k+1 1 1
|x f l(x)| |x| = k+1 |x| e ek+1 , (1.8)
2 2 2
es decir,
Sergio Plaza 5
1 ek+1
|E(f l(x))| = |x f l(x)| (1.9)
2
De modo an
alogo, para corte a k dgitos, obtenemos que
1.2.1 Precisi
on de la representaci
on punto flotante
Introduciremos ahora dos medidas que nos daran alguna idea de una posible precisi
on de la
representacion de punto otante en las m
aquinas.
1. es un n
umero punto otante positivo, y
2. es el menor n umero punto otante tal que f l (1 + ) > 1 , es decir, si 0 < entonces
f l (1 + 0 ) = 1 .
Luego, para cualquier otro n umero punto otante positivo < , se tiene que f l + 1 = 1 ,
as dentro de la aritmetica del computador 1 + y 1 son iguales. Note que mide el ancho
del cero en una m aquina.
Esto da una medida de cu
antos dgitos de precision son posibles en la representaci
on de un
n
umero. La unidad de redondeo para una m aquina con k dgitos en la mantisa, es dada por
k+1 denici
on por corte de f l (x)
= 1 k+1
2 denici
on por redondeo de f l (x)
Por ejemplo, para una m aquina con aritmetica binaria con k dgitos y redondeo para la
aritmetica tenemos que = 2k (y por corte se tiene que = 2k+1 ) . En efecto, tenemos que
1 + 2k = (0.100 . . .)2 + 0.00 . . . 0 1 0 21
on k + 1
posici
2
= (0.10 . . . 010)2 21 (1.11)
Tomando f l 1 + 2k notamos que en la posicion k + 1 de la mantisa existe un 1. Luego
f l 1 + 2k = (0.10...01)2 21
por lo tanto f l 1 + 2k > 1 , y tambien tenemos que f l 1 + 2k = 1 + 2k .
El hecho de que no puede ser menor que 2k se sigue de (1.11). Ahora, si < entonces
1 + tiene un cero en la posicion k + 1 de la mantisa, y por denicion se tiene entonces que
f l 1 + = 1.
Sergio Plaza 6
1.2.4 Underflowoverflow
Si una m aquina trabaja con aritmatica de k dgitos. Dado un numero real x R , x = 0 ,
si al representar x en nuestra aritmatica, las cotas L o U para los exponentes son violados,
entonces el numero de maquina asociado a x
k ) e ,
f l (x) = (0.a1 a2 . . . a
1.3 Definici
on y fuentes de errores
Ahora daremos una clasicacion de la principal manera en la cual el error es introducido en la
soluci
on de un problema, incluyendo algunos que caen fuera del ambito de la matematica.
Al resolver un problema, buscamos una soluci
on exacta o verdadera, la cual denotamos por
xT . Aproximaciones son usualmente hechas en la soluci
on de un problema y como resultado
obtenemos una solucion aproximada xA .
Definici
on 1.4 El error en xA respecto de xT es dado por
E (xA ) = xT xA (1.12)
Para muchos prop ositos es preferible estudiar el porcentaje o error relativo en xA respecto
de xT , el cual es dado por
Sergio Plaza 7
xT xA
ER (xA ) = , xT = 0 (1.13)
xT
f l (x) = 0.37215
f l (y) = 0.37202
E(f l(x) f l(y)) = f l (x)
f l (y) = 0.00013
Algunas veces usamos el n umero de dgitos signicativos como una forma medir la precision
de la representacion, el cual es calculado como sigue. Dados xT y xA como antes, si
xT xA
|ER (xA )| =
5 10m1 (1.14)
xT
E1) Errores de Modelaci on. Ecuaciones matematicas son usadas para representar reali-
dades fsicas, este proceso se denomina modelacion. La modelaci
on introduce errores en
el problema real que se esta tratando de resolver, y caen fuera del alcance del analisis
numerico.
Ilustramos la noci
on anterior con algunos modelos.
E2) Desatinos o Equivocaciones. Estos son la segunda fuente de errores, muy familiar,
estan mas relacionados con problemas de programaci on. Para detectar tales errores es im-
portante tener alguna forma de chequear la precision de la salida despues de la ejecucion
del programa, los cuales son llamados programas test y estan basados en resultados cono-
cidos de antemano.
E3) Datos Fsicos. Estos contienen de modo natural errores observacionales. Como estos
contienen errores, calculos basados en ellos tambien los tendr
an. El An
alisis numerico, no
puede remover estos errores pero debe sugerir procedimientos de calculo que minimizan
la propagaci
on de ellos.
Por ejemplo, las ecuaciones de la Fsica solo consideran parte de las variables que inuyen
en un fenomenos, despreciando otras que tienen menor inuencia, por ejemplo las ecua-
ciones de la Fsica escolar, son simplicaciones brutales de la realidad, por otro lado, las
ecuaciones de la Teora de la Relatividad considera variables que a escala peque na no
tienen mayor importancia.
E4) Error de M aquina. Las maquinas naturalmente introducen errores principalmente por
corte y redondeo. Estos errores son inevitables cuando se usa la aritmetica de punto
otante y ellos forman la principal fuente de error en algunos problemas, por ejemplo
soluciones de sistemas de ecuaciones lineales, como veremos en el respectivo captulo,
mostrando que en ejemplos sencillos podemos obtener soluciones absurdas para ecuaciones
simples. Tambien estan los ejemplos de expresiones matematicamente equivalentes, pero
que al trabajar con aritmetica de computador producen resultados diferentes.
E5) Error de Aproximaciones Matem aticas. Estos forman la mayor parte de los errores,
estas provienen del hecho que el computador s olo puede trabajar con una cantidad nita de
numeros, as por ejemplo al calcular el area de un crculo debemos usar el n
umero , pero
la verdad es que usamos solo una aproximaci on de este n umero, por lo tanto el resultado
obtenido no puede ser exacto por esta razon. Otro ejemplo es que cuando trabajamos
con funciones, debemos usar aproximaciones, en general dadas por polinomios de Taylor,
por ejemplo las m aquina para calcular el valor de sen(x) para un dado valor de x usa
tales aproximaciones, lo mismo ocurre cuando eval ua funciones elementales tales como
1 2
cos(x) , ex , etc. Por ejemplo, si deseamos calcular el valor de 0 ex dx tenemos algunos
problemas, pues esta integral no es expresable en terminos de funciones elementales, pero
usando series de Taylor se tiene que
x4 x6
ex = 1 + x2 +
2
+ +
2! 3!
de donde, usando una aproximaci on por un polinomio de Taylor obtenemos una aproxi-
macion para el valor de integral dado por
1 1
x2 2 x4 x6 1 1 1
e dx 1+x + + dx = 1 + + + = 1.457142285 . . . .
0 0 2! 3! 3 10 42
1 2
Observaci
on. El valor de la integral 0 ex dx con 20 dgitos es 1.4626517459071816088
Sergio Plaza 9
1.3.2 P
erdida de dgitos significativos
Para comenzar consideremos el problema de la evaluacion de la funci on
f (x) = x x + 1 x
para
valores crecientes de x . Por ejemplo, tenemos f (100) = 100 101 100 , ahora
como
101 100 = 0.0498752 . . . , evaluando f (100) tiene que f (100) = 100 101 100 =
4.987562 . . . .Ahorasi trabajamos con aritmetica de 6 dgitos y redondeo, obtenemos
lossiguien-
tes valores: 101 100 = 10.049910 = 0.049900 luego f (100) = 100 101 100 = 4.99
en nuestra aritmetica.
alculo de 101 100 = 0.049900 cuyo valor aproximado es 0.0498756
El c tiene perdida del
signicado del error. Note que tres dgitos de precisionen x + 1 = 101 fueron cancelados
en la resta con los correspondientes dgitos de x = 100 . La perdida de precision fue un
subproducto de la forma de f (x) y la precision de la aritmetica nita usada. Observe que
f (x) puede ser reescrita de la siguiente manera
x
f (x) = x x + 1 x = ,
x+1+ x
esta ultima forma no tiene perdida de signicado de error en su evaluacion, pues
100 100
f (100) = = = 4.98756.
10.0499 + 10 20.0499
Observaci on. Es importante notar que las expresiones x x + 1 x y x+1+ x
x
para
la misma funcion, son matematicamente equivalentes, pero numericamente no lo son, pues la
evaluaci
on de ellas en nuestra aritmetica nos arrojan resultados distintos.
Observaci on. Los programadores deben tener en cuenta esta posibilidad de este error y evitar
este fenomeno de perdida de dgitos signicativos.
La perdida de dgitos signicativos es un subproducto de la resta de n
umeros parecidos. Esto
redunda en inestabilidad en los c alculos numericos.
x2 18x + 1 = 0
tiene soluciones x1 = 9 + 80 y x2 = 9 80 . Si consideramos 80 con 4 dgitos decimales
correctos, obtenemos
1cos(x)
Ejemplo 5 Consideremos la funci
on f (x) = x2 . Si usamos desarrollos en series de
Taylor, obtenemos
1 x2 x4 x6
f (x) = 1 1 + + R6 (x)
x2 2! 4! 6!
2 4 6
1 x x x
= + cos (x) ,
2! 4! 6! 8!
1
de donde f (0) = 2 , y para |x| < 0.1 , tenemos que
6
x
6
cos (x)
< 10 = 2.5 1011 .
8!
8!
1 2 4
Luego la aproximaci
on f (x) = 2! x4! + x6! , para |x| < 0.1 posee la precision dada arriba.
Esto nos brinda una manera mucho m as facil para evaluar f (x) .
Ejemplo 6 Sea y = x sen(x) . Como sen(x) x para valores peque nos de x , este calculo
tendr
a una perdida de dgitos signicativos C
omo puede evitarse?
on y = x sen(x) resulta del desarrollo en serie de Taylor
Una forma alternativa para la funci
alrededor de x = 0 . Luego,
x3 x5 x7 x3 x5 x7
y = x sen(x) = x x + + = + +
3! 5! 7! 3! 5! 7!
1.3.3 Propagaci
on de error
xT yT xA yA = xT yT xA yA + xA yA xA yA (1.15)
Error Propagado Error de redondeo o corte
xA yA = f l (xA yA )
| xA yA xA yA | |xA yA | k+1
si usamos corte.
Lo anterior nos da el redondeo o corte verdadero usado.
Para el error propagado examinaremos algunos casos particulares.
E(xA yA ) = xT yT xA yA
= xT yT (xT ) (yT )
= xT + yT
de donde,
Sergio Plaza 12
xT yT xA yA
ER (xA yA ) =
xT yT
= + ,
yT xT xT yT
es decir,
Observemos que si |ER (yA )| , | ER (xA )| << 1 ( << signica mucho menor que) entonces
ER (xA yA ) ER (xA ) + ER (yA ) .
Caso b. Divisi
on.
xA ER (xA ) ER (yA )
ER = (1.18)
yA 1 ER (yA )
Si | ER (yA )| << 1 se tiene que ER xA
yA ER (xA ) ER (yA ) .
Observacion. Para las operaciones de multiplicaci
on y divisi
on, los errores relativos no se
propagan r
apidamente.
Caso c. Adici
on y sustracci
on.
por lo tanto
Esto parece ser bastante bueno y razonable, pero puede ser enga
noso. El error relativo en
xA yA puede ser bastante pobre cuando es comparado con ER (xA ) y ER (yA ) .
22
Ejemplo 9 Consideremos xT = , xA = 3.1416 , yT = 7 , e yA = 3.1429 . Tenemos
Sergio Plaza 13
|E (uA )| =
E (3 xA )2
= |E ((3 xA ) (3 xA ))| =
2 (3 xT ) E (3 xA ) (E (3 xA ))2
2 |3 xT | |E (3 xA )| +
E (3 xA )2
2 0.002 |E (xA )| + |E (xA )|2
2
103 103
2 0.002 2 + 2 = 0.225 105 .
Observaci
on. Desde la denici
on del error se tiene que E (xA + c) = E (xA ) .
Falta analizar para vA . Este se deja a cargo del lector.
Tenemos nalmente que
2
|xT 6| |E (xA )| + |xT | |E (xA )| + |E (xA )|
1
1 2
2.999 2 103 + 3.002 21 103 + 2 103 = 0.00300075.
Sergio Plaza 14
1.4 Propagaci
on de error en evaluaci
on de funciones
Sea f (x) una funci
on, la cual suponemos derivable, con derivada continua. Sea xA un valor
aproximado de xT Como aproxima f (xA ) a f (xT ) ?
Usando el Teorema del Valor Medio, tenemos
luego,
f (xT ) f (xT )
ER (f (xA )) (xT xA ) xT ER (xA ) (1.22)
f (xT ) f (xT )
(x)
umero (x) = ff (x)
El n x es llamado el n on de f (x) . Si | limxxT (x)| =
umero de condici
+ , decimos que la evaluacion de f para x xT es numericamente inestable. Caso contrario,
decimos que la evaluacion de f para x xT es estable.
Notemos que si min{f (x) : x entre xT y xA } = 0 , entonces
sen(
3 +x)sen( 3 x)
Ejemplo 12 Considere la funci
on f (x) = 2x .
on es numericamente estable la evaluacion de f (x) para x 0 .
Veamos si esta funci
Primero un argumento teorico de resta de numeros parecidos nos muestra que f (x) es
numericamente inestable en su evaluacion para x 0 . Vemos si hay perdida de dgitos
signicativos evaluando f (x) para x = 10n con n = 1, 2, . . . , 13 . Tenemos la siguiente
tabla
xn f (x)
1
x1 = 10 0.017450368
1
x2 = 102 0.017450377
1
x3 = 103 0.017450377
1
x4 = 104 0.017450377
1
x5 = 105 0.01745038
1
x6 = 106 0 0.0174504
1
x7 = 107 0.0174505
1
x8 = 108 0.01745
1
x9 = 109 0.0174
Observe que el error entre las cantidades x8 y x9 , lo cual denotamos por E (x8 , x9 ) , es
E (x8 , x9 ) = |0.01745 0.0174| = 0.00005 , como el error es un valor grande tenemos inestabili-
dad numerica. Recuerde que en n umeros de partida pr oximos se debe tener imagenes pr
oximas.
Determinemos ahora un polinomio de grado mayor o igual a uno, que aproxime a f (x) y
que sea numericamente estable para x 0 . Desarrollando, obtenemos la expresion siguiente
para f ,
sen( 3 ) cos(x) + sen(x) cos( 3 ) sen( 3 ) cos(x) + sen(x) cos 3 3 sen(x)
f (x) = = .
2x 2 x
3 5 7
que sen(x) = x 3! + 5! 7! + ,
x x x
Ahora, desarrollando sen(x) en serie de Taylor tenemos
3 sen(x) 3 x2 x4 x6
luego f (x) = 2 = 2 1 3! + 5! 7! + . Consideramos la siguiente aproxi-
x
macion polinomial p(x) = 23 sen(x)
x 2
3
1 x2
6 para f , y vemos que en ella no existe
resta de n
umeros parecidos luego es estable. Por otra parte, si calculamos el n
umero condicion
obtenemos para nuestra aproximaci on polinomial, tenemos
p (x) x x3 2x2
(x) = x = =
p (x) 1 x6
2
6 x2
(x)
y para valores x 0 se tiene que x pp(x) 0 , de donde concluimos que nuestra aproximacion
es numericamente estable.
Sergio Plaza 16
S3 = f l (a3 + S2 )
S4 = f l (a4 + S3 )
..
.
Sn = f l (an + Sn1 )
S2 = (a1 + a2 ) (1 + 2 )
S3 = (a3 + S2 ) (1 + 3 )
..
.
Sn = (an + Sn1 ) (1 + n ) .
Los termino en la expresion anterior pueden ser combinados, manipulados y estimados, obte-
niendo lo siguiente
S Sn = a1 (2 + + n )
a2 (2 + + n )
a3 (3 + + n )
..
.
an n
1.6 Estabilidad en m
etodos num
ericos
Muchos problemas matematicos tienen soluciones que son bastante sensitivas a peque nos errores
computacionales, por ejemplo errores de redondeo. Para tratar con este fen omeno, introducire-
mos los conceptos de estabilidad y n umero condici
on. El numero condici on de un problema
esta relacionado al maximo de precision que puede ser obtenido en su solucion cuando usamos
Sergio Plaza 17
n
umeros de longitud nita y aritmetica de computador. Estos conceptos son entonces exten-
didos a metodos numericos usados para calcular la solucion. En general, queremos que los
metodos numericos usados no tengan sensibilidad a peque
nos errores mas all
a de los originados
en el problema matematico mismo.
Para simplicar, supongamos que nuestro problema viene dado por
F (x, y) = 0. (1.23)
La variable x es la inc
ognita buscada y la variable y son los datos de los cuales depende
la soluci
on. Por ejemplo F puede ser una funci on real de dos variables, o x puede ser una
variable real e y puede ser un vector, puede ser una ecuacion diferencial o integral o funcional,
etc.
Diremos que el problema (1.23) es estable si la solucion x depende continuamente de la vari-
able y , esto signica que si (yn )nN es una sucesion de valores aproxim
andose a y , entonces
los valores solucion asociados (xn )nN deben aproximarse a x de la misma forma. Equivalen-
temente si hacemos peque nos cambios en y esos deben corresponder a peque nos cambios en
x . El sentido en el cual los cambios son peque nos depende de la norma que se este usando en
x e y , respectivamente, existen varias elecciones posibles, variando de problema en problema.
Problemas estables son tambien llamados well-posed problems. Si un problema no es estable,
este es llamado inestable o ill-posed problem.
x + 2y = 3
0.5x + 1.000001y = 1.5
x + 2y = 3
0.4999999x + 1.000001y = 1.5
ax2 + bx + c = 0, a = 0
cualquier soluci
on es un n umero complejo, los datos de este caso son y = (a, b, c) vector de los
coecientes y la solucion esta dado por
b b2 4ac
x=
2a
Sergio Plaza 18
F (x + x , y + y ) = 0.
Denimos
x
x
(x) = sup y
(1.24)
y
y
x
a y 1
(x) = sup
= sup
y
x
.
y
y
y y
2. Determine una expresion algebraica, matem aticamente equivalente a f (x) , la cual sea
estable numericamente para valores de x 0 .
3. Determine una aproximaci on polinomial de grado mayor o igual a tres para f (x) en el
intervalo |x| < 0.5 , la cual sea numericamente estable.
Soluci
on. Para ver si existe inestabilidad numerica en la evaluacion de f (x) para x 0
puede usarse una tabla de valores o argumentar la existencia de resta de n
umeros parecidos.
Para la segunda parte, tenemos
1x2 3 1x2 3
f (x) = x 2 = 1 1x2
x2 + 1 1x2
x2
3
3
3 1+ 1x2 + (1x2 )2
1 x1x 1+1x2 1 1x2
2
= 2
1+ 1x2
+ x2
3 3
1+ 1x2 + (1x2 )2
= 1 +
1
1+ 1x2 1+ 3
1x2 + 3 (1x2 )2
x2 x4 2x6
G (x) 1 3 9 9
por lo tanto
x2 x4 x6 x2 x4 2x6
1 1+ + + 1 1 49 4
f (x) 2 8 16 3 9 9
= x2 x
x2 6 72 1296
Sergio Plaza 20
1. Usando el Teorema del Valor Medio, estudie la propagacion del error para u y v.
Soluci
on. Sea xT el valor exacto y xA una aproximacion de xT .
Denamos f (x) = (x 1) (x 2), as f (x) = 2x 3, luego
|f (xT ) f (xA )| = |f (c)| |xT xA | , con c entre xT y xA . Si xA xT entonces
Por otro lado sabemos que |E (xA )| 0.5 106+1+1 = 0.5 104 por lo tanto
1 1 1 1
16666.67 y 1.0001600256 .
|xT 1| 0.00006 |xT 2| 0.99984
por lo tanto
|uT uA |
ER (uA ) = 4.9989 105 (16666.67) (1.0001600256) 0.8323283325329
|uT |
1.9 Ejercicios
Problema 1.1 La ecuacion de segundo grado ax2 + bx + c = 0 se resuelve usualmente por
las f
ormulas
b + b2 4ac b b2 4ac
x1 = , x2 = .
2a 2a
Sergio Plaza 21
2c 2c
x1 = , x2 = .
2
b b 4ac b + b2 4ac
Escriba un programa en MatLab que resuelva las ecuaciones de segundo grado de las dos
maneras indicadas. Ejecute el programa cuando
(i) a = 1.0 , b = 5.0 , c = 6.0 , (ii) a = 1.0 , b = 12345678.03 , c = 0.92 .
Problema 1.2 Usando MatLab calcule x + y + z de las dos formas matematicamente equiva-
lentes, x+ (y + z) y (x+ y)+ z cuando (i) x = 1.0 , y = 5.0 , z = 6.0 , (ii) x = 1 1020 ,
y = 1 1020 , z = 1.0 . Explique los resultados obtenidos.
Problema 1.3 Con MatLab, usando el formato largo, calcule h = 1/3333 . Enseguida sume
3333 veces la cnatidad obtenida. Tambien multiplique dicha cantidad por 3333. Explique los
resultados obtenidos.
tan 4 + x tan 4 x
Problema 1.4 Considere la funci
on h (x) =
2x
3. Usando desarrollos de Taylor, determine un polinomio de grado mayor o igual que 4, que
aproxime a h(x) y que sea numericamente estable en su evaluacion para x 0 .
Problema 1.5 Considere las expresiones matem aticamente equivalente u(x, y) = (x + y)2
(x y)2 y v(x, y) = 4xy . Sabiendo que xA = 1.214301 e yA = 0.24578 est an correctamente
redondeados al numero de dgitos se nalados, estudie la propagaci
on del error absoluto (valor
absoluto del error) en la evaluacion de u y de v , determinando una buena cota Cu al de ellas
tiene menor propagacion del error?
1. Calcule el error absoluto y el error relativo (en valor absoluto) en las soluciones apro-
ximadas.
2. Una de ellas tiene perdida del dgitos signicativos. Proponga una expresion algebraica
matematicamente equivalente para evitar la perdida de dgitos signicativos en ese caso.
Justique la respuesta calculando el nuevo error relativo (en valor absoluto).
sen(x) x
Problema 1.8 Sea f (x) = .
x
on de f (x) para x 0 .
1. Analice la estabilidad numerica en la evaluaci
2. Encuentre una aproximaci on polinomial de grado mayor o igual que 3 para f (x) y que
sea estable numericamente para la evaluacion cuando x 0 .
2. Si xA = 1000.01 es un n
umero redondeado correctamente al n
umero de dgitos se
nalados,
determine una buena cota para |E(f (xA ))|,.
1. Estudie la propagaci
on del error absoluto en las expresiones u y v .
2. Que puede decir acerca de la presicion que se puede obtener para u y v , para un deter-
minado valor de x ?
1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos, que valores numericos se obtendran en cada
una de las expresiones?
2. Estudie la propagaci
on del error (absoluto) en cada una de las expresiones correspondientes,
determinando buenas cotas para los valores absolutos de cada uno de los errores respec-
tivos.
on de f (xA ) para xA 0 ,
Problema 1.12 Analice la estabilidad numerica en la evaluaci
donde
ex 1
f (x) = .
sen(x)
1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c
alculo, que valores numericos
se obtendran en cada una de las expresiones?
e2x 1
Problema 1.14 Considere la funci
on f (x) = .
2xex
ii) Determine un polinomio de grado mayor o igual que 3, que aproxime a f (x) y que sea
estable numericamente para x 0 .
1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c
alculo, que valores numericos
se obtendran en cada una de las expresiones?
cos(/3 + x) cos(/3 x)
Problema 1.16 Considere la funci
on f (x) = .
2x
ii) Determine un polinomio de grado 1, que aproxime a f (x) y que sea estable numericamente
para x 0 .
Problema 1.17 Considere la funci
on f (x) = x + 1/x x 1/x .
ii) Proponga una expresion algebraica, que sea matem aticamente equivalente a f (x) y que
sea numericamente estable en la evaluacion para x 0 .
iii) Determine un polinomio de grado mnimo mayor que 0, que aproxime a f (x) , y que sea
estable numericamente para la evalucion en x 0 . Ademas, obtenga una buena cota
para el error correspondiente con |x| 0.1 y x = 0 .
Ecuaciones no Lineales
2.1 M
etodo de bisecci
on
Este metodo se basa en el Teorema del Valor Intermedio, el cual enunciamos a seguir.
Teorema 2.1 (del valor intermedio) Sea f : [a, b] R una funci on continua. Supongamos
que f (a) y f (b) tienen signos diferentes, entonces existe r (a, b) tal que f (r) = 0 .
Aunque el procedimiento se aplica en el caso en que f (a) y f (b) tengan signos diferentes y
exista mas de una raz en el intervalo (a, b) , por razones de simplicidad suponemos que la raz
de este intervalo es u nica. El metodo requiere dividir varias veces en la mitad los subintervalos
de [a, b] y en cada paso localizar aquella mitad que contenga a la raz r . Para comenzar
consideremos a0 = a y b0 = b , y sea c0 el punto medio de [a, b] , es decir, c0 = a0 +b 2
0
. Si
f (c0 ) = 0 , entonces r = c0 ; si no, entonces f (c0 ) posee el mismo signo que f (a0 ) o que
f (b0 ) . Si f (c0 ) y f (a0 ) tienen igual signo, entonces r (c0 , b0 ) y tomamos a1 = c0 y
b1 = b0 . Si f (c0 ) y f (a0 ) tienen signos opuestos, entonces r (a0 , c0 ) y tomamos a1 = a0
y b1 = c0 . Enseguida, volvemos a aplicar el proceso al intervalo [a1 , b1 ] , y as sucesivamente.
|pN pN 1 | (2.1)
24
Sergio Plaza 25
|pN pN 1 |
, pN = 0 (2.2)
|pN |
|f (pN )| (2.3)
Al usar cualquiera de estos criterios de parada pueden surgir problemas. Por ejemplo, existen
sucesiones (pn )nN con la propiedad de que las diferencias pn pn1 convergen a cero, mientras
que la sucesion diverge, esto se ilustra con la sucesi
on siguiente, sea (pn )nN la sucesion dada
n
1
por pn = k , es conocido que (pn )nN diverge a un cuando se tiene lim (pn pn1 ) = 0 .
k=1 n
Tambien es posible que f (pn ) este cercano a cero, mientras que pn diere signicativamente
10
de r , como lo ilustra la siguiente sucesion. Sea f (x) = (x 1) , tenemos que r = 1 , tomando
pn = 1 + n1 es facil ver que |f (pn )| < 103 para todo n > 1 , mientras que |r pn | < 103
solo si n > 1000 . En caso que no se conozca r , el criterio de parada (2.2) es el mejor al cual
puede recurrirse, ya que verica el error relativo.
Observe que para iniciar el algoritmo de bisecci on, tenemos que encontrar un intervalo [a, b] ,
de modo que f (a) f (b) < 0 . En cada paso, la longitud del intervalo que se sabe contiene
una raz de f se reduce en un factor de 12 ; por lo tanto, conviene escoger un intervalo inicial
[a, b] lo mas peque no posible. Por ejemplo, si f (x) = x2 1 , entonces f (0) f (2) < 0 y
tambien f (0.75) f (1.5) < 0 , de manera que el algoritmo de biseccion puede emplearse en
ambos intervalos [0, 2] o [0.75, 1.5] . Al comenzar el algoritmo de biseccion en [0, 2] o con
[0.75, 1.5] , la cantidad de iteraciones necesarias para alcanzar determinada exactitud varia.
El siguiente ejemplo ilustra el algoritmo de biseccion. La iteracion se termina cuando el error
relativo es menor que 0.0001 , es decir, cuando
|cn cn1 |
< 104 .
|cn |
Ejemplo 19 La ecuacion f (x) = x3 + 4x2 10 posee una raz en [1, 2] ya que f (1) = 5 y
f (2) = 14 . El algoritmo de biseccion puede ser resumido por la siguiente tabla
n an bn cn f (cn )
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 1.79687
3 1.25 1.5 1.375 0.16211
.. .. .. .. ..
. . . . .
13 1.36499024 1.3671875 1.365112305 0.00194
Despues de 13 iteraciones, c13 = 1.365112305 aproxima a la raz r con un error de |r c13 | <
|b13 a13 | = 0.000122070 , ya que |a13 | < |r| , obtenemos
El metodo de biseccion, aunque claro desde el punto de vista conceptual, ofrece inconvenientes
importantes, como el de converger lentamente, es decir, la cantidad de iteraciones puede ser
demasiado grande para poder obtener que cn este lo proximo a r , ademas, inadvertidamente
podemos desechar una aproximacion intermedia. Sin embargo, tiene la importante propiedad
de que siempre converge en una soluci on y por tal raz
on a menudo sirve para iniciar los metodos
mas ecientes que explicaremos m as adelante.
2.1.1 An
alisis del error
Denotemos los intervalos generados por el metodo de biseccion por [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] ,
. . . , de donde obtenemos que
a0 a1 b 0
luego la sucesion (an )nN es creciente y acotada superiormente. Tenemos tambien que
b 0 b 1 a0
1 1 1
b n an = (bn1 an1 ) = (bn2 an2 ) = = n (b0 a0 ) ,
2 4 2
se sigue que limn (bn an ) = 0 , luego limn bn = limn an = r . Ahora como
2
f (an ) f (bn ) 0 , haciendo n se tiene que (f (r)) 0 , pues f es continua, de donde
f (r) = 0 .
Si el proceso se detiene en la iteracion n , entonces f posee una raz en el intervalo [an , bn ]
y
|r an | 2n (b0 a0 ) y |r bn | 2n (b0 a0 ) .
an +bn
Por otra parte, vemos que una mejor aproximaci
on para la raz r de f (x) = 0 es cn = 2 ,
pues
1
|r cn | (bn an ) = 2(n+1) (b0 a0 ) .
2
Resumiendo lo anterior, tenemos el siguiente resultado.
Teorema 2.2 Sean [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] , . . . , [an , bn ] , . . . los intervalos obtenidos en el
metodo de bisecci
on, entonces limn bn = limn an = r y r es una raz de f (x) = 0 .
Adem as, se tiene que |r an | 2n (b0 a0 ) y |r bn | 2n (b0 a0 ) . Por otra parte, si
cn = an +b
2
n
entonces r = limn cn y |r cn | 2(n+1) (b0 a0 ) .
Es importante se
nalar que el teorema solo nos proporciona una cota del error de aproxima-
cion y que esta puede ser extremadamente conservadora. Por ejemplo, cuando la aplicamos al
problema del ejemplo anterior s olo garantiza que |p p9 | 21
29 2 10
3
pero el error real
6
es mucho menor |p p9 | 4.4 10 .
Sergio Plaza 27
Aplicando logaritmo a la desigualdad 2(N +1) 103 vemos que el valor del entero positivo
N debe ser mayor que 9.96 , por lo tanto para obtener una exactitud de 103 debemos iterar
al menos 10 veces.
2.2 M
etodo de Newton
El metodo Newton es uno de los metodos numericos mas populares para tratar un problema de
b
usqueda de races de una ecuacion f (x) = 0 . Una forma de introducir el metodo de Newton
se basa en los polinomios de Taylor. En esta ocasion introduciremos el metodo de Newton
geometricamente.
Consideremos una funci on derivable f : [a, b] R , que tiene un cero en [a, b] . Sea
x0 (a, b) un punto arbitrario.
x0
x1
x2
y f (x0 ) = f (x0 ) (x x0 )
as la interseccion con eje x esta dada por f (x0 ) = f (x0 ) (x1 x0 ) , despejando x1 obten-
emos
f (x0 )
x1 = x0 ,
f (x0 )
si f (x0 ) = 0 . Aplicamos ahora este procedimiento comenzando con x1 , para determinar la
interseccion x2 de la recta tangente al gr
aco de f en el punto (x1 , f (x1 )) con el eje x basta
observar que dicha recta tiene por ecuaci on
Sergio Plaza 28
y f (x1 ) = f (x1 ) (x x1 )
as la interseccion con eje x esta dada por f (x1 ) = f (x1 ) (x2 x1 ) , despejando x2 obten-
emos
f (x1 )
x2 = x1 ,
f (x1 )
si f (x1 ) = 0 . De modo an
alogo, si comenzamos con el punto x2 , obtenemos un punto x3
dado por
f (x2 )
x3 = x2
f (x2 )
f (xn )
xn+1 = xn (2.4)
f (xn )
si f (xn ) = 0 .
k 0 1 2 3 4
xk 0.5 0.75 0.9374999998 0.9960937501 0.9999847417
Un buen ejercicio para el lector es esbozar una explicacion para lo que est
a ocurriendo en
este caso.
2.2.1 An
alisis del Error
en = xn r (2.5)
1
0 = f (r) = f (xn en ) = f (xn ) en f (xn ) + e2n f (n )
Taylor
2
donde n esta entre xn y r . De esta u
ltima ecuacion obtenemos
e2n
en f (xn ) f (xn ) = f (n ) .
2
Luego
1 f (n ) 2 1 f (r) 2
en+1 = e e = Ce2n
2 f (xn ) n
2 f (r) n
f (n )
Podemos formalizar lo anterior como sigue, si en es peque
no y f (xn ) no es muy grande,
entonces en+1 ser
a mas peque
no que en .
Denamos
max |f (x)|
1 |xr|<
C () = (2.6)
2 min |f (x)|
|xr|<
donde > 0 es tal que |f (x)| > 0 para |x r| < . Eligiendo > 0 mas peque no, si es
necesario, podemos
suponer que C () < 1 , podemos hacer esto pues cuando 0 se tiene
f (r)
que C ()
2f (r)
, luego C () 0 si 0 . Denotemos = C () . Comenzando
las iteraciones del metodo de Newton con x0 tal que |x0
r|<
obtenemos que |e0 | y
(0 )
|e1 | |e0 |
|e2 | |e1 | 2 |e0 |
..
.
|en | n |e0 | 0, cuando n
2
|xn+1 r| C (xn r) .
El siguiente teorema sobre la conducta local del metodo de Newton muestra que ella es muy
buena, pero como veremos despues, desde el punto de vista global no lo es tanto.
0 )M
ecuaci
on f (x) = 0 tiene una unica soluci
on en J0 y el metodo de Newton con condici on inicial
x0 converge a dicha solucion.
es decir,
2
M |h0 |
|f (x1 )| (desigualdad 2)
2
De las desigualdades (1) y (2), obtenemos
f (x1 )
M |h0 |2
2
|h1 | =
= |h0 |2
M
f (x1 )
2
f (x0 )
f (x0 )
(x0 )
y de 2
(fMf
(x ))2
< 1 , tenemos
0
M
1
f (x0 )
1 1 1
<
f (x0 )
2
f (x0 )
= 2
f (x0 )
= 2|h0 | ,
f (x0 )
|h0 |
luego |h1 | < 2 ,y
Sergio Plaza 31
M f (x1 )
M
f (x1 )
M
= = |h1 |
(f (x1 ))2
|f (x1 )| f (x1 )
|f (x1 )|
M |h0 |
|f (x1 )| 2
|h0 | 2
f (x0 )
M = M
2 |f (x0 )|
(f (x0 ))2
.
Teorema 2.6 En las condiciones del teorema anterior, el metodo de Newton tiene convergen-
2
atica, esto es, |hk+1 | |f M
cia cuadr (xk )| |hk | .
M|hk |2
on. Dividiendo la desigualdad |f (xk+1 )|
Demostraci 2 por |f (xk+1 )| , obtenemos
2 2
|f (xk+1 | M |hk | 2 M |hk |
|kk+1 | =
= .
|f (xk+1 )| 2 |f (xk )| |f (xk )|
0 = 0.1
y J0 = [2 , 2.2] , puesto que f (x) = 6x sobre J0 el supremo M es 13.2. Como
Mf (x0 )
(f (x0 ))2
= 0.132 < 0.5 < 1 , el teorema garantiza que existe una raz de la ecuacion f (x) = 0
en el intervalo [2 , 2.2], y en consecuencia el metodo de Newton con condici on inicial x0 = 2
converge a dicha raz.
Observaci on. Podemos usar como criterios de paradas unos de los siguientes. Seleccione
una tolerancia > 0 y construya p1 , p2 , . . . , pN hasta que se cumpla una de las siguientes
desigualdades
|pN pN 1 | (2.7)
pN pN 1
, pN = 0 (2.8)
pN
o bien
|f (xN )| . (2.9)
El metodo de Newton es una tecnica de iteracion funcional de la forma xn+1 = g (xn ) , donde
Sergio Plaza 32
f (xn )
xn+1 = g (xn ) = Nf (xn ) = xn , n 0.
f (xn )
cos (xn ) xn
xn+1 = xn , n 0.
sen (xn ) 1
n xn
0 0.7853981635
1 0.7395361337
2 0.7390851781
3 0.7390851332
4 0.7390851332
Para asegurarnos que tenemos convergencia, veriquemos esas condiciones. Tenemos que
f (x) = cos(x) x , luego f (x) = cos(x) , la cual es continua, ahora evaluando f (x) en el
punto x = 0.7390851332 (en radianes) que es una aproximacion a la raz verdadera, se tiene el
valor no cero siguiente, f (0.7390851332) = sen(0.7390851332) 1 = 1.012899111 . . . = 0 .
Sergio Plaza 33
x3n + 4x2n 10
xn+1 = xn , n0
3x2n + 8xn1
Ejemplo 25 Si queremos resolver x3 x 22 = 0 utilizando el metodo de Newton y comen-
zamos lasiteraciones con x0 = 0.001 obtenemos una sucesi on que oscila entre valores cercanos
a 0 y a 22 , y de hecho, si comenzamos con la condici
o n inicial x0 = 0 obtenemos el ciclo
2 2 2
odico 0, 2 , es decir, Nf (0) = 2 y Nf 2 = 0 .
peri
Observaci on. La derivaci on del metodo de Newton por medio de las series de Taylor, subraya
la importancia de una aproximaci on inicial exacta. La suposici
on fundamental es que el termino
2
que contiene (x x) es, en comparacion, tan peque no que podemos suprimirlo. Esto eviden-
temente sera falso a menos que x sea una buena aproximacion a la raz r . En particular, si
x0 no es lo suciente proximo a la raz real, el metodo de Newton quiz a no sea convergente a
2
la raz. Pero no siempre es as. Por ejemplo considere la ecuaci on x + 1 = 0 que no tiene
soluciones reales, y cuando le aplicamos el metodo de Newton obtenemos, para cualesquiera que
sea la condicion inicial una sucesion que no converge a ningun valor determinado, como puede
comprobarse en la pr actica sin mayores esfuerzos, realizando las iteraciones correspondientes.
2.3 M
etodo de Newton multivariable
Consideremos el sistema de ecuaciones
f1 (x1 , x2 ) = 0
(2.10)
f2 (x1 , x2 ) = 0.
0 = f2 (x1 + h1 , x2 + h2 ) f2 (x1 , x2 ) + h1 f2 + h2 f2 .
x1 x2
f f1
1
x1 x2
J(f1 , f2 ) = , (2.11)
f f2
2
x1 x2
obtenemos
h1 f1 (x1 , x2 )
J(f1 , f2 )(x1 , x2 ) = (2.12)
h2 f2 (x1 , x2 )
h1 f1 (x1 , x2 )
= J 1 (f1 , f2 ) (x1 , x2 )
h2 f2 (x1 , x2 )
1
(k+1) (k) f1 (k) (k) f1 (k) (k) (k) (k)
x1 x1 x1
x1 , x2 x2
x1 , x2 f1 x1 , x2
=
(k+1) (k) f2 (k) (k) f2 (k) (k) (k) (k)
x2 x2 x1
x1 , x2 x2
x1 , x2 f2 x1 , x2
(2.14)
(n) (n) f2 (n) (n) (n) (n) f1 (n) (n)
f1 x1 , x2 x1 , x2 f2 x1 , x2 x1 , x2
(n+1) (n) x2 x2
x1 = x1 (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
(2.15)
(n) (n) f1 (n) (n) (n) (n) f2 (n) (n)
f2 x1 , x2 x1 , x2 f1 x1 , x2 x1 , x2
(n+1) (n) x1 x1
x2 = x2 (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
donde
f f f f
(n) (n) 1 (n) (n) 2 (n) (n) 2 (n) (n) 1 (n) (n)
det J(f1 , f2 ) x1 , x2 = x1 , x2 x1 , x2 x1 , x2 x1 , x2 .
x1 x2 x1 x2
Sergio Plaza 35
Es claro que podemos generalizar el metodo de Newton a mas de dos variables, y de deja
a cargo del lector deducir las f
ormulas de iteracion para un sistema de 3 ecuaciones en tres
variables (x, y, z) .
(0) (0)
Observaci actica, comenzamos con (x1 , x2 ) adecuados y generamos la sucesi
on. En la pr on
dada por el metodo de Newton hasta satisfacer alg un criterio de parada, obteniendo un punto
(N ) (N ) (N ) (N )
(x1 , x2 ) . Vericamos entonces las condiciones para ese punto, es decir, fi (x1 , x2 ) 0 ,
(N ) (N )
i = 1, 2 , det J(f1 , f2 )(x1 , x2 ) = 0 . La condicion de continuidad de las segundas derivadas
parciales de f1 y f2 no depende de la sucesion de puntos generada. Si las condiciones son
(N ) (N )
satisfechas para (x1 , x2 ) , entonces existe un conjunto abierto U R2 , con U (r1 , r2 ) ,
tal que si (x01 , x02 ) U , entonces la sucesion generada por el metodo de Newton converge a
(r1 , r2 ) .
Observaci on. En general, especialmente desde el punto de vista computacional, usar las ecua-
ciones (2.12) y (2.13) como una descompsici on del metodo de Newton, en vez de las ecuaciones
dadas en (2.14) o en su forma explcita (2.15). Mas genral si deseamaos resolver el sistema de
ecuaciones no lienales
f1 (x1 , x2 , . . . , xn ) = 0
f2 (x1 , x2 , . . . , xn ) = 0
.. (2.16)
.
fn (x1 , x2 , . . . , xn ) = 0
usamos el siguiente algoritmo:
(0) (0) (0)
Dado x(0) = (x1 , x2 , . . . , xn ) .
Primero: resolvemos el sistema de ecuaciones lineales
(k) (k) (k) (k)
h1 f1 (x1 , x2 , . . . , xn )
(k) (k) (k) (k)
h2 f2 (x1 , x2 , . . . , xn )
Jk (f1 , f2 , . . . , fn ) . = (2.17)
..
.. .
(k) (k) (k) (k)
hn fn (x1 , x2 , . . . , xn )
g 2x g 2x2
= 2 x = 3
x y y y
2 3
3x2n yn + 2 (xn yn ) 0.5 (xn yn ) x2n yn4 1.6xn xn yn3 + 2yn2
xn+1 =
xn yn (6xn + 6yn + xn yn2 2yn3 )
2 3
6x3n yn + 5 (xn yn ) + (xn yn ) 1.5x2n yn4 + 2xn yn3 yn4 1.6xn + 8xn yn2
yn+1 =
x2n (6xn + 6yn + xn yn2 2yn3 )
La siguiente tabla muestra los resultados obtenidos con el metodo de Newton multivariable
f f
(x6 , y6 ) = 2x6 y6 y62 = 2.22631238 (x6 , y6 ) = x26 2x6 y6 = 0.85378829
x y
g 2x6 g 2x2
(x6 , y6 ) = 2 x6 = 1.1401168538 (x6 , y6 ) = 36 = 4.130734823
x y6 y y6
Sergio Plaza 37
luego
2.22631238 0.85378829
det J(f, g)(x6 , y6 ) = det = 4.486785689 ,
1.1401168538 4.130734823
por lo tanto el metodo iterativo de Newton es convergente en una vecindad de la solucion exacta
(xT , yT ) del sistema.
2.4 M
etodo de la secante
El metodo de Newton es una tecnica poderosa, pero presenta un problema, a saber, la necesidad
de conocer el valor de la derivada de f en cada paso de la aproximacion. Con frecuencia es m as
difcil calcular f (x) y se requieren mas operaciones aritmeticas para calcularla que para f (x) .
Si queremos evitar el problema de evaluar la derivada en el metodo de Newton, derivamos una
peque na variaci
on. Por denici
on
f (x) f (xn )
f (xn ) = lim .
xxn x xn
el cual depende siempre de los valores de dos iteraciones anteriores, y como valores iniciales se
tienen x0 y x1 , los cuales deben ser elegidos con cierto criterio para tener la convergencia del
metodo. Este metodo iterativo en llamado metodo de la secante.
Comenzando con las dos aproximaciones iniciales x0 y x1 , la aproximaci on x2 es la inter-
seccion del eje x y la recta que une los puntos (x1 , f (x1 )) y (x0 , f (x0 )) . La aproximacion x3
es la interseccion con el eje x y la recta que une los puntos (x1 , f (x1 )) y (x2 , f (x2 )) , y as
sucesivamente.
Las condiciones para garantizar la convergencia del metodo de la secante en un intervalo
abierto J que contiene a la raz r de la ecuacion f (x) = 0 , son las misma que se usan en
el metodo de Newton, es decir, f debe ser continua y f (r) = 0 , pero como en general no
conocemos r en forma exacta vericamos si f (xn ) 0 y f (xn ) = 0 , donde xn es nuestra
aproximacion a la raz.
El siguiente ejemplo incluye un problema que vimos en un ejemplo anterior.
necesitamos dos aproximaciones iniciales. En la siguiente tabla aparecen los calculos con x0 =
0.5 y x1 = 4 , y la f
ormula
n xn
0 0.5
1 0.7853981635
2 0.7363841388
3 0.7390581392
4 0.7390851493
5 0.7390851332
Observaci on. Al comparar los resultados de ahora con los del ejemplo anterior observamos
que x5 es exacto hasta la decima cifra decimal. Notese que la convergencia del metodo de la
secante es un poco mas lenta en este caso que en el metodo de Newton, en el cual obtuvimos
este grado de exactitud con x3 . Este resultado generalmente es verdadero.
El metodo de Newton o el metodo de la secante a menudo se usan para renar las respuestas
conseguidas con otra tecnica, como el metodo de biseccion. Dado que el metodo de Newton
requiere de una buena aproximacion inicial, pero por lo general da una convergencia m
as rapida,
sirve perfectamente para el proposito antes mencionado.
2.4.1 An
alisis del error
Recordemos que el error en el paso n es denido como en = xn r . Ahora como
obtenemos
en+1 = xn+1 r
xn1 f (xn ) xn f (xn1 )
= r
f (xn ) f (xn1 )
f (xn )(xn1 r) f (xn1 )(xn r)
=
f (xn ) f (xn1 )
f (xn )en1 f (xn1 )en
=
f (xn ) f (xn1 )
f (xn ) f (xn1 )
xn xn1 en en1
en+1 = en en1 .
f (xn ) f (xn1 ) xn xn1
Sergio Plaza 39
e2
f (xn ) = f (r + en ) = f (r) +en f (r) + n f (r) ,
2
=0
f (xn ) f (xn1 )
luego en f (r) + en
2 f (r) y en1 f (r) + en1
2 f (r) de donde
f (xn ) f (xn1 ) 1
(en en1 ) f (r) .
en en1 2
Observemos que xn xn1 = en en1 , por lo tanto
f (xn ) f (xn1 )
en en1 1
f (r)
xn xn1 2
y como xn xn1
= 1
, nalmente tenemos
f (xn )f (xn1 ) f (r)
1 f (r)
en+1 en en1 = Cen en1 (2.19)
2 f (r)
2.5 M
etodo de la posici
on falsa
Este metodo es conocido tambien como metodo de Regula Falsi, con el generamos aproxima-
ciones del mismo modo que el de la secante, pero mezclado con el metodo de biseccion, ofrece
por lo tanto una prueba para asegurarse de que la raz quede entre dos iteraciones sucesivas.
Primero elegimos las aproximaciones iniciales x0 y x1 con f (x0 ) f (x1 ) < 0 . La aprox-
imacion x2 se escoge de la misma manera que en el metodo de la secante. Para determinar
con cual secante calculamos x3 vericamos el signo de f (x2 ) f (x1 ) , si este valor es negativo
entonces [x1 , x2 ] contiene una raz y eligiremos x3 como la interseccion del eje x con la recta
que une (x1 , f (x1 )) y (x2 , f (x2 )) ; si no elegimos x3 como la interseccion del eje x con la
recta que une (x0 , f (x0 )) y (x2 , f (x2 )) .
Ejemplo 28 La siguiente tabla contiene los resultados del metodo de Regula Falsi aplicado a
on f (x) = cos(x) x con las mismas aproximaciones iniciales que utilizamos para el
la funci
metodo de la secante en el Ejemplo 27. Notese que las aproximaciones son iguales en x3 y que
en el metodo de Regula Falsi requiere una iteracion m
as para alcanzar la misma exactitud que
la de la Secante.
2.6 M
etodos iterativos de punto fijo
Describimos ahora otro tipo de metodos para encontrar races de ecuaciones, nos referimos a
algunos metodos iterativos de punto jo.
Un punto jo de una funci on g es un punto p para el cual g (p) = p . En esta seccion
estudiaremos el problema de encontrar las soluciones a los problemas de punto jo y la conexi
on
entre estos y la b
usqueda de la raz que deseamos resolver.
Sergio Plaza 40
n xn
0 0.5
1 0.7353981635
2 0.7363841388
3 0.7390581392
4 0.7390848638
5 0.7390851305
6 0.7390851332
El problemas de b
usqueda de races y el problema de punto jo son clases equivalentes en el
siguiente sentido
Dado un problema de buscar una raz de f (x) = 0 , podemos denir una funci on g con
un punto jo en p de diversas formas; por ejemplo, como g (x) = x f (x) o como g (x) =
x + 3f (x) . Si la funci
on g tiene un punto jo en p , es decir, g(p) = p , entonces la funci
on
denida, por ejemplo, como g (x) = x+f (x) o m as general g(x) = x+(x)f (x) , con (p) = 0 ,
tiene un cero en p .
Aunque los problemas que deseamos resolver vienen en forma de b usqueda de races, la forma
de metodo iterativo de punto jo puede ser m as facil de analizar; algunas opciones de punto
jo dan origen a tecnicas poderosas de b
usqueda de races.
Lo primero que debemos de hacer es acostumbrarnos a este tipo de problema, y decidir cuando
una funci
on tiene un punto jo y c
omo podemos aproximar los puntos jos con determinado
grado de precision.
10
6
y
4
ex
Despejando, obtenemos las funciones x = 1 (x) = log(3x2 ) , x = 2 (x) = 3x , x = 3 (x) =
3 x/2
3 e , etc.
Sergio Plaza 41
4
3.5
3 3
2.5
2
2
1 1.5
2.5
1.5
0.5
4
y
2
2 1 0 1 2 3
x
2
aco de g(x) = x2 2
gr
Demostraci on. Usamos el Teorema del Valor Intermedio, para lo cual denimos la funci
on
h(x) = g(x) x . Tenemos, h(a) = g(a) a 0 y h(b) = g(b) b 0 , y siendo h continua,
se sigue existe c [a, b] tal que h(c) = 0 , es decir, g(c) = c .
Sergio Plaza 42
El siguiente teorema contiene condiciones sucientes para la existencia y unicidad del punto
jo.
Corolario 2.1 Supongamos que g : [a, b] [a, b] es continua en [a, b] y derivable en (a, b) .
Supongamos tambien que existe una constante positiva 0 < 1 con |g (x)| , para todo
x (a, b) ( = max{|g (x)| : x [a, b] } ), entonces el punto jo xg de g en [a, b] es u
nico.
Adem as, si elegimos x0 (a, b) arbitrario, entonces la sucesi on (xn )nN denida por
xn+1 = g(xn ), n 0
nico punto jo xg de g .
converge al u
Mas general, si g : [a, b] [a, b] es tal que |g(x) g(y()| |x y| para todo x, y [a, b] ,
con 0 < 1 , entonces g tiene un u nico punto jo xg [a, b] . Ademas, dado x0 [a, b] , la
sucesi
on
xn+1 = g(xn ), n 0
converge a xg .
Demostraci on. Por el teorema anterior sabemos que g tiene un punto jo. Ahora como
|g (x)| < 1 , por el Teorema del Valor Medio, tenemos
para todo x, y [a, b] , donde c esta entre x e y . Ahora bien, supongamos que existen dos
puntos jos xg y xg para g . Tenemos entonces que
..
.
|x1 xg | = |g(x0 ) g(xg )| |x0 xg | ,
Observaci on. El teorema anterior no s olo nos dice que bajo sus condiciones existe un punto
jo u
nico, ademas nos dice como podemos encontrarlo, usando la sucesion generada a partir de
la funci
on g con una condici on inicial arbitraria.
Sergio Plaza 43
y
n
|xn xg | |x1 x0 | .
1
Observaci on. Podemos usar como criterio de parada de un metodo iterativo de punto
jo como los anteriores los siguientes. Sea > 0 una tolerancia dada, entonces paramos las
iteraciones si
1. n max {x0 a, b x0 } ,
n
2. 1 |x1 x0 | ,
3. |xn+1 xn |
0.4
y
0.2
0.4
x2 1
gr
aco de g(x) = 3
Observaci on. Note que g (x) tambien posee un punto jo u nico q = 12 3 + 13 en el
intervalo [3, 4] . Sin embargo, g (q) > 1 , as que g no satisface las hip
otesis del Teorema en
[3, 4] . Esto demuestra que esas hip otesis son sucientes pero no necesarias.
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
x
gr
aco de g(x) = 3
Ejemplo 33 La ecuacion x3 + 4x2 10 = 0 posee una u nica raz en [1, 2] . Hay muchas
formas para convertir dicha ecuacion en la forma x = g (x) mediante simple manejo algebraico.
Por ejemplo, para obtener la funci on que se describe en (c), podemos manipular ecuaci on
x3 + 4x2 10 = 0 , por ejemplo, podemos escribir 4x2 = 10 x3 , por lo tanto x2 = 14 10 x3
1/2
, luego x = g3 (x) = 21 10 x3 .
Para obtener una solucion positiva, elegimos g3 (x) con el signo positivo. Se deja al lector
deducir las funciones que se indica a continuaci
on, pero debemos vericar que el punto jo de
cada una sea realmente una soluci on original x3 + 4x2 10 = 0 .
on de la ecuaci
x3 +4x2 10
(e) x = g5 (x) = x 3x2 +8x .
Con p0 = 1.5 la siguiente tabla proporciona los resultados del metodo de iteraciones de punto
jo para las cinco opciones de g .
La raz exacta es r = 1.365230013 . . . , segun se senalo anteriormente. Al comparar los
resultados del algoritmo de biseccion aplicado para resolver la misma ecuaci on, observamos
que se obtuvieron excelentes resultados con las opciones (3), (4) y (5), ya que el metodo de
biseccion requiere 27 iteraciones para garantizar la exactitud. Conviene se
nalar que la opci
on
(1) ocasiona divergencia y que la opcion (2) se torna indenida en R ya que contiene la raz
cuadrada de un n umero negativo.
A
un cuando las funciones de este ejemplo son problemas de punto jo para el mismo pro-
blema de busqueda de raz, dieren como metodos para aproximar la soluci on a este tipo de
problemas. Su proposito es ilustrar la pregunta que es preciso responder a la siguiente pregunta
Como podemos encontrar un problema de punto jo capaz de producir una sucesion convergente
r
apidamente a una solucion de un problema de b usqueda de raz?
Los siguientes ejemplos nos dan algunas pistas sobre los procedimientos que deberamos seguir
y quiz
a lo m
as importante, algunos que debemos excluir.
Sergio Plaza 46
n g1 g2 g3 g4 g5
0 1.5 1.5 1.5 1.5 1.5
1 -0.875 0.8165 1.286953768 1.348399725 1.373333333
2 6.732 2.9969 1.402540804 1.367376372 1.365230015
3 -469.7 (8.65)1/2 1.345458374 1.364957015 1.365230014
4 1.03 108 1.375170253 1.365264748 1.365230013
5 1.360094193 1.365225594
6 1.367846968 1.36523.576
7 1.363887004 1.365229942
8 1.365916734 1.365230022
9 1.364878217 1.365230012
10 1.365410062 1.365230014
15 1.365223680 1.365230013
20 1.365230236
25 1.365230006
30 1.365230013
10
5
x
4 3 2 1 1 2
10
1/2
Ejemplo 35 Con x = g2 (x) = 10 x 4x , podemos ver que g2 no aplica [1, 2] en [1, 2] y
que la sucesion (xn )nN no esta denida para x0 > 1.58113883 . . . . Ademas, tampoco existe
un intervalo que contenga a r para el cual |g2 (x)| < 1 , pues |g2 (r)| 3.4 .
Sergio Plaza 47
1.8
1.6
y
1.4
1.2
1/2 1/2
Ejemplo 36 Para x = g3 (x) = 12 10 x3 , tenemos que g3 (x) = 34 x2 10 x3 <0
en [1, 2] , as que g3 es estrictamente decreciente en [1, 2] . Sin embargo |g3 (2)| 2.12 por
lo cual la condici on |g3 (x)| < 1 falla en [1, 2] . Un an
alisis mas minucioso de la sucesi
on
(xn )nN con p0 = 1.5 revela que basta considerar el intervalo [1, 1.5] en vez de [1, 2] . En este
intervalo la funci on sigue siendo estrictamente decreciente, pero ademas 1 < 1.28 g3 (1.5)
g3 (x) g3 (1) = 1.5 para todo x [1, 1.5] en vez de [1, 2] . Esto demuestra que g3 aplica
el intervalo [1, 1.5] en si mismo. Ademas |g3 (x)| 0.66 < 1 , por lo cual el Teorema 2.1 nos
garantiza la unicidad del punto jo y la convergencia del metodo iterativo.
1.8
1.6
y
1.4
1.2
1/2
10
5
5
Ejemplo 37 Para x = g4 (x) = 4+x , tenemos |g4 (x)| =
10(4+x) 3/2
10(5)3/2
< 0.15
para todo x [1, 2] . La cota en la magnitud de g4 es mucho menor que magnitud de g3 lo
1.8
1.6
y
1.4
1.2
2.7 M
etodos iterativos de punto fijo en varias variables
Extendemos ahora el resultado de convergencia metodos iterativos de punto jo a funciones de
varias variables. Para ellos tenemos el siguiente teorema.
xn+1 = F (xn ) , n 0.
Demostraci
on. Basta demostrar el siguiente resultado mas debil .
Introducimos el siguiente concepto, que nos ayudara en los siguientes teoremas.
F (xn ), n 0 , es una sucesion de Cauchy, y siendo A cerrado y acotado ella es una sucesion
convergente, cuyo lmite es un punto jo de F . Tenemos
2.7.1 An
alisis de error para m
etodos iterativos de punto fijo
Definici
on 2.2 Supongamos que (pn )nN es una sucesi on que converge a p , con pn = p para
todo n sucientemente grande. Si existen constantes positivas y tales que
|pn+1 p|
lim = (2.22)
n |pn p|
Observaci
on. De la dencion de orden de convergencia (2.22), si n es sucientemente grande,
entonces
|pn+1 p|
|pn+1 p| |pn p| .
|pn p|
Definici
on 2.3 Decimos que un metodo iterativo de punto jo xn+1 = g(xn ) es de orden
con constante de error asint on (xn )nN , donde xn+1 = g(xn ) , con n 0 ,
otica si, la sucesi
es orden con constante de error asint otica .
Observaci on. En general una sucesi on con un orden de convergencia alto, converge mas
r
apidamente que una con un orden de convergencia mas bajo. La constante asint otica inuye
en la rapidez de la convergencia, pero no es tan importante como el orden de convergencia.
1. Si = 1 , la sucesion ser
a linealmente convergente.
2. Si = 2 , la sucesion ser
a cuadr
aticamente convergente.
En el siguiente ejemplo se compara una sucesion linealmente convergente con una de orden
cuadr
atico.
Ejemplo 38 Supongamos que (pn )nN y ( pn )nN convergen a cero, siendo la convergencia
|pn+1 |
de (pn )nN lineal con limn |pn | = 0.5 y la convergencia de (
pn )nN es cuadr
atica con
limn || pn+1 |
pn |2
= 0.5 . Por razones de simplicidad supongamos que |
pn+1 |
|
pn |2
0.5 y que |pn+1 |
|pn |
0.5 . As en la convergencia lineal obtenemos que
2 3 n
|pn 0| = |pn | 0.5 |pn1 | (0.5) |pn2 | (0.5) |pn3 | (0.5) |p0 | ,
Claramente esta u
ltima converge mas rapido que la primera.
atica cuando |p0 | =
La siguiente tabla muestra la rapidez de la convergencia lineal y cuadr
|
p0 | = 1 .
La sucesion con convergencia cuadr atica es del orden de 1038 en el septimo termino. Por
otra parte, se necesitan 126 terminos por lo menos para poder garantizar esta precision en la
sucesion con convergencia lineal.
Sergio Plaza 51
n Lineal Cuadratica
1 5.0000 101 5.0000 101
2 2.5000 101 1.2500 101
3 1.2500 101 7.8125 103
4 6.2500 102 3.0518 105
5 3.1250 102 4.6566 1010
6 1.5625 102 1.0842 1019
7 7.8125 103 5.8775 1039
Teorema 2.10 (orden de convergencia de punto jo) Sea g : [a, b] [a, b] continua.
Supongamos que g es continua en ]a, b[ y que existe una constante positiva 0 < 1 tal que
|g (x)| para todo x ]a, b[ . Si g (p) = 0 , entonces para cualquier punto p0 [a, b] la
sucesi on
pn = g (pn1 ) , n 1
nico punto jo p [a, b] .
converge linealmente al u
Observaci on. El teorema anterior establece que en el caso de los metodos de punto jo, la
olo puede ocurrir si g (p) = 0 . El siguiente resultado describe
convergencia de orden superior s
otras condiciones que garantizan la convergencia cuadratica que deseamos.
Los teoremas anteriores nos indican que nuestra investigacion de los metodos de punto jo
cuadraticamente convergentes deberan conducirnos a funciones cuyas derivadas son anulan en
el punto jo.
La manera mas facil de plantear un problema de punto jo relacionado con la b usqueda de
races de f (x) = 0 consiste en restar un m
ultiplo de f (x) (que desaparecera en la raz). Por
lo tanto, a continuaci
on consideraremos un metodo iterativo de punto jo de la forma
pn = g (pn1 ) , n 1,
con g es de la forma
Teorema 2.12 Una funci on f : [a, b] R , derivable m veces, tiene un cero de multiplici-
dad m en p si f (p) = f (p) = f (p) = = f (m1) (p) = 0 y f (m) (p) = 0 .
2 ex x 1
f (x) = (x 0)
x2
empleando la regla de LHospital, obtenemos que
ex x 1 ex 1 ex 1
lim = lim = lim =
x0 x2 x0 2x x0 2 2
la siguiente tabla muestra los terminos que se generaron con el metodo de Newton aplicado a
f con p0 = 1 .
Teorema 2.13 Supongamos que F dene un metodo iterativo de punto jo y que F (p) = p ,
F (p) = F (p) = = F (m1) (p) = 0 y F (m) (p) = 0 , entonces el metodo iterativo de punto
jo denido por F tiene orden de convergencia m .
Demostraci on. Sea p0 un punto arbitrario y denamos la sucesion (pn )nN por pn+1 =
F (pn ), n 0 . Recordemos que el error es denido por
en = pn p.
Sergio Plaza 53
n pn n pn
0 1.0 9 2.7750 103
1 0.58198 10 1.3881 103
2 0.31906 11 6.9411 104
3 0.16800 12 3.4703 104
4 0.08635 13 1.7416 104
5 0.04380 14 8.8041 105
6 0.02206 15 4.2610 105
7 0.01107 16 1.9142 106
8 0.005545
en+1 = pn+1 p
= F (pn ) F (p)
= F (p + en ) F (p)
e2n em1 em
F (p) + F (p)en + F (p) + + F (m1) (p) n + F (m) (&
p) n F (p)
Taylor
=
2! (m 1)! m!
em
otesis nos queda en+1 = F (m) (&
con p& entre p y p + en . Usando la hip n
p) m! , de donde
2.8 Races m
ultiples
Un metodo para tratar el problema de races m
ultiples consiste en denir la funci
on (x) por
medio de
f (x)
(x) = .
f (x)
m
Si p es un cero de multiplicidad m entonces podemos escribir f (x) = (x p) q (x) , con
q(p) = 0 . Reemplazando, nos queda
1
(p) = = 0,
m
Sergio Plaza 54
f (x)
(x) f (x)
g (x) = x =x
(x) (f (x))2 f (x) f (x)
(f (x))2
n pn
1 2.3421061 101
2 8.4582788 103
3 1.1889524 105
4 6.8638230 103
5 2.8085217 103
(i) (ii)
p1 1.37333333 1.35689898
p2 1.36526201 1.36519585
p3 1.36523001 1.36523001
f (x)
Nm (x) = x m .
f (x)
este metodo tiene convergencia cuadr atica en un intervalo abierto que contiene a p y tiene
convergencia lineal cerca de la races simples de f (x) = 0 .
2.9 Aceleraci
on de convergencia
Existen casos en los que no tenemos convergencia cuadratica, considerando esto a continuaci
on
2
estudiaremos una tecnica denominada metodo de Aitken, la cual sirve para acelerar la
convergencia de una sucesion que sea linealmente convergente.
Supongamos que (pn )n=0 es una sucesion linealmente convergente con limite p . Vamos a
pn )
construir una sucesion ( n=0 convergente a p m
as rapidamente que (pn )n=0 . Supongamos
primero que los signos de pn p, pn+1 p y pn+2 p son iguales y que n es sucientemente
grande para que
pn+1 p pn+2 p
.
pn p pn+1 p
Entonces
2
(pn+1 p) (pn p) (pn+2 p) ,
por lo tanto
al despejar p obtenemos
2
pn+2 pn (pn+1 )
p .
pn+2 2pn+1 + pn
Si sumamos y restamos los terminos p2n y 2pn pn+1 en el numerador podemos escribir esta
u
ltima expresion de la siguiente manera
2
(pn+1 pn )
p pn .
pn+2 2pn+1 + pn
Sergio Plaza 56
El metodo 2 de Aitken se basa en la suposici
on de que la sucesion (
pn )n=0 denida por
2
(pn+1 pn )
pn = pn ,
pn+2 2pn+1 + pn
conocido como metodo de acelaraci
on de Aitken, converge mas rapido a p que la sucesion
original (pn )nN .
Ejemplo 42 La sucesion (pn )nN denida por pn = cos n1 , converge linealmente a p = 1 .
En la siguiente tabla se incluyen los primeros terminos de las sucesiones (pn )nN y (
pn )nN .
Observe que ( pn )nN converge mas rapidamente a p = 1 que (pn )nN . Esto queda claro en la
tabla siguiente
n pn pn
1 0.54030 0.96178
2 0.87758 0.98213
3 0.94496 0.98979
4 0.96891 0.99342
5 0.98007 0.99541
6 0.98614
7 0.98981
La notaci
on asociada a esta tecnica tiene su origen en la siguiente denici
on.
pn = pn+1 pn .
k pn = k1 pn , k 2.
as la f
ormula de aceleracion de convergencia de Aitken se puede escribir como
2
(pn )
p n = pn . (2.24)
2 pn
Teorema 2.14 Supongamos que la sucesi on (pn )nN converge linealmente a p y que para
todos los valores de n sucientemente grandes se tiene que (pn p) (pn+1 p) > 0 . Entonces
la sucesi pn )nN construida por el metodo de aceleraci
on ( on de convergencia de Aitken converge
con mayor rapidez a p que la sucesi on (pn )nN en el sentido que
pn p
lim = 0.
n pn p
Sergio Plaza 57
' ( ' (
p0 , p1 = g (p1 ) , p2 = g (p1 ) , p0 = 2 p0 , p3 = g (p2 ) , p1 = 2 p1
' 2(
donde indica que se usa le metodo 2 de Aitken.
El metodo de Steensen construye los mismos primeros cuatro terminos p0 , p1 , p2 y p0 .
No obstante, en este paso supone que p0 es una mejor aproximacion de p que p2 y aplica la
on de punto jo a p0 en vez de a p2 . Al aplicar esta notacion, la secuencia generada sera
iteraci
(0) (0) (0) (0) (0)
p0 , p1 = g p0 , p2 = g p1 ,
' ( (0)
(1) (1) (1) (1) (1)
p0 = 2 p0 , p1 = g p0 , p2 = g p1 ,
' ( (1)
(2) (2) (2)
p0 = 2 p0 , p1 = g p0 , . . .
1/2
10
g (x) = ,
x+4
Teorema 2.15 Supongamos p que es un punto jo de g (x) , con g (p) = 1 . Si existe > 0
tal que g es 3 veces derivable y que g es continua en [a , p + ] , entonces con el metodo
de Steensen obtendremos convergencia cuadr atica para cualquier x [a , p + ] .
Sergio Plaza 58
(a) Pruebe que g(x) dene un metodo iterativo convergente, encontrando explcitamente un
intervalo cerrado y acotado I = [a, b] tal que g(I) I y una constante 0 < 1 tal
que |g (x)| para todo x I .
(b) Estime el n
umero de iteraciones que debe hacerse con este metodo de modo que se tengan
4 decimales de precision para el punto jo de g en I si tomamos como condicion inicial
el punto x0 = 0.4 .
(c) Use el metodo de Newton para encontrar una aproximaci on al punto jo de g(x) en I .
Use como condicion inicial x0 = 0.4 y como criterio de parada |xn g(xn )| 105 .
Soluci
on
(a) Tenemos que g(x) = 0.1 + 0.6 cos(2x) . Para probar que esta funci
on dene un metodo
iterativo convergente, debemos mostrar que
Es f
acil ver que podemos satisfacer ambas condiciones por separado. Por ejemplo, como
1 cos(2x) 1
0.7
0.6
0.5
0.4
0.3
0.2
0.2 0.3 0.4 0.5 0.6 0.7
x
gr
aco de g en [0.2, 0.7]
Sergio Plaza 59
Sin embargo ninguno de esos intervalos mencionados satisface ambas condiciones. Debe-
mos encontrar un intervalo adecuado donde se satisfacen ambas condiciones.
No se gana mucho considerando un intervalo que no este contenido en [0.2, 0.7] , pues
todo los valores de g(g(x)) estan en este intervalo. Notemos que g(x) es decreciente
sobre este intervalo (considere la derivada) y como g(0.2) = 0.6526365964... y g(0.7) =
0.2019802857... se tiene que g([0.2, 0.7]) = [0.2019802857..., 0.6526365964...] [0.2, 0.7] =
I . Luego, como puntos extremos de I son llevados en I por g , (a) se satisfecha, pero (b)
requiere que el extremo derecho no sea mayor que 0.5 arcsen(1/1.2) 0.49255539 , luego
el punto extremo izquierdo no puede ser menor que la preimagen de este valor bajo g , la
cual es aproximadamente 0.4288 . Ahora, tomando x0 = 0.45 se tiene que x1 = g(x0 )
0.4729659810 < 0.473 = x1 , y podemos tomar el intervalo J = [0.45, 0.473] I , y se tiene
que g(0.45) 0.4729659810 y g(0.473) 0.4509592536 , y siendo g decreciente en ese
intervalo, se tiene que g(J) = [0.4509592536..., 0.4729659810...] [0.45, 0.473] , es decir,
g(J) J . En este intervalo J se tiene que max{|g (x)| : x J} = 0.9732987256... =
< 1 . Luego, el metodo propuesto converge para cada x0 J .
0.8
0.6
y
0.4
0.2
aco de |g (x)| en J
gr
n
(b) Usaremos la formula |xn xg | 1
|x0 x1 | , donde = max{|g (x)| : x J} =
0.9732987256... y xg es el punto jo de g que andamos buscando. Para simplicar,
tomamos un = 0.98 > en el numerador, pues tenemos que 1/(1 ) 37.45139595
y 1/(1 0.98) 50.00 . Luego
n 1 n n |x0 x1 |
|xn xg | |x0 x1 | |x0 x1 | = 50
1
1
f (x)
Nf (x) = x
f (x)
0.1 + 0.6 cos(2 x) x
= x
1.2 sin(2 x) 1
0.5 (12 x sin(2 x) + 1 + 6 cos(2 x))
=
6 sin(2 x) + 5
Comenzando con las iteraciones, y usando que xn+1 = g(xn ) , y trabajando con 12 dgitos
se tiene que
x1 = Nf (0.4) = 0.463425566162 , e1 = |x1 x0 | = 0.13425566162 101
x2 = Nf (x1 ) = 0.461786298387 , e2 = |x2 x1 | = 0.1639267775 102
x3 = Nf (x2 ) = 0.461785307874 , e3 = |x3 x2 | = 0.990513 106
x4 = Nf (x3 ) = 0.461785307873 , e4 = |x4 x3 | = 0.1 1011 .
Ademas, g(x4 ) = 0.461785307873 = x4 , por lo tanto, salvo errores de orden mayor que
1011 se tiene que el punto jo es xg = 0.461785307873
(d) Es f
acil ver gracamente que g tiene un punto jo
.
0.8
0.6
0.4
0.2
gr
aco de g en [0, 1]
Sergio Plaza 61
Soluci on Num erica. Podemos usar el metodo de Newton para aproximar . Para
ello debemos resolver la ecuacion g(x) = x , es decir, si denimos la funci
on r(x) =
0.2 + 0.6 cos(2x) x , dedemos encontrar una raz de r . Ahora, como r(x) = 0.2 +
0.6 cos(2 x) x , se tiene que r (x) = 1.2 sin(2 x) 1 y
r(x)
Nr (x) = x
r (x)
viene dada por
0.2 + 0.6 cos(2 x) x 6 x sin(2 x) + 1 + 3 cos(2 x)
Nr (x) = x =
1.2 sin(2 x) 1 6 sin(2 x) + 5
Tomando y0 = 0.4 , tenemos
y1 = Nr (y0 ) = 0.5171651042 , E1 = 0.1171651042
y2 = Nr (y1 ) = 0.5119943202 , E2 = 0.0051707840
y3 = Nr (y2 ) = 0.5119861755 , E3 = 0.81447 105
y4 = Nr (y3 ) = 0.5119861754 , E4 = 0.1 109
y podemos considerar que salvo un error, = y4 = 0.5119861754 , pues g(y4 ) =
0.5119861753 y g(y4 ) y4 = 0.1 109 , es decir, consideremos
= y4 = 0.5119861753
Ahora, calculemos la constante de Lipschitz de g(x) = 0.1 + 0.6 cos(2x) . Tenemos,
(a) Determine la formula de Newton xn+1 = g(xn ) . Tomando como valor inicial x0 = e ,
calcule las primeras dos iteraciones x1 y x2 del metodo.
(b) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1.
Soluci
on.
(a) La frmula del metodo de Newton para encontrar la raz de f (x) = (x 1) ln x = 0 es:
(xn 1) ln xn xn (xn ln xn + (xn 1) (xn 1) ln xn )
xn+1 = g(xn ) = xn xn 1 =
ln xn + xn xn ln xn + (xn 1)
xn 1 + ln xn
= xn .
xn 1 + xn ln xn
Tomando x0 = e y simplicando al m
aximo, obtenemos
e2 e2 (e + 1)2 2 ln(2e 1)
x1 = y x2 = 2
2e 1 2e 1 e (2 ln(2e 1)) + (e 1)2
cos(x) = tan(x),
de la cual se sabe que tiene una soluci = 0.6662394321 , con un error de 0.9 109 .
on x
(b) Cuantas iteraciones necesitara para obtener el error de 0.9 109 comenzando con
x0 = 0.6 ?
Soluci
on.
(a) Propuesta del metodo.
Despejando de la ecuaci
on tenemos
x = arctan(cos(x)) = g(x) ,
es decir,
Elegimos el intervalo [0, 1] , tenemos que g(x) = arctan(cos(x)) es decreciente en ese inter-
d sen(x)
valo, pues g (x) = arctan(cos(x)) = y como g(0) = arctan(cos(0)) = y
dx 1 + cos2 (x) 4
g(1) = arctan(cos(1)) 0.4953672892 , vemos que g([0, 1]) [0, 1] . Por lo tanto, g tiene un
u
nico punto jo xg en [0, 1] .
0.75
0.7
0.65
0.6
0.55
0.5
0 0.2 0.4 0.6 0.8 1
x
d sen(x)
Ahora, g (x) = arctan(cos(x)) = . Luego,
dx 1 + cos2 (x)
n
|xn x
| |x0 x1 | ,
1
donde 0 < 1 es tal que |g (x)| para todo x ] a, b [ . Ahora como |g (x)| =
|sen(x)| sen(x)
= 1+cos
1+cos2 (x) 2 (x) , para x [0, 1] , es una funci
on creciente, se sigue que
sen(1)
|g (x)| 0.5463024898 0.55
1 + cos2 (1)
0.55n
0.0899997083 0.9 109
1 0.55
0.55n 4.50001458 109
n ln(0.55) ln(4.50001458 109 )
n(0.5978370008) 19.2191852
de donde n 32.14786836 , por lo tanto basta tomar n = 33 iteraciones para tener lo pedido.
(c) Tenemos que Nf (x) = x ff(x)(x) , donde en este caso, f (x) = tan(x) cos(x) . Como
2
f (x) = 1 + tan (x) + sen(x) , se tiene que
tan(x) cos(x)
Nf (x) = x
1 + tan2 (x) + sen(x)
1. Compruebe que esta ecuacion tiene exactamente una solucion en el intervalo [1, 2] .
Soluci
on.
Sergio Plaza 65
1. Tenemos la ecuacion
x3 ln(1 + 2x) = 0
tenemos
3
x= ln(1 + 2x) .
3
xn+1 = g(xn ) = ln(1 + 2xn ) .
Tenemos
2 1 1
g (x) = >0
3 (ln(1 + 2x))2/3 2x + 1
1 < 1.03184584
. .. 1.171902307
. .. 2
g(1) g(2)
de donde g([1, 2]) [1, 2] y como g es estrictamente creciente, en ese intervalo, g tiene
nico punto jo xg g([1, 2]) [1, 2] .
un u
Para ver la convergencia del metodo propuesto, debemos probar que |g (x)| < 1 para
todo x [1, 2] .
Ahora, g (x) es decreciente en [1, 2] y g (1) = 0.208717132 > g (x) > g (2) = 0.0970858457 .
Por lo tanto = max{|g (x)| : x [1, 2]} = 0.2087170132 y es claro que < 1 .
Por lo tanto el metodo propuesto es convergente al u
nico punto jo de g en [1, 2] .
Sergio Plaza 66
3. Tomando x0 = 1 , tenemos que x1 = g(1) = 3
ln(3) = 1.03184584 . . .Usando la formula
n
|xg xn | |x1 x0 |,
1
on de 104 , imponemos entonces que
si queremos precisi
n
|x1 x0 | 104 .
1
Como |x1 x0 | = |0.0318458398 . . .| < 0.032 (para evitar el calculo con tantos decimales)
y = 0.2087170132 , se tiene 1 = 0.7912829868 . . . > 0.79 (misma razon anterior)
1 1
As < , y como < 0.21 nos queda
1 0.79
n (0.21)n
.
1 0.79
Luego
n (0.21)n
|x1 x0 | 0.032 = (0.21)n 0.0405063 . . . (0.21)n 0.041
1 0.79
104
y hacemos 0.041 (0.21)n < 104 , de donde (0.21)n < , y entonces
4 0.041
10
n ln(0.21) ln y como ln(0.21) < 0 , se sigue que
0.041
104
ln
0.041
n 3.8549104 . . .
ln(0.21)
x21 + x2 37 = 0
x1 x22 5 = 0
x1 + x2 + x3 3 = 0
(a) Utilizando el metodo de Newton para sistemas no lineales y tomando como punto inicial
x0 = (0, 0, 0)T , obtenga el punto x1 .
(b) Cuando se utiliza el metodo de Newton para sistemas no lineales, una alternativa para
no calcular la inversa de una matriz en cada iteraci on es resolver un sistema auxiliar de
ecuaciones linwales en cada iteracion, lo cual es desde el punto de vista numerico siempre
resulta mas conveniente.
Describa el sistema de ecuaciones lineales que debera resolver para obtener el punto x1
de la parte (a) y calcule el n
umero de condicionamiento de la matriz del sistema con
respecto al redio espectral puede inferir algo sobre la estabilidad de las soluciones del
sistema?
Sergio Plaza 67
Soluci
on. Tenemos el sistema de ecuaciones no lineales siguiente
x21 + x2 37 = 0
x1 x22 5 = 0
x1 + x2 + x3 3 = 0
f1 (x1 , x2 , x3 ) = x21 + x2 37
f2 (x1 , x2 , x3 ) = x1 x22 5
f3 (x1 , x2 , x3 ) = x1 + x2 x3 3
Ahora,
f1 f1 f1
x1 x2 x3
f2 f2 f2
JF = .
x1 x2 x3
f3 f3 f3
x1 x2 x3
Derivando, tenemos
F f1 f2 f3
= , , = (2x1 , 1, 1)
x1 x1 x1 x1
F f1 f2 f3
= , , = (1, 2x1 , 1)
x2 x2 x2 x2
F f1 f2 f3
= , , = (0, 0, 1)
x3 x3 x3 x3
Luego,
2x1 1 0
JF (x1 , x2 , x3 ) = 1 2x2 0 .
1 1 1
0 1 0
JF (0, 0, 0) = 1 0 0 .
1 1 1
Para calcular (JF (0, 0, 0))1 , lo podemos hacer en forma simple, escribiendo
0 1 0 a11 a12 a13 1 0 0
1 0 0 a21 a22 a23 = 0 1 0
1 1 1 a31 a32 a33 0 0 1
de donde a21 = 1 , a22 = 0 , a23 = 0 , a11 = 0 , a13 = 0 , a11 + a21 + a31 = 0 , de donde,
a31 = 1 ; a12 + a22 + a32 = 0 , de donde, a32 = 1 ; a13 + a23 + a33 = 1 , de donde, a33 = 1 .
Por lo tanto,
1
0 1 0 0 1 0
1 0 0 = 1 0 0
1 1 1 1 1 1
b) Para obtener la formula pedida, recordemos lo hecho en clases para sistemas de ecuaciones
no lineales, en este caso de 3 3 . Sean (x1 , x2 , x3 ) una solucion aproximada del sistema de
ecuaciones no lineales, y sea (x1 + h1 , x2 + h2 , x3 + h3 ) la soluci
on exacta. Aplicando Taylor,
obtenemos
f1 f1 f1
0 = f1 (x1 + h1 , x2 + h2 , x3 + h3 ) f1 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3
f2 f2 f2
0 = f2 (x1 + h1 , x2 + h2 , x3 + h3 ) f2 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3
f3 f3 f3
0 = f3 (x1 + h1 , x2 + h2 , x3 + h3 ) f3 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3
donde las derivadas parciales est
an evaluadas en (x1 , x2 , x3 ) . De lo anterior, tenemos que
h1
JF (x1 , x2 , x3 ) h2 = F (x1 , x2 , x3 ) .
h3
Ahora, usando los datos, tenemos
37
(0) (0) (0)
F (x1 , x2 , x3 ) = 5 ,
3
Sergio Plaza 69
0 1 0
(0) (0) (0)
JF (x1 , x2 , x3 ) = JF (0, 0, 0) = 1 0 0 .
1 1 1
0 1 0 h1 37
1 0 0 h2 = 5
1 1 1 h3 3
De aqu, h2 = 37 , h1 = 5 y h1 + h2 + h3 = 3 , de donde h3 = 39 .
Ahora, como
(1)
(0)
x1 x1 h1
(1) (0)
x2 = x2 + h2 ,
(1) (0) h3
x3 x3
se tiene que
(1)
x1 5
(1)
x2 = 37
(1) 39
x3
)
max{|| : valor propio de AAT }
k(A) = .
min{|| : valor propio de AAT }
LLamando
0 1 0
A= 1 0 0 ,
1 1 1
Se tiene que
0 1 1
AT = 1 0 1 .
0 0 1
Luego
0 1 0 0 1 1 1 0 1
AAT = 1 0 0 1 0 1 = 0 1 1
1 1 1 0 0 1 1 1 3
Sergio Plaza 70
1 0 1
AA I = 0
T
1 1
1 1 3
y
Problema 2.6 Resuelva usando el metodo de Newton para varias variables, el siguiente sistema
no lineal:
3x21 x22 = 0
3x1 x22 x31 = 1
Para esto, tome como punto inicial x(0) = (1, 1)T y realice dos iteraciones, es decir, calcule x(1)
y x(2) .
Soluci
on. Tenemos el sistema de ecuaciones no lineales
f (x, y) = 3x2 y 2 = 0
g(x, y) = 3xy 2 x3 1 = 0 .
Sea F (x, y) = (f (x, y), g(x, y)) . El metodo de Newton aplicado a F es dado por
Ahora,
f f
(x, y) (x, y)
x y
6x 2y
JF (x, y) = = .
g g 3y 3x2
2
6xy
(x, y) (x, y)
x y
x1 x0
= (JF (x0 , y0 ))1 F (x0 , y0 )
y1 y0
y
6 2
JF (x0 , y0 ) = JF (1, 1) =
0 6
Sergio Plaza 71
1 1
6 2 6 18 2
1 =
(JF (1, 1))1 =
36 1
0 6 0 6 1
2 1 1
= + ,
6 18 6
7 1
= ,
18 6
(1) 7 1 11 5
x = (x1 , y1 ) = (1, 1) , = ,
18 6 18 6
11 5
11 5 3 3
JF (x1 , y1 ) = JF , =
18 6 26 55
27 18
2075
luego det JF (x1 , y1 ) = .
162
Ahora,
55 5 99 54
18
3 415 415
162
(JF (x1 , y1 ))1 = =
2075 26 11 156 594
27 3 2075 2075
As
99 54 23
415
415 54
(JF (x1 , y1 ))1 F (x1 , y1 ) =
156 594 131
2075 2075 2916
1204 2147
= ,
11205 112050
= (0.1074520303 , 0.01916108880) .
Luego,
Sergio Plaza 72
11 5
1204 2147
x(2) = (x2 , y2 ) = , ,
18 5
11205 112050
11287 47761
= ,
22410 56025
= (0.5036590808 , 0.8524944221)
Una forma alternativa y mas simple es resolver en cada paso un sistema de ecuaciones lineales,
para ello recordemos que el metodo de Newton es dado
xn+1 xn hn
= + ,
yn+1 yn kn
hn
donde es la soluci
on del sistema de ecuaciones lineales
kn
hn
JF (xn , yn ) = F (xn , yn )
kn
6x 2y
JF (x, y) =
3y 2 3x2 6xy
6 2
Como (x0 , y0 ) = (1, 1) nos queda JF (x0 , y0 ) = y F (x0 , y0 ) = (2, 1) , obtenemos
0 6
as el sistema de ecuaciones lineales
6 2 h0 2
=
0 6 k0 1
1
de donde 6k0 = 1 , es decir, k0 = ; la otra ecuacion es 6h0 2k0 = 2 , y de aqu
6
7
h0 = . Luego
18
7 11
x1 1 18 18
= +
=
1 5
y1 1
6 6
x2
Para debemos resolver el sistema
y2
h1
JF (x1 , y1 ) = F (x1 , y1 )
k1
Este sistema es
Sergio Plaza 73
11 5 23
3
3
h1
54
=
26 55 k1 131
27 18 2916
cuya soluci
on es
1024 2147
(h1 , k1 ) = , = (0.10745203030 , 0.01916108880) .
11205 112050
Luego,
11 1024 5 2147
(x2 , y2 ) = (x1 , y1 ) + (h1 , k1 ) = , + = (0.5036590808 , 0.8524944221)
18 11205 6 112050
2.11 Ejercicios
Problema 2.1 Use el manejo algebraico para demostrar que las siguientes funciones tienen un
punto jo en p exactamente cuando f (p) = 0 , donde f (x) = x4 + 2x2 x 3 .
1/4
1. g1 (x) = 3 + x 2x2
1/2
x+3x4
2. g2 (x) = 2
1/2
x+3
3. g3 (x) = x2 +2
3x4 +2x2 +3
4. g4 (x) = 4x3 +x1
2. Cu
al funci
on, a su juicio, dar
a la mejor aproximaci
on a la soluci
on?
Problema 2.3 Se proponen los siguientes metodos para calcular 211/3 . Clasique por orden,
andose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
bas
20pn1 + 21
p2
n1
1. pn = 21
p3n1 21
2. pn = pn1 3p2n1
p4n1 21pn1
3. pn = pn1 p2n1 21
1/2
21
4. pn = pn1
Problema 2.4 Aplique el metodo de biseccion para determinar c3 , para f (x) = x cos(x)
en [0, 1] .
Sergio Plaza 74
Problema 2.5 Sea f (x) = 3 (x + 1) x 12 (x 1) . Aplique el metodo de biseccion para
determinar c3 en los siguientes intervalos
1. 2, 32
2. 54 , 52
Problema 2.6 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproxiamciones a las soluciones de x3 7x2 + 14x 6 = 0 con una exactitud de 102 .
1. [0, 1]
2. 1, 165
3. 165 ,4
Problema 2.7 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproximaciones a las soluciones de x4 2x3 4x2 + 4x + 4 = 0 con una exactitud de 102 .
1. [2, 1]
2. [0, 2]
3. [2, 3]
4. [1, 0]
Problema 2.9 Aplique el metodo de biseccion para determinar una aproximaci on a la soluci
on
de 2 + cos (ex 2) ex = 0 con una exactitud de 103 en el intervalo 12 , 32
Problema 2.10 En cada caso aplique el metodo de biseccion para determinar una aproxi-
on con una exactitud de 105 .
macion a la soluci
1. x 2x = 0 para x [0, 1] .
2. ex x2 + 3x 2 = 0 para x [0, 1] .
2
3. 2x cos (2x) (x + 1) = 0 para x [3, 2] y para x [1, 0] .
3
4. x cos (x) 2x2 + 3x 1 = 0 para x 15 , 10 y para x 65 , 13
10 .
Problema 2.11 Determine una aproximaci
on de 3 con una exactitud de 104 usando el
metodo de biseccion.
Problema 2.12 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 103 de la soluci
on de x3 + x 4 = 0 en el intervalo
[1, 4] .
Sergio Plaza 75
Problema 2.13 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 103 de la soluci
on de x3 x 1 = 0 en el intervalo
[1, 2] .
10
Problema 2.14 Sea f (x) = (x 1) , p = 1 y pn = 1 + n1 . Demuestre que |f (pn )| < 103
para todo n > 1 , mientras que |p pn | < 103 solo si n > 1000 .
n 1
Problema 2.15 Sea (pn )nN la sucesion dada por pn = k=1 k . Demuestre que (pn )nN
un cuando limn (pn pn1 ) = 0 .
diverge a
Problema 2.16 Los cuatro siguientes metodos tienen por objeto calcular 71/5 . Clasique por
andose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
orden, bas
1/2
7p3n1
1. pn = 1 + p2n1
p5n1 7
2. pn = pn1 p2n1
p5n1 7
3. pn = pn1 5p4n1
p5n1 7
4. pn = pn1 12
2. Suponga que realizamos iteraciones con el metodo propuesto en el item anterior hasta
obtener un error absoluto no mayor que 105 respecto de la raz exacta. Sin utilizar
calculadora, encuentre este n
umero de iteraciones, para ellos use el intervalo [a, b] explic-
itado.
Problema 2.23 Aplique el metodo de Newton para obtener soluciones con una exactitud de
105 para los siguiente problemas.
1. x3 2x2 5 = 0 , x [1, 4] .
2. x cos x = 0 , x 0, 2 .
3. x3 + 3x2 1 = 0 , x [3, 2] .
4. x 0.8 0.2sen(x) = 0 , x 0, 2 .
5. ex + 2x + 2 cos(x) 6 = 0 , x [1, 2] .
6. ln (x 1) + cos (x 1) = 0 , x [1.3, 2] .
2
7. 2x cos(x) (x 2) = 0 , x [2, 3] .
8. sen(x) ex = 0 , x [0, 1] .
Problema 2.24 Utilice el metodo de Newton para aproximar con exactitud de 105 el valor
de x en la graca de y = x2 mas cercano del punto (1, 0) .
Problema 2.25 Utilice el metodo de Newton para aproximar con exactitud de 105 el valor
de x en la graca de y = x1 mas cercano del punto (2, 1) .
Problema 2.26 Con una exactitud de 105 y utilizando el metodo de Newton resuelva la
ecuacion 12 + 14 x2 xsen(x) 12 cos (2x) = 0 , con condici
on inicial x0 = 2 . Explique por que
el resultado parece poco usual para el metodo de Newton. Tambien resuelva la ecuacion con
x0 = 5 y x0 = 10 .
d) Demuestre la convergencia de los iterados del metodo de Newton cerca de la raz que
encontr
o b).
f (x)f (x)
Sf (x) = x .
(f (x))2 f (x)f (x))
Considere las dos condiciones iniciales x0 = 1.07 y x0 = 1.06 y realice las iteraciones en
ambos caso Que ocurre?
Problema 2.28 Se sabe que la ecuacion 2x4 + 24x3 + 61x2 16x + 1 = 0 tiene dos raices
cerca de 0.
1. Usando el metodo de Newton encuentre estas dos raices, con un error absoluto de 106 .
2f (xn )f (xn )
xn+1 = xn
2(f (xn ))2 f (xn )f (xn )
4. Pruebe que este nuevo metodo iterativo tiene orden de convergencia 3 alrededor de cada
raz simple de una ecuacion f (x) = 0 , donde f (x) es al menos 3 veces derivable, con
f (x) continua.
(a) Usando el metodo de regula falsi encuentre una raz positiva de la ecuacion.
(b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
la raz encontrada en (a) de la ecuacion.
1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.
Sergio Plaza 78
(a) Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
on = 10 . La demostracion de la convergencia debe hacerse sin iteraciones.
soluci
1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.
Problema 2.33 Utilice el metodo de Newton para encontrar las soluciones de los siguientes
problemas con una exactitud de 105 , usando uno de los criterios de paradas especicados
arriba.
Problema 2.34 Repita el ejercicio anterior, aplicando el metodo de Newton modicado Mejora
la rapidez o la exactitud en comparaci
on con el ejercicio 1.?
Problema 2.35 Demuestre que las siguientes sucesiones convergen linealmente a p = 0 Que
tan grande debe ser n para que |pn p| 5 102 ?
1 1
a.) pn = n, n 1, b. ) pn = n2 , n1
n
Problema 2.36 Demuestre que la sucesion pn = 102 converge cuadr
aticamente a cero.
c
Problema 2.37 Demuestre que la sucesion pn = 10n no converge cuadr
aticamente a cero,
sin importar el tama
no del exponente c > 1 .
Problema 2.38 Demuestre que el algoritmo de biseccion determina una sucesion con una cota
de error que converge linealmente a cero.
Sergio Plaza 79
Problema 2.39 El metodo iterativo para resolver f (x) = 0 , dado por el metodo de punto
jo g (x) = x , donde
2
f (pn ) f (pn ) f (pn )
pn+1 = g (pn ) = pn ,
f (pn ) 2f (pn ) f (pn )
x2 + y 2 9 = 0
2 2
x + y 8x + 12 = 0
2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime el error del resultado de la tercera iteraci
on respecto a la soluci
on exacta (, ) =
( 21
8 , 135
8 ) .
2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime
el error del resultado de la tercera iteracion respecto a la soluci
on exacta (, ) =
(3, 12 ) .
on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 80
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)
2. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
soluci
on de f (x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.
xn e1/xn
xn+1 = g1 (xn ) = xn x2n
x2n + e1/xn
1 xn ln(xn )
xn+1 = g2 (xn ) = xn + .
1 + ln(xn )
Use el metodos que demostro ser convergente para encontrar una solucion de f (x) = 0 ,
con una precision = 103 , con el criterio de parada |xn+1 xn | , y comenzando
con x0 = 1.76 .
on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 81
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)
2. Aplique el metodo de Newton con las mismas condiciones iniciales. Obtenga dos itera-
ciones hay convergencia en este caso?
on = 103 Cu
3. Si considera una precisi al es la soluci
on aproximada que se obtiene?
3. Partiendo del punto inicial (x0 , y0 ) = (0.95, 0.23) realice 2 iteraciones con ambos metodos.
Compare los resultados. Cu al es su conclusi on?
Muestre que si h es elegido sucientemente peque no y no cero, entonces el sistema tiene una
u
nica soluci
on = (1 , 2 ) en alguna regi on rectangular. Adem as, muestre que el metodo
iterativo de punto jo denido por el sistema es convergente a la solucion para cualquier
eleccion (x0 , y0 ) elegida en la region que determin
o. (La demostracion de la convergencia debe
hacerse sin iterar.)
1. Proponga un metodo de punto jo, no Newton, convergente para encontrar una soluci
on
del sistema. La demostracion de la convergencia debe hacerse sin iterar.
2. Demuestre sin iterar que el metodo de Newton es convergente en un region que contiene
una soluci
on del sistema, y encuentre una soluci on de 103 usando
on con una aproximaci
la norma || || .
f (x)
(a) Demuestre que el metodo iterativo de punto jo g(x) = x m tiene orden de
f (x)
convergencia la menos 2.
(b) Use la parte a) para calcular la raz positiva de x4 1 = 0 , redondeando cada operaci
on
a 4 dgitos y con una precision de 103 , comenzando con x0 = 0.8 .
Problema 2.55 Considere el polinomio f (x) = 230x4 + 18x3 + 9x2 221x 9 . Se sabe que
este polinomio tiene una raz en el intervalo [0, 1] .
a) Use el metodo de biseccion para aproximar la raz de f (x) con una presicion de 103 .
b) Use el metodo de Newton para aproximar la raz de f (x) con una presicion de 105 ,
comenzando con x0 = 0.3 .
c) Proponga un metodo iterativo de punto jo convergente para aproximar la raz de f (x) .
La convergencia debe demostrarla sin iterar.
x2 + xy 3 = 9
3x2 y y 3 = 4
Estudie la convergencia del metodo de Newton para el sistema, suponiendo que su condicions
iniciales son:
Sergio Plaza 84
1. Demuestre, sin iterar, que el metodo iterativo de Newton es convergente para este caso.
2
x + x(x + y) 0.5 = 0
y + y(y x)2 0.5 = 0
b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
(, ) .
sen(3x2 y) = x
cos(x) 3 cos(x3 y 2 ) = y
Problema 2.62 Considere la ecuacion x4 3x3 + 4x2 3x + 1 = 0 . Esta tiene una raz = 1
1. Use el metodo de Newton para determinar dicha raz , partiendo desde x0 = 0.8 y
realizando 5 iteraciones.
1. Proponga un metodo de punto jo (no del tipo Newton) convergente a la raz = 2 . La
demostracion de convergencia debe hacerse sin iterar.
1. Usando el metodo iterativo de Newton, comenzando con x0 = 0.3 . Encuentre una raz
on de 104 , utilizando la m
negativa de f (x) = 0 con precisi axima capacidad de dgitos
de su calculadora.
1. Demuestre (te
oricamente) que la ecuacion tiene una raz en el intervalo [0, 1] .
2. Usando el metodo de biseccion encuentre la raz , con una precision de 103 . Cu antos
iteraciones seran necesarias para obtener una aproximaci on de la raz, con precisi
on de
103 , en el peor de los casos? (Use la formula de la cota del error).
Sergio Plaza 86
3. Use el metodo de Newton para determinar dicha raz , partiendo desde x0 = 0.8 con
una precision de 103 .
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
Problema 2.68 Considere la ecuacion f (x) = x3 5x2 +3x7 = 0 . Se sabe que esta ecuacion
tiene una raz cerca de 4.6783 .
1. Use el metodo de Newton para obtener una aproximaci on para con una presicion =
108 , utilizando como criterio de parada |f (xn )| < , y como punto inicial a x0 = 4.67 .
Justique teoricamente la convergencia del metodo de Newton en este caso.
3. Cu
al de ellos converge m
as rapido?
1. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
soluci
on de f (x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.
xn e1/xn 1 xn ln(xn )
xn+1 = g1 (xn ) = xn x2n y xn+1 = g2 (xn ) = xn +
x2n + e1/xn 1 + ln(xn )
on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
. Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto
en 2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)
2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime
el error del resultado de la tercera iteraci
on respecto a la soluci
on exacta (, ) =
21 135
( 8 , 8 ).
2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime
el error del resultado de la tercera iteracion respecto a la soluci
on exacta (, ) =
(3, 12 ) .
on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 89
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)
(a) Determine la formula de Newton xn+1 = g(xn ) para calcular el cero de la funcion f .
Tomando como valor inicial x0 = 1, calcule seg un la f
ormula de iteraci
on de Newton
encontrada en la parte (a) los valores de x1 , x2 y x3 .
(b) Calcule usando como valores iniciales x0 y x1 obtenidos en (a), los valores de x2 y x3
usando el metodo de la secante. Podra usted usar el metodo de Regula-falsi?. Explique
su respuesta en el caso negativo o partiendo de dos puntos iniciales apropiados x0 y x1 ,
obtenga los valores de x2 y x3 en caso armativo.
(c) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1. De un metodo alternativo de iteracion que garantice un orden de convergencia
p = 2 y demuestre que efectvamente este es su orden de convergencia.
Problema 2.77 Aplique el metodo de la biseccion y regula falsi para encontrar una aproxi-
macion a soluci on x = tan(x) en [4,4.5]. Use una tolerancia de 103 .
on de ecuaci
Problema
2.78 Use el metodo de la biseccion y regula falsi para encontrar una aproximaci
on
a 5 correcta en 5 cifras signicativas. Sugerencia: considere f (x) = x2 5 .
Problema 2.79 Calcule el n umero de iteraciones que se requieren usando el metodo de biseccion
para alcanzar una aproximacion con una exactitud de 103 a la soluci on de x3 + x 4 = 0 que
se encuentra en el intervalo [1, 4] . Obtenga una aproximaci on de la raz con este grado de
exactitud.
Problema 2.80 Sean f (x) = (x 1)10 , = 1 y xn = 1 + 1/n . Pruebe que |f (xn )| < 103
siempre que n > 1 pero que |xn | < 103 requiere que n > 1000 . Este ejercicio muestra una
on f (x) tal que |f (xn )| se aproxima a cero, mientras que la sucesi
funci on de aproximaciones
(xn )nN lo hace mucho mas lento.
k=1
Problema 2.81 Sea (xn )nN la sucesion denida por xn = 1/k . Pruebe que (xn )nN
un cuando limn (xn xn1 ) = 0 . Este ejercicio muestra una sucesion (xn )nN con
diverge a
la propiedad de que las diferencias xn xn1 (en referencia al error relativo) convergen a cero,
on (xn )nN diverge.
mientras que la sucesi
Problema 2.82 El metodo dede biseccion se puede aplicar siempre que f (a)f (b) < 0 . Si f (x)
tiene mas de un cero en (a, b) se podr a saber de antemano cual cero es el que se encuentra al
aplicar el metodo de la biseccion? ilustre su respuesta con ejemplos.
Sergio Plaza 90
Problema 2.83 Las siguientes funciones cumplen con la condici on f (a) f (b) < 0 , donde
a = 0 y b = 1 . Si se aplica el metodo de biseccion en el intervalo [a, b] a cada una de esas
funciones Que punto se encuentra en cada caso? Es este punto un cero de f ?
1 1, para x > 0
a. f (x) = (3x 1) b. f (x) = cos(10x) c. f (x) =
1, para x 0 .
Problema 2.84 Verique que se puede aplicar el metodo de biseccion para aproximar el u nico
3
cero de la funcion f (x) = x x 1 en el intervalo [1, 2] Cu antas iteraciones seran necesarias
para que al aplicar el metodo de biseccion en el intervalo [1,2] se logre una aproximacion de por
lo menos 3 cifras decimales exactas? Calcule tal aproximacion.
Problema 2.85 Estudie la funci on g(x) = 1 + x2 como una posible funci on de iteraci
on de
punto jo Por que no es convegente la iteracion xn = g(xn1 ) , n = 1, 2, . . .? .
Problema 2.86 Verique que cada una de las siguientes funciones gi (x) , i = 1, 2, 3, 4 es una
funci
on de iteraci on de punto jo para la ecuaci on x4 + 2x2 x 3 = 0 , es decir, = gi () ,
i = 1, 2, 3, 4 implica que f () = 0 , siendo f (x) = x4 + 2x2 x 3
3x4 + 2x2 + 3
d) g4 (x) = .
4x3 + 4x 1
Efectue 4 iteraciones, si es posible, con cada una de las funciones de iteracion denidas
arriba, tomando x0 = 1 y xn = gi (xn1 ), i = 1, 2, 3, 4 Cu
al funci
on cree usted que da la mejor
aproximacion? Explique.
Problema 2.87 Demuestre que la ecuacion 2 sin (x) + x = 0 tiene una u nica raz
[1/2, 3/2] . Use un metodo de iteraci
on de punto jo para encontrar una aproximaion de con
una precision de por lo menos tres cifras signicativas.
Problema 2.88 Pruebe que la funci on g(x) = 2 + x tan1 (x) tiene la propiedad |g (x)| < 1
para toda x . Pruebe que g no tiene un punto jo. Explique porque esto no contradice los
teoremas sobre existencia de punto jo.
Problema 2.89 Use un metodo iterativo de punto jo para demostrar que la sucesi
on (xn )nN
denida por
1 2
xn+1 = xn + , n = 0, 1, 2, . . .
2 xn
converge a 2 para x0 > 0 escogido adecuadamente.
En general, si R > 0 , entonces la sucesion (xn )nN denida por
Sergio Plaza 91
1 R
xn+1 = xn + , n = 0, 1, 2,
2 xn
converge a R para x0 > 0 escogido adecuadamente. Esta sucesi
on se usa con frecuencia
en subrutinas para calcular races cuadradas.
Problema 2.90 Cu
al es el valor de la siguiente expresion?
+ *
x= 2+ 2 + 2+
Note
que esta on puede ser interpretada como signicado x = limn xn , donde
expresi
x0 = 2, x1 = 2 + 2 = 2 + x0 y as sucesivamente. USe un metodo de punto jo con una
funci
on de iteraci
on g(x) apropiada.
Problema 2.91 Resuelva la ecuacion 4 cos(x) = ex con una precision de 5 105 , es decir,
calcular las iteraciones xn hasta que |xn xn1 | < 5 105 usando
x 2
sen(x) = 0, con x0 = .
2 2
Itere hasta obtener una precision de 5 105 para la raz aproximada con f (x) = (sen(x)
x 2
2) e parecen los resultados fuera de lo comun para el metodo de Newton? Resuelva tambien
la ecuacion con x0 = 5 y x0 = 10 .
2
f (xn ) f (xn )
xn+1 = xn + h(xn )
f (xn ) f (xn )
Problema 2.95 Considere una rma que desea maximizar sus ganancias, eligiendo el precio
de venta de su producto, denotado por y y la cantidad gastada en publicidad, denotada por
z . Para esto, se supone que la funci
on de benecio B viene dada por
B = yx (z + g2 (x)),
B = Benecio
x = n
umero de unidades vendidas
y = precio de venta por unidad
z = dinero gastado en publicidad
g1 (y, z) representa una prediccion de unidades vendidas
cuando el precio es y y el gasto en publicidad es z
g2 (x) es el costo de producir unidades
ametros ai y ei son
y los par
Se pide encontrar los valores de y y de z que maximicen el Benecio B . Para esto, resuelva
el sistema no lineal
B(y, z) = 0.
Problema 2.96 Sea f (x) = ex 1 cos(x) . Muestre que la ecuacion f (x) = 0 tiene
una u
nica raz en [0, 1] . Estudie que ocurre con el metodo de Newton comenzando con las
condiciones iniciales x0 = y x0 = 1 + , x0 = 0 y x0 = 1 .
8x1
Problema 2.97 Dena f : ]0, [ R denida como f (x) = x ex . Considere los
metodos iterativos
1 8xn 1
xn+1 = f1 (xn ) = (1 + xn exn ) y xn+1 = f2 (xn ) = ln
8 xn
Cual de ellos es convergente a la raz de f (x) = 0 mas pr
oxima de cero? Cual de ellos es
convergente a la raz de f (x) = 0 mas pr
oxima de 2?
Problema 2.98
Problema 2.99
Es com
un obtener la f
ormula de iteraci
on de Newton
f (x)
Nf (x) = x
f (x)
mediante un argumento geometrico. En esta nota veremos que podemos obtener esa f
ormula a
partir del Teorema Fundamental del C
alculo.
Del teorema Fundamental del C
alculo tenemos que
x
f (x) = f (xn ) + f (t)dt (2.25)
xn
aproximando el valor de la integral por el area del rectangulo de base xn , x y altura f (xn ) ,
obtenemos
x
f (t)dt f (xn )(x xn ) (2.26)
xn
de donde
f (xn )
xn+1 = xn (2.29)
f (xn )
2.13 Otras f
ormulas iterativas
Ahora si usamos la regla de Simpson para aproximar las integral (que estudiaremos en forma
detallada en un captulo mas adelante)
x
f (t)dt ,
xn
obtenemos
x
x xn x + xn
f (t)dt [f (x) + 4f ( ) + f (xn )] (2.30)
xn 6 2
y tenemos la ecuacion
Sergio Plaza 94
x xn x + xn
f (xn ) + [f (x) + 4f ( ) + f (xn )] = 0 (2.32)
6 2
de donde
6f (xn )
xn+1 = xn (2.33)
f (xn+1 ) + 4f ( xn +x
2
n+1
) + f (xn )
f (xn )
si reemplazamos xn+1 por xn+1 = xn f (xn ) en el lado derecho de la igualdad anterior,
obtenemos la f
ormula iterativa
6f (xn )
xn+1 = xn (2.34)
f (xn ) 1 f (xn )
f xn f (xn ) + 4f xn 2 f (xn ) + f (xn )
2f (xn )
xn+1 = xn (2.35)
f (xn )
f (xn ) + f xn f (xn )
que tambien es de orden de convergencia 3 en las races simples de f (x) . Para obtener esta
f
ormula iterativa, aproximamos la integral
x
f (t)dt
xn
Resolviendo la ecuacion
(x xn )
Mf (x) = f (xn ) + (f (x) + f (xn )) = 0 , (2.37)
2
si xn+1 es su soluci
on, obtenemos
(xn+1 xn )
f (xn ) + (f (xn ) + f (xn+1 )) = 0 , (2.38)
2
de donde
2f (xn )
xn+1 = xn (2.39)
f (xn ) + f (xn+1 )
Sergio Plaza 95
2f (xn )
xn+1 = xn . (2.40)
f (xn )
f (xn ) + f xn f (xn )
Captulo 3
Ax = b, (3.2)
T T
donde A = (aij )nn M (n n, R) , b = (b1 , b2 , . . . , bn ) Rn y x = (x1 , x2 , . . . , xn )
Rn es la inc
ognita.
En la siguiente seccion estudiaremos algunos metodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos metodos iterativos .
96
Sergio Plaza 97
Observaci
on.
3. Si A M (n n, R) es no singular, entonces
1 1
||A1 ||2 = = ,
inf{||Ax||2 : ||x||2 = 1} min
5.
A 0
0 B
= max{||A||2 , ||B||2 } .
2
Demostraci on. Desde la denicion de norma matricial se tiene que ||A|| ||Ax||
||x|| , para
todo x R , con x = 0 , de donde ||Ax|| ||A|| ||x|| , y como esta u
n
ltima desigualdad vale
trivialmente para x = 0 , el resultado se sigue.
Una de las normas mas usadas en Algebra Lineal es la norma de Frobenius la cual es dada
por
1/2
-n -m
||A||F = a2ij , A M (m n, R)
i=1 j=1
1. I = 1.
Armamos que esta es una norma matricial (se deja al lector la vericaci
on) y no es subor-
dinada a ninguna norma en M (n n, R) .
En efecto, tomemos las matrices
1 1
A=B= .
0 1
Teorema 3.3 Para las normas matriciales denidas anteriormente valen las siguientes rela-
ciones. Sea A M (n n, R) , entonces
1. ||A||2 ||A||F n ||A||2
Teorema 3.4 Sea A M (n n, R) , con A < 1 , entonces I A es una matriz que tiene
inversa, la cual viene dada por (I A)1 = Ak , donde A0 = I . Ademas, se tiene que
3 3 k=0
3 1 3 1
3(I A) 3 .
1 A
Demostraci
on. Es solo calculo y se deja a cargo del lector.
Demostraci
on. Directa desde el teorema anterior.
pA () = det (A I) = 0,
Sergio Plaza 100
Observaci
on. El polinomio caracterstico de A , p() , tiene grado menor o igual a n .
Observaci on. Geometricamente (A) es el menor radio tal que el crculo centrado en el origen
en el plano complejo con radio (A) contiene todos los valores propios de A .
Observaci on. Si = a + ib C , su valor absoluto o norma es dado por | | = a2 + b2 .
Teorema 3.6 Se tiene (A) = inf A , donde el nmo es tomado sobre todas las normas
matriciales denidas sobre el espacio vectorial M (n n, R) .
Observaci on. Desde la denicion de las norma matriciales || || y || ||1 vemos que calcularlas
para una matriz dada es facil. Para lo norma || ||2 el calculo no es tan sencillo, pero tenemos
el siguiente resultado.
' (1/2
||A||2 = max || : (AT A) ,
en otras palabras, ||A||2 es la raz cuadrada del mayor valor propio de la matriz AT A .
3.2 N
umero de condici
on
Consideremos el sistema Ax = b , donde A es una matriz invertible, por lo tanto tenemos que
xT = A1 b es la soluci
on exacta.
xT xA
ER (xA ) = I BA .
xT
3 3 3 3 3 3
xT xA = 3A1 b A1 bA 3 = 3A1 (b bA )3 3A1 3 b bA ,
por lo tanto
esto es,
3 3
E (xA ) b bA = 3A1 3 E (bA ) , (3.3)
3 3 3 3 b bA 3 3 b bA
xT xA 3A1 3 b bA = 3A1 3 AxT 3A1 3 A xT
b b
luego
xT xA 3 3 b bA 3 3
ER (xT ) = 3A1 3 A = 3A1 3 A ER (bA ) .
xT b
esto es,
ER (xA ) ||A1 || ||A||ER (bA . (3.4)
Ejemplo 49 Considere
1 1+
A= ,
1 1
1 2 1 1
A = ,
1 + 1
3 3
obtenemos que A = 2 + , 3A1 3 = 2 (2 + ) , por lo tanto
(2 + )2 4
(A) = .
2
Observe que si < 0.0001 , entonces k (A) 40.000 .
Tenemos
1.0 108 1.0 108
A1 =
1.0 108 1.0 108
Luego, ||A||1 = ||A||2 ||A|| = 2 , ||A1 ||1 = ||A1 || ||A1 ||2 2 108 , luego
1 (A) = (A) 4 108 .
Observaci
on. Si (A) es demasiado grande diremos que A esta mal condicionada.
Observaci
on. Tenemos que
1. Ae = r.
xT xA bbA r
Que relacion existe entre xT y b = b ?
1 b bA xT xA b bA
(A) , (3.6)
(A) b xT b
es decir,
1 r e r
(A) . (3.7)
(A) b xT b
Observaci
on. Si tenemos una matriz B escrita en la forma
B = A(I + E)
donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo
si ||AE|| < 1 y
||xT xA || ||E||
(3.9)
||xT || 1 ||E||
si ||E|| < 1 .
on. Sea A M (n n, R) . Denotemos por max y min *
Observaci , respectivamente, el
max
maximo y el mnimo de los valores propios de AAT . Entonces 2 (A) = min .
Tenemos que
3
0
3
A =
T
1 8
3 3
Luego
10 8
3
3
AAT I = .
8 8
3 3
Sergio Plaza 104
1 1
||A||2 = max = 2 y ||A1 ||2 = = ,
min 2
y se tiene que 2 (A) = 2 = 2.
2
3.3 Soluci
on de sistemas de ecuaciones lineales: m
etodos
directos
En esta parte estudiaremos metodos directos, es decir, algebraicos, para resolver sistemas de
ecuaciones lineales. Herramienta fundamental aqu es el Algebra Lineal.
3.3.1 Conceptos b
asicos
La idea es reducir un sistema de ecuaciones lineales a otro que sea mas sencillo de resolver.
on por Fi Fj .
1. Intercambio de la la i con la la j , denotamos esta operaci
2. Reemplazar la la i, Fi , por un m
ultiplo no nulo Fi de la la i , denotamos esta
on por Fi Fi
operaci
Definici
on 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a traves de una u
nica operaci
on elemental. Una matriz elemental ser
a
denotada por E .
1 0 0 1 0 0
Ejemplo 53 1. 0 1 0 F3 F2 0 0 1 .
0 0 1 0 1 0
1 0 0 1 0 0
2. 0 1 0 F2 rF2 0 r 0
0 0 1 0 0 1
Sergio Plaza 105
1 0 0 1 0 0
3. 0 1 0 F3 F3 + rF2 0 1 0
0 0 1 0 r 1
1. A tiene inversa.
2. det (A) = 0.
3.4 Factorizaci
on de matrices
En esta seccion estudiaremos las condiciones necesarias para que una matriz A M (n n, R)
tenga una factorizacion de la forma LU donde L, U M (nn, R) , con L una matriz triangular
inferior y U una matriz triangular superior.
Observe que si A M (nn, R) tiene una factorizacion de la forma LU como arriba, entonces
el sistema de ecuaciones lineales Ax = b , con x, b Rn , puede resolverse de una manera mas
sencilla, para ello consideramos el cambio de variable U x = z , y resolvemos primero el sistema
Lz = b primero y enseguida resolvemos el sistema U x = z , obteniendo as la soluci on del
sistema original, es decir,
Lz = b
Ax = b L
U x = b
Ux = z .
z
l11 0 0 0 u11 u12 u1n1 u1n
l21 l22 0 0 0 u22 u2n1 u2n
L= .. .. .. .. .. y U = .. .. .. .. .. (3.10)
. . . . . . . . . .
ln1 ln2 lnn1 lnn 0 0 0 unn
De esta descomposici
on tenemos
$ %$ %
4
n 4
n
det(A) = det(L) det(U ) = lii uii (3.11)
i=1 i=1
T
L = (F1 F2 . . . Fn ) y U = (C1 C2 Cn ) ,
donde Fi = (li1 li2 lii 0 0) y Ci = (u1i u2i uii 0 0)T , son las las de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicaci
on A = LU ,
a11 a21 a1n F1 F1 C1 F1 C2 F1 Cn
a21 a22 a2n F2 F2 C1 F2 C2 F2 Cn
.. .. .. .. = .. (C1 C2 Cn ) = .. .. .. ..
. . . . . . . . .
an1 an2 ann Fn Fn C1 Fn C2 Fn Cn
a11 = F1 C1 = l11 u11
a12 = F1 C2 = l11 u12
.. .. .. (3.12)
. . .
a1n = F1 Cn = l11 u1n
de aqu, vemos que si jamos l11 = 0 , podemos resolver las ecuaciones anteriores para u1i ,
i = 1, . . . , n . Enseguida, para la segunda la de A tenemos
a21 = F2 C1 = l21 u11
a22 = F2 C2 = l21 u12 + l22 u22
.. .. .. (3.13)
. . .
a2n = F2 Cn = l21 u1n + l22 u2n
como u11 ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l21 , conocido
este valor, jando un valor no cero para l22 , y dado que conocemos los valores u1i para
i = 2, . . . , n , podemos encontrar los valores de u2i para i = 2, . . . , n . Siguiendo este metodo
vemos que es posible obtener la descomposicion de A en la forma LU . Note que tambien
Sergio Plaza 107
podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.
10 3 6
Ejemplo 54 Sea A = 1 8 2 . Encontremos una descomposicion LU para A .
2 4 9
Escribamos
10 3 6 l11 0 0 u11 u12 u13
1 8 2 = l21 l22 0 0 u22 u23
2 4 9 l31 l32 l33 0 0 u33
l11 u11 = 10
l u = 3
11 12
l11 u13 = 6
de aqu jando un valor no cero para l11 , digamos l11 = 2 , obtenemos que u11 = 5 , u12 = 32 ,
y u13 = 3 . Enseguida tenemos las ecuaciones
l21 u11 = 1
l u + l22 u22 = 8
21 12
l21 u13 + l22 u23 = 2
como u11 = 5 se tiene que l21 = 15 . Ahora jamos el valor de l22 = 1 y obtenemos los valores
u22 = 83 13
10 , y u23 = 5 . Finalmente, para la u
ltima la de A , nos queda
l31 u11 = 2
l31 u12 + l32 u22 = 4
l31 u13 + l32 u23 + l33 u33 = 2
0 1
Ejemplo 55 La matriz A = no tiene descomposicion de la forma LU . Notemos
1 1
que det(A) = 0 .
Para verlo supongamos que podemos escribir A = LU , donde
l11 0 u11 u12
L= y U= .
l21 l22 0 u22
0 1 l11 0 u11 u12
=
1 1 l21 l22 0 u22
Como l11 u12 = 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l11 = 0 ,
en consecuencia se debe tener que u11 = 0 , pero adem as se tiene que u12 = 0 . Ahoram, como
l21 u11 = 1 , llegamos a una contradicci
on. Luego tal descomposici on para A no puede existir.
a11 a21 a1k
a21 a22 a2k
a11 a21
A1 = (a11 )11 , A2 = , . . . , Ak = .. .. .. .. ,
a21 a22 22
. . . .
ak1 ak2 akk kk
. . . , An = A .
Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposici
on LU .
Ejemplo 56 La matriz
2 1 0
A = 1 2 1
0 1 2
T
es denida positiva. En efecto considere x = (x y z) , tenemos
2 1 0 x
x, Ax = (x, y, z) 1 2 1 y = 2x2 2xy + 2y 2 2yz + 2z 2 .
0 1 2 z
Luego,
x, Ax = 2x2 2xy + 2y 2 2yz + 2z 2
2 2
= x2 + (x y) + (y z) + z 2 > 0,
para todo (x, y, z) = (0, 0, 0) .
Ejemplo 57 La matriz
2 1 0
A = 1 2 1
0 1 2
2 1
es denida positiva, pues se tiene que det (A1 ) = 2 > 0 , det (A2 ) = det =3>0
1 2
y det (A3 ) = det (A) = 4 > 0 . Luego tiene descomposicion de Cholesky.
Ahora, para encontrar la descomposicion de Cholesky para esta matriz procedemos como
sigue.
2 1 0 l11 0 0 l11 l21 l31
1 2 1 = l21 l22 0 0 l22 l32
0 1 2 l31 l32 l33 0 0 l33
2
Luego, l11 = 2 , es decir, l11 = 2 ; 1 = l11 l21 , de donde l21 = 22 ; 0 = l11 l31 , de
2
donde l31 = 0 ; l21 2
+ l22 = 2 , de donde l22 = 52 ; l21 l31 + l22 l32 = 1 , de donde l32 = 25 ;
2 2 2 2 2
l31 + l32 + l33 = 2 , de donde l33 = 5
.
Por lo tanto
2 0 0
2 22
2 1 0
0
1 2 1 =
2
2 5 0 0
5 25
.
2 2
0 1 2 0 25 2 2
0 0 2 2
5 5
3.5 M
etodo de eliminaci
on gaussiana
En esta seccion estudiaremos el metodo de eliminaci
on gaussiana para resolver sistemas de
ecuaciones lineales
a11 a21 a1n x1 b1
a21 a22 a2n x2 b2
.. .. .. .. .. = .. .
. . . . . .
an1 an2 ann xn bn
esto es, consideramos la matriz aumentada del sistema. En la notacion anterior, los smbolos
Fi denotan las las de la nueva matriz.
Sergio Plaza 111
aj1
(Fj mj1 F1 ) Fj , donde mj1 = , j = 2, 3, ..., n . (3.14)
a11
1 0 0
m21 1 0
M (1) = .. .. . . .. (3.15)
. . . .
mn1 0 1
Esta matriz recibe el nombre de primera matriz gaussiana de transformaci on. El producto
(1) (1) (2) (1)
de M con la matriz A = A lo denotamos por A y el producto de M con la matriz
b(1) = b lo denotamos por b(2) , con lo cual obtenemos
(2)
aj2
mj2 = (2)
, j = 3, 4, . . . , n (3.17)
a22
As obtenemos
En general, con A(k) x = b(k) ya formada, multiplicamos por la kesima matriz de transfor-
macion gaussiana
1 0 0
0 1
.. .. ..
.
. 1 .
M (k)
=
.
0
. .. ..
. mk+1 k . .
.. ..
. . 0 0
0 0 mn k 0 0 1
para obtener
Sergio Plaza 112
A(k+1) x = M (k) A(k) x = M (k) M (1) Ax = M (k) b(k) = b(k+1) = M (k) M (1) b (3.19)
Este proceso termina con la formacion de un sistema A(n) x = b(n) , donde A(n) es una matriz
triangular superior
(1) (1) (1)
a11 a12 a1n
(2) (2)
0 a22 . . . a2n
(n) .. .
A = . ..
. ..
.. . . an1 n
(n1)
. .
(n)
0 0 ann
dada por
para poder revertir los efectos de esta transformacion debemos considerar primero la matriz
1
L(k) = M (k) , la cual esta dada por
1 0 0
..
0 1 .
.. ..
1 . 1 .
..
L(k) = M (k) =
..
. 0
..
.
. .
.. ..
. mk+1 k .
.. .. .. ..
. . . 0 . 0
0 0 mn k 0 0 1
obtenemos
x + y + 3w = 4
2x + y z + w = 1
3x y z + w = 3
x + 2y + 3z w = 4
x + y + 3w = 4
y z 5w = 7
3z + 13w = 13
13w = 13
Por lo tanto la factorizaci
on LU esta dada por
1 1 0 3 1 0 0 0 1 1 0 3
2 1 2 0
A=
1 1 1 0 0 1 1 5 = LU.
3 1 1 2 = 3 4 1 0 0 0 3 13
1 2 3 1 1 3 0 1 0 0 0 13
L U
Esta factorizacion nos permite resolver facilmente todo sistema que posee como matriz aso-
ciada la matriz A . As, por ejemplo, para resolver el sistema
1 0 0 0 1 1 0 3 x 8
2 1 0
0 0
1 1 5 y 7
Ax = LU x =
3
=
4 1 0 0 0 3 13 z 14
1 3 0 1 0 0 0 13 w 7
1 0 0 0 y1 8
2 1 0 0 y2 7
LU x = Ly =
3
=
14 .
4 1 0 y3
1 3 0 1 y4 7
Sergio Plaza 114
Este sistema se resuelve para y mediante un simple proceso de susbtitucion hacia adelante,
con lo cual obtenemos
y1 8
y2 9
y=
y3 = 26
.
y4 26
1 1 0 3 x 8
0
1 1 5 y 9
Ux =
0
=
0 3 13 z 26
0 0 0 13 w 26
x 3
y 1
x=
z = 0
.
w 2
que es la solucion buscada.
3.6 Eliminaci
on gaussiana con pivoteo
Al resolver un sistema lineal Ax = b , a veces es necesario intercambiar las ecuaciones, ya sea
porque la elimninacion gaussiana no puede efectuarse o porque las soluciones que se obtienen
no corresponden a as soluciones exactas del sistema. Este proceso es llamado pivoteo y nos
lleva a la descomposicion P A = LU del sistema. As el sistema se transforma en LU x = P b
y resolvemos entonces los sistemas
Ux = z
Lz = Pb
donde P es una matriz de permutaci on, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus las. M as precisamente.
Observaci on. Las matrices de permutacion poseen dos propiedades de gran utilidad que se
relacionan con la eliminaci
on gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutaci on P , es decir, al realizar el producto P A se permutan las
las de A . La segunda propiedad establece que si P es una matriz de permutaci on, entonces
P 1 = P T .
Sergio Plaza 115
a11 a12 a1n x1 b1
a21 a22 a2n x2 b2
.. .. .. .. .. = .. (3.21)
. . . . . .
an1 an2 ann xn bn
Elecci
on de la fila pivote. Elegimos como la povote la la para la cual se tiene que
|ai0 1 |
(3.23)
si0
es el mayor.
Intercambiamos en A la la 1 con la la i0 , esto es, realizamos la operaci on elemental
F1 Fi0 . Esto nos produce la primera permutaci on. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminaci on gaussiana.
Denotamos el ndice que hemos elegido por p1 , este se convierte en la primera componente de
la permutaci
on.
M
as especicamente, comenzamos por jar
p = (p1 p2 . . . pn ) = (1 2 . . . n) (3.24)
como la permutaci
on antes de comenzar el pivoteo. As la primera permutaci
on que hemos
hecho es
1 2 . . . i0 ... n
.
i0 2 ... 1 ... n
|apj j |
, 2jn (3.25)
spj
api 1
Fp1
ap1 1
a las las pi , 2 i n .
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los n
umeros
|api k |
, kin (3.26)
spi
y buscamos el mayor de ellos. Si j es el ndice del primer cuociente mas grande, intercambiamos
pk con pj en la permutaci on p y las las Fpk con la la Fpj en la matriz que tenemos en
esta etapa de la eliminacion gaussianapivoteo. Enseguida producimos ceros en la columna pk
bajo el elemento apk k , para ellos restamos
api k
Fpk
apk k
Soluci
on. Primero calculemos la escala de las las. Tenemos
|a11 | 2 1
= =
s1 6 3
|a21 | 1
=
s2 8
|a31 |
= 1,
s3
2 3 6 1 6 1
1 6 8 1 8 2
3 2 1 1 3 3
3 2 1 1 3 3
1 6 8 1 8 2
2 3 6 1 6 1
en la parte (A|b) de la matriz arriba procedemos a hacer eliminacion gaussiana. Los multipli-
cadores son m21 = 13 y m31 = 23 , obtenemos as
3 2 1 1 3 3
0 16
3
23
3
2
3 8 2
13
0 3 20
3
1
3 6 1
Agregamos la informaci
on de los multiplicadores a esta estructura como sigue
3 2 1 1 3 3
0 16
3
23
3
2
3 8 2 1
3
13
0 3 20
3
1
3 6 1 2
3
Ahora determinamos la nueva la pivote. Recuerde que la primera la de esta nueva matriz
permanece inalterada, y solo debemos trabajar con las las restantes. Para determinar la nueva
la pivote, calculamos
Sergio Plaza 118
16
|ap2 2 | 3 16 2
= = =
sp2 8 24 3
13
|ap3 2 | 3 13
= =
sp3 6 18
13 2
como 18 > 3 la nueva la pivote es la la 3. Intercambiando F2 F3 nos queda
3 2 1 1 3 3
13
0 3 20
3
1
3 6 1 2
3
0 16
3
23
3
2
3 8 2 1
3
16
16
El multiplicador es m32 = 133 = 13 . Agregando la informaci
on del nuevo multiplicador y
3
aplicando eliminaci
on gaussiana, nos queda
3 2 1 1 3 3
13
0 3 20
3
1
3 6 1 2
3
7 94 1 16
0 0 13 117 8 2 3 13
La matriz L es
1 0 0
2
1 0
L= 3
1 16
1
3 13
y la matriz de permutaci
on P es
0 0 1
P = 1 0 0
0 1 0
Sergio Plaza 119
Ahora es f
acil vericar que P A = LU .
puesto que a11 = 0 la matriz no posee una factorizacion LU . Pero si realizamos el intercambio
de las F1 F2 , seguido de F3 (F3 F1 ) y de F4 (F4 F1 ) obtenemos
1 1 1 2
0 0 1 1
.
0 0 1 1
0 1 0 1
1 1 1 2
0 1 0 1
U =
0
.
0 1 1
0 0 0 2
0 1 0 0
0 0 0 1
P =
0
.
0 1 0
1 0 0 0
La eliminaci
on gaussiana en P A se puede realizar sin intercambio de las usando las opera-
ciones F2 (F2 F1 ) , F3 (F3 F1 ) y (F4 + F3 ) F4 , esto produce la factorizaci
on LU
de P A
1 1 1 2 1 0 0 0 1 1 1 2
1 2 1 3 1 1 0 0 0 1 0 1
PA =
1
= = LU.
1 0 3 1 0 1 0 0 0 1 1
0 0 1 2 0 0 1 1 0 0 0 2
0 0 1 1 1 1 1 2
T 1 0 0
0 0 1 0 1
A= P L U =
1
.
0 1 0 0 0 1 1
1 1 0 0 0 0 0 2
Sergio Plaza 120
-
n
|aii | > |aij |
j = 1
j = i
para todo i = 1, 2, . . . , n .
7 2 0 6 4 3
A= 3 5 1 y B = 4 2 0 .
0 5 6 3 0 1
1. A tiene inversa.
Corolario 3.2 Una matriz simetrica A es denida positiva si y s olo si A puede factorizarse
T
en la forma LDL , donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.
Corolario 3.4 Sea A M (n n, R) una matriz simetrica a la cual puede aplicarse la elim-
on gaussiana sin intercambio de las. Entonces, A puede factorizarse en LDLT , donde
inaci
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
(1) (n)
con a11 , . . . , ann en su diagonal.
Ejemplo 62 La matriz
4 1 1
A = 1 4.25 2.75
1 2.75 3.5
on LDLT de la matriz A es
es denida positiva. La factorizaci
1 0 0 4 0 0 1 0.25 0.25
A= 0.25 1 0 0 4 0 0 1 0.75
0.25 0.75 1 0 0 1 0 0 1
2 0 0 2 0.5 0.5
A = 0.5 2 0 0 2 1.5 .
0.5 1.5 1 0 0 1
1 2 0
Ejemplo 63 La matriz A = 2 1 2 es una matriz de banda con p = q = 2 y con
0 1 1
ancho de banda 3.
a11 = l11 ;
ai i1 = li i1 para cada i = 2, 3, . . . , n;
aii = li i1 ui1 i + lii para cada i = 2, 3, . . . , n;
ai i+1 = lii ui i+1 para cada i = 1, 2, 3, . . . , n 1;
de donde x = (I G)1 c .
Ax = b,
donde x(0) Rn es arbitrario. Sobre la convergencia del metodo propuesto, tenemos el siguiente
corolario.
Corolario 3.5 La f on x(k+1) = I Q1 A x(k) + Q1 b dene una sucesi
ormula de iteraci on
que converge a la soluci
on de Ax = b , para cualquier condici on inicial x(0) Rn si y s olo
si I Q1 A < 1 . Adem as, si existe una norma | || en M (n n, R) , en la cual se
1
tiene ||I Q A|| < 1 , entonces el metodo iterativo converge cualesquiera que sea la condici
on
inicial x(0) Rn dada.
Observaci
on La f
ormula de iteraci
on
x(k+1) = I Q1 A x(k) + Q1 b
on F : Rn Rn
dene un metodo iterativo de punto jo. En efecto, consideremos la funci
denida por F (x) = I Q1 A x + Q1 b . Observemos que si x es un punto jo de F
on Ax = b . Ademas, si x = I Q1 A x + Q1 b
entonces x es una solucion de la ecuaci
entonces se tiene que
x(k) x = I Q1 A x(k1) x ,
por lo tanto 3 3 3
3 (k) 3 3 3
3
3
3
3x x3 3I Q1 A3 3x(k1) x3 ,
de donde, iterando esta desigualdad obtenemos
3 3 3 3k 3 3
3 (k) 3 3 3
3x x3 3I Q1 A3 3x(0) x3 ,
3 3 3 3
luego si 3I Q1 A3 < 1 , se tiene de inmediato que limk 3x(k) x3 = 0 para cualquier
x(0) Rn dado.
3 3
Observaci on 3I Q1 A3 < 1 implica que las matrices Q1 A y A tienen
on. La condici
inversas.
3 3
Teorema 3.19 Si 3I Q1 A3 < 1 para alguna norma matricial subordinada en M (n
n, R) , entonces el metodo iterativo x(k+1) = I Q1 A x(k) + Q1 b es convergente
3 a 3
una
soluci
on de Ax = b , para cualquier vector inicial x(0)
R n
. Adem
as, si = 3I Q1 A3 <
3 3
1 , podemos usar el criterio de parada 3x(k) x(k1) 3 < y se tiene que
3 3 3 3 k 3 3
3 (k) 3 3 (k) 3 3 (1) 3
3x x3 3x x(k1) 3 3x x(0) 3 .
1 1
, es decir,
3 3 k 3 3
3 (k) 3 3 (1) 3
3x x3 3x x(0) 3 . (3.31)
1
Sergio Plaza 124
Observaci on. Desde la denicion de radio espectral de una matriz, se tiene que (A) < 1
implica que existe una norma matricial || || en M (nn, R) , tal que ||A|| < 1 . Por otra parte, si
||A|| < 1 para alguna norma matricial en M (nn, R) entonces se tiene que (A) < 1 . Notemos
que si existe una norma matricial || || en M (n n, R) , tal que ||A|| 1 no necesariamente se
tiene que (A) 1 .
Observaci on. Si M1 y M2 son dos metodos iterativos convergentes para resolver un sistema
de ecuaciones lineales Ax = b , digamos M1 : x(k+1) = G1 x(k) + c1 y M2 : x(k+1) =
G2 x(k) + c2 . Si (G1 )) (G2 ) , entonces M1 converge mas rapido que M2 a la soluci on de la
ecuacion. Adem as, si existe una norma || || en M (n n, R) tal que ||G1 || ||G2 || , entonces
M1 converge mas r apido que M2 a la soluci on de la ecuaci
on.
3.9 M
etodo de Richardson
Para este metodo tomamos QR = I , luego el metodo iterativo x(k+1) = I Q1 A x(k) +
Q1 b se transforma en
Si existe una norma matricial para la cual se tiene que TR = ||I A|| < 1 , entonces
el metodo iterativo de Richardson es convergente.
1 1
11
1
x
2 3 18
1
3 1 1
2 y = 11
18
z
1 1 11
2 3 1 18
Soluci
on. Tenemos
1 1
1 0 12 31
2 3
1 0 0
1
TR = I A = 0 1 0 1
3 1 2
= 1 0 21
3
0 0 1
1 1
2 3 1 21 13 0
Sergio Plaza 125
5
se tiene ||TR || = 6 < , luego el metodo iterativo de Richardson para este sistema converge.
3.10 M
etodo de Jacobi
En este caso tomamos
a11 0
.. .. ..
QJ = diag (A) = . . .
0 ann
donde los elementos fuera de la diagonal en QJ son todos iguales a 0. Notemos que det(QJ ) =
a11 a22 ann , luego det(QJ ) = 0 si y solo si aii = 0 para todo i = 1, . . . , n , es decir, QJ
tiene inversa si y s olo si aii = 0 para todo i = 1, . . . , n .
Como antes, colocando esta matriz QJ = diag(A) en la f
ormula iterativa denida por
x(k+1) = I diag(A)1 A x(k) + diag(A)1 b , (3.34)
TJ
-
n
|aii | > |aij | , 1 i n,
j=1 , j=i
n
aij
es decir,
aii
< 1 , por lo tanto tenemos el siguiente teorema.
j=1 , j=i
Teorema 3.20 Si A es una matriz diagonal dominante, entonces el metodo iterativo de Ja-
on inicial x(0) elegida.
cobi es convergente para cualquiera que sea la condici
Sergio Plaza 126
3.11 M
etodo de GaussSeidel
En esta caso, consideremos la matriz Q como la matriz triangular obtenida considerando la
parte triangular inferior de la matriz A incluyendo su diagonal, es decir,
a11 0 0
a21 a22 0
QG-S = .. .. .. ..
. . . .
an1 an2 ann
Se tiene que det(QG-S ) = a11 a22 ann . Luego, det(QG-S ) = 0 si y solo si aii = 0 ( i =
1, . . . , n ). Usando la matriz QG-S , obtenemos el metodo iterativo
x(k+1) = I Q1 A x(k) + Q1 b. (3.35)
G-S G-S
TG-S
4 2 1 x 5
2 5 2 y = 4
1 2 6 z 7
Explicitaremos los metodos iterativos de Jacobi y GaussSeidel para este sistema. Estudi-
aremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la soluci on exacta del
sistema es (xT , yT , zT ) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos pregun-
tar Cual de ellos converge m as rapido?, para las comparaciones usaremos la norma en
M (n n, R) .
Primero que nada tenemos que los metodos iterativos de Jacobi y GaussSeidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el metodo de Jacobi. En este caso tenemos
4 0 0
QJ = 0 5 0
0 0 6
por lo tanto
Sergio Plaza 127
1
4 0 0
Q1
J = 0 1
5 0
1
0 0 6
luego
1 1 1
4 0 0 4 2 1 1 2 4
Q1
J A = 0 1
5 0 2 5 2 = 2
5 1 2
5
1 1 1
0 0 6 1 2 6 6 3 1
de donde
1
0 12 14 4 0 0 5 5
4
TJ I Q1 A = 2 25 y Q1 0 1
0 4 = 4 ,
J 5 0 J b = 5 5
61 13 0 0 0 1
6 7 7
6
por lo tanto
2yk zk + 5
xk+1 =
4
2xk 2zk + 4
yk+1 =
5
zk+1 = xk 2yk + 7
6
Como ||TJ || = max{| 21 | + | 1 2 2 1 1 3 4 1
4 |, | 5 | + | 5 |, | 6 | + | 3 |} = max{ 4 , 5 , 2 } = {0.75, 0.8, 0.5} =
0.8 < 1 , el metodo de Jacobi converge para cualquier condicion inicial x(0) Rn dada. Ahora
explicitemos el metodo de GaussSeidel. En este caso,
1
4 0 0 4 0 0
QG-S = 2 5 0 por lo tanto Q1
G-S
= 1
10 2
10 0
1 8 20
1 2 6 120 120 120
as obtenemos que
1 1 1
4 0 0 4 2 1 1 2 4
Q1
G-S
A= 1
10 2
10 0 2 5 2 = 0 8
10
3
10
1 8 20 2 103
120 120 120 1 2 6 0 120 120
0 21 41 5
4
1
luego I QG-S A = 0 2 3
10 y Q1 b= 3 , por lo tanto
10 G-S 10
2 17 103
0 120 120 120
2yk zk + 5
xk+1 =
4
2yk 3zk + 3
yk+1 =
10
2yk 17zk + 103
zk+1 =
120
Sergio Plaza 128
Notemos que como ||TG-S || < ||TJ || , vemos que el metodo de GaussSeidel converge mas
r
apido que el metodo de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.
3.12 M
etodo SOR (successive overrelaxation)
es llamada tridiagonal.
2 2
opt = = (3.37)
1 + 1 (TJ )2 1 + 1 (TG-S )
a11 a1n
.. .. ..
A = . . .
an1 ann
a11 0 0 0 0 0 0 a12 a1n
0 a22 0 a21 0 0 .. ..
0 0 . .
= . . . .. .. .. .. ..
.. .. .. . . . . . 0 0 an1n
0 0 ann an1 ann1 0 0 0 0
D CL CU
x = D1 (CL + CU ) x + D 1
b (3.39)
Tj CJ
M
etodo de GaussSeidel. Este se puede escribir como
x(k+1) = (D CL )1 CU x(k) + (D CL )1 b
TG-S CG-S
Richardson
Q=I
G=I A
x(k+1) = (I A)x(k) + b
Jacobi
Q=D
G = D1 (CL + CU )
(D CL )x(k+1) = CU x(k) + b
SOR
Q = 1 (D CL )
G = (D CL )1 (CU + (1 )D)
1
= , 0 < < 2.
Soluci
on. Tenemos el sistema de ecuaciones lineales
1 1 7
3 4 x1
= 12
.
1 1
x2 0.45
4 5
7
= 0.58 12
a) El vector b on del vector b =
es una perturbaci . Sean xT la
0.45
0.45
on exacta del sistema Ax = b y xA la soluci
soluci on exacta del sistema Ax = b . Se tiene
entonces que xA es una aproximacion a xT . Para simplicar los c
alculos trabajaremos con la
es una perturbaci
norma subordinada || || . Como b on de b , tenemos la f
ormula
||xT xA ||
||b b||
ER (xA ) = ||A|| ||A1 || .
||xT || ||b||
Ahora,
3.33333333 103
=
bb .
0
a11 a12
Recordemos que si A = , entonces
a21 a22
1 a22 a12
A1 =
det(A) a21 a11
1 1
3 4
En nuestro caso, det = 1
240 . Luego,
1 1
4 5
1
5 14 1
5 41
1 1 = 240 = 48 60
A = 1 .
60 80
240 41 1
3 41 1
3
De esto, tenemos
,
,
1 1 1 1 7 9 7
||A|| = max + , + = max , =
3 4 4 5 12 20 12
,
7 7
||b|| = max , 0.45 =
12 12
||b|| = max{0.58, 0.45} = 0.58
||b b|| = max{3.33333333 103 , 0} = 3.33333333 103 .
Sergio Plaza 132
7 3.3333333 103
ER (xA ) 140 7 = 0.4666666662 ,
12 12
0.33 0.25
A = .
0.25 0.20
1 1
0.33 0.25 3 4 3.33333333 103 0
AE = A A = = ,
0.25 0.20 1 1 0 0
4 5
1
||AE|| < .
||A1 ||
1
||AE|| < = 7.14285714 103 ,
140
y podemos aplicar la f
ormula anterior. Reemplazando nos queda
(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
nalmente
2 0.99 0.98
A = 1 1 0.99
1 1.02 2.99
Soluci
on.
2 1 1
A = 1 1 1
1 1 3
2 1
es simetrica. Ahora, A1 = [2] , luego det(A1 ) = 2 > 0 , A2 = y det(A2 ) =
1 1
2 1 1
1 > 0 , A3 = A = 1 1 1 y det(A3 ) = 2 > 0 . Por lo tanto A es positiva
1 1 3
denida, y consecuentemente tiene descomposicion de Cholesky.
Para obtener la descompsici
on de Cholesky de A escribamos
2 1 1 11 0 0 11 21 31
1 1 1 = 21 22 0 0 22 32
1 1 3 31 32 33 0 0 33
De aqu, 211 = 2 , de donde 11 = 2 ; 11 21 = 1 , de donde 21 = 22 , 11 31 = 1 ;
31 = 22 ; 221 + 222 = 1 , de donde 22 = 22 ;
21 31 + 22 32 = 1 , de donde 32 = 22 ;
nalmente 231 + 232 + 233 = 3 , de donde 33 = 2 . Por lo tanto,
2 1 1 2 0 0 2 22 22
1 1 2
2
1 = 2 0 0 2 2
2 2 2
1 1 3 22 2
2
2 0 0 2
El sistema Ly = b
2 0 0 1
2
2 2
0 = 1
2
22 2
2
2 2
De aqu 2 = 1 , de donde = 22 ; 22 + 22 = 1 , reemplazando y despejando
nos da que = 32 2 ; nalmente 22 + 22 + 2 = 2 , reemplazando y despejando
nos da que = 22 . Debemos resolver ahora el sistema LT x = y , es decir,
2
2 22 22 x 2
2 2 y = 3 2
0
2 2 2
2
0 0 2 z
2
1 5
de donde z = 2 , y= 2 , x = 2.
= b , respectivamente,
(b) Sean xT y xA las soluciones exactas de los sistemas Ax = b y Ax
1
es decir, xT = A b . Entonces
de donde
||xA xT ||
ER (xA ) = ||I A1 A||
.
||xA ||
luego,
1 0.01 0.01
A1 A = 0 1.0 0
0 0.01 1.0
Ademas, como
1 0 0
I= 0 1 0
0 0 1
Sergio Plaza 135
se tiene que
0 0.01 0.01
I A1 A = 0 0 0
0 0.01 0
1.
||xT xA || ||E||
ER (xA ) =
||xT || 1 ||E||
si ||E|| < 1 .
2.
||xT xA || k(A) ||AE||
ER (xA ) =
||xT || 1 k(A) ||A|| ||A||
||AE||
1
si ||AE|| < ||A1 || .
1 1
luego, ||AE|| = 0.02 y ||A1 || = 4 , de aqu se tiene que ||A1 || = 4 = 0.25 y
1
es claro entonces que se satisface la condicion ||AE|| < ||A1 || . Reemplazando los
valores obtenidos, nos queda
esto es,
||xT xA ||
0.08695652...
||xT ||
1 1 1 1 5.00
0 1 1 1 1.02
A=
0
y b=
0 1 1 1.04
0 0 0 1 1.10
(b) Calcule ||r|| y k (A) , donde r es el vector residual, es decir r = b AxA y k (A)
el n
umero de condicionamiento de la matriz A.
(c) Estime una cota para el error relativo de la solucion aproximada, respecto a la soluci
on
exacta (no calcule esta u
ltima explcitamente).
Soluci
on.
1 1 1 1 x 5
0 1 1 1 y 1
=
0 0 1 1 z 1
0 0 0 1 w 1
5.00 1 1 1 1 12
1.02 0 1 1 1 4
r = b AxA
= 1.04 0 0 1 1 2
1.10 0 0 0 1 1
5.00 5 0
1.02 1 0.02
=
= 1.04 1 0.04
1.10 1 0.10
1 1 1 1 a11 a12 a13 a14 1 0 0 0
0 1 1 1 a21 a22 a23 a24 0 1 0 0
=
0 0 1 1 a31 a32 a33 a34 0 0 1 0
0 0 0 1 a41 a42 a43 a44 0 0 0 1
de donde
1 1 2 4
0 1 1 2
A1 =
0
0 1 1
0 0 0 1
Problema 3.4 Encuentre una descomposicion del tipo LU para la matriz A siguiente
4 3 2 1
3 4 3 2
A=
2
3 4 3
1 2 3 4
Soluci
on. La descomposicion de Doolittle de A es dada por
4 3 2 1
1 0 0 0
3 1 0 0
4 0 7 3 5
4 2 4
A = LU = 1 6
2 7 1 0 12 10
0 0
7 7
1 5 5
4 7 6 1 5
0 0 0 3
2 3 8 1 1
4 0 1 10 1
A=
16 4 2
y b=
1 1
0 7 1 5 1
Soluci
on. a) Tenemos que
2 3 8 1 1
4 0 1 10 1
A=
16 4 2
y b=
.
1 1
0 7 1 5 1
Escribiendo la matrix ampliada del sistema, nos queda
2 3 8 1 1
4 0 1 10 1
A=
16 4 2
,
1 1
0 7 1 5 1
de donde
8 1
10 2
s=
16 y P = 3
.
7 4
Sergio Plaza 139
Luego
,
2 4 16
m1 = max , , , 0 = 1 = m31
8 10 16
por lo tanto debemos intercambiar la la 1 con la la 3. Realizando este intercambio de las y
la eliminaci
on gaussiana, nos queda
16 4 2 1 1 F2 14 F1 16 4 2 1 1
4 0 1 10 1 0 1 3/2 41/4 3/4
2 3 8 1 1 0 7/2 33/4 7/8 7/8
0 7 1 5 1 F3 18 F1 0 7 1 5 1
de donde
1 16 3
1/4 10 2
L1 =
1/8 , s1 =
8 , P1 = 1
0 7 4
Para la elecci
on del segundo pivote tenemos
,
1 7 7
m2 = max , , = 1 = m42
10 16 7
por lo tanto debemos intercambiar la la 2 con la la 4
16 4 2 1 1 F3 1
2 F2 16 4 2 1 1
0 7 1 5 1 0 7 1 5 1
0 7/2 33/4 7/8 7/8 0 0 31/4 27/8 11/8
0 1 3/2 41/4 3/4 F4 1
7 F2 0 0 19/14 227/28 25/28
luego,
1 0 3 16
0 4 7
L11 = 1 , P2 = , S2 =
1/8 , L2 = 1/2 1 8
1/4 1/7 2 10
Para la elecci
on del tercer pivote tenemos que
,
31 19 31
m3 = max , = = m33
32 140 32
y obtenemos
16 4 2 1 16 4 2 1 1
0 7 1 5 1 0 7 1 5 1
0 0 31/4 27/8 11/8 0 0 31/4 27/8 11/8
38
0 0 19/14 227/28 25/8 F4 217 F3 0 0 0 4395/434 283/434
Sergio Plaza 140
luego,
0
0
L3 =
1
38/217
Por lo tanto
1 0 0 0 16 4 2 1
0 1 0 0 0 7 1 5
P A = LU =
1/8 1/2
(3.41)
1 0 0 0 31/4 27/8
1/4 1/7 38/217 1 0 0 0 4395/434
donde
0 0 1 0
0 0 0 1
P =
1
.
0 0 0
0 1 0 0
Por lo tanto
16 4 2 1
0 7 1 5
PA =
2 3 8
1
4 0 1 10
Ahora, como
16 4 2 1
0 7 1 5
B = PA =
2 3 8
1
4 0 1 10
tenemos que la matriz B es diagonal dominante, por lo tanto el metodo de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por
Sergio Plaza 141
J = I Q1 B
1/16 0 0 0 16 4 2 1
0 1/7 0 0 0 7 1 5
= I4
0
0 1/8 0 2 3 8 1
0 0 0 1/10 4 0 1 10
0 1/4 1/8 1/16
0 0 1/7 5/7
=
1/4 3/8 0 1/8
2/5 0 1/10 0
1/4 1/8 1/16
0 1/7 5/7
det(J I4 ) = det = 4 + 17 2 219 + 33 (3.43)
1/4 3/8 1/8 1120 4480 2240
2/5 0 1/10
Por lo tanto, se tiene que el radio espectral es = 0.4244686967 < 1 y el metodo de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla
n xn yn zn wn E
0 0.000041875
1 0.037658125 0.2182 0.205445 -0.064375 0.00001725
2 0.0376540625 0.218188571428 0.20545734375 -0.064392640625 0.000014084822
3 0.0376595407368 0.21820265625 0.20545622991 -0.064392640625 0.3961078E-5
4 0.0376559047154 0.218202776148 0.205460190988 -0.0643905607143
= (1, 0)T .
Se desea resolver el sistema An x = bn . Un estudiante obtiene como resultado x
bn .
rn = An x
Tenemos
1 2 1 1
rn =
2 4 + n12 0 2 n12
1 1 0
= =
2 2 n12 1
n2
1 2 x 1
=
2 4 + n12 y 2 n12
x + 2y = 1
1 1
2x + 4 + 2 y = 2 .
n n2
1 1
2 4y + 4y + 2
y = 2 2 ,
n n
1 1
es decir, 2 y = 2 , de donde y = 1 , por lo tanto x = 3 . Note que la soluci on es
n n
exactamente la misma para cada n N , es decir, la soluci
on no depende de n N .
Por lo tanto la soluci
on dada no es razonablemente conable, pues no se aproxima en
on exacta xT = (3, 1) del sistema An x = bn .
nada a la soluci
||xT x ||
ER (
x) =
||xT ||
||(2, 1)||
=
||(3, 1)||
max{|2|, | 1|}
=
max{|3|, | 1|}
2
= .
3
1
1
||An || = max{|1| + |2|, |2| +
4 + 2
} = 6 + 2
n n
1 1
Ahora, det(An ) = 4 + 4 = 2 . Luego
n2 n
1
4+ 2
1 n2
A1
n = 1
n2
2 1
1
4+ 2
n2
= n2
2 1
4n2 + 1 2n2
=
2 2
2n n
y ||A1 2 2 2 2 2 2
n || = max{|14n + 1| + | 2n | + |n |} = max{6n + 1, 3n } = 6n + 1 . Por lo
tanto
1
k (An ) = 6 + 2 (6n2 + 1)
n
1
= 36n2 + 6 + 6 +
n2
1
= 36n2 + 12 + ,
n
n2
Sergio Plaza 144
lo cual signica que la matriz An esta muy mal condicionada para valores grandes de n (es
on x de xn para
numericamente no invertible para n grande), lo cual explica la mala aproximaci
n grande.
Problema 3.2 Dado un metodo iterativo para resolver un sistema de ecuaciones lineales
x(k+1) = Bx(k) + c ,
Si det(B) = 0 Puede el metodo propuesto ser convergente?
(a) Pruebe que el metodo propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes
8 2 3 20
A = 3 9 4 y b = 62 .
3 1 7 0
1
8 2 0 3/26 1/39 0
on: Use que 3 9 0 = 1/26 4/39
Indicaci 0 .
0 0 7 0 0 1/7
Sergio Plaza 145
(c) Compare el metodo anterior con el metodo de Jacobi en cuanto a velocidad de conver-
gencia. Justique.
Problema 3.5 Encuentre la inversa A1 de la matriz A , las normas ||A||1 , ||A1 ||1 , ||A||2 ,
||A1 ||2 , ||A|| , ||A1 || y los n
umeros de condici
on 1 (A) , 2 (A) y (A) si
0 0 1
1. A = 0 1 0
1 1 1
3 0 0
2. A = 0 2 0
0 0 1
2 1 2 1
1 2 1 2
3. A =
2 1 2
1
0 2 0 1
Problema 3.6 Sean A, B M(nn, R) , matrices invertibles. Pruebe que (AB) (A)(B) ,
donde el n on es calculado usando cualquier norma subordinada en M(nn, R) .
umero de condici
1. Probar que limn B n = 0 si y solo si |b| < 2/2 .
4. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y sin pivoteo.
6. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y con pivoteo.
7. cual es su conclusi
on?
2. Describir el proceso de eliminacion gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.
3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y GaussSeidel.
0 1 0 x 8
0 2 1 y = 7 (3.46)
2 3 1 z 5
Sergio Plaza 147
3 1 1 x 5
1 3 1 y = 3 (3.47)
3 1 5 z 1
2. Caso algunos de los metodos anteriores sea convergente, encontrar la solucion del sis-
tema, con precisi on = 103 y usando como criterio de parada ||(xn+1 , yn+1 , zn+1 )
(xn , yn , zn )|| , comenzando con (x0 , y0 , z0 ) = (0, 0, 0) .
3. Cu
al de las soluciones obtenidas en a) y b) es la m
as aceptable?
4. Calcule el n
umero de condici
on para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cual es su conclusi
on?
y h Rn un vector columna.
Disene un algoritmo en pseudo lenguaje basado en el metodo de eliminaci on gaussiana, sin
eleccion de pivote, que utilice el mnimo n
umero de localizaciones de memoria, realice el mnimo
n
umero de operaciones (es decir, que obve los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h .
5x1 x2 = 4
x1 + 5x2 x3 = 2
x2 + 5x3 = 1
3. Analice la convergencia del metodo de Jacobi y del metodo de GaussSeidel. Sin iterar.
1. Resuelva el sistema usando eliminaci on gaussiana, con o sin pivoteo, con aritmetica deci-
mal de redondeo a 3 dgitos. (el redondeo debe hacerse en cada operacion).
1. Trabajando con aritmetica decimal de tres dgitos y redondeo Es posible encontrar una
descomposici
on LU para A ?
2. Considere ahora aritmetica decimal de cinco dgitos y redondeo. Encuentre una des-
composicion LU para A , y compare los numeros de condicion de A y de LU Cual es
su conclusi
on?
2. Cu
ales de los metodos iterativos: Richardson, Jacobi, GaussSeidel convergen?
3. Use un metodo iterativo convergente para encontrar la soluci on del sistema con una pre-
cision de = 103 , con criterio de parada ||(xn , yn , zn ) (xT , yT , zT )|| , donde
(xT , yT , zT ) es la solucion exacta del sistema.
b) Determine la descompisici
on de Cholesky de A .
no tiene descomposicion LU .
Problema 3.26 Consideremos el problema de calcular la temperatura de una barra met alica
de largo L , cuyos extremos se mantienen a temperaturas constantes T0 y TL conocidas. La
ecuacion diferencial que gobierna este fen omeno es conocida como ecuaci
on de conducci
on del
calor, la cual, en regimen estacionario esta dada por
donde f (x) es una funci on conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeciente de difusi
on o conductividad termica. A esta ecuacion
se le agregan las condiciones de borde:
f (x + h) f (x)
f (x) ,
h
mientras que las derivadas de segundo orden, se aproximan por
f (x h) 2f (x) + f (x + h)
f (x) . (3.50)
h2
Denotemos por Tn los valores aproximados de la evaluaciones de la temperatura exacta en los
puntos de la malla, T (xn ) . Reemplazando T (x) en la ecuacion 3.48 por la expresi on 3.50,
on en los nodos internos de la malla {x1 , . . . , xN } , se obtiene el siguiente
y evaluando la ecuaci
sistema de ecuaciones lineales:
0 0 1 2 T N f (xN ) TL
se pide resolver numericamente el sistema 3.54, usando los metodos iterativos de Jacobi, Gauss-
Seidel y SOR. Para el metodo SOR tome distintos valores del parametro de aceleracion
ametro de aceleracion optimo .
(1, 2) . Calcule ademas el par
Para ello, siga los siguientes pasos:
2. Implemente cada uno de los 3 metodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especique
el criterio de parada utilizado y el n
umero de iteraciones para cada uno de los metodos y
para los distintos valores de N . Presente sus resultados en una tabla.
3. Finalmente, determine la solucion analtica del problema 3.48-3.49, con los par
ametros
dados por 3.55 y graque el error absoluto en la solucion, para cada uno de los metodos
y para los distintos valores de N . A partir de estos gracos, comente cual de los tres
metodos aproxima mejor a la soluci
on .
Problema 3.29
Problema 3.30
Problema 3.31
Captulo 4
Interpolaci
on
Supongamos que tenemos una funci on f : [a, b] R y queremos aproximarla por funciones
mas simples. M as general, nos son dados los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) donde los
puntos xi ( i = 0, . . . , n ) son distintos y estan sobre el eje x , los cuales suponemos ordenados
por x0 < x1 < < xn , y los puntos yi (i = 0, 1, . . . , n) son tales que yi = f (xi ) para alguna
funci
on desconocida f (x) con la cual deseamos hacer algunos c alculos. Podemos aproximar
f (x) por funciones simples, y hacer los calculos con estas aproximaciones, por ejemplo, calculo
de integrales (areas) y de derivadas.
4.1 Interpolaci
on de Lagrange
Comenzamos aproximando los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) , con x0 < x1 < < xn ,
por funciones polinomiales a trozo o por funciones polinomiales.
4.1.1 Aproximaci
on lineal por trozo o de grado 1
Dados los puntos (x0 , y0 ) y (x1 , y1 ) , con x0 < x1 , tales que y0 = f (x0 ) y x1 = f (x1 ) ,
podemos aproximar f (x) en el intervalo [x0 , x1 ] por la m as simple de las funciones, es decir,
afn . Para ello consideramos el segmento de recta que une los puntos (x0 , y0 ) y (x1 , y1 ) .
Tenemos entonces que la aproximacion es dada por
x x1 x x0
L1 (x) = y0 + y1 . (4.1)
x0 x1 x1 x0
f ((x))
Error = f (x) L1 (x) = (x x0 )(x x1 ) , (4.2)
2!
153
Sergio Plaza 154
f (x)
y1
L1 (x)
y0
x0 x1
L1 (x) = a0 + a1 x . (4.3)
L1 (x0 ) = a0 + a1 x0 = y0
L1 (x1 ) = a0 + a1 x1 = y1 (4.4)
o en forma matricial
1 x0 a0 y0
=
1 x1 a1 y1
cuya soluci
on es
1 1
a0 = y0 + y1
x1 x0 x1 x0
1 1
a1 = y0 + y1
x1 x0 x1 x0
x1 x1
x1 x0
f (x) L1 (x)dx = (y1 + y0 ) , (4.5)
x0 x0 2
es decir,
x1 x1
x1 x0
f (x)dx L1 (x)dx = (f (x0 ) + f (x1 )) , (4.6)
x0 x0 2
y1
Error
L1 (x)
x0 x1
x1
f ((x)) f (c) x1
(x x0 )(x x1 )dx = (x x0 )(x x1 )
x0 2! 2 x0
f (c) x3 x0 + x1 2
x1
= x + x0 x1 x
2 3 2 x0
3
f (c) h
=
2 6
3
h
= f (c)
12
x1
h h3
f (x)dx = (f (x0 ) + f (x1 )) f (c) . (4.7)
x0 2 12
De (4.7) tenemos una cota para el error cometido en el calculo de la integral, dado por
x1
h
h3
f (x)dx (f (x0 ) + f (x1 ))
y1
y2 f (x)
y0 yn
x0 x1 x2 xn2 xn1 xn
-
n
Ln (x) = f (xk )Ln,k (x) , (4.11)
k=0
donde
4
n
(x xi )
= . (4.12)
i =0
(xk xi )
i = k
f (n+1) ((x))
Error = f (x) Ln (x) = (x x0 ) (x xn ) (4.13)
(n + 1)!
f (x)
y1
y2
L2 (x)
y0
x0 x1 x2
Para encontrar la f
ormula (4.11), escribimos
Ln (x) = a0 + a1 x + a2 x2 + + an xn (4.14)
Sergio Plaza 157
o en forma matricial
1 x0 x20 xn0 a0 y0
1 x1 x21 xn1 a2 y1
.. .. .. .. .. .. = .. (4.16)
. . . . . . .
1 xn x2n xnn an yn
el cual se resuelve usando la regla de Cramer, y se obtiene la formula (4.12) para los coecientes
del polinomio de Lagrange.
Aplicando esta aproximaci
on para el c
alculo integral, tenemos
xn xn
f (x)dx Ln (x)dx
x0 x0
xn xn -
n
Ln (x)dx = f (xi )Ln,i (x)dx
x0 x0 i=0
-
n xn
= f (xi ) Ln,i (x)dx
i=0 x0
luego,
xn xn
xn 4n
f (x)dx Ln (x)dx
=
f (n+1) ((x)) (x xi )dx
x0 x0 (n + 1)! x0
i=0
xn
4 n
1
(n+1)
f ((x))
(x xi )
dx
(n + 1)! x0
i=0
|f (n+1) (c)| xn
=
(x xi )
dx
(n + 1)! x0
i=0
(n+1) , xn
4 n
|f (x)|
max : x [x0 , xn ]
(x xi )
dx
(n + 1)! x0
i=0
nh
K1 K2 ,
(n + 1)!
Sergio Plaza 158
'
( ;n
donde K1 = max
f (n+1) (x)
: x [x0 , xn ] y K2 = max {| i=0 (x xi )| : x [x0 , xn ]} ,
esto es,
xn xn
f (x)dx L (x)dx
nh K1 K2 . (4.17)
n
(n + 1)!
x0 x0
x2
b
(x x1 )(x x2 )
x2
(x x0 )(x x2 )
f (x)dx = f (x0 ) dx + f (x1 ) dx
a x0 (x0 x1 )(x0 x2 ) x0 (x1 x0 )(x1 x2 )
x2 x2
(x x0 )(x x1 ) (x x0 )(x x1 )(x x2 ) (3)
+f (x2 ) dx + f ((x))dx
x0 (x2 x 0 )(x2 x1 ) x0 6
Ejercicio. Desarrollar el c
alculo de las integrales y obtener la regla de Simpson.
Una forma alternativa para obtener la regla de Simpson es la siguiente. Desarrollamos f (x)
en serie de Taylor hasta orden 4 alrededor del punto x1 en el intervalo [x0 , x2 ] . Tenemos,
x1 = x0 + h , luego
f (x1 ) f (x1 ) f (4) ((x))
f (x) = f (x1 ) + f (x1 )(x x1 ) + (x x1 )2 + (x x1 )3 + (x x1 )4 ,
2 6 24
con (x) [x0 , x2 ] .
Integrando, obtenemos
x2
f (x1 )
f (x)dx = f (x1 )(x2 x0 ) + (x x1 )2
x0 2
x2
f (x1 ) 3 f (x1 ) 4
+ (x x1 ) + (x x1 )
6 24 x0
x2
1
+ f (4) ((x))(x x1 )4 dx .
24 x0
Sergio Plaza 159
1 x2
(4) 4 f (4) (c) x2
f ((x))(x x1 ) dx = (x x1 )4 dx
24 x0 24 x0
x2
1 (4)
= f (c)(x x1 )5
, c ]x0 , x2 [ .
120 x0
Luego
x2
h3 f (4) (c) 5
f (x)dx = 2hf (x1 ) + f (x1 ) + h . (4.18)
x0 3 60
donde x h < 2 < x < 1 < x + h . Sumando estas dos igualdades, obtenemos
1 (4)
f (x + h) + f (x h) = 2f (x) + f (x)h2 + (f (1 ) + f (4) (2 ))h4 (4.21)
24
1 h2 (4)
f (x) = (f (x h) 2f (x) + f (x + h)) (f (1 ) + f (4) (1 )) . (4.22)
h2 24
f (4) (1 ) + f (4) (2 )
= f (4) () , (4.23)
2
un [x h, x + h] .
para alg
Luego
1 h2 (4)
f (x) = (f (x h) 2f (x) + f (x + h)) f () . (4.24)
h2 12
Sergio Plaza 160
1 h2 (4)
f (x1 ) = (f (x1 h) 2f (x1 ) + f (x1 + h)) f () . (4.25)
h2 12
Como x1 h = x0 y x1 + h = x2 , obtenemos que
1 h2 (4)
f (x1 ) = (f (x0 ) 2f (x1 ) + f (x2 )) f ((x))
h2 12
y (4.18) se transforma en
x2
h3 1 h2 (4) f (4) (c) 5
f (x)dx = 2hf (x1 ) + (f (x0 ) 2f (x1 ) + f (x2 )) f () + h
x0 3 h2 12 60
h h5 f (4) (c) 5
= 2hf (x1 ) + (f (x0 ) 2f (x1 ) + f (x2 )) f (4) () + h
3 36 60
h h5 1 (4) 1
= (f (x0 ) + 4f (x1 ) + f (x2 )) f () f (4) (c)
3 12 3 5
h h5 f (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) 2 ()
3 12 15
h h5 (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) f () .
3 90
En resumen,
Regla de Simpson simple . Si x1 = x0 + h y x2 = x1 + h , entonces
x2
h h5
f (x)dx = (f (x0 ) + 4f (x1 ) + f (x2 )) f (4) () , (4.26)
x0 3 90
de donde
x2
h
h5
f (x)dx (f (x0 ) + 4f (x1 ) + f (x2 ))
x2n x2 x4 x2n
f (x)dx = f (x)dx + f (x)dx + + f (x)dx
x0 x0 x2 x2n2
h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + + 2f (x2n2 ) + 4f (x2n1 ) + f (x2n )) ,
3
esto es,
x2n
h
f (x)dx = (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + + 2f (x2n2 ) + 4f (x2n1 ) + f (x2n ))
x0 3
(4.28)
Sergio Plaza 161
4.4 M
etodo de las diferencias divididas
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < < xn = b y
f : [a, b] R una funci on n + 1 veces derivable con f (n+1) (x) continua. Sean yi = f (xi ) ,
i = 0, 1, . . . , n . Tenemos el polinomio de Lagrange Ln (x) interpolando esos puntos. Ahora,
queremos escribir Ln (x) en una forma m as sencilla, digamos como,
Ln (x0 ) = f (x0 ) = a0 ,
de donde
f (x1 ) f (x0 )
a1 = .
x1 x0
As, si tenemos denidas f [xi , xi+1 , . . . , xi+k1 ] y f [xi+1 , . . . , xi+k ] , podemos denir la
kesima diferencia dividida relativa a xi , xi+1 , . . . , xi+k por
Ahora un c
alculo directo, nos da que ak = f [x0 , x1 , . . . , xk ] , as podemos escribir
Sergio Plaza 162
-
n
Ln (x) = f [x0 ] + f [x0 , . . . , xk ](x x0 ) (x xk1 ) . (4.33)
k=1
La siguiente tabla muestra como se van generando las sucesivas diferencias divididas
x0 f [x0 ]
f [x1 ] f [x0 ]
f [x0 , x1 ] =
x1 x0
f [x1 , x2 ] f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ] =
x2 x0
f [x2 ] f [x1 ]
f [x1 , x2 ] =
x2 x1
x2 f [x2 ]
..
.
Sea f : R R una funcion, la cual suponemos derivable tantas veces cuanto sea necesario.
Dados x0 y x1 , como vimos, el cuociente
f (x1 ) f (x0 )
f [x0 , x1 ] =
x1 x0
es la diferencia dividida de primer orden de f (x) . La diferencia dividida de primer orden
f [x0 , x1 ] es la pendiente de la linea secante al gr
aco de y = f (x) uniendo los puntos
(x0 , f (x0 )) y (x1 , f (x1 )) .
(x1, f(x1) )
(x0, f (x0) )
y = f(x)
Sergio Plaza 163
sen(1.3) sen(1.2)
f [x0 , x1 ] = = 0.3151909944 .
1.3 1.2
Las diferencias divididas de primer orden pueden ser pensadas como siendo un an
alogo
numerico de la derivada de f (x) .
Si f (x) es una funci
on diferenciable y si x0 y x1 son pr oximos, entonces
x0 + x1
f f [x0 , x1 ] , (4.34)
2
esto es, la pendiente de la linea secante uniendo los puntos (x0 , f (x0 )) y (x1 , f (x1 )) sobre
el graco de y = f (x) es aproximadamente igual a la pendiente de la linea tangente en el
punto medio del intervalo desde x0 a x1 . Ademas, desde la denicion de f [x0 , x1 ] , haciendo
x1 x0 , obtenemos
Como vimos las diferencias divididas de orden superior son denidas recursivamente en
termino de las diferencias divididas de orden menor.
Dados x0 , x1 y x2 distintos (usualmente tomados en orden creciente), la diferencia dividida
de segundo orden de f (x) en esos tres puntos es
f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] = .
x2 x0
Si x0 , x1 , x2 y x3 son 4 n
umeros reales distintos (usualmente tomados en orden creciente),
la diferencia dividida de tercer orden de f (x) en esos cuatro puntos es
f [x1 , x2 , x3 ] f [x0 , x1 , x2 ]
f [x0 , x1 , x2 , x3 ] = .
x3 x0
En general, si x0 , x1 , . . . , xn son n + 1 n
umeros distintos (usualmente tomados en orden
creciente), la diferencia dividida de orden n de f (x) en esos puntos es
f [x1 , . . . , xn ] f [x0 , . . . , xn1 ]
f [x0 , x1 , x2 , . . . , xn ] = .
xn x0
Observaci
on. Existe una relacion entre una diferencia dividida de orden n y la derivada de
orden n de la funci
on.
sen(1.21) sen(1.2)
f [x0 , x1 ] = = 0.315190994 .
1.21 1.2
Sergio Plaza 164
sen(1.22) sen(1.21)
f [x1 , x2 ] = = 0.34833547,
1.22 1.21
f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] = = 0.46780450.
1.22 1.2
Si miramos f [x0 , x1 ] y f [x1 , x2 ] como siendo una aproximacion numerica para la derivada
de f (x) en los puntos medios x0 +x2
1
y x1 +x
2
2
, respectivamente, entonces
f [x1 , x2 ] f [x0 , x1 ]
= 2 f [x0 , x1 , x2 ]
( x1 +x
2
2
) ( x0 +x
2
1
)
puede ser pensado como siendo una aproximacion numerica para f (x1 ) , pues x1 es el punto
medio del intervalo desde x0 a x2 . Luego la diferencia dividida de segundo orden f [x0 , x1 , x2 ]
es una aproximacion numerica para f (x 2
1)
, en otras palabras,
f (x1 ) 2f [x0 , x1 , x2 ] (4.36)
Como f (x) = sen(x) , tenemos f (x 2
1)
= f (1.21
2
)
= 0.46780800 , la cual puede ser
comparada con el valor f [x0 , x1 , x2 ] = 0.46780450 .
4.5 C
alculo de diferencias divididas
Una manera eciente de calcular polinomios de interpolacion es hacer uso de diferencias divi-
didas en conexion con la f
ormula de interpolaci
on de Newton.
on f (x) y una sucesion x0 , x1 , . . . , xn de valores dis-
Supongamos que son dada una funci
tintos de la variable x .
La diferencias divididas de primer orden asociadas son
f (x1 ) f (x0 )
f [x0 , x1 ] =
x1 x0
f (x2 ) f (x1 )
f [x1 , x2 ] =
x2 x1
..
.
f (xn ) f (xn1 )
f [xn1 , xn ] = .
xn xn1
f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 x0
f [x2 , x3 ] f [x1 , x2 ]
f [x1 , x2 , x3 ] =
x3 x1
..
.
f [xn1 , xn ] f [xn2 , xn1 ]
f [xn2 , xn1 , xn ] = .
xn xn2
Sergio Plaza 165
Note que el n umero de diferencias divididas decrece a cada etapa hasta que llegamos a la
u
nica diferencia dividida de orden n
y1 y0 y2 y1 y3 y2 y4 y3
, , ,
x1 x0 x2 x1 x3 x2 x4 x3
y2 y1 y1 y0 y3 y2 y2 y1 y4 y3 y3 y2
x2 x1 x1 x0 x3 x2 x2 x1 x4 x3 x3 x2
, ,
x2 x0 x3 x1 x4 x2
y3 y2 y2 y1 y2 y1 y1 y0
x3 x2 x2 x1 x2 x1 x1 x0
x3 x1 x2 x0
,
x3 x0
y4 y3 y3 y2 y3 y2 y2 y1
x4 x3 x3 x2 x3 x2 x2 x1
x4 x2 x3 x1
x4 x1
y4 y3 y3 y2 y3 y2 y2 y1 y3 y2 y2 y1 y2 y1 y1 y0
x4 x3 x3 x2 x3 x2 x2 x1 x3 x2 x2 x1 x2 x1 x1 x0
x4 x2 x3 x1 x3 x1 x2 x0
x4 x1 x3 x0
x4 x0
(f (x1 ) f (x0 )) (x x0 )
p(x) = f (x0 ) + ,
x1 x0
esta es la ecuacion de la linea recta pasando a traves de los puntos (x0 , f (x0 )) y (x1 , f (x1 )) .
4.6 Interpolaci
on de Hermite
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < < xn = b y
on 2n + 2 veces derivable con f (2n+2) (x) continua, sean yi = f (xi ) ,
f : [a, b] R una funci
i = 0, 1, . . . , n .
Problema. Encontrar un polinomio P (x) tal que
P (xi ) = f (xi )
(4.37)
P (xi ) = f (xi )
para i = 0, 1, . . . , n .
Teorema 4.1 Dados n + 1 puntos distintos en el intervalo [a, b] , digamos a x0 < x1 <
< xn b y f : [a, b] R una funci on 2n + 2 veces derivable con f (2n+2) (x) continua,
sean yi = f (xi ) , i = 0, 1, . . . , n . Entonces existe un u
nico polinomio de grado a lo m
as 2n + 1 ,
H2n+1 (x) , tal que
H2n+1 (xi ) = f (xi )
(4.38)
H2n+1 (xi ) = f (xi )
para i = 0, 1, . . . , n donde H2n+1 (x) es dado por
-
n -
n
H2n+1 (x) = f (xj )Hn,j (x) + f (xj )H
n,j (x) (4.39)
j=0 j=0
con
Hn,j (x) = 1 2(x xj )Ln,j (xj ) (Ln,j (x))2 (4.40)
donde
(x x0 )2 (x x1 )2 (x xn )2 (2n+2)
f (x) H2n+1 (x) = f ((x)) , (4.42)
(2n + 2)!
Integrando, tenemos
xn xn xn
(x x0 )2 (x xn )2 (2n+2)
f (x)dx = H2n+1 (x) + f ((x))dx (4.43)
x0 x0 x0 (2n + 2)!
xn xn
f (x) H2n+1 (x) . (4.44)
x0 x0
Soluci
on. Tenenos
(x 1) (x 2) (x 1) (x 2) (x 4) 2 (x 1) (x 2) (x 4) (x 5)
p(x ) := 7 2 x + +
2 12 15
4
y
3
0 1 2 3 4 5 6 7
x
y los valores de y ,
de donde, relizando el c
alculo de las diferencias divididas, otenemos el polinomio
Tenemos
0.8
0.6
0.4
0.2
Gr
aco del polinomio de interpolaci
on
1e06
5e07
1e06
Gr
aco del error del polinomio de interpolaci
on
Sergio Plaza 170
Problema 4.3 De una funci on f (x) se conocen sus valores yi en los puntos xi , i = 0, 1, 2, 3, 4 .
Se desea concer un valor aproximado de f (2.5)
xi yi
x0 = 0.0 y0 = 1.90
x1 = 0.5 y1 = 2.39
x2 = 1.0 y2 = 2.71
x3 = 1.5 y3 = 2.98
x4 = 2.0 y4 = 3.20
x5 = 3.0 y5 = 3.20
x6 = 3.5 y6 = 2.98
x7 = 4.0 y7 = 2.74
(x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7,0 (x) =
(x0 x1 ) (x0 x2 ) (x0 x3 ) (x0 x4 ) (x0 x5 ) (x0 x6 ) (x0 x7 )
(x x0 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,1 (x) =
(x1 x0 ) (x1 x2 ) (x1 x3 ) (x1 x4 ) (x1 x5 ) (x1 x6 ) (x1 x7 )
evaluando A1 = L7,1 (2.5) = 0.142857142857
(x x0 ) (x x1 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,2 (x) =
(x2 x0 ) (x2 x1 ) (x2 x3 ) (x2 x4 ) (x2 x5 ) (x2 x6 ) (x2 x7 )
evaluando, tenemos A2 = L7,2 (2.5) = 0.500000000000 .
(x x0 ) (x x1 ) (x x2 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,3 (x) =
(x3 x0 ) (x3 x1 ) (x3 x2 ) (x3 x4 ) (x3 x5 ) (x3 x6 ) (x3 x7 )
(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x5 ) (x x6 ) (x x7 )
L7 ,4 (x) =
(x4 x0 ) (x4 x1 ) (x4 x2 ) (x4 x3 ) (x4 x5 ) (x4 x6 ) (x4 x7 )
(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x6 ) (x x7 )
L7 ,5 (x) =
(x5 x0 ) (x5 x1 ) (x5 x2 ) (x5 x3 ) (x5 x4 ) (x5 x6 ) (x5 x7 )
(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x7 )
L7 ,6 (x) =
(x6 x0 ) (x6 x1 ) (x6 x2 ) (x6 x3 ) (x6 x4 ) (x6 x5 ) (x6 x7 )
(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 )
L7 ,7 (x)
(x7 x0 ) (x7 x1 ) (x7 x2 ) (x7 x3 ) (x7 x4 ) (x7 x5 ) (x7 x6 )
Otra forma, indirecta, es escribir cada uno de los polinomios coecientes del polinomio de
Lagrange, calcular el polinomio de Lagrange en cuesti
on y despues evaluar.
Tenemos
Luego,
por lo tanto,
L7 (2.5) = 3.29071428572 .
Sergio Plaza 173
4 4
f (x) L7 (x) = 11.5714225246 .
0 0
Usando la regla de los trapecios con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 . Denimos los nuevos valores xi e yi = f (xi ) , i = 0, . . . , 8
Tenemos, que
h
T rapf = (y0 + 2 y1 + 2 y2 + 2 y3 + 2 y4 + 2 y5 + 2 y6 + 2 y7 + y8 )
2
evaluando, obtenemos
Trap f := 11.5353571428 .
El error que hemos cometido en el calculo comparado con el valor dado por la interpolaci
on
de Lagrange
4
Error(T rapf ) = |T rapf L(x)|
0
nos da
Usando la regla de Simpson con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 y hemos redenido los nuevos valores xi e yi = f (xi ) ,
i = 0, . . . , 8 . Tenemos que
h
Simpsonf = (y0 + 4 y1 + 2 y2 + 4 y3 + 2 y4 + 4 y5 + 2 y6 + 4 y7 + y8 )
3
evaluando, obtenemos
Simpsonf = 11.5704761905 .
4
Error (Simpsonf ) = |Simpsonf L(x)| = 0.0009463341
0
Sergio Plaza 174
3.2
2.8
2.6
2.4
2.2
0 1 2 3 4
x
Gr
afico de L7 (x) en el intervalo [0, 4]
alculos, y tenemos simpson8 11.5704761904 , con error Error
Podemos continuar nuestros c
0.0009463342 , simpson16 11.5713597470 , con error Error 0.0000627776 y simpson32
11.5714185442 , con error Error 0.39804 105 , y para la regla de los trapecios, obtenemos
Trap 11.5704929653 .
0.35
0.3
0.25
0.2
0.15
0.1
0.05
2 1 0 1 2
x
gr
aco de f en [2, 2]
Como la funci
on es simetrica respecto del origen, se tiene que f (1) = f (1) = 0.3678794412 ,
f (2) = f (2) = 0.07326255556 y f (0) = 0 .
x0 = 2.0
x1 = 1.0
x2 = 0.
x3 = 1.0
x4 = 2.0
L4 (x) = L4,0 (x) f (x0 ) + L4,1 (x) f (x1 ) + L4,2 (x) f (x2 ) + L4,3 (x) f (x3 ) + L4,4 (x) f (x4 )
Luego,
(x x1 ) (x x2 ) (x x3 ) (x x4 )
L4,0 (x) =
(x0 x1 ) (x0 x2 ) (x0 x3 ) (x0 x4 )
leugo, reemplazando nos queda
(x x0 ) (x x2 ) (x x3 ) (x x4 )
L4,1 (x) =
(x1 x0 ) (x1 x2 ) (x1 x3 ) (x1 x4 )
Como f (x2 ) = 0 , no es necesario calcular L4,2 (x) , pero de todas maneras lo hacemos;
(x x0 ) (x x1 ) (x x3 ) (x x4 )
L4,2 (x) = .
(x2 x0 ) (x2 x1 ) (x2 x3 ) (x2 x4 )
(x x0 ) (x x1 ) (x x2 ) (x x4 )
L4,3 (x) = ,
(x3 x0 ) (x3 x1 ) (x3 x2 ) (x3 x4 )
de donde
(x x0 ) (x x1 ) (x x2 ) (x x3 )
L4,4 (x) =
(x4 x0 ) (x4 x1 ) (x4 x2 ) (x4 x3 )
Luego,
2
f (x) = 0.845450112985 .
2
Sergio Plaza 176
2 2
f (x) L4 (x) = 1.09199822279 .
2 .2
h=1
y0 = 0.0732625555548
y1 = 0.367879441171
y2 = 0
y3 = 0.367879441171
y4 = 0.0732625555548
luego,
Trap f = 0.809021437895
0.5
0.4
0.3
0.2
0.1
2 1 0 1 2
x
simpson8 = 1.08811418054
Err = 0.00388404225
simpson32 = 1.09198305075
Err = 0.00001517204
trap = 1.04463387609
Sergio Plaza 177
1
Tomando h = , obtenemos
5
390625 10 109375 8 51875 6 54525 4 3725 2
p(x) = x + x x + x x +1
1768 221 136 442 221
Notemos que el polinomio interpolante oscila violentamente y no aproxima muy bien a la
funcion original.
1 2 2
0.6 1 1
0.4
0.5 0.5
0.2
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
x x
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
x
afico de f (x)
gr afico de p(x)
gr graficos de f (x) y de p(x)
4.8 Ejercicios
on f (x) = ex en el intervalo [1, 1] . Construya los poli-
2
Problema 4.1 Considere la funci
nomios de interpolaci
on de Newton, con puntos equiespaciados y h = 1/10 y h = 1/20 .
x 3 8 5 1 7
f (x) 459 18864 3105 13 11263
2
on f (x) = ex .
Problema 4.6 Considere la funci
on f (x) = ex .
Problema 4.7 Considere la funci
2. Exprese una cota para el error en la aproximacion de Hermite obtenida en la parte 1).
(Simplique al m
aximo la expresi
on obtenida para el error)
b) Que puede decir de L2n,k (x) y de L2n (x) si f es antisimetrica, respecto al origen es
decir, f (x) = f (x) ? Justique su respuesta. Ilustre usando la funci
on f (x) = sen(x) ,
con x [1, 1] .
Problema 4.9 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = 1 , f (4) = 0 , y |f (5) (x)| 32 .
4. Cu
al es su conclusi
on para los itemes 1), 2), y 3)?
Problema 4.12 Sea f : [0, 1] R una funci on al menos tres veces derivable con continuidad,
que satisface f (0) = 0 , f (0) = 1 , f (0.5) = 1 , f (0.5) = 0 , f (1) = 0 y f (1) = 1 .
2. Determine una expresion para error y una buena cota para este (simplique al maximo).
Problema 4.13 Considere una funci on f : [0, 4] R , al menos cinco veces derivable, de la
cual se sabe que f (0) = 0 , f (1) = 1.7183 , f (2) = 6.3891 , f (3) = 19.0855 , f (4) = 53.5982 , y
tal que |f (k) (x)| ex para todo x [0, 4]
Problema 4.14 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 0 , f (0.25) = 1 , f (0.5) = 0 , f (0.75) = 1 ,
f (1) = 0 , y |f (n) (x)| (2)n para todo x R y todo n 1 .
(c) Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en a) en el intervalo [0, 1] .
0.5
(d) Encuentre el error para la aproximaci
on de f (x)dx por la integral del polinomio de
0
interpolaci
on de Lagrange obtenido en a)
Problema 4.16 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = 1 , f (4) = 0 , y |f (5) (x)| 32 para todo x [0, 4] .
Sergio Plaza 181
Problema 4.17 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 1 , f (0.25) = 0 , f (0.5) = 1 , f (0.75) = 0 ,
f (1) = 1 , y |f (n) (x)| (2)n para todo x R y todo n 1 .
1. Usando la informaci
on dada, encuentre el polinomio de interpolaci
on Lagrange para f (x) .
1
2. Calcule una aproximacion para f (x)dx usando el polinomio obtenido en 1).
0
3. Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en 1) en el intervalo [0, 1] .
0.5
4. Encuentre el error para la aproximacion de f (x)dx por la integral del polinomio de
0
interpolaci
on de Lagrange obtenido en 1)
1
on f : [1, 1] R dada por f (x) =
Problema 4.18 Considere la funci . Usando
1 + 25x2
divisiones uniformes, calcule y graque Ln (n) , para n = 2, 3, 4, . . . , 10 para esas subdivisiones.
Graque f (x) y Ln (x) . Compare Cu al es su conclusi
on?
Problema 4.20 Una funci on f (x) satisface f (1) = 1, f (0) = 2 , f (2) = 1 . Encuentre
la aproximacion de f mediante interpolaci on de Lagrange. Estime f (1) . Si es sabido que
|f (x)| , es acotada por 1.12 para x [1, 2] . Encuentre el error que se produce al aproximar
f (1) por la interpolaci on de Lagrange. Graque.
x 0 1 2 3 4 5
y 2 2 3 5 6 7
Problema 4.22 Sea f (x) = x3 . Sean x0 , x1 , x2 tres puntos distintos, con x0 < x1 < x2 .
Calcule f [x0 , x1 , x2 ] .
Problema 4.23 Para una funci on f (x) se conocen f [1] = 2, f [1, 1] = 1, f [1, 1, 2] =
2, f [1, 1, 2, 4] = 2 . Escriba el polinomio de interpolaci
on de grado a lo m
as 3 con nodos en
1 , 1 , 2 , 4 . Usando ese polinomio, estime f (0) .
Sergio Plaza 182
k 0 1 2 3
xk -1 0 1 3
yk 1 0 -1 2
f [xk1 , xk ] ? -1 -1 ?
f [xk2 , xk1 , xk ] ? ? ? ?
f [xk3 , xk2 , xk1 , x2 ] ? ? ? ?
(a) Calcular los valores de las constantes A , B y C de modo que la formula Ia sea exacta
en P2 (R) (el espacio vectorial de los polinomios de grado menor o igual que 2).
(b) Usando la f
ormula obtenida en la parte (a), aproxime la integral
exp(sin(x)) dx.
0
Problema 4.26 Se desea construir una funci on f : R R tal que f (x) = 0 para x 0
y f (x) = 1 para x 1. Para x [0, 1], necesitaremos denir una funci on s, polinomial por
pedazos, que conecte ambas ramas de f , esto es, s(0) = 0, s(1) = 1, y para tener continuidad
de las tangentes, s (0) = 0 y s (1) = 0. Se busca entonces s : [0, 1] R denida por dos
polinomios p, q P3 (R) de modo que
p(x) si x [0, 12 ],
s(x) =
q(x) si x ( 12 , 1],
que sea de clase C 2 ([0, 1]) (es decir, que tenga segunda derivada continua en [0, 1]), y que
interpole a los datos {0, 12 , 1} en la malla {0, 12 , 1} (ver gura).
1
(a) Sea m la derivada de s en 2 (o sea m = s ( 12 )). Encuentre las expresiones de p(x) y q(x)
en funci
on de m.
(b) Determine el valor de la constante m de modo que la funcion s(x) resultante sea de clase
C 2 ([0, 1]). En este caso, escriba explcitamente s(x) en el intervalo [0, 1].
Problema 4.27
Problema 4.28
Problema 4.29
Problema 4.30
Problema 4.31
Problema 4.32
Captulo 5
Derivadas Num
ericas
La primera f
ormula para calcular derivadas numericamente proviene del calculo diferencial, y
es dada por
f (x + h) f (x)
f (x) = + R(h2 ) , (5.1)
h
donde limh0 R(h2 ) = 0 .
Para tener mejores aproximaciones podemos usar expansion de Taylor alrededor de x para
f (x + h) y f (x h)
h2 h3
f (x + h) = f (x) + hf (x) + f (x) + f (x) + (5.2)
2 6
f (x) = f (x) (5.3)
2 3
h h
f (x h) = f (x) hf (x) + f (x) f (x) + (5.4)
2 6
con 1 (x) entre x y x + h y 2 (x) entre x h y x . Restando (5.6) de (5.5), nos queda
h2
f (x + h) f (x) = hf (x) + f (1 (x)) ,
2
183
Sergio Plaza 184
h2 h3
f (x + h) = f (x) + hf (x) + f (x) + f (1 (x)) (5.9)
2 6
f (x) = f (x) (5.10)
2 3
h h
f (x h) = f (x) hf (x) + f (x) f (2 (x)) (5.11)
2 6
con 1 (x) entre x y x + h y 2 (x) entre x h y x .
Restando (5.11) de (5.9), nos queda
f (x + h) f (x h) h2
f (x) = f ((x)) . (5.12)
2h
6
arpoximaci
on error
esta es llamada f
ormula de las diferencias centradas para la primera derivada.
Para obtener f
ormulas para derivadas de orden 2, consideramos desarrollos hasta orden 4.
h2 h3 h4
f (x + h) = f (x) + hf (x) + f (x) + f (x) + f (4) (1 (x)) (5.13)
2 6 24
f (x) = f (x) (5.14)
h2 h3 h4
f (x h) = f (x) hf (x) + f (x) f (x) + f (4) (2 (x)) (5.15)
2 6 24
h4 (4)
f (x + h) 2f (x) + f (x h) = h2 f (x) + f ((x))
12
Sergio Plaza 185
f (x + h) 2f (x) + f (x h) h2 (4)
f (x) = 2
f ((x)) (5.16)
h 12
aproximaci
on error
esta es llamada f
ormula de las diferencias centradas para la segunda derivada.
Veamos ahora como obtener otras formulas para derivadas numerica usando interpolacion de
Lagrange.
Sea f : [a, b] R tal que f (x) es continua. Sea x0 ]a, b[ y h = 0 peque
no. Denimos
x1 = x0 + h , h = 0 sucientemente peque no para que x1 [a, b] . Tenemos la aproximacion
de Lagrange de grado 1, L1 (x) para f (x) determinada por x0 y x1 , con su error. Esta es
dada por
(x x0 )(x x1 )
f (x) = L1 (x) + f ((x))
2!
x x1 x x0 (x x0 )(x x1 )
= f (x0 ) + f (x1 ) + f ((x))
x0 x1 x1 x0 2
(x x0 h) (x x0 ) (x x0 )(x x0 h)
= f (x0 ) + f (x0 + h) + f ((x))
h h 2
f (x0 + h) f (x0 ) d (x x0 )(x x0 h)
f (x) = + f ((x))
h dx 2
f (x0 + h) f (x0 ) 2(x x0 ) h
= + f ((x))
h 2
(x x0 )(x x0 h) d
+ (f ((x))) .
2 dx
Luego
f (x0 + h) f (x0 )
f (x) .
h
d
Ahora (f ((x))) = f ((x)) (x) , y no tenemos informaci
on sobre esto, luego el error de
dx
d
truncacion no lo podemos estimar. Cuando x = x0 , el coeciente que acompa na a f ((x))
dx
se anula, y entonces
f (x0 + h) f (x0 ) h
f (x0 ) = f () (5.17)
h 2
-
n
(x x0 ) (x xn ) (n+1)
f (x) = f (xk )Ln,k (x) + f ((x))
(x + 1)!
k=0
-
n
(x x0 ) (x xn ) (n+1)
d
f (x) = f (xk )Ln,k (x) + f ((x))
dx(n + 1)!
k=0
-n
d (x x0 ) (x xn )
= f (xk )Ln,k (x) + f (n+1) ((x))
dx (n + 1)!
k=0
(x x0 ) (x xn )) d (n+1)
+ f ((x))
(n + 1)! dx
-
n
f (n+1) ((x)) 4
n
f (xj ) = f (xk )Ln,k (x) + (xj xi ) (5.18)
(n + 1)! i = 0
k=0
i = j
Ejemplo. F
ormula con tres modos.
on 3 veces derivable, con f (x)
En este caso, son dados x0 , x1 y x2 , y f (x) una funci
continua. Entonces
(x x1 )(x x2 ) 2x x1 x2
L2,0 (x) = , L2,0 (x) =
(x0 x1 )(x0 x2 ) (x0 x1 )(x0 x2 )
(x x0 )(x x2 ) 2x x0 x2
L2,1 (x) = , L2,1 (x) =
(x1 x0 )(x1 x2 ) (x1 x0 )(x1 x2 )
(x x0 )(x x1 ) 2x x0 x1
L2,2 (x) = , L2,2 (x) =
(x2 x0 )(x2 x1 ) (x2 x0 )(x2 x1 )
2xj x1 x2 2xj x0 x2
f (xj ) = f (x0 ) + f (x1 )
(x0 x1 )(x0 x2 ) (x1 x0 )(x1 x2 )
4 2
2xj x0 x1 1
+f (x2 ) + f (3) (j ) (xj xi )
(x2 x0 )(x2 x1 ) 6 i = 0
i = j
donde j = 0, 1, 2 y j depende de xj .
Sergio Plaza 187
1 3 1 h2
f (x0 ) = f (x0 ) + 2f (x1 ) f (x2 ) + f (3) (0 ) ,
h 2 2 3
para xj = x1 , tenemos
1 1 1 h2
f (x1 ) = f (x0 ) + f (x2 ) f (3) (1 )
h 2 2 6
y para xj = x2 ,
1 1 3 h2
f (x2 ) = f (x0 ) 2f (x1 ) + f (x2 ) + f (3) (2 ) .
h 2 2 3
Como x1 = x0 + h y x2 = x0 + 2h , tenemos
1 3 1 h2 (3)
f (x0 ) = f (x0 ) + 2f (x0 + h) f (x0 + 2h) + f (0 )
h 2 2 3
1 1 1 h2
f (x0 + h) = f (x0 ) + f (x0 + 2h) f (3) (1 )
h 2 2 6
1 1 3 h2 (3)
f (x0 + 2h) = f (x0 ) 2f (x0 + h) + f (x0 + +2h) + f (2 ) ,
h 2 2 6
1 h2
a) f (x0 ) = (3f (x0 ) + 4f (x0 + h) f (x0 + 2h) + f (3) (0 )
2h 3
1 h2
b) f (x0 ) = (f (x0 h) + f (x0 + h)) f (3) (1 )
2h 6
1 h2
c) f (x0 ) = (f (x0 2h) 4f (x0 h) + 3f (x0 )) + f (3) (2 )
2h 3
De modo an
alogo, puede deducirse las f
ormulas
1 h4
d) f (x0 ) = (f (x0 2h) 8f (x0 h) + 8f (x0 + h) f (x0 + 2h)) + f (5) ()
12h 30
1
e) f (x0 ) = (25f (x0 ) + 48f (x0 + h) 36f (x0 + 2h) + 16f (x0 + 3h) 3f (x0 + 4h)))+
12h
h4 (5)
f ()
5
Sergio Plaza 188
5.1 Ejercicios
Problema 5.1 Usando las f ormulas anteriores (todas) calcule f (2.0) , donde f (x) = xex ,
primero con h = 0.1 y despues con h = 0.1 . Analice los resultados en comparacion con la
derivada f (x) calculada en forma exacta y evaluada en x = 2.0 .
f (x0 + h) f (x0 )
(i) f (x0 ) ,
h
f (x0 + h) f (x0 h)
(ii) f (x0 ) .
2h
1
(a) Considerando f (x) = sen(x) , x0 = /4 , y hn = , con n = 1, . . . , 5 , estime f (/4) ,
10n
usando (i) y (ii) anteriores.
(b) En ambas f ormulas (a) y (b) anteriores existe perdidad de dgitos signicativos (es decir,
son numericamente inestables) pues existe resta de n umeros parecidos Cual de ellas es
mas inestable? Justique su respuesta en forma te orica y numerica.
Problema 5.4
Problema 5.5
Problema 5.6
Problema 5.7
Problema 5.8
Poner lista de f
ormulas para derivadas num
ericas
Captulo 6
Spline C
ubicos
1. S(x) es un polinomio c on S
[xj ,xj+1 ] = Sj ,
ubico en cada intervalo [xj , xj+1 ] . Notaci
j = 0, 1, . . . , n 1 ,
2. S(xj ) = f (xj ) , j = 0, 1, . . . , n ,
6.1 Construcci
on de Spline c
ubicos
Consideremos los polinomios c
ubicos
Sj (x) = aj + bj (x xj ) + cj (x xj )2 + dj (x xj )3 , (6.1)
j = 0, 1, . . . , n 1 .
Ahora, aplicando la condici
on (3), tenemos
189
Sergio Plaza 190
j = 0, 1, . . . , n 2 .
Usaremos la notacion hj = xj+1 xj , para j = 0, 1, . . . , n 1 , y
an = f (xn ) . (6.3)
Ahora denamos
bn = S (xn ) . (6.5)
Tenemos entonces
bj+1 = Sj+1 (xj+1 ) = Sj (xj+1 ) = bj + 2cj hj + 3dj h2j (6.7)
j = 0, 1, . . . , n 1 .
Denamos
S (xn )
cn = (6.8)
2
aplicando la condici
on (5), obtenemos
cj+1 cj
dj = (6.10)
3hj
Reemplazando en la ecuacion para aj+1 (6.4) y para bj+1 (6.7), nos queda
h2j
aj+1 = aj + bj hj + (2cj + cj+1 ) (6.11)
3
1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.13)
hj 3
Sergio Plaza 191
Para j 1 obtenemos
1 hj1
bj1 = (aj aj1 ) (2cj1 + cj ) . (6.14)
hj1 3
3 3
hj1 cj1 + 2(hj1 + hj )cj + hj cj+1 = (aj+1 aj ) (aj aj1 ) (6.15)
hj hj1
j = 1, . . . , n 1 .
Notemos que hj y aj son conocidos. Los otros coecientes bj y dj , j = 0, 1, . . . , n 1 se
obtienen de
1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.16)
hj 3
cj+1 cj
dj = . (6.17)
3hj
S (xn )
Demostraci on. En este caso las condiciones de frontera signican que cn = 2 = 0 y que
0 = S (x0 ) = 2c0 + 6d0 (x0 x0 ) , luego c0 = 0 .
De las dos ecuaciones c0 = 0 y cn = 0 junto con las ecuaciones lineales (6.15) se tiene el
sistema de ecuaciones lineales Ax = b , donde A es la matriz (n + 1) (n + 1) dada por
1 0 0 0 0 0 0
h0 2(h0 + h1 ) h1 0 0 0 0
0 h1 2(h1 + h2 ) h2 0 0 0
A=
.. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 hn2 2(hn2 + hn1 ) hn1
0 0 0 0 0 0 1
0
3 3 c0
h1 (a 2 a 1 ) a0 )
h0 (a1
.. c1
. ..
b= y x= .
..
. ..
3 3 .
hn1 (a n a n1 ) hn2 (a n1 a n2 )
cn
0
1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.18)
hj 3
1 h0
b0 = f (a) = (a1 a0 ) (2c0 + c1 )
h0 3
3
2h0 c0 + h0 c1 = (a1 a0 ) 3f (a) .
h0
De modo an
alogo
an an1 hn1
f (b) = (2cn1 + cn ) + hn1 (cn1 + cn )
hn1 3
an an1 hn1
= + (cn1 + 2cn )
hn1 3
y que
3
hn1 cn1 + 2hn1 cn = 3f (b) (an an1 ) .
hn1
3
2h0 c0 + h0 c1 = (a1 a0 ) 3f (a)
h0
y
3
hn1 cn1 + 2hn1 cn = 3f (b) (an an1 )
hn1
2h0 h0 0 0 0 0 0
h0 2(h0 + h1 ) h1 0 0 0 0
0 h1 2(h1 + h2 ) h2 0 0 0
A=
.. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 hn2 2(hn2 + hn1 ) hn1
0 0 0 0 0 hn1 2hn1
3
h0 (a1 a0 ) 3f (a)
3 3 c0
h1 (a2 a1 ) h0 (a1 a0 )
.. c1
. ..
b= .. y x= .
.
. .
3 3 .
hn1 (a n a n1 ) hn2 (a n1 a n2
)
3 cn
3f (b) hn1 (an an1 )
donde hi = xi+1 xi y c, d son las constantes de integracion. Ahora, imponiendo las condi-
ciones
Si (xi ) = f (xi ) = yi
Si (xi+1 ) = yi+1 .
zi
h3i + cxi + d = yi
6hi
h3 zi + cxi+1 + d = yi+1
i
6hi
yi+1 yi (zi+1 zi ) yi xi+1 yi+1 xi xi zi+1 xi+1 zi
de donde c = hi y d = + hi .
hi 6 hi 6
Reemplazando en la ecuacion (6.19) nos queda
Sergio Plaza 194
zi (x xi )3 zi+1 (yi+1 yi ) (zi+1 zi )
Si (x) = (xi+1 x)3 + + hi x
6hi 6hi hi 6
yi xi+1 yi+1 xi xi zi+1 xi+1 zi
+ + hi (6.20)
hi 6
Para encontrar zi y zi+1 imponemos la condicion Si1 (xi ) = Si (xi ) .
1 1
Si (xi ) = hi zi hi zi+1 + bi
3 6
y
1 1
Si1 (xi ) = hi1 zi1 + hi1 zi + bi
6 3
imponiendo la condici
on Si1 (xi ) = Si (xi ) nos queda
donde
hi = ti+1 ti
u = 2(hi + hi1 )
i
6
bi = (xi+1 xi ), Sj (tj ) = xj
hi
vi = bi bi1
6.3 Ejercicios
Problema 6.1 Sea f : [a, b] R un polinomio c ubico. Denote por S1 y S2 , los spline
ubicos libre y sujeto determinados por f S1 y S2 coinciden con f ? Justique su respuesta.
c
Sergio Plaza 195
x3 , x [0, 1]
f (x) = 1 3 2
2 (x 1) + a(x 1) + b(x 1) + c , x [1, 3]
es un spline c
ubico.
11 5
2 x + x3 si 0x<1
3 3
56 10
s(x) = 7 x + 15x2 x3 si 1x<2
3 3
33 + 124 x + Ax2 + Bx3 si 2x3
3
Encuentre A y B .
Problema 6.4 Si s(x) = 0 para x < 2 y s(x) = (x 2)3 para x 2 es s(x) un spline c
ubico?
Justique.
x3 + ax2 4x + c 0x2
s(x) =
x3 + ax2 + bx + 34, 2x4
Encuentre las constantes a, b y c de modo que s(x) es dos veces continuamente derivable
en [0, 4] Es s(x) para esas constantes un spline c
ubico?
1 x + ax2 + x3 si 0x1
s(x) =
3 + bx + cx2 x3 si 1<x2
1
on f : [1, 1] R dada por f (x) =
Problema 6.7 Considere la funci . Usando
1 + 25x2
divisiones uniformes, calcule y graque Ln (x) , para n = 2, 3, 4, . . . , 10 . Calcule y graque
las interpolaciones por spline c
ubicos naturales y libres (imponga las condiciones adecuadas en
cada caso) para esas subdivisiones. Graque f (x) , Ln (x) y sn (x) . Compare Cu al es su
conclusion?
Problema 6.8
Problema 6.9
Sergio Plaza 196
Problema 6.10
Problema 6.11
Problema 6.12
Problema 6.13
Problema 6.14
Captulo 7
Ajuste de Curvas
En general esto no es posible hacer en forma exacta. Buscamos entonces una funci
on f (x)
tal que
f (xk ) = yk + ek , (7.1)
ek = f (xk ) yk , 1 k n, (7.2)
a) Error m
aximo
E (f ) = max{|f (xk ) yk | : 1 k n} .
b) Error medio
1-
n
E1 (f ) = |f (xk ) yk | .
n
k=1
197
Sergio Plaza 198
1-
n
E2 (f )2 = |f (xk ) yk |2 ,
n
k=1
-
n
F (f ) = |f (xk ) yk |2 .
k=1
1
E1 (f ) = 2.6 0.325
8
1/2
14
E2 (f ) = 0.4183300133 .
8
La recta de regresi
on o recta
optima, en el sentido de los mnimos cuadrados es la recta de
ecuacion y = f (x) = Ax + B que minimiza el error cuadr atico medio E2 (f ) .
Problema 3 Determinar A y B .
Tenemos y = Ax + B y sea dk = distancia entre (xk , yk ) y (xk , Axk + B)
DIBUJO
Esta distancia es
dk = |Axk + B yk | .
-
n -
n
Sea E(A, B) = (Axk + B yk )2 = d2k .
k=1 k=1
Sergio Plaza 199
E
A = 0
E = 0,
B
llamadas ecuaciones normales de Gauss. Tenemos
E -
n -
n
= 2(Axk + B yk )xk = 2(Ax2k + Bxk xk yk ) ,
A
k=1 k=1
E
luego = 0 si y solo si
A
$ % $ %
-
n -
n -
n
x2k A+ xk B= xk yk .
k=1 k=1 k=1
Ahora
E - n
= 2(Axk + B yk ) = 0
B
k=1
si y solo si
$ %
-
n -
n
xk A + nB = yk
k=1 k=1
-
n
2
E(A) = k yk ) .
(AxM
k=1
E
Debemos resolver = 0 . Tenemos
A
Sergio Plaza 200
E -
n
k yk )xk
2(AxM M
=
A
k=1
-
n
= 2 Ax2M
k xM
2 yk .
k=1
E
Luego, = 0 si y solo si
A
-
n -
n
A x2M
k = xM
k yk ,
k=1 k=1
es decir,
-
n <-
n
A= xM
k yk x2M
k ,
k=1 k=1
xk yk
1 10
0 9
1 7
2 5
3 4
4 3
5 0
6 1
X = x
B = ln(C)
Y = ln(y)
y el problema se transforma en
Y = Ax + B .
$ % $ %
-
n -
n -
n
Xk2 A+ Xk B = Xk Yk
k=1 k=1 k=1
$ %
-
n -
n
Xk A + nB = Yk .
k=1 k=1
Ejemplo 70 Encontrar la curva de ajuste de la forma y = CeAx , para los datos (0, 1.5) ,
(1, 1.25) , (2, 3.5) , (3.5) , (4, 7.5) .
-
n
E(A, C) = (CeAxk yk )2 .
k=1
Tenemos
E -
n
= 2(CeAxk yk )Cxk eAxk = 0
A
k=1
E -
n
= 2(CeAxk yk )eAxk = 0
C
k=1
de donde,
-
n -n
2Axk
xk yk eAxk
C xk e = 0
k=1 k=1
- -
n n
C e2Axk yk eAxk = 0.
k=1 k=1
Estas son ecuaciones no lineales en A y C , y se pueden resolver, por ejemplo, usando Newton
en varias variables.
Sergio Plaza 202
-
m
f (x) = cj fj (x)
j=1
2
-
n -
n -
m
E(c1 , c2 , . . . , cm ) = (f (xk ) yk )2 = cj fj (xk ) yk .
k=1 k=1 j=1
E
= 0 , i = 1, . . . , m .
ci
Tenemos
E -
n -m
= 2 cj fj (xk ) yk fi (xk ) = 0 , i = 1, . . . , m
ci j=1
k=1
$ n %
-
m - -
n
fi (xk )fj (xk ) cj = fi (xk )yk , i = 1, 2, . . . , m .
j=1 k=1 k=1
Esto lo podemos escribir de otra forma, introduciendo notacion matricial, para ello denimos
f1 (x1 ) f2 (x1 ) fm (x1 )
f1 (x2 ) f2 (x2 ) fm (x2 )
F = .. .. .. ..
. . . .
f1 (xn ) f2 (xn ) fm (xn ) nm
f1 (x1 ) f1 (x2 ) f1 (xn )
f2 (x1 ) f2 (x2 ) f2 (xn )
FT = .. .. .. ..
. . . .
fm (x1 ) fm (x2 ) fm (xn ) mn
Sergio Plaza 203
y1
y2
Y = .. .
.
yn
y1
-
n
fi (xk )yk = lai F T ... .
k=1
yn
-
n
fi (xk )fj (xk ) = fi (x1 )fj (x1 ) + fi (x2 )fj (x2 ) + + fi (xn )fj (xn ) .
k=1
FTFC = FTY
cuya inc
ognita es C .
f (x) = c1 + c2 x + + cn+1 xn
Ejemplo 71 Par
abola
optima para mnimos cuadrados.
En este caso, nos son dados los datos {(xk , yk )}nk=1 y buscamos una curva de asjuste de la
forma y = f (x) = Ax2 + B + C .
Sea
-
n
E(A, B, C) = (Ax2k + Bxk + C yk )2 .
k=1
Sergio Plaza 204
esto es,
$ % $ % $ %
-
n -
n -
n -
n
x4k A+ x3k B+ x2k C = yk x2k
k=1 k=1 k=1 k=1
$ % $ % $ %
-
n -
n -
n -
n
x3k A+ x2k B+ xk C = xk yk
k=1 k=1 k=1 k=1
$ % $ %
-
n -
n -
n
x2k A+ xk B + nC = yk .
k=1 k=1 k=1
Captulo 8
Integraci
on Num
erica
donde
-
n
Q[f ] = k f (xk ) (8.2)
k=0
1. F
ormula de los trapecios simple. Esta es dada por
x1
h h3
f (x)dx = [f (x0 ) + f (x1 )] f (c) ,
x0 2 12
205
Sergio Plaza 206
4. Regla de Boole simple. Esta formula de cuadratura es dada como sigue. Tomamos los
nodos x0 < x1 < x2 < x3 < x4 , con paso constante h = xi+1 xi , y los pesos
0 = 4 = 14 64 24
45 h , 1 = 3 = 45 h y 2 = 45 h . La regla de Boole es dada entonces por
x4
2 8 7 (6)
f (x)dx = h [7f (x0 ) + 32f (x1 ) + 12f (x2 ) + 32f (x3 ) + 7f (x4 )] h f (c) ,
x0 45
945
Q[f ] E[f ]
(x 1 ,y 1 ) (x 2 ,y 2 )
(x 0,y 0) (x 3 ,y 3 )
y = f(x)
x0 x1 x2 x3 x
Ahora, si tenemos los nodos x0 < x1 < < xn , con paso hj = xj+1 xj y queremos
aproximar el valor de xn
f (x)dx
x0
c b c
usando el hecho que a f (x)dx = a f (x)dx + b f (x)dx , integramos sobre los subintervalos
[xj , xj+1 ] , para j = 0, 1, . . . , n 1 y aplicando la formula de los trapecios simples, obtenemos
Sergio Plaza 207
xn - xj+1
n1 -
n1 - h3j
n1
hj
f (x) = f (x) = (f (xj ) + f (xj+1 )) f (j ) , (8.4)
x0 j=0 xj j=0
2 j=0
12
Q[f ] Etotal error total
h3 -
n1
Etotal = f (j ) , j ]xj , xj+1 [
12 j=0
h3
= n f () , ]x0 , xn [
12
h2 xn x0
= nh f () , como h =
12 n
h2
= (xn x0 )f () .
12
xn
h h2
f (x) = [f (x0 ) + 2f (x1 ) + 2f (x2 ) + + 2f (xn1 ) + f (xn )] (xn x0 )f () , (8.5)
x0 2 12
Q[f ] E[f ]
donde c ]x0 , x4 [ .
Ahora si tenemos los nodos x0 < x1 < < xn , como antes suponemos que tenemos paso
constante h = xk+1 xk , integrando en cada subintervalo de la forma [xj , xj+2 ] , tenemos
xj+2
h h5
f (x) = (f (xj ) + 4f (xj+1 ) + f (xj+2 )) f (4) (j ) , (8.7)
xj 3 90
Sergio Plaza 208
xn
h
f (x)dx = [(f (x0 ) + 4f (x1 ) + f (x2 )) + (f (x2 ) + 4f (x3 ) + f (x4 )) +
x0 3
h5 n (4)
+(f (xn2 ) + 4f (xn1 ) + f (xn ))] f () ,
90 2
n2
-
n2
-
xn
h 2 2
(xn x0 ) (4)
f (x)dx = f (x0 ) + f (xn ) + 4 f (x2j1 ) + 2 f (x2j ) h4 f () .
x0 3 j=1 j=1 180
E[f ]
E[f ]
(8.8)
Esta es la regla de Simpson compuesta.
xn
n3
-3
n3
-3
n3
-3
3
f (x)dx h f (x0 ) + f (xn ) + 3 f (x3j+1 ) + 3 f (x3j+2 ) + 2 f (x3j+3 ) , (8.10)
x0 8 j=0 j=0 j=0
(xn x0 )5 (4)
E[f ] =
f () , (8.11)
6480
donde ]x0 , xn [ . Las reglas de los trapecios y la de Simpson pertenecen a una clase de
metodos para aproximar integrales, llamadas f ormulas de NewtonCotes.
Sergio Plaza 209
donde
xn xn 4
n
(x xk )
An,j = Ln,j (x)dx = ,
x0 x0 k =0
(xj xk )
k = j
son obtenidas integrando el polinomio de Lagrange de grado n , que recordemos es dado por
-
n
Ln (x) = f (xj )Ln,j (x) ,
j=0
4
n
x xi
donde Ln,j = , que interpola a f en los nodos x0 < x1 < < xn
i =0
xj xi
i = j
n
Teorema 8.1 Denotemos por j=0 Aj f (xj ) la f
ormula de NewtonCotes cerrada de (n + 1)
puntos, con x0 = a , xn = b y h = ba
n . Entonces existe ]a, b[ , tal que
b -
n n
hn+3 (n+2)
() f (x)dx = Aj f (xj ) + f () t2 (t 1) (t n)dt ,
a j=0
(n + 2)! 0
8.5 F
ormulas abiertas de NewtonCotes
ba
Estas usan nodos xj = x0 + jh , j = 0, 1, . . . , n , donde h = n+2 y x0 = a + h . Luego
xn = b h . Marcamos los extremos x1 = a y xn+1 = b y tenemos
b xn+1 -
n
f (x)dx = f (x)dx Aj f (xj ) ,
a x1 j=0
Sergio Plaza 210
b
donde Aj = Ln,j (x)dx .
a
Con las notaciones anteriores, tenemos que existe ]a, b[ tal que
b -
n n
hn+3 (n+2)
( ) f (x)dx = Aj f (xj ) + f () t2 (t 1) (t n)dt ,
a j=0
(n + 2)! 1
Por ejemplo,
x1 h3
n = 0, x1
f (x) = 2hf (x0 ) + 3 f () , x1 < < x1 ,
x2 3h
n = 1, x1
f (x) = 2 (f (x0 ) + f (x1 )) + 34 h3 f () , x1 < < x2 ,
8.6 Integraci
on de Romberg
b
Comenzamos por obtener aproximaciones para a f (x) usando la regla de los trapecios con
mj nodos, m1 = 1 , m2 = 2 , . . . , mj = 2j1 . Los valores del paso hj correspondiente a mj
son dados por hj = ba ba
mj = 2j1 . Luego, tenemos
2j1
-1
b
hj (b a) 2
f (x) = f (a) + f (b) + 2 f (a + ihj ) hj f (j ) , (8.12)
a 2 i=1
12
donde j ]a, b[ .
Usando la notacion
h1 ba
R1,1 = (f (a) + f (b)) = (f (a) + f (b))
2 2
h2
R2,1 = (f (a) + f (b) + 2f (a + h2 ))
2
ba ba
= f (a) + f (b) + 2f a +
4 2
1
= (R1,1 + h1 f (a + h2 ))
2
En general,
j2
2-
1
Rj,1 = Rj1,1 + hj1 f (a + (2i 1)hj )
2 i=0
Sergio Plaza 211
j = 2, 3, . . . , n . Tenemos
b
-
f (x) Rj,1 = K1 h2j + Ki h2i
j ,
a i=2
Rk,j1 Rk1,j1
Rk,j = Rk,j1 +
4j1 1
k = 2, . . . , n y j = 2, . . . , k .
Estos resultados pueden tabularse como
R1,1
R2,1 R2,2
R3,1 R3,2 R3,3
.. .. .. ..
. . . .
Rn,1 Rn,2 Rn,3 Rn,n
b
a
f (x)
b
f (x) .
a
1
b
(b a)t + (b + a) ba
f (x)dx = f dt
a 1 2 2
por lo tanto buscamos un metodo para obtener aproximaciones a una integral del tipo
1
f (x)dx .
1
1
f (x) c1 f (x1 ) + c2 f (x2 ) , (8.13)
1
y el resultado sea exacto cuando f (x) es un polinomio de grado menor o igual que 3.
Escribamos f (x) = a0 + a1 x + a2 x2 + a3 x3 . Tenemos entonces
Sergio Plaza 212
f (x) = a0 1 + a1 x + a2 x2 + a3 x3 ,
1
c1 1 + c2 1 = 1=2
1
1
c1 x1 + c2 x2 = x=0
1
1
2
c1 x21 + c2 x22 = x2 =
1 3
1
c1 x31 + c2 x32 = x3 = 0
1
3 3
resolviendo esas ecuaciones obtenemos c1 = 1 , c2 = 1 , x1 = 3 y x2 = 3 . Luego
$ % $ %
1
3 3
f (x) f +f .
1 3 3
En general, el problema es resuelto considerando los polinomios de Legendre {P0 (x), P1 (x), . . .} .
Estos son polinomios que satisfacen
P0 (x) = 1
P1 (x) = x
1
P2 (x) = x2
3
3
P3 (x) = x3 x
5
..
.
Teorema 8.2 Supongamos que x1 , x2 , . . . , xn son las races del polinomio de Legendre Pn (x)
y que los n
umeros ci son dados por
1 4
n
x xj
ci = dx , i = 1, 2, . . . , n
1 j =1
xi xj
j = i
Sergio Plaza 213
1 -
n
P (x) = ci P (xi ) .
1 i=1
x 0 1 2 3 4 5 6
f (x) 5 4 1 1 1 0 3
a) Encuentre la interpolaci
on de Lagrange L6 (x) de esos datos. Usando el metodo de New-
ton, encuentre una aproximacion para la raz de L6 (x) en el intervalo [2, 3].
b) Usando la integraci
on numerica de Simpson, y tambien integrando L6 (x) directamente,
6
obtenga aproximaciones para 0 f (x)dx.
Soluci
on.
a) Tenemos que L6 (x) = L6,0 (x)y0 +L6,1 (x)y1 +L6,2 (x)y2 +L6,3 (x)y3 +L6,4 (x)y4 +L6,5 (x)y5 +
L6,6 (x)y6 , donde
5 1 7 4 1 5 1 6 341 2
5+ x x3 + x x + x x
N( x ) = x 6 4 18 12 180 180
5 3 2 14 3 5 4 1 5 341
x + x x + x x
6 4 9 12 30 90
Comenzando la busqueda de la raz en x0 = 2 la convergencia es rapida y la raz buscada
es aproximadamente igual a x = 2, 37 , y L6 (x) = 0, 0096448 . (Obviamente podemos
obtener una mejor aproximacion, pero eso solo implica m as iteraciones).
b
b) La f on de Simpson es a f (x)dx h3 (f0 + 4f1 + 2f2 + 4f3 + 2f4 +
ormula de integraci
+ 2fn2 + 4fn1 + fn ), donde fi = f (xi ) = yi , y h = ba
n . En nuestro caso, h = 1 y
6
tenemos 0 f (x)dx (5 + 4 4 + 2 1 + 4 1 + 2 1 + 4 0 + 3)/3 = 20/3 = 6, 66666....
Por otra parte, tenemos que
5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x x3 + x x + x x
6 4 18 12 180 180
integrando, obtenemos
6 6
f (x)dx L6 (x)dx = 6, 571428571
0 0
Sergio Plaza 215
k xk f (xk ) f (xk )
0 1 5 2
1 2 1 1
2 3 3 4
Soluci
on
a) Tenemos que
(x 2)(x 3) x2 5x
L2,0 (x) = = +3
(1 2)(1 3) 2 2
5
L2,0 (x) = x
2
(x 1)(x 3)
L2,1 (x) = = x2 + 4x 3
(2 1)(2 3)
L2,1 (x) = 2x + 4
(x 1)(x 2) x2 3x
L2,2 (x) = = +1
(3 1)(3 2) 2 2
3
L2,2 (x) = x
2
Ahora, como Hn,j (x) = (1 2(x xj )Ln,j (xj ))(Ln,j (x))2 tenemos
2
1 2 5
H2,0 ( x ) = (3x 2) x x+3
2 2
3 5 131 3 127 2
= x 8 x4 + x x + 57 x 18
4 4 2
2
2,0 (x) 1 2 5
H = (x 1) x x+3
2 2
1 5 11 4 47 3 97 2
= x x + x x + 24 x 9
4 4 4 4
Sergio Plaza 216
H2,1 (x) = ( x2 + 4 x 3 )2
2,1 ( x )
H = ( x 2 ) ( x2 + 4 x 3 )2
= x5 10 x4 + 38 x3 68 x2 + 57 x 18
2
1 2 3
H2,2 ( x ) = (x 8) x x+1
2 2
1 5 7 4 61 3
= x x + x 29 x2 + 25 x 8
4 2 4
2
2,2 ( x ) 1 2 3
H = ( 10 3x ) x x+1
2 2
1 5 9 4 31 3 51 2
= x x + x x + 10 x 3
4 4 4 4
27x4 299x
H5 (x) = x5 + 67x3 + 145x 45
2 2
299 2 27 4
45 + 145 x + x5 x + 67 x3 x
N( x ) = x 2 2
4 2
145 + 5 x 299 x + 201 x 54 x3
b) Calculando
3 3
145 2 1 6 299 3 67 4 27 5 3
f (x)dx H2 (x)dx = 45 x+ x + x x + x x |1 = 2, 266666667
1 1 2 6 6 4 10
3
5 1 1 + 3
f (x)dx + =3
1 2 2
Sergio Plaza 217
8.9 Ejercicios
1
Problema 8.1 Sea f (x) = 1+ex sen(4x) . Aproxime el valor de la integral 0 f (x)dx , usando
Compare los resultados obtenidos en cada aproximacion con el resultado exacto de la integral
1
21e 4 cos(4) sen(4)
f (x)dx = 1.3082506046426 . . .
0 17e
Usando esta formula, deduzca la formula del punto medio compuesta para aproximar el
x
valor de la integral x0n f (x)dx , usando los nodos x0 < x1 < < xn , con paso constante
h = xj+1 xj , la cual es dada por
-
n
xn
xn x0 2
f (x)dx = h xk )
f ( h f () (8.15)
x0 24
k=1
xk1 +xk
k =
donde x 2 y ]x0 , xn [ .
n x1
1
1
n x1
x e dx = x e 0
nxn1 ex1 dx
0 0
En = 1 nEn1 , n = 2, 3, . . . ,
donde E1 = 1/e .
Sergio Plaza 218
2. Es numericamente estable?
4. Cu
al valor de la integral es m
as exacto (cuadratura o iterativamente)?
Considere la evaluaci
on de la integral impropia
x
1 x2 /2
N (x) = e dx
2
3
Problema 8.6 Se sabe que ex dx = 19.08553692... . Estime el valor de la integral usando
3 0
trapezoide, Simpson y Simpson 8 .
Problema 8.7 Sea f una funci on continua. Use cuadratura de Gauss sobre [1, 1] con 3
nodos para obtener la f
ormula
$ % $ %
1
5 15 8 5 15
f (x) f + f (0) + f .
1 9 5 9 9 5
Problema 8.8 Deduzca la f ormula de cuadratura gaussiana con 3 modos reescalada al intervalo
[0, 1] , la cual es dada por
$ % $ %
1
5 5 15 4 1 5 5 + 15
f (x)dx f + f + f
0 18 10 9 2 18 10
1
y use esta para calcular un valor aproximado para f (x)x3 dx
0
Sergio Plaza 219
1
f (x)x3 dx
0
si f (x) es un polinomio de grado menor o igual que 2. Encuentre el error en Q(x4 ) , como una
1
aproximaci on de x7 dx .
0
Problema 8.11 Obtenga los valores de las constantes c1 , c2 , x1 y x2 tales que la siguiente
f
ormula de integraci
on numerica
1
F (x)dx = c1 F (x1 ) + c2 F (x2 )
1
sea exacta para todos los polinomios de grado menor o igual a 3. Use dicha formula para
5
on f (x) = (x 3) en el intervalo [2, 4].
aproximar la integral de la funci
c
Problema 8.12 Queremos aproximar el valor de la integral I(f ) = 0 f (x)dx , donde f (x) =
cos2 (x)ex y c es una constante positiva. Esta integral puedes ser aproximada con error
absoluto menor que > 0 dado, para ellos usamos una f ormula de integraci
on numerica.
3
Fijando = 10 , estime la cantidad de intervalos que son necesarios, en terminos de c , si
usamos la regla de los trapecios compuesta para aproximar I(f ) .
Problema 8.13 Sea f : [x0 , xn ] R una funci on a la cual deseamos aproximar el valor de
xn
x0
f (x)dx . Denotemos por I1 el valor obtenido usando al regla de los trapecios con un paso
constante h1 e I2 el valor obtenido usando la regla de los trapecios con paso constante h2 ,
con la condicion h1 = h2 . Dena
I1 I2
Ik = I1 + h2
2
h2
1
1
Problema 8.14
Problema 8.15
Problema 8.16
Captulo 9
Soluci
on num erica de ecuaciones
diferenciales ordinarias
x = f (t, x)x(t0 )
(9.1)
x(t0 ) = x0 .
Por ejemplo,
x = x tang(t + 3)
x(3) = 1.
R = {(t, x) : |t t0 | , |x x0 | } .
f
Teorema 9.2 Si f y son continuas en
x
R = {(t, x) : |t t0 | , |x x0 | } ,
entonces el problema (9.8) tiene una u on x(t) para |t t0 | min{, /M } .
nica soluci
221
Sergio Plaza 222
Por ejemplo, si g es derivable y g es acotada en [a, b] entonces, por el teorema del valor
medio, g es Lipschitz.
9.1 M
etodo de Euler
DIBUJO
dx
= f (t, x)
dt
denimos los incrementos
Tenemos
dx
= f (t, x) = 2t3 + 12t2 20t + 8.5
dt
Luego, x(0.5) = x(0)+f (0, 1)0.5 , donde x(0) = 1 y la pendiente en t = 0 es f (0, 1) = 8.5 .
Luego xA = x(0.5) = 1 + 8.5 0.5 = 5.25 y la soluci on exacta en t = 0.5 es xT = x(0.5) =
3, 21875 . Se deja al lector completar los calculos.
Recordemos que el error es
E(xA ) = xT xA
en nuestro caso E(xA ) = 3.21875 5.25 = 2.03125 y el error relativo (porcentaje de error)
xT xA 2.03125
ER (xA ) = = = 63.1% .
xT 3.21875
9.1.1 An
alisis del error para el m
odulo de Euler
dx
Sea x (t) = = f (t, x) como en el problema 9.1.
dt
Usando desarrollo de Taylor alrededor de (ti , xi ) obtenemos
(n)
xi 2 x
xi+1 = xi + xi h + h + + i hn + Rn
2 n!
x(n+1) () n+1
donde h = ti+1 ti y Rn = h , con entre ti y ti+1 . Escrito de otra forma
(n + 1)!
f (ti , xi ) 2
Luego, Error = h + y podemos considerar el error aproximado
2
f (ti , xi ) 2
Ea = h ( error de trancamiento local )
2
Observaci
on. Vimos que
f (ti , xi ) 2 f (ti , xi ) 3
xi+1 = xi + f (ti , xi )h + h + h +
2 3!
m
etodo de Euler
error
Ahora, para estimar el error aproximado hasta el orden 3, tenemos que calcular f (ti , xi ) .
Sabemos del calculo diferencial que
Sergio Plaza 224
f f dx
f (ti , xi ) = +
t x dt
luego,
f f dx f f dx
f (ti , xi ) = + + +
t t x dt x t x dt
9.2 M
etodo de Heun
DIBUJO
Tenemos
xi+1 = f (ti , xi ) ,
una extrapolaci
on lineal de xi+1 es dada por
x0 = xi + f (ti , xi )h (ec. Predictor)
i+1
f (ti , xi ) + f (ti+1 , x0i+1 )
xi+1 = xi + h (ec. Corrector)
2
Escrito de otra forma, nos queda
9.3 M
etodo del punto medio o m
etodo de Euler mejorado
En este caso consideramos
h
xi+1/2 = xi + f (ti , xi )
2
ti+1/2 h ti + ti+1
= ti + = .
2 2
DIBUJO
Usaremos ese valor promedio para calcular la pendiente en el punto medio (ti+1/2 , xi+1/2 ) y
despues extrapolamos a xi+1 , usando este valor intermedio, es decir, tenemos
h
xi+1 = xi + f (ti+1/2 , xi+1/2 ) (Euler mejorado)
2
esto es,
h h h
xi+1 = xi + f (ti + , xi + f (ti , xi )) .
2 2 2
9.4 M
etodos de RungeKutta
Consideramos una forma generalizada para lo anterior, escribiendo
= a1 k1 + a2 k2 + + an kn ,
Problema. Hacer una eleccion razonable para tener relaciones manejables y una buena aprox-
imacion a la soluci
on. En esto consiste una de las tecnicas m
as conocidas, nos referimos a las
tecnicas de RungeKutta.
donde
k1 = f (ti , xi )
k2 = f (ti + p1 h, xi + q1,1 k1 h) .
1
a1 + a2 = 1
1
a2 q1,1 = = a2 p 1
2
de donde
a1 = 1 a2
1
p1 = q1,1 = ,
2a2
donde
k1 = f (ti , xi )
k2 = f (ti + h, xi + k1 h) ,
es decir,
h
xi+1 = xi + (f (ti , xi ) + f (ti + h, xi + hf (ti , xi )) .
2
Considerando a2 = 1 nos queda a1 = 0 y p1 = q1,1 = 1/2 , y obtenemos
9.4.2 M
etodo de Ralston
2 1 3
Tomando a2 = , obtenemos a1 = , p1 = q1,1 = , y
3 3 4
1 2
xi+1 = xi + k1 + k2 h
3 3
donde
k1 = f (ti , xi )
3 3
k2 = f ti + h, xi + k1 h .
4 4
9.4.3 M
etodo de RungeKutta de orden 3
Esta vez, consideramos desarrollos de Taylor hasta orden 3. Obtenemos
1
xi+1 = xi + (k1 + 4k2 + k3 )h (R-K3)
6
donde
k1 = f (ti , xi )
k = f ti + 12 h, xi + 12 k1 h
2
k3 = f (ti + h, xi k1 h + 2k2 h)
Sergio Plaza 228
9.4.4 M
etodo de RungeKuta de orden 4
1
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 )h (R-K4)
6
donde
k1 = f (ti , xi )
k2 = f ti + h2 , xi + 12 k1 h
k = f ti + h2 , xi + 12 k2 h
3
k4 = f (ti + h, xi + k3 h)
9.4.5 M
etodo de RungeKuta de orden superior
1
xi+1 = xi + (7k1 + 32k3 + 12k4 + 32k5 + 7k6 )h (R-K6) (metodo de Butcher)
90
donde
k1 = f (ti , xi )
1 1
k2 = f (ti + h, xi + k1 h)
4 4
1 1 1
k3 = f (ti + h, xi + k1 h + k2 h)
4 8 8
h 1
k4 = f (ti + , xi k2 h + k3 h)
2 2
3 3 9
k5 = f (ti + h, xi + k1 h + k4 h)
4 16 16
3 2 12 12 8
k6 = f (ti + h, xi k1 h + k2 h + k3 h k4 h + k5 h) .
7 7 7 7 7
9.5 M
etodos multipaso
Consideremos el problema
x = f (t, x) , atb
x(a) = .
Un metodo multipaso de paso m para resolver este problema de valor inicial es uno cuya
ecuacion de diferencia para obtener xi+1 en el punto ti+1 puede representarse por la siguiente
Sergio Plaza 229
ba
para i = m1, m, . . . , N 1 , donde h = , a0 , a1 , . . . , am1 y b0 , b1 , . . . , bm son constantes
N
y se especican los valores iniciales
x0 = , x1 = 1 , x2 = 2 , . . . , xm1 = m1 . (9.3)
x0 = , x1 = 1 , x2 = 2 , x3 = 3
h (9.4)
xi+1 = xi + [ 55f (ti , xi ) 59f (ti1 , xi1 ) + 37f (ti2 , xi2 ) 9f (ti3 , xi3 ) ]
24
x0 = , x1 = 1 , x2 = 2
h (9.5)
xi+1 = xi + [ 9f (ti+1 , xi+1 ) 19f (ti , xi ) 5f (ti1 , xi1 ) + f (ti2 , xi2 ) ]
24
donde i = 0, 1, . . . , m 1 .
o por el metodo de Euler modicado
Sergio Plaza 230
x0 =
h
xi+1 = xi + [f (ti , xi ) + f (ti+1 , xi + hf (ti xi ))]
2
con i = 0, 1, . . . , m 1 ,
o por el metodo de Heun
x0 =
h 2 2
xi+1 = xi + [f (ti , xi ) + 3f (ti + h, xi + hf (ti , xi ))]
4 3 3
o por el metodo de RungeKutta de orden 4
x0 =
h 1
k1 = hf (ti + , xi + k1 )
2 2
h 1
k3 = hf (ti + , xi + k2 )
2 2
k4 = hf (ti+1 , xi + k3 )
xi+1 1
= xi + (k1 + 2k2 + 2k3 + k4 )
6
donde i = 0, 1 . . . , m 1
En el problema (9.8)
x = f (t, x) , atb
x(a) = .
Si
xi+1 = am1 xi + am2 xi1 + + a0 xi(m1) + h[bm f (ti+1 , xi+1 ) + bm1 f (ti , xi ) +
+ b0 f (ti(m1) , xi(m1) )]
i = m 1, m, . . . , N 1 .
Tenemos los siguientes casos particulares.
Sergio Plaza 231
9.5.1 M
etodo de AdamsBashforth de dos pasos
x0 = , x1 = 1
h
xi+1 = xi + (3f (ti , xi ) f (ti1 , xi1 ))
2
i = 1, 2, . . . , N 1 . Su error de truncamiento local es
5
i+1 (h) = x (i )h2 , i ]ti1 , ti+1 [ .
12
9.5.2 M
etodo de AdamsBashforth de 3 pasos
x0 = , x1 = 1 , x2 = 2
h
xi+1 = xi + [ 23f (ti , xi ) 16f (ti1 , xi1 ) + 5f (ti2 , xi2 ) ]
12
i = 2, 3, . . . , N 1 . Su error de truncamiento local es
3 (4)
i+1 (h) = x (i )h3 , i ]ti2 , ti+1 [ .
8
9.5.3 M
etodo de AdamsBashforth de 4 pasos
x0 = , x1 = 1 , x2 = 2 , x3 = 3
h
xi+1 = xi + [ 55f (ti , xi ) 59f (ti1 , xi1 ) + 37f (ti2 , xi2 ) 9f (ti3 , xi3 )]
24
i = 3, 4, . . . , N 1 . Su error local de truncamiento es dado por
251 (5)
i+1 (h) = x (i )h4 , i ]ti3 , ti+1 [ .
720
9.5.4 M
etodo de AdamsBashforth de 5 pasos
x0 = , x1 = 1 , x2 = 2 , x3 = 3 , x4 = 4
xi+1 = xi + [1901f (ti, xi ) 2774f (ti1 , xi1 ) + 2616f (ti2 , xi2 ) 1274f (ti3, xi3 )
720
95 (6)
i+1 (h) = x (i )h5 , i ]ti4 , ti+1 [
288
Los metodos implcitos se derivan usando (ti+1 , f (ti+1 , x(ti+1 ))) como un nodo de interpo-
lacion adicional en el cual se usa una aproximaci
on de la integral
Sergio Plaza 232
ti+1
f (t, x(t))dt ,
ti
la cual se puede aproximar por diferentes metodos, por ejemplo, regla de los trapecios, regla de
Simpson, o regla de Simpson 38 , ... .
9.5.5 M
etodo de AdamsMoulton de dos pasos
x0 = , x1 = 1
h
xi+1 = xi + [ 5f (ti+1 , xi+1 ) + 8f (ti , xi ) f (ti1 , xi1 ) ]
12
1 (4)
i+1 (h) = x (i )h3 , i ]ti1 , ti+1 [ .
24
9.5.6 M
etodo de AdamsMoulton de tres pasos
x0 = , x1 = 1 , x2 = 2
h
xi+1 = xi + [9f (ti+1 , xi+1 ) + 19f (ti , xi ) 5f (ti1 , xi1 ) + f (ti2 , xi2 )]
24
19 (5)
i+1 (h) = x (i )h4 , i ]ti2 , ti+1 [ .
720
du
1
= f1 (t, u1 , . . . , um )
dt
du2
(S1) = f2 (t, u1 , . . . , um ) (9.6)
dt
..
.
dum = fm (t, u1 , . . . , um )
dt
con a t b y condiciones inicales
-
m
|f (t, u1 , . . . , um ) f (t, z1 , . . . , zm )| L |ui zi | ,
i=1
Observemos que si
ui (t, u1 , . . . , um )
L
Para encontrar aproximaciones a las soluciones del sistema (9.6) numericamente, podemos
utilizar, por ejemplo, el metodo de RungeKutta
x0 =
k1 = f (ti , xi )
h 1
k2 = f ti + , xi + k1
2 2
h 1
k3 = f ti + , xi + k2
2 2
k4 = f (t1 + h, xi + k3 )
y entonces
h
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 ) , i = 0, 1, . . . , N 1
6
que resuelve numericamente el problema
x (t) = f (t, x) , atb
x(a) = .
Sergio Plaza 234
ba
Este se generaliza como sigue. Sea N 1 y sea h = . La partici
on de [a, b] en N
N
subintervalos con nodos
tj = a + jh, j = 0, 1, . . . , N
es dada.
Usaremos la notacion xi,j para denotar una aproximacion a ui (tj ) , j = 0, 1, . . . , N , i =
1, . . . , m , es decir, xi,j aproxima la iesima solucion ui (t) de (9.6) en el punto tj de los
nodos. Usamos la notacion
k1,i = hf (tj , x1,j , x2,j , . . . , xm,j )
h 1 1 1
k2,i = hf tj + , x1,j + k1,1 , x2,j + k1,2 , . . . , um,j + k1,m
2 2 2 2
h 1 1 1
k3,i = hfi tj + , x1,j + k2,1 , x2,j + k2,2 , . . . , xm,j + k2,m
2 2 2 2
k4,i = hfi tj + h, x1,j + k3,1 , x2,j + k3,2 , . . . , xm, j + k3,m
1
xi,j+1 = xi,j + (k1,i + 2k2,i + 2k3,i + k4,i .
6
Note que antes de determinar los terminos k2,i deben calcularse todos los valores k
,1 , k
,2 , . . . , k
,m .
En general, estos deben calcularse antes que cualquiera de las expresiones k
+1,i .
x(m) (t) = f (t, x, x , . . . , x(m1) ) , atb
(OS1)
x(a) = 1 , x (a) = 2 , . . . , x(m1) (a) = m
u1 (t) = x(t)
u2 (t) = x (t)
..
.
um (t) = x(m1) (t)
du1 dx
= = u2
dt dt
du2 dx
= = x = u3
dt dt
..
.
dum1 dx (m2)
= x(m1) = um
=
dt dt
dx (m1)
dum
= = x(m) = f (t, u1 , u2 , . . . , um )
dt dt
con condiciones iniciales
u1 (a) = x(a) = 1
u2 (a) = x (a) = 2
..
.
um (a) = x(m1) (a) = m
x = f (t, x, x ) , atb
x(a) = (9.7)
x(b) = .
f
(i) (t, x, x ) > 0 para todo (t, x, x ) D , y
x
(ii) existe una constante M 0 tal que
x (t, x, x )
M
tx
x +e + sen(x ) = 0, 1t2
x(1) = 0
x(2) = 0
tetx > 0 en D y
x
f
(t, x, x )
= | cos(x )| 1 .
la ecuacion x = f (t, x, x ) es llamada lineal. Este tipo de ecuaciones ocurre frecuentemente
en problemas de la Fsica.
x = p(t)x + q(t)x + r(t) atb
x(a) =
x(b) =
9.8.1 M
etodo del disparo para el problema lineal
x = p(t)x + q(t)x + r(t) , atb
(P V I, 1) x(a) =
x (a) = 0
x = p(t)x + q(t)x , atb
(P V I, 2) x(a) = 0
x (a) = 1.
Bajos las hip otesis del corolario, ambos problemas tienen soluci nica. Si x1 (t) denota la
on u
solucon del (P V I, 1) y x2 (t) denota la solucion del (P V I, 2), entonces si x(t) = x1 + Cx2 (t)
es una solucion de la ecuaci on x = p(t)x + q(t)x + r(t) , la vericaci
on de esto es inmediata.
Usando las condiciones de frontera, x(q) = x1 (a) + Cx2 (a) = + 0 = y x(b) = x1 (b) +
1 (b)
Cx2 (b) = , por lo tanto C = x x2 (b) . En conclusi
on, la solucion buscada es
x1 (b)
x(t) = x1 (t) + x2 (t) , si x2 (b) = 0,
x2 (b)
es la soluci
on del problema con valores en la frontera que estamos estudiando. En las hip
otesis
del Corolario 9.1 no se da el caso problematico de tener x2 (t) 0 ,
Ejemplo 74
2t 2
x = 1+t
2x 1+t2 x +1 0t4
x(0) = 1.25
x(4) = 0.95
x + p(t)x + q(t)x + r(t) = 0, atb
x(a) =
x(b) =
x0 = t
x = x1
3
x4 = x2 ,
donde x1 es la soluci
on del (P V I, 3) y x2 es la soluci
on del (P V I, 4) siguientes
x = f (t, x, x ) , atb
(P V I, 3) x(a) =
x (a) = 0
y
Sergio Plaza 238
x = f (t, x, x ) , atb
(P V I, 4) x(a) =
x (a) = 1.
x0 = 1 x0 (a) = a
x1
= x3 x1 (a) =
x2 = x4 x2 (a) =
x3
= f (x0 , x1 , x3 ) x3 (a) = 0
x4 = f (x0 , x2 , x4 ) x4 (a) = 1
x = f (t, x, x ) , atb
x(a) =
x(b) = .
x = f (t, x, x ) , atb
x(a) =
x (a) = s
donde s es un par ametro. Elegimos s = sk de modo que limk x(b, sk ) = x(b) = , donde
x(t, sk ) denota la soluci
on del problema de valores iniciales asociado en este caso con s = sk y
x(t) denota la soluci on del problema de valores de frontera.
Comenzamos con un par ametro s0 que determina la elevacion inicial con la cual se dispara
al objetivo desde el punto (a, ) a lo largo de la curva descrita por la solucion del problema de
valor inicial
x = f (t, x, x ) , atb
x(a) =
x (a) = s0 .
g(b, s) = x(b, s) = 0
(ecuacion no lineal). Podemos usar, por ejemplo el metodo de la secante, con valores iniciales
s0 y s1 ,
o el metodo de Newton
x(b, sk1 )
sk = sk1 d
ds x(b, sk1 )
d
aqu el problema es obtener una expresion explicta para ds x(b, s) .
9.10 M
etodo de diferencias finitas para problemas lineales
Consideremos primero el caso lineal
x = p(t)x + q(t)x + r(t) , atb
x(a) =
x(b) =
ba
Dividimos el intervalo [a, b] en N +1 puntos ti = a+ih , i = 0, 1, . . . , N +1 , donde h = N .
Para i = 1, 2, . . . , N la ecuacion diferencial a aproximar es
Usando las f
ormulas para aproximar derivadas tenemos, por ejemplo,
1 h2
x (ti ) = 2
(x(ti+1 ) 2x(ti ) + x(ti1 )) x(4) (i ) ,
h 12
donde i ]ti1 , ti+1 [ (f
ormula de las diferencias centradas). Analogamente,
1 h2
x (ti ) = (x(ti+1 ) x(ti1 )) x (i ) ,
2h 6
donde i ]ti1 , ti+1 [ . Reemplazando, obtenemos
Sergio Plaza 240
x(ti+1 ) 2x(ti ) + x(ti1 ) x(ti+1 ) x(ti1 )
= p(ti ) + q(ti )x(ti ) + r(ti )
h2 2h
h2
(2p(ti )x (i ) x(4) (i )) .
12
Un metodo de diferencias nitas con error de truncamiento de orden O(h2 ) y usando la
notacion wj = x(tj ) , junto con las condiciones de frontera x(a) = y x(b) = , se obtiene
w0 =
2wi wi+1 wi1 wi+1 wi1
+ p(ti ) + q(ti )wi = r(ti )
h2 2h
wN +1 =
h h
1 + p(ti ) wi1 + (2 + h q(ti ))wi 1 p(ti ) wi+1 = h2 r(ti )
2
2 2
Aw = b
donde
2 + h2 q(t1 ) 1 + h2 p(t1 ) 0 0 0
1 h p(t2 ) 2
1 + h
2 2 + h q(t2 ) 2 p(t2 ) 0 0
.. .. .. .. .. ..
A= . . . . . .
.. .. .. .. .. ..
. . . . . .
1 + h2 p(tN 1 )
0 0 0 1 h2 p(tN )) 2 + h2 q(tN )
y
h2 r(t1 ) + 1 + h2 p(t1 ) w0
w1
2
h r(t2 )
w2 ..
.. .
w= . y b= .
..
.. .
.
h2 t(tN 1 )
wN
h2 r(tN ) + 1 h2 p(tN ) wN +1
Sergio Plaza 241
2
El sistema tridiagonal anterior tiene soluci
on u
nica si h < L , donde L = max{|p(t)| : a
t b} .
x = f (t, x, x ) , atb
x(a) =
x(b) = .
f f
1.- f , y
son continuas en D = {(t, x, x ) : a t b , < x < , <
x x
x < } .
f
2.- (t, x, x ) en D para alg
un > 0 .
x
3.- Existen
,
f
k
= max
(t, x, x )
: (t, x, x ) D ,
x
,
f
L
= max
(t, x, x )
: (t, x, x ) D .
x
x(ti+1 ) 2x(ti ) + x(ti1 ) x(ti+1 ) x(ti1 ) h2 h2
= f ti , x(ti ), x (i ) + x(4) (i )
h2 2h 6 12
w0 =
wi+1 2wi + wi1 wi+1 wi1
+f ti , wi , = 0
h2 2h
wN +1 =
w2
2w1 w2 + h2 f (t1 , w1 , ) = 0
2h
w3 w1
w1 + 2w2 w3 + h2 f (t2 , w2 , ) = 0
2h
.. .. ..
. . .
2 wN wN 2
wN 2 + 2wN 1 wN + h f (tN 1 , wN 1 , ) = 0
2h
wN 1
wN 1 + 2wN + h2 f (tN , wN , ) = 0
2h
y tiene soluci
on u
nica si y s
olo si h < 2/L . Para resolver este sistema podemos usar, por
ejemplo, el metodo de Newton en varias variables.
x = sen(tx)
x(0) = 3
Soluci
on. Usando las f ormulas de aproximaci on de Euler, Euler Mejorado, y de RungeKutta,
tenemos la siguiente tabla para los valores de (tn , xn ), los cuales unidos por segmentos de rectas
nos dan la aproximaci on poligonal deseada.
9.12 Ejercicios
Problema 9.1 El metodo de AdamsBashforth de segundo orden para aproximar soluciones
de un problema de valor inicial
x = f (t, x) , a t b
x(a) = x0
es dado por
3 1
xn+1 = xn + h f (tn , xn ) f (tn1 , xn1 )
2 2
n 1 , donde para n = 1 , t0 = a y t1 = t0 + h = a + h y x1 puede calcularse con cualquier
metodo de 1 paso, por ejemplo, RungeKutta, de de orden 4. Conocidos (t0 , x0 ) y t1 , x1 ) ,
calculamos (t2 , x2 ) , y as sucesivamente usando el metodo de AdamsBashforth. Use lo anterior
para aproximar la soluci on al problema de valor inicial
t
1
x = 2tx + x(s)ds
102 0
x(0) = 1,
donde para aproximar la integral del lado derecho se usa la regla de los trapecios.
Problema 9.4 En un estudio de una poblaci on de ratones de campo se encuentra que ella
evoluciona de acuerdo a la siguiente ecuacion diferencial
dN (t)
= AN (t) B(t)N (t)1.1
dt
N (t) indica la cantidad de inviduos en el tiempo t . Se determina experimentalmente que
A = 2 y se conocen las siguientes mediciones para B(t) (t medido en alguna unidad razonable
de tiempo)
t 0 4 8 12
B 0.70 0.04 0.56 0.70
Sergio Plaza 244
(b) Usando la aproximaci on polinomial para B(t) encontrada en la parte (a), encuentre una
aproximacion en el intervalo [0, 0.6] de la soluci
on de la ecuacion diferencial usando el
metodo de Euler con h = 0.2 y dada la poblaci on inicial de ratones N (0) = 100 .
se propone usar el metodo de diferencias nitas sobre la malla {0, 14 , 12 , 34 , 1}, es decir, el tama
no
de paso es h = 14 . Se les recuerda que las formulas de diferencias nitas centradas son:
(b) Para resolver dicho sistema se propone usar el metodo iterativo de Gauss-Seidel, escriba
como quedara dicho metodo para el sistema obtenido en la parte (a) y diga si el metodo
(0) (0) (0)
converge o no. Justique su respuesta. Partiendo del punto (0) = (1 , 2 , 3 ) =
(0, 0, 0), obtenga los puntos (1) , (2) y (3) es decir, las tres primeras iteraciones del
metodo de Gauss-Seidel.
(c) Tomando (3) como la soluci on del sistema lineal obtenido en la parte (a), obtenga un
polinomio de interpolaci on de grado 3 que aproxime la soluci
on de la ecuaci
on diferencial
1 1
x(t) en el intervalo [ 4 , 2 ].
Indice Alfab
etico
An
alisis del error en el metodo de la secante, Soluciones de ecuaciones no lineales, 24
38
alisis del error en el metodo de Newton, 28 UnderowOverow, 6
An
alisis del error en el metodo de biseccion, 26 Unidad de redondeo de un computador, 5
An
Metodo de biseccion, 24
Metodo de la secante, 37
Metodo de Newton, 27
Metodo de Newton en varias variables, 33
Metodos iterativos de punto jo, 39
Metodo de la posici
on falsa, 39
Mayor entero positivo representable en forma
exacta, 6
N
umero punto otante por corte, 3
N
umero punto otante por redondeo, 3
Representacion binaria, 2
Representacion decimal, 1
Representacion en una base > 1, 2
Representacion punto otante de n
umeros, 1
245
Referencias
[1] Kendall Atkison, Elementary numerical analysis. John Willey & Sons, Inc. 1985.
[3] Steven C. Chapra, Raymond P. Canale, Metodos numericos para ingenieros. McGrawHill,
1999.
[4] Lars Elden, Linde WittmeyerKoch, Hans Bruun Nielsen, Introduction to numerical
computationanalysis and matlab illustrations. Studentlitteratur AB, 2004.
[8] John Mathews, Kurtis D. Fink, Metodos Numericos con MatLab. Prentice Hall, 2003.
[13] J. Stoer, R. Burlirshc, Introduction to numerical analysis. (Third edition). Text in Applied
Mathematics 12, Springer, 2002.
[15] G. W. Stewart, Afternotes goes to graduate school: lectures on advanced numerical analysis.
SIAM, 1998.
246