Está en la página 1de 251

Metodos Numericos

Sergio Plaza
1
Segundo semestre de 2007. Versi on Preliminar en Revisi on
Si el lector detecta errores, que ciertamente hay muchos,
le agradecere avisarme al e-mail: splaza@lauca.usach.cl
1
Depto. de Matematica, Facultad de Ciencias, Universidad de Santiago de Chile, Casilla 307Correo
2. Santiago, Chile. email splaza@lauca.usach.cl, Homepage http://lauca2.usach.cl/splaza
Contenidos
1 Teora de Error 1
1.1 Representaci on punto otante de n umeros . . . . . . . . . . . . . . . . . . . . . 1
1.2 Corte y redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Precisi on de la representacion punto otante . . . . . . . . . . . . . . . . 5
1.2.2 Unidad de redondeo de un computador . . . . . . . . . . . . . . . . . . . 5
1.2.3 Mayor entero positivo representable en forma exacta . . . . . . . . . . . . 6
1.2.4 Underowoverow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Denici on y fuentes de errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Fuentes de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Perdida de dgitos signicativos . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Propagaci on de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Propagaci on de error en evaluaci on de funciones . . . . . . . . . . . . . . . . . . . 14
1.5 Errores en sumas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Estabilidad en metodos numericos . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Inestabilidad numerica de metodos . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Ecuaciones no Lineales 24
2.1 Metodo de biseccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 An alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 An alisis del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Metodo de Newton multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Metodo de la secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 An alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Metodo de la posici on falsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
i
ii
2.6 Metodos iterativos de punto jo . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7 Metodos iterativos de punto jo en varias variables . . . . . . . . . . . . . . . . . 48
2.7.1 An alisis de error para metodos iterativos de punto jo . . . . . . . . . . . 49
2.8 Races m ultiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.9 Aceleracion de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.10 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.11 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.12 Uso de metodos de integracion para obtener f ormulas iterativas para resolver
ecuaciones no lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.13 Otras f ormulas iterativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3 Sistemas de Ecuaciones Lineales 96
3.1 Normas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.1.1 Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2 N umero de condici on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Soluci on de sistemas de ecuaciones lineales: metodos directos . . . . . . . . . . . 104
3.3.1 Conceptos b asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Factorizaci on de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.5 Metodo de eliminaci on gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.6 Eliminaci on gaussiana con pivoteo . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.8 Soluci on de sistemas de ecuaciones lineales: metodos iterativos . . . . . . . . . . 122
3.9 Metodo de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.10 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.11 Metodo de GaussSeidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.12 Metodo SOR (successive overrelaxation) . . . . . . . . . . . . . . . . . . . . . . . 128
3.13 Otra forma de expresar los metodos iterativos para sistemas lineales . . . . . . . 129
3.14 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.15 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4 Interpolacion 153
4.1 Interpolaci on de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.1.1 Aproximaci on lineal por trozo o de grado 1 . . . . . . . . . . . . . . . . . 153
4.2 Polinomio de Lagrange de grado n . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.4 Metodo de las diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5 C alculo de diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
iii
4.6 Interpolaci on de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.7 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5 Derivadas Numericas 183
5.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
6 Spline C ubicos 189
6.1 Construcci on de Spline c ubicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.2 Otra forma de construir spline c ubicos naturales . . . . . . . . . . . . . . . . . . 193
6.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
7 Ajuste de Curvas 197
7.1 Ajuste de curvas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.2 Ajuste por rectas: recta de regresion . . . . . . . . . . . . . . . . . . . . . . . . . 198
7.3 Ajuste potencial y = Ax
M
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.4 Ajuste con curvas del tipo y = Ce
Ax
, con C > 0 . . . . . . . . . . . . . . . . . . 200
7.5 Metodo no lineal de los mnimos cuadrados para y = Ce
Ax
. . . . . . . . . . . . 201
7.6 Combinaciones lineales en mnimos cuadrados . . . . . . . . . . . . . . . . . . . . 202
7.7 Ajuste polonomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
8 Integracion Numerica 205
8.1 Regla de los trapecios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.3 Regla de Simpson (
3
8
) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.4 F ormulas de NewtonCotes cerradas de (n + 1) puntos . . . . . . . . . . . . . . 209
8.5 F ormulas abiertas de NewtonCotes . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.6 Integraci on de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.7 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
9 Solucion numerica de ecuaciones diferenciales ordinarias 221
9.1 Metodo de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.1.1 An alisis del error para el m odulo de Euler . . . . . . . . . . . . . . . . . . 223
9.2 Metodo de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
9.3 Metodo del punto medio o metodo de Euler mejorado . . . . . . . . . . . . . . . 225
9.4 Metodos de RungeKutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
iv
9.4.1 RungeKutta de orden 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.4.2 Metodo de Ralston . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
9.4.3 Metodo de RungeKutta de orden 3 . . . . . . . . . . . . . . . . . . . . . 227
9.4.4 Metodo de RungeKuta de orden 4 . . . . . . . . . . . . . . . . . . . . . 228
9.4.5 Metodo de RungeKuta de orden superior . . . . . . . . . . . . . . . . . . 228
9.5 Metodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.5.1 Metodo de AdamsBashforth de dos pasos . . . . . . . . . . . . . . . . . 231
9.5.2 Metodo de AdamsBashforth de 3 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.3 Metodo de AdamsBashforth de 4 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.4 Metodo de AdamsBashforth de 5 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.5 Metodo de AdamsMoulton de dos pasos . . . . . . . . . . . . . . . . . . 232
9.5.6 Metodo de AdamsMoulton de tres pasos . . . . . . . . . . . . . . . . . . 232
9.6 Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 232
9.7 Ecuaciones diferenciales de orden superior . . . . . . . . . . . . . . . . . . . . . 234
9.8 Problemas con valores en la frontera para ecuaciones diferenciales ordinarias . . . 235
9.8.1 Metodo del disparo para el problema lineal . . . . . . . . . . . . . . . . . 236
9.9 El metodo del disparo para el problema no lineal de valores en la frontera . . . . 238
9.9.1 Determinacion de los par ametros s
k
. . . . . . . . . . . . . . . . . . . . . 239
9.10 Metodo de diferencias nitas para problemas lineales . . . . . . . . . . . . . . . . 239
9.10.1 Caso no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
9.11 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.12 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Captulo 1
Teora de Error
1.1 Representacion punto otante de n umeros
Cada x R, con x ,= 0 , puede ser representado de modo unico en su forma normalizada
x = x 10
e
(1.1)
donde = 1 es el signo, e Z es el exponente y 0.1 x < 1 es la mantisa de x , es decir,
x = 0.a
1
a
2
. . . = a
1
10
1
+a
2
10
2
+ +a
k
10
k
+ .
con a
1
,= 0 . En lo que sigue, siempre consideramos los n umeros en su forma normalizada,
Ejemplo 1 1. x = 12.462 = 0.12462 10
2
2. = 3.14159265 . . . = 0.314159265 . . . 10
1
3.
3

2 = 1.2599210 . . . = 0.12599210 . . . 10
1
4. e = 0.27182818 . . . 10
1
5. ln(2) = 0.6931471 . . . 10
0
6. x = 0.0000458 = 0.458 10
4
La representacion decimal punto otante de un n umero x R, con x ,= 0 , es basicamente
aquella dada en (1.1), con limitaci on del n umero de dgitos en la mantisa x y el tama no del
exponente e .
Si limitamos, por ejemplo, el n umero de dgitos de x a 6 y e entre 99 y +99 , decimos que
una computadora con tal representaci on tiene una aritmetica decimal de punto otante de 6
dgitos. Como consecuencia de la limitacion del n umero de dgitos de x, ning un n umero puede
tener mas que sus seis primeros dgitos almacenados con precisi on.
Ahora consideremos un n umero x en su forma binaria normalizada, podemos escribir
x = x 2
e
(1.2)
1
Sergio Plaza 2
donde = 1 es el signo, e Z es el exponente, y la mantisa x es un n umero en forma
binaria con (0.1)
2
x < 1 , esto es equivalente, en la forma decimal, a
1
2
x < 1 , es decir,
x = (0.a
1
a
2
. . .)
2
= a
1
2
1
+a
2
2
2
+ +a
k
2
k
+
con a
1
= 1 y a
i
= 0 o 1 para i 2 .
Ejemplo 2 Sea x = (1101.10111)
2
. Escribiendo este en la forma canonica, tenemos
x = 2
3
+ 2
2
+ 2
0
+ 2
1
+ 2
3
+ 2
4
+ 2
5
= (2
1
+ 2
2
+ 2
4
+ 2
5
+ 2
7
+ 2
8
+ 2
9
) 2
4
,
de donde tenemos que = +1, e = 4 = (100)
2
y x = (0.110110111)
2
.
La representacion punto otante de un n umero binario x consiste basicamente en aquella
dada en (1.2), con una restriccion en el n umero de dgitos de x y en el tama no del exponente
e .
Para no estar restrictos a n umeros en forma decimal o binaria, trabajaremos representaciones
de n umeros en una base > 1 , en general, s olo consideramos el caso en que es un n umero
entero positivo mayor que 1. Lo que desarrollaremos es completamente analogo a los casos bien
conocidos cuando = 2 (representacion binaria) y = 10 (representacion decimal). Usar
una base > 1 arbitraria nos permite tratar en forma unicada conceptos y propiedades sin
referirnos cada vez a una base determinada.
Dado un n umero entero > 1 , cada x R, con x ,= 0 , puede ser representado en la base
de modo unico en su forma normalizada como
x = (0.a
1
a
2
. . . a
k
. . .)


e
= (a
1

1
+a
2

2
+ +a
k

k
+ )
e
(1.3)
donde = 1 es el signo, e Z es el exponente, con a
1
,= 0 y 0 a
i
1 , para todo
i = 1, 2, . . . . La notaci on x = (0.a
1
a
2
. . . a
k
. . .)

signica
x = (0.a
1
a
2
. . . a
k
. . .)

=
a
1

+
a
2

2
+ +
a
k

k
+
= a
1

1
+a
2

2
+ +a
k

k
+ .
Veremos en la pr oxima seccion como obtener el n umero de m aquina que representa a un
n umero real x ,= 0 .
1.2 Corte y redondeo
La mayora de los n umeros reales no pueden ser representados de forma exacta en la repre-
sentacion punto otante, y por lo tanto deben ser aproximados por un n umero representable
en la maquina, de la mejor forma que nos sea posible.
Sergio Plaza 3
Dado x R, denotamos por fl (x) a la representacion de x en la maquina, llamada
com unmente representacion punto otante (oat point) de x. Existen principalmente dos
maneras de obtener fl (x) a partir de x, ellas son corte y redondeo, las cuales veremos a
seguir.
Como vimos en las seccion anterior, un n umero real x ,= 0 puede ser representado en forma
exacta en una base entera > 1 de la forma siguiente
x = (0.a
1
a
2
. . . a
k
a
k+1
. . .)


e
(1.4)
donde, = es el signo, a
1
,= 0 ( x esta normalizado), y e Z es el exponente.
El problema ahora es decidir c omo obtener la representacion punto otante, digamos con k
dgitos para un n umero real.
Supongamos que e Z esta acotado, digamos L e U .
Denicion 1.1 Sea x R, x ,= 0 , con representacion en una base entera > 1 dada por
(1.4). La representaci on punto foltante por corte en el dgito k de x es dada por
fl (x) = (0, a
1
a
2
. . . a
k
)


e
(1.5)
donde L e U .
La razon para introducir corte, es que algunas m aquinas usan corte despues de cada operacion
aritmetica.
Denicion 1.2 Sea x R, x ,= 0 , con representacion en una base entera > 1 dada por
(1.4). La representaci on punto otante por redondeo en el dgito k de x es dada por
fl (x) =
_

_
(0.a
1
a
2
. . . a
k
)


e
, si 0 a
k+1
<

2

_
(0.a
1
a
2
. . . a
k
)

+
_
0.00 . . . 1
posicion k
_

e
, si

2
a
k+1
<
(1.6)
donde L e U .
Observaci on. Esta denici on formal no es otra que la que usamos com unmente al redondear
cantidades a diario, por ejemplo al calcular el promedio nal de las notas obtenidas en este
curso.
Ejemplo 3 Los siguiente n umeros estan representados en forma decimal.
1. Tenemos que = 3.14159265 . . . = 0.314159265 . . .10
1
. Esta es la representacion exacta
normalizada de en forma decimal. Ahora usando corte en el dgito 4 la representacion
es dada por
A
= 0.3141 10
1
, y usando redondeo en el dgito 4 la represenatcion es
dada por
A
= 0.3142 10
1
, pues el dgito a
5
= 5 .
Sergio Plaza 4
2. Usando corte y redondeo a 3 dgitos para x = 12.462 = 0.12462 10
2
, tenemos x
A
=
0.12410
2
en su representacion por corte de x, y x
A
= 0.12510
2
en su representacion
por redondeo de x .
3. Usando corte y redondeo a 5 dgitos para x = 22.4622 = 0.224622 10
2
, tenemos
x
A
= 0.22462 10
2
en la representacion por corte y en la representaci on por redondeo.
Para la mayora de los n umeros reales se tiene que fl (x) ,= x . Por esta razon introducimos
el error relativo o porcentaje de error
Denicion 1.3 Sea x R, con x ,= 0 . El error relativo (o porcentaje de error) de x es dado
por
E
R
(x) =
x fl (x)
x
= (1.7)
donde
a)
k+1
0, (es decir, 0
k+1
) cuando fl (x) es obtenido por corte
desde x , y
b)
1
2

k+1

1
2

k+1
cuando fl (x) es obtenido por redondeo desde x .
Lo anterior puede ser escrito en la forma
a) 0

xfl(x)
x


k+1
cuando fl (x) es obtenido por corte desde x
b) 0

xfl(x)
x



k+1
2
cuando fl (x) es obtenido por redondeo desde x.
De la f ormula
xfl(x)
x
= obtenemos que fl (x) = (1 +) x, donde es dado por a) o por
b) anteriores, dependiendo del caso. Luego fl (x) puede ser considerado como una peque na
perturbaci on relativa de x. La f ormula (1.7) nos permite tratar los efectos de corte y redondeo
en las operaciones aritmeticas del computador.
Se dene el error de fl(x) respecto a x como
E(fl(x)) = x fl(x)
Notemos que desde la formula b), para redondeo a k dgitos, tenemos que
[E(fl(x))[ = [x fl(x)[
1
2

k+1
[x[ ,
ahora, como x = x
e
y [ x[ < 1 , obtenemos
[x fl(x)[
1
2

k+1
[x[ =
1
2

k+1
[x[
e

1
2

ek+1
, (1.8)
es decir,
Sergio Plaza 5
[E(fl(x))[ = [x fl(x)[
1
2

ek+1
(1.9)
De modo an alogo, para corte a k dgitos, obtenemos que
[E(fl(x))[ = [x fl(x)[
ek+1
(1.10)
1.2.1 Precisi on de la representacion punto otante
Introduciremos ahora dos medidas que nos daran alguna idea de una posible precisi on de la
representacion de punto otante en las m aquinas.
1.2.2 Unidad de redondeo de un computador
La unidad de redondeo de un computador es un n umero que satisface
1. es un n umero punto otante positivo, y
2. es el menor n umero punto otante tal que fl (1 +) > 1 , es decir, si
0
< entonces
fl (1 +
0
) = 1 .
Luego, para cualquier otro n umero punto otante positivo < , se tiene que fl
_
+ 1
_
= 1 ,
as dentro de la aritmetica del computador 1 + y 1 son iguales. Note que mide el ancho
del cero en una m aquina.
Esto da una medida de cu antos dgitos de precision son posibles en la representaci on de un
n umero. La unidad de redondeo para una m aquina con k dgitos en la mantisa, es dada por
=
_

k+1
denici on por corte de fl (x)
1
2

k+1
denici on por redondeo de fl (x)
Por ejemplo, para una m aquina con aritmetica binaria con k dgitos y redondeo para la
aritmetica tenemos que = 2
k
(y por corte se tiene que = 2
k+1
) . En efecto, tenemos que
1 + 2
k
=
_
(0.100 . . .)
2
+
_
0.00 . . . 0 1
posici on k + 1
0
_
2
_
2
1
= (0.10 . . . 010)
2
2
1
(1.11)
Tomando fl
_
1 + 2
k
_
notamos que en la posicion k + 1 de la mantisa existe un 1. Luego
fl
_
1 + 2
k
_
= (0.10...01)
2
2
1
por lo tanto fl
_
1 + 2
k
_
> 1 , y tambien tenemos que fl
_
1 + 2
k
_
,= 1 + 2
k
.
El hecho de que no puede ser menor que 2
k
se sigue de (1.11). Ahora, si < entonces
1 + tiene un cero en la posicion k + 1 de la mantisa, y por denicion se tiene entonces que
fl
_
1 +
_
= 1.
Sergio Plaza 6
1.2.3 Mayor entero positivo representable en forma exacta
Una segunda medida de precision posible es dada por el mayor entero positivo M para el cual
se tiene que: para todo entero m con 0 m M tenemos que fl(m) = m, esto signica que
fl (M + 1) ,= M + 1 , es decir, M es el mayor entero positivo que es posible de representar en
forma exacta en la aritmetica de maquina que estamos usando.
Es f acil ver que M =
k
en un computador con aritmetica de k dgitos en la mantisa.
Observaci on. Los n umeros M y varan de computador en computador. Todo usuario de
computador debera conocer los n umeros y M de su maquina, pues ellos representan el ancho
del cero y el mayor entero representable en forma exacta en la maquina, respectivamente, lo
cual da las medidas de precisi on del computador en uso.
1.2.4 Underowoverow
Si una m aquina trabaja con aritm atica de k dgitos. Dado un n umero real x R, x ,= 0 ,
si al representar x en nuestra aritm atica, las cotas L o U para los exponentes son violados,
entonces el n umero de m aquina asociado a x
fl (x) = (0.a
1
a
2
. . . a
k
)


e
,
donde el dgito a
k
es dado por corte o redondeo, no puede ser representado en tal maquina.
Por ejemplo, el menor n umero positivo punto otante es x
L
= (0.10 . . . 0)


L
=
L1
, y
usando la notacion = 1 , el mayor n umero positivo punto otante es x
U
= (0. . . . )


U
=
_
1
k
_

U
. Luego todo n umero punto otante positivo x , representable en la maquina,
deben satisfacer x
L
x x
U
.
Si durante las operaciones aritmeticas obtenemos como resultado un valor de x tal que
[x[ > [x
U
[ entonces aparecera un error fatal, este error es denominado overow, y los calculos
se detienen. Por otra parte, si 0 < [x[ < x
L
entonces fl (x) = 0 y los calculos continuaran.
Este error se denomina error de underow.
1.3 Denici on y fuentes de errores
Ahora daremos una clasicacion de la principal manera en la cual el error es introducido en la
soluci on de un problema, incluyendo algunos que caen fuera del ambito de la matematica.
Al resolver un problema, buscamos una soluci on exacta o verdadera, la cual denotamos por
x
T
. Aproximaciones son usualmente hechas en la soluci on de un problema y como resultado
obtenemos una soluci on aproximada x
A
.
Denicion 1.4 El error en x
A
respecto de x
T
es dado por
E (x
A
) = x
T
x
A
(1.12)
El error absoluto en x
A
es dado por E
A
(x
A
) = [E (x
A
)[ .
Para muchos prop ositos es preferible estudiar el porcentaje o error relativo en x
A
respecto
de x
T
, el cual es dado por
Sergio Plaza 7
E
R
(x
A
) =
x
T
x
A
x
T
, x
T
,= 0 (1.13)
Ejemplo. Sea x
T
= e = 2.7182818 . . . representado en forma exacta y sea x
A
=
19
7
=
2.71428587 una aproximacion. Tenemos E (x
A
) = 0.003996 y el error relativo es E
R
(x
A
) =
0.0147 . . .
Ejemplo. Sean x = 0.3721478693 e y = 0.3720230572, si consideramos aritmetica de puntos
otantes con 5 dgitos y redondeo, obtenemos
fl (x) = 0.37215
fl (y) = 0.37202
E(fl(x) fl(y)) = fl (x) fl (y) = 0.00013
[E
R
(fl(x) fl(y))[ =

xy(fl(x)fl(y))
xy

0.00012481210.00013
0.0001248121

4%.
Algunas veces usamos el n umero de dgitos signicativos como una forma medir la precision
de la representacion, el cual es calculado como sigue. Dados x
T
y x
A
como antes, si
[E
R
(x
A
)[ =

x
T
x
A
x
T

5 10
m1
(1.14)
con m N. Decimos que x
A
tiene al menos m dgitos signicativos respecto de x
T
.
1.3.1 Fuentes de error
Cuando resolvemos un problema cientcomatematico, el cual envuelve c alculos computa-
cionales, usualmente aparecen errores relacionados a este proceso, los cuales pueden ser clasi-
cados de la siguiente forma.
E1) Errores de Modelaci on. Ecuaciones matematicas son usadas para representar reali-
dades fsicas, este proceso se denomina modelacion. La modelaci on introduce errores en
el problema real que se esta tratando de resolver, y caen fuera del alcance del analisis
numerico.
Ilustramos la noci on anterior con algunos modelos.
1) Modelos poblacionales. Modelos predadorpresa, este es usado para el control de
poblaciones, por ejemplo colonia de bacterias, y son expresados por ecuaciones rela-
cionando el n umero de individuos existentes en cada especie, y se trata de mantener
el equilibrio de modo que no se llegue a la extinci on de una de las especies, que puede
ser el alimento de la otra.
El crecimiento de la poblacionversus la cantidad de alimento existente y que se
puede producir, tambien entra en esta categora.
2) Modelos de la Fsica. Ecuaciones son usadas para representar realidades, por ejemplo
la velocidad es igual la raz on de la distancia recorrida por el tiempo empleado para
hacerlo, las leyes de la gravitaci on, las leyes de la electricidad, etc.
Sergio Plaza 8
3) Modelos de transito en la ciudad. Nos podemos plantear el problema de tr ansito en
Santiago y los problemas relacionados con este , y nos podemos preguntar si detr as
de ellos existe un modelo que lo respalde.
4) Modelos de Aerodinamica. Problemas de este tipo son la fabricacion de aviones y
autos que sean aerodin amicamente bueno.
E2) Desatinos o Equivocaciones. Estos son la segunda fuente de errores, muy familiar,
estan mas relacionados con problemas de programaci on. Para detectar tales errores es im-
portante tener alguna forma de chequear la precision de la salida despues de la ejecucion
del programa, los cuales son llamados programas test y estan basados en resultados cono-
cidos de antemano.
E3) Datos Fsicos. Estos contienen de modo natural errores observacionales. Como estos
contienen errores, calculos basados en ellos tambien los tendr an. El An alisis numerico, no
puede remover estos errores pero debe sugerir procedimientos de calculo que minimizan
la propagaci on de ellos.
Por ejemplo, las ecuaciones de la Fsica solo consideran parte de las variables que inuyen
en un fen omenos, despreciando otras que tienen menor inuencia, por ejemplo las ecua-
ciones de la Fsica escolar, son simplicaciones brutales de la realidad, por otro lado, las
ecuaciones de la Teora de la Relatividad considera variables que a escala peque na no
tienen mayor importancia.
E4) Error de Maquina. Las maquinas naturalmente introducen errores principalmente por
corte y redondeo. Estos errores son inevitables cuando se usa la aritmetica de punto
otante y ellos forman la principal fuente de error en algunos problemas, por ejemplo
soluciones de sistemas de ecuaciones lineales, como veremos en el respectivo captulo,
mostrando que en ejemplos sencillos podemos obtener soluciones absurdas para ecuaciones
simples. Tambien estan los ejemplos de expresiones matematicamente equivalentes, pero
que al trabajar con aritmetica de computador producen resultados diferentes.
E5) Error de Aproximaciones Matematicas. Estos forman la mayor parte de los errores,
estas provienen del hecho que el computador s olo puede trabajar con una cantidad nita de
n umeros, as por ejemplo al calcular el area de un crculo debemos usar el n umero , pero
la verdad es que usamos solo una aproximaci on de este n umero, por lo tanto el resultado
obtenido no puede ser exacto por esta razon. Otro ejemplo es que cuando trabajamos
con funciones, debemos usar aproximaciones, en general dadas por polinomios de Taylor,
por ejemplo las m aquina para calcular el valor de sen(x) para un dado valor de x usa
tales aproximaciones, lo mismo ocurre cuando eval ua funciones elementales tales como
cos(x) , e
x
, etc. Por ejemplo, si deseamos calcular el valor de
_
1
0
e
x
2
dx tenemos algunos
problemas, pues esta integral no es expresable en terminos de funciones elementales, pero
usando series de Taylor se tiene que
e
x
2
= 1 +x
2
+
x
4
2!
+
x
6
3!
+
de donde, usando una aproximaci on por un polinomio de Taylor obtenemos una aproxi-
macion para el valor de integral dado por
_
1
0
e
x
2
dx
_
1
0
_
1 +x
2
+
x
4
2!
+
x
6
3!
_
dx = 1 +
1
3
+
1
10
+
1
42
= 1.457142285 . . . .
Observaci on. El valor de la integral
_
1
0
e
x
2
dx con 20 dgitos es 1.4626517459071816088
Sergio Plaza 9
1.3.2 Perdida de dgitos signicativos
Para comenzar consideremos el problema de la evaluacion de la funci on
f (x) = x
_
x + 1

x
_
para valores crecientes de x . Por ejemplo, tenemos f (100) = 100
_
101

100
_
, ahora como

101

100 = 0.0498752 . . . , evaluando f(100) tiene que f(100) = 100


_
101

100
_
=
4.987562 . . . . Ahora si trabajamos con aritmetica de 6 dgitos y redondeo, obtenemos los siguien-
tes valores:

101

100 = 10.049910 = 0.049900 luego f(100) = 100


_
101

100
_
= 4.99
en nuestra aritmetica.
El c alculo de

101

100 = 0.049900 cuyo valor aproximado es 0.0498756 tiene perdida del


signicado del error. Note que tres dgitos de precision en

x + 1 =

101 fueron cancelados


en la resta con los correspondientes dgitos de

x =

100 . La perdida de precision fue un
subproducto de la forma de f (x) y la precision de la aritmetica nita usada. Observe que
f (x) puede ser reescrita de la siguiente manera
f (x) = x
_
x + 1

x
_
=
x

x + 1 +

x
,
esta ultima forma no tiene perdida de signicado de error en su evaluacion, pues
f (100) =
100
10.0499 + 10
=
100
20.0499
= 4.98756.
Observaci on. Es importante notar que las expresiones x
_
x + 1

x
_
y
x

x+1+

x
para
la misma funci on, son matematicamente equivalentes, pero numericamente no lo son, pues la
evaluaci on de ellas en nuestra aritmetica nos arrojan resultados distintos.
Observaci on. Los programadores deben tener en cuenta esta posibilidad de este error y evitar
este fenomeno de perdida de dgitos signicativos.
La perdida de dgitos signicativos es un subproducto de la resta de n umeros parecidos. Esto
redunda en inestabilidad en los c alculos numericos.
Ejemplo 4 La ecuacion de segundo grado
x
2
18x + 1 = 0
tiene soluciones x
1
= 9 +

80 y x
2
= 9

80 . Si consideramos

80 con 4 dgitos decimales
correctos, obtenemos
x
1
= 69 + 8.9443 0.5 10
4
= 17.9443 0.5 10
4
y
x
2
= 9 8.9443 0.5 10
4
= 0.0557 0.5 10
4
.
Luego, la aproximaci on de x
1
tiene 6 dgitos signicativos y x
2
tiene solo 3. La cancelaci on
es evitada reescribiendo
x
2
=
(9

80)(9 +

80)
9 +

80
=
1
9 +

80
=
1
17.9443 0.5 10
4
y entonces x
2
=
1
17.9443
= 0.055728002 . . . .
Sergio Plaza 10
Ejemplo 5 Consideremos la funci on f (x) =
1cos(x)
x
2
. Si usamos desarrollos en series de
Taylor, obtenemos
f (x) =
1
x
2
_
1
_
1
x
2
2!
+
x
4
4!

x
6
6!
+R
6
(x)
__
=
1
2!

x
2
4!
+
x
4
6!

x
6
8!
cos (x) ,
de donde f (0) =
1
2
, y para [x[ < 0.1 , tenemos que

x
6
8!
cos (x)

<
10
6
8!
= 2.5 10
11
.
Luego la aproximaci on f (x) =
1
2!

x
2
4!
+
x
4
6!
, para [x[ < 0.1 posee la precision dada arriba.
Esto nos brinda una manera mucho m as facil para evaluar f (x) .
Teorema 1.1 (Perdida de Precision) Si x e y son n umeros representados en la base > 1
en su forma normalizada de punto otante, tales que x > y , con

q
1
y
x

p
.
Entonces en la resta x y se pierden a lo m as q y al menos p dgitos signicativos.
Ejemplo 6 Sea y = x sen(x) . Como sen(x) x para valores peque nos de x, este calculo
tendr a una perdida de dgitos signicativos C omo puede evitarse?
Una forma alternativa para la funci on y = xsen(x) resulta del desarrollo en serie de Taylor
alrededor de x = 0 . Luego,
y = x sen(x) = x
_
x
x
3
3!
+
x
5
5!

x
7
7!
+
_
=
x
3
3!

x
5
5!
+
x
7
7!
+
como x es proximo de cero, podemos truncar la serie, obteniendo, por ejemplo
y
x
3
3!

x
5
5!
+
x
7
7!

x
9
9!
.
Consideremos el caso sen(x) > 0 , como x > sen(x) = y , utilizando el teorema de Perdida de
Precisi on, obtenemos que la perdida de dgitos signicativos en la resta dada por y = xsen(x)
puede limitarse a un dgito signicativo si restringuimos x de tal modo que 1
sen(x)
x

1
10
,
esto es,
9
10

sen(x)
x
, de donde tenemos que
sen(x)
x

9
10
si [x[ 1.9 . Para [x[ < 1.9 usamos
la representacion en serie de Taylor truncada tomando R
10
(x) =
x
10
sen(x)
10!
, luego
[R
10
(x)[ =
x
10
[sen (x) [
10!
<
1.9
10
10!
0.00017 1.7 10
4
.
Ejemplo 7 Cuantos dgitos signicativos se pierden en la sustracci on 1 cos(x) cuando
x =
1
4
?
Consideremos f (x) = 1 cos(x) , por lo tanto f
_
1
4
_
= 1 cos
_
1
4
_
= 0.0310875. Como
cos(x) < 1 , podemos utilizar el teorema de Perdida de Precisi on y tenemos que 2
q
1
cos
_
1
4
_
2
p
, con q = 6 y p = 5 . Por lo tanto se pierden a lo m as 6 y a lo menos 5 dgitos
signicativos.
Sergio Plaza 11
Ejemplo 8 Cuantos dgitos signicativos se pierden en una computadora cuando efectuamos
la sustraccion x sen(x) para x =
1
2
?
Consideremos f (x) = x sen(x) . Para x =
1
2
obtenemos f
_
1
2
_
=
1
2
sen
_
1
2
_
= 0.020574
como x > sen(x) para sen(x) > 0 , tenemos que 2
q
1
sen(0.5)
0.5
= 0.020574 2
p
, de
donde podemos deducir que q = 5 y p = 4 , es decir, se peirden a lo mas 5 y al menos 4 dgitos
signicativos en la resta x sen(x) para x = 1/2 .
1.3.3 Propagaci on de error
Sea una operaci on aritmetica +, , , / y sea la correspondiente version computa-
cional, la cual incluye, usualmente, redondeo o corte. Sean x
A
y y
A
n umeros usados en los
calculos y suponga que ellos ya tienen errores, siendo sus valores verdaderos x
T
= x
A
+ y
y
T
= y
A
+ , dicho de otra forma = E(x
A
) = x
T
x
A
y = E(y
A
) = y
T
y
A
. Entonces
x
A
y
A
es el n umero calculado, para el cual el error es dado por
x
T
y
T
x
A
y
A
= x
T
y
T
x
A
y
A
. .
Error Propagado
+x
A
y
A
x
A
y
A
. .
Error de redondeo o corte
(1.15)
La cantidad x
T
y
T
x
A
y
A
es llamada error propagado y la cantidad x
A
y
A
x
A
y
A
es llamada error de redondeo o corte.
Usualmente para el error de redondeo o corte tenemos que
x
A
y
A
= fl (x
A
y
A
)
lo cual signica que x
A
y
A
es calculado correctamente y luego redondeado o cortado. Por lo
tanto tenemos que
[ x
A
y
A
x
A
y
A
[
1
2
[x
A
y
A
[
k+1
si usamos redondeo, y
[ x
A
y
A
x
A
y
A
[ [x
A
y
A
[
k+1
si usamos corte.
Lo anterior nos da el redondeo o corte verdadero usado.
Para el error propagado examinaremos algunos casos particulares.
Caso a. Multiplicacion. Para el error en x
A
y
A
, tenemos x
T
= x
A
+ y y
T
= y
A
+ , es
decir, = E(x
A
) = x
T
x
A
y = E(y
A
) = y
T
y
A
, por lo tanto
E(x
A
y
A
) = x
T
y
T
x
A
y
A
= x
T
y
T
(x
T
) (y
T
)
= x
T
+y
T

de donde,
Sergio Plaza 12
E(x
A
y
A
) = x
T
E(y
A
) +y
T
E(x
A
) E(x
A
)E(y
A
) (1.16)
En particular, E(x
2
A
) = 2x
T
E(x
A
) E(x
A
)
2
.
Para el error relativo, tenemos
E
R
(x
A
y
A
) =
x
T
y
T
x
A
y
A
x
T
y
T
=

y
T
+

x
T


x
T
y
T
,
es decir,
E
R
(x
A
y
A
) = E
R
(x
A
) +E
R
(y
A
) E
R
(x
A
) E
R
(x
A
) (1.17)
Observemos que si [E
R
(y
A
)[ , [ E
R
(x
A
)[ << 1 ( << signica mucho menor que) entonces
E
R
(x
A
y
A
) E
R
(x
A
) +E
R
(y
A
) .
Caso b. Division.
E
R
_
x
A
y
A
_
=
E
R
(x
A
) E
R
(y
A
)
1 E
R
(y
A
)
(1.18)
Si [ E
R
(y
A
)[ << 1 se tiene que E
R
_
xA
yA
_
E
R
(x
A
) E
R
(y
A
) .
Observaci on. Para las operaciones de multiplicaci on y divisi on, los errores relativos no se
propagan r apidamente.
Caso c. Adicion y sustracci on.
E(x
A
y
A
) = (x
T
y
T
) (x
A
y
A
)
= (x
T
x
A
) (y
T
y
A
) = ,
por lo tanto
E (x
A
y
A
) = E (x
A
) E (y
A
) (1.19)
Esto parece ser bastante bueno y razonable, pero puede ser enga noso. El error relativo en
x
A
y
A
puede ser bastante pobre cuando es comparado con E
R
(x
A
) y E
R
(y
A
) .
Ejemplo 9 Consideremos x
T
= , x
A
= 3.1416, y
T
=
22
7
, e y
A
= 3.1429. Tenemos
Sergio Plaza 13
E(x
A
) = x
T
x
A
7.35 10
6
, E
R
(x
A
) = 2.34 10
6
E(y
A
) = y
T
y
A
4.29 10
5
, E
R
(y
A
) = 1.36 10
5
E(x
A
y
A
) = (x
T
y
T
) (x
A
y
A
) 0.0012645 (0.0013) 3.55 10
5
Aunque el error en x
A
y
A
es peque no, el error relativo en x
A
y
A
es mucho mayor que
en x
A
e y
A
.
Ejemplo 10 Sea x
A
= 3.0015 = 0.3001510
1
correctamente redondeado al n umero de dgitos
se nalados. Considere las expresiones matematicamente equivalentes u(x) = (3 x)
2
, v(x) =
(3 x) (3 x) y w(x) = (x 6) x + 9 .
Si utilizamos en la evaluaci on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos que valores numericos se obtendran?
Es f acil realizar los calculos numericos con una maquina, por lo tanto se dejan a cargo del
lector.
Estudiemos la propagaci on del error absoluto en cada una de las expresiones correspondientes,
determinando cotas para los valores absolutos de cada uno de los errores respectivos.
Sabemos que

k+1
2

xT xA
xT


k+1
2
, de donde [x
T
x
A
[

k+1
2
[x
T
[ . Ahora, si
escribimos x
T
en su forma normalizada, es decir, x
T
= x
T
10
e
, donde 0.1 x
T
< 1 ,
obtenemos que E (x
A
) = [x
T
x
A
[
10
k+1
2
[ x
T
[ 10
e
, aqu k = 5 y e = 1 , por lo tanto
E (x
A
) = [x
T
x
A
[
10
3
2
, de donde
10
3
2
+x
A
x
T

10
3
2
+x
A
luego 3.001 x
T
3.002 ,
por lo tanto
[E (u
A
)[ =

E (3 x
A
)
2

= [E ((3 x
A
) (3 x
A
))[ =

2 (3 x
T
) E(3 x
A
) (E (3 x
A
))
2

2 [3 x
T
[ [E (3 x
A
)[ +

E (3 x
A
)
2

2 0.002 [E (x
A
)[ +[E (x
A
)[
2
2 0.002
10
3
2
+
_
10
3
2
_
2
= 0.225 10
5
.
Observaci on. Desde la denici on del error se tiene que E(x
A
+c) = E (x
A
) .
Falta analizar para v
A
. Este se deja a cargo del lector.
Tenemos nalmente que
[E (w
A
)[ = [E ((x
A
6) x
A
+ 9)[ = [E ((x
A
6) x
A
)[
= [(x
T
6) E (x
A
) +x
T
E (x
A
6) E (x
A
) E (x
A
6)[
[x
T
6[ [E (x
A
)[ +[x
T
[ [E (x
A
)[ +[E (x
A
)[
2
2.999
1
2
10
3
+ 3.002
1
2
10
3
+
_
1
2
10
3
_
2
= 0.00300075.
Sergio Plaza 14
1.4 Propagaci on de error en evaluacion de funciones
Sea f (x) una funci on, la cual suponemos derivable, con derivada continua. Sea x
A
un valor
aproximado de x
T
Como aproxima f (x
A
) a f (x
T
) ?
Usando el Teorema del Valor Medio, tenemos
f (x
T
) f (x
A
) = f

(c) (x
T
x
A
)
donde c entre x
A
y x
T
. Como en general, x
A
y x
T
son bastante pr oximos, tenemos que
f (x
T
) f (x
A
) f

(x
T
) (x
T
x
A
)
f

(x
A
) (x
T
x
A
) ,
luego,
E(f(x
A
)) f

(x
A
)E(x
A
) (1.20)
Tenemos ademas que
[E(f(x
A
))[ [E(x
A
)[ max [f

(x)[ : x entre x
T
y x
A
(1.21)
Para el error relativo tenemos la f ormula
E
R
(f (x
A
))
f

(x
T
)
f (x
T
)
(x
T
x
A
)
f

(x
T
)
f (x
T
)
x
T
E
R
(x
A
) (1.22)
El n umero (x) =
f

(x)
f(x)
x es llamado el n umero de condici on de f(x) . Si [ lim
xxT
(x)[ =
+, decimos que la evaluacion de f para x x
T
es numericamente inestable. Caso contrario,
decimos que la evaluacion de f para x x
T
es estable.
Notemos que si minf(x) : x entre x
T
y x
A
,= 0 , entonces
[E
R
(x
A
)[
max [f

(x)[ : x entre x
T
y x
A

min [f(x)[ : x entre x


T
y x
A

max[x[ : x entre x
T
y x
A
[E
R
(x
A
)[ .
Como antes podemos escribir,
f(x
T
)

f(x
A
) = (f(x
T
) f(x
A
)) + (f(x
A
)

f(x
A
)),
donde f(x
T
) f(x
A
) es el error propagado y f(x
A
)

f(x
A
) es el error de la evaluaci on de
f(x) en el computador.
Ejemplo 11 Consideremos f(x) = tan(x) . Para x
0
= /2 tomamos aproximaciones x
1
=

2
0.00001 y x
2
=

2
0.000001 . Evaluando, nos queda y
1
= tan(x
1
) = 100.000 e y
2
=
tan(x
2
) = 1.000.000 , luego y
2
y
1
= 900.000 mientras que x
2
x
1
= 9 10
6
.
Sergio Plaza 15
Ejemplo 12 Considere la funci on f (x) =
sen(

3
+x)sen(

3
x)
2x
.
Veamos si esta funci on es numericamente estable la evaluacion de f (x) para x 0 .
Primero un argumento teorico de resta de n umeros parecidos nos muestra que f(x) es
numericamente inestable en su evaluacion para x 0 . Vemos si hay perdida de dgitos
signicativos evaluando f (x) para x = 10
n
con n = 1, 2, . . . , 13 . Tenemos la siguiente
tabla
x
n
f (x)
x
1
=
1
10
0.017450368
x
2
=
1
10
2
0.017450377
x
3
=
1
10
3
0.017450377
x
4
=
1
10
4
0.017450377
x
5
=
1
10
5
0.01745038
x
6
=
1
10
6
0
0.0174504
x
7
=
1
10
7
0.0174505
x
8
=
1
10
8
0.01745
x
9
=
1
10
9
0.0174
Observe que el error entre las cantidades x
8
y x
9
, lo cual denotamos por E (x
8
, x
9
) , es
E (x
8
, x
9
) = [0.01745 0.0174[ = 0.00005, como el error es un valor grande tenemos inestabili-
dad numerica. Recuerde que en n umeros de partida pr oximos se debe tener imagenes pr oximas.
Determinemos ahora un polinomio de grado mayor o igual a uno, que aproxime a f (x) y
que sea numericamente estable para x 0 . Desarrollando, obtenemos la expresion siguiente
para f ,
f (x) =
sen(

3
) cos(x) + sen(x) cos(

3
) sen(

3
) cos(x) + sen(x) cos
_

3
_
2x
=

3
2
sen(x)
x
.
Ahora, desarrollando sen(x) en serie de Taylor tenemos que sen(x) = x
x
3
3!
+
x
5
5!

x
7
7!
+ ,
luego f(x) =

3
2
sen(x)
x
=

3
2
_
1
x
2
3!
+
x
4
5!

x
6
7!
+
_
. Consideramos la siguiente aproxi-
macion polinomial p(x) =

3
2
sen(x)
x

3
2
_
1
x
2
6
_
para f , y vemos que en ella no existe
resta de n umeros parecidos luego es estable. Por otra parte, si calculamos el n umero condici on
obtenemos para nuestra aproximaci on polinomial, tenemos
(x) = x
p

(x)
p (x)
=
x
_

x
3
_
1
x
2
6
=
2x
2
6 x
2
y para valores x 0 se tiene que x
p

(x)
p(x)
0 , de donde concluimos que nuestra aproximacion
es numericamente estable.
Sergio Plaza 16
1.5 Errores en sumas
Veamos como se propaga el error en sumas repetidas. Sea S = a
1
+ a
2
+ + a
n
=
n

j=1
a
j
,
donde cada a
j
es un n umero punto otante, para sumar estos valores en la maquina se necesitan
n 1 sumas, cada una de las cuales, envuelve errores de redondeo o corte. Mas precisamente,
denimos
S
2
= fl (a
1
+a
2
)
la versi on punto otante de a
1
+a
2
. Enseguida, denimos
S
3
= fl (a
3
+S
2
)
S
4
= fl (a
4
+S
3
)
.
.
.
S
n
= fl (a
n
+S
n1
)
S
n
es la version punto otante de S . Tenemos
S
2
= (a
1
+a
2
) (1 +
2
)
S
3
= (a
3
+S
2
) (1 +
3
)
.
.
.
S
n
= (a
n
+S
n1
) (1 +
n
) .
Los termino en la expresion anterior pueden ser combinados, manipulados y estimados, obte-
niendo lo siguiente
S S
n
= a
1
(
2
+ +
n
)
a
2
(
2
+ +
n
)
a
3
(
3
+ +
n
)
.
.
.
a
n

n
observando esta f ormula y tratando de minimizar el error total de S S
n
, la siguiente puede
ser una estrategia razonable: ordenar los terminos a
1
, a
2
, . . . , a
n
antes de sumarlos de tal
modo que 0 [a
1
[ [a
2
[ [a
3
[ [a
n
[ . De esa manera los terminos del lado derecho
de la expresion arriba con el mayor n umero de
j
son multiplicados por los menores valores de
a
j
. Luego esto minimiza S S
n
sin costos adicionales en la mayora de los casos.
1.6 Estabilidad en metodos numericos
Muchos problemas matematicos tienen soluciones que son bastante sensitivas a peque nos errores
computacionales, por ejemplo errores de redondeo. Para tratar con este fen omeno, introducire-
mos los conceptos de estabilidad y n umero condici on. El n umero condici on de un problema
esta relacionado al maximo de precision que puede ser obtenido en su solucion cuando usamos
Sergio Plaza 17
n umeros de longitud nita y aritmetica de computador. Estos conceptos son entonces exten-
didos a metodos numericos usados para calcular la soluci on. En general, queremos que los
metodos numericos usados no tengan sensibilidad a peque nos errores mas all a de los originados
en el problema matematico mismo.
Para simplicar, supongamos que nuestro problema viene dado por
F (x, y) = 0. (1.23)
La variable x es la inc ognita buscada y la variable y son los datos de los cuales depende
la soluci on. Por ejemplo F puede ser una funci on real de dos variables, o x puede ser una
variable real e y puede ser un vector, puede ser una ecuacion diferencial o integral o funcional,
etc.
Diremos que el problema (1.23) es estable si la solucion x depende continuamente de la vari-
able y , esto signica que si (y
n
)
nN
es una sucesion de valores aproxim andose a y , entonces
los valores solucion asociados (x
n
)
nN
deben aproximarse a x de la misma forma. Equivalen-
temente si hacemos peque nos cambios en y esos deben corresponder a peque nos cambios en
x. El sentido en el cual los cambios son peque nos depende de la norma que se este usando en
x e y , respectivamente, existen varias elecciones posibles, variando de problema en problema.
Problemas estables son tambien llamados well-posed problems. Si un problema no es estable,
este es llamado inestable o ill-posed problem.
Ejemplo 13 Considere el sistema de ecuaciones lineales
x + 2y = 3
0.5x + 1.000001y = 1.5
Multiplicando la primera ecuaci on por 0.5 y restando las ecuaciones, obtenemos y = 0 , de
donde x = 3 .
Consideremos ahora el sistema proximo
x + 2y = 3
0.4999999x + 1.000001y = 1.5
Multiplicando la primera ecuaci on por 0.4999999 y restando las ecuaciones, obtenemos
1.2 10
6
y = 3 10
7
, de donde y = 0.25 y x = 3 2y = 2.5 , soluciones que no
son pr oximas, a un cuando los coecientes de las ecuaciones en ambos problemas son proximos,
de hecho, 0.5 0.4999999 = 10
7
y las soluciones varian del orden de 0.25.
Ejemplo 14 Consideremos la soluci on de
ax
2
+bx +c = 0, a ,= 0
cualquier soluci on es un n umero complejo, los datos de este caso son y = (a, b, c) vector de los
coecientes y la solucion esta dado por
x =
b

b
2
4ac
2a
Sergio Plaza 18
la cual vara continuamente con y = (a, b, c) .
Si el problema es inestable, entonces existen serias dicultades al tratar de resolverlo. Usual-
mente no es posible resolver tales problemas sin primero tratar de entender mas acerca de las
propiedades de la solucion, usualmente retornando al contexto en el cual el problema matematico
fue formulado. Esto nos lleva a otras areas de investigacion en Matem atica Aplicada y An alisis
Numerico.
Para prop ositos pr acticos existen muchos problemas que son estables en el sentido anterior,
pero que contin uan fastidiosos con respecto de los c alculos numericos. Para tratar esta dicultad
introducimos una medida de la estabilidad, llamada n umero condici on.
El n umero condici on trata de medir los posibles malos efectos sobre la soluci on x del problema
cuando la variable y es perturbada en una cantidad peque na. Sea y +
y
una perturbaci on de
y , y sea x +
x
la soluci on de la ecuaci on perturbada
F (x +
x
, y +
y
) = 0.
Denimos
(x) = sup
y
x
x
y
y
(1.24)
donde | | es una norma en el espacio adecuado.
Problemas que son inestables nos llevan a lim
x0
(x) = . El n umero (x) es llamado
n umero de condici on del problema F(x, y) = 0 . Este es una medida de la sensibilidad de la
soluci on a peque nos cambios de la data y .
Si (x) es bastante grande entonces existen cambios peque nos
y
relativos a y que llevan
a grandes cambios relativos a x . Pero si (x) es peque no, digamos (x) C , con C
una constante razonable dependiendo del problema, por ejemplo, entonces cambios relativos
en y siempre llevan cambios peque nos relativos en x. Como calculos numericos casi siempre
envuelven una variedad de peque nos errores computacionales, no deseamos problemas con un
n umero condici on grande. Tales problemas son llamados ill-condicioned problem.
Ejemplo 15 Considere el problema xa
y
= 0 , donde a > 0 . Perturbando y por
y
tenemos
x
x
=
a
y+y
a
y
a
y
= a
y
1 . Por lo tanto
(x) = sup
y

x
x

y
y

= sup
y

y
a
y
1

.
Restringiendo
y
a valores peque no, obtenemos que (x) [y log (a)[ .
1.7 Inestabilidad numerica de metodos
Denicion 1.5 Decimos que un proceso numerico es inestable si peque nos errores que se pro-
ducen en alguna etapa se agrandan en etapas posteriores degradando seriamente la exactitud
del c alculo en su conjunto.
Sergio Plaza 19
Ejemplo 16 Consideremos la siguiente sucesion
_

_
x
0
= 1, x
1
=
1
3
x
n+1
=
13
3
x
n

4
3
x
n1
, n 1.
Observe que la sucesion es equivalente a la sucesi on x
n+1
=
_
1
3
_
n+1
y que x
n
> 0 para todo
n N. Es claro de esta ultima expresion que lim
n
x
n
= 0 , mientras que en la evaluacion
numerica de x
n
aparecen valores negativos, (que los alumnos hagan la tabla para la primera
expresion de x
n
, es decir, la f ormula dada inicialmente). La prueba de x
n+1
=
_
1
3
_
n+1
, es facil
y se hace por inducci on.
1.8 Ejemplos resueltos
Ejemplo 17 Considere la funci on denida por f (x) =

1x
2

1x
2
x
2
.
1. Se produce inestabilidad numerica al evaluar f (x) en valores de x 0 ?
2. Determine una expresion algebraica, matem aticamente equivalente a f (x) , la cual sea
estable numericamente para valores de x 0 .
3. Determine una aproximaci on polinomial de grado mayor o igual a tres para f (x) en el
intervalo [x[ < 0.5 , la cual sea numericamente estable.
Solucion. Para ver si existe inestabilidad numerica en la evaluaci on de f(x) para x 0
puede usarse una tabla de valores o argumentar la existencia de resta de n umeros parecidos.
Para la segunda parte, tenemos
f (x) =

1x
2

1x
2
x
2
=
1

1x
2
x
2
+
1
3

1x
2
x
2
=
1

1x
2
x
2
1+

1x
2
1+

1x
2
+
1
3

1x
2
x
2
1+
3

1x
2
+
3

(1x
2
)
2
1+
3

1x
2
+
3

(1x
2
)
2
=
1
1+

1x
2
+
1
1+
3

1x
2
+
3

(1x
2
)
2
Finalmente, para encontrar una paroximaci on que sea numericamente estable para f(x) ,
sean
F(x) =
_
1 x
2
, G(x) =
3
_
1 x
2
por lo tanto se tiene si desarrollamos va Taylor que
F (x) 1
x
2
2

x
4
8

x
6
16
G(x) 1
x
2
3

x
4
9

2x
6
9
por lo tanto
f (x)
1
x
2
2

x
4
8

x
6
16
1 +
x
2
3
+
x
4
9
+
2x
6
9
x
2
=
1
6

1
72
x
2

49
1296
x
4
Sergio Plaza 20
Ejemplo 18 Considere x
A
= 1.00011 redondeado al n umero de dgitos que se se nala. Considere
las expresiones matematicamente equivalentes u = (x 1) (x 2) y v = x(x 3) + 2.
1. Usando el Teorema del Valor Medio, estudie la propagacion del error para u y v.
2. Determine buenas cotas para E
R
(u
A
) y para E
R
(v
A
) .
Solucion. Sea x
T
el valor exacto y x
A
una aproximacion de x
T
.
Denamos f (x) = (x 1) (x 2), as f

(x) = 2x 3, luego
[f (x
T
) f (x
A
)[ = [f

(c)[ [x
T
x
A
[ , con c entre x
T
y x
A
. Si x
A
x
T
entonces
[f (x
T
) f (x
A
)[ [f

(x
A
)[ [x
T
x
A
[ = 0.099978 [E (x
A
)[ 4.9989 10
5
ya que x
A
= 1.00011 est a redondeado a 6 dgitos, entonces se tiene que [E (x
A
)[ 0.5
10
6+1+1
= 0.5 10
4
.
Denamos g (x) = x(x 3) + 2, de donde se tiene que g

(x) = 2x 3. Luego
[g (x
T
) g (x
A
)[ [g

(x
A
)[ [x
T
x
A
[
= 0.99978 [E
A
(x
A
)[ 0.99978 0.5 10
4
= 4.9989 10
5
Para el error relativo, tenemos
E
R
(u
A
) =
[u
T
u
A
[
[u
T
[

4.9989 10
5
[x
T
1[ [x
T
2[
Por otro lado sabemos que [E (x
A
)[ 0.5 10
6+1+1
= 0.5 10
4
por lo tanto
0.5 10
4
+ 1.00011 x
T
0.5 10
4
+ 1.00011
0.00006 x
T
1 0.00016 y 0.99994 x
T
2 0.99984
de donde se deduce que
1
[x
T
1[

1
0.00006
16666.67 y
1
[x
T
2[

1
0.99984
1.0001600256 .
por lo tanto
E
R
(u
A
) =
[u
T
u
A
[
[u
T
[
4.9989 10
5
(16666.67) (1.0001600256) 0.8323283325329
1.9 Ejercicios
Problema 1.1 La ecuacion de segundo grado ax
2
+ bx + c = 0 se resuelve usualmente por
las f ormulas
x
1
=
b +

b
2
4ac
2a
, x
2
=
b

b
2
4ac
2a
.
Sergio Plaza 21
Pruebe que una soluci on alternativa viene dada por
x
1
=
2c
b

b
2
4ac
, x
2
=
2c
b +

b
2
4ac
.
Escriba un programa en MatLab que resuelva las ecuaciones de segundo grado de las dos
maneras indicadas. Ejecute el programa cuando
(i) a = 1.0 , b = 5.0 , c = 6.0 , (ii) a = 1.0 , b = 12345678.03 , c = 0.92 .
Problema 1.2 Usando MatLab calcule x+y +z de las dos formas matematicamente equiva-
lentes, x+(y+z) y (x+y)+z cuando (i) x = 1.0 , y = 5.0 , z = 6.0 , (ii) x = 110
20
,
y = 1 10
20
, z = 1.0 . Explique los resultados obtenidos.
Problema 1.3 Con MatLab, usando el formato largo, calcule h = 1/3333 . Enseguida sume
3333 veces la cnatidad obtenida. Tambien multiplique dicha cantidad por 3333. Explique los
resultados obtenidos.
Problema 1.4 Considere la funci on h(x) =
tan
_

4
+x
_
tan
_

4
x
_
2x
1. Es numericamente estable la evaluacion de h(x) para x 0 ? Justique su respuesta.
2. Determine una expresion matematicamente equivalente a h(x) que sea numericamente
estable en su evaluacion para x 0 .
3. Usando desarrollos de Taylor, determine un polinomio de grado mayor o igual que 4, que
aproxime a h(x) y que sea numericamente estable en su evaluacion para x 0 .
Problema 1.5 Considere las expresiones matem aticamente equivalente u(x, y) = (x + y)
2

(xy)
2
y v(x, y) = 4xy . Sabiendo que x
A
= 1.214301 e y
A
= 0.24578 est an correctamente
redondeados al n umero de dgitos se nalados, estudie la propagaci on del error absoluto (valor
absoluto del error) en la evaluacion de u y de v , determinando una buena cota Cu al de ellas
tiene menor propagacion del error?
Problema 1.6 Considere la ecuacion c ubica x
3
31x 31x 1 = 0 . Al calcular las races de
esta ecuacion obtenemos r
(1)
T
= 15 +

224 , r
(2)
T
= 15

168 , y r
(3)
T
= 1 . Suponga que usa
aritmetica de redondeo a 5 dgitos y denote por r
(1)
A
, r
(2)
A
, y r
(3)
A
las soluciones aproximadas
obtenidas para la ecuaci on.
1. Calcule el error absoluto y el error relativo (en valor absoluto) en las soluciones apro-
ximadas.
2. Una de ellas tiene perdida del dgitos signicativos. Proponga una expresi on algebraica
matematicamente equivalente para evitar la perdida de dgitos signicativos en ese caso.
Justique la respuesta calculando el nuevo error relativo (en valor absoluto).
Problema 1.7 Sea w(x, y) = (x y)(x
2
+ xy + y
2
) , con x
A
= 1.2354 e y
A
= 3.001 , n umero
redondeado correctamente al n umero de dgitos se nalados, determine una buena cota para
[E(x
A
, y
A
)[ .
Sergio Plaza 22
Problema 1.8 Sea f(x) =
sen(x) x
x
.
1. Analice la estabilidad numerica en la evaluaci on de f(x) para x 0 .
2. Encuentre una aproximaci on polinomial de grado mayor o igual que 3 para f(x) y que
sea estable numericamente para la evaluacion cuando x 0 .
Problema 1.9 Considere la funci on denida por f(x) = 100
x
.
1. Estudie la estabilidad numerica en la evaluaci on de f(x) de acuerdo a los valores de
x R.
2. Si x
A
= 1000.01 es un n umero redondeado correctamente al n umero de dgitos se nalados,
determine una buena cota para [E(f(x
A
))[,.
Problema 1.10 Considere las expresiones matem aticamente equivalentes: u = (x 1)
3
y
v = 1 +x(3 +x(3 +x))
1. Estudie la propagaci on del error absoluto en las expresiones u y v .
2. Que puede decir acerca de la presicion que se puede obtener para u y v , para un deter-
minado valor de x?
Problema 1.11 Sea x
A
= 2.0015 , redondeado al n umero de dgitos se nalados. Considere las
expresiones matematicamente equivalentes: u = (x4)
2
, v = (x4)(x4) , w = (x8)x+16 .
1. Si utiliza en la evaluaci on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos, que valores numericos se obtendran en cada
una de las expresiones?
2. Estudie la propagaci on del error (absoluto) en cada una de las expresiones correspondientes,
determinando buenas cotas para los valores absolutos de cada uno de los errores respec-
tivos.
Problema 1.12 Analice la estabilidad numerica en la evaluaci on de f(x
A
) para x
A
0 ,
donde
f(x) =
e
x
1
sen(x)
.
Problema 1.13 Sean x
A
= 1.0005 e y
A
= 0.999092 , redondeados correctamente al n umero
de dgitos se nalados. Considere las expresiones matematicamente equivalentes: u = x
3
+y
3
y
w = (x +y)(x
2
xy +y
2
) .
1. Si utiliza en la evaluaci on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c alculo, que valores numericos
se obtendran en cada una de las expresiones?
2. Estudie la propagaci on del error (absoluto) en la expresi on u , determinando una buena
cota para el valor absoluto del error (usando x
A
).
Sergio Plaza 23
Problema 1.14 Considere la funci on f(x) =
e
2x
1
2xe
x
.
i) Es numericamente estable la evaluacion de f(x) para x 0 ? Justique brevemente y
alternativamente evaluando f(x) , para x = 10
n
con n = 1, . . . , 13 .
ii) Determine un polinomio de grado mayor o igual que 3, que aproxime a f(x) y que sea
estable numericamente para x 0 .
Problema 1.15 Sea x
A
= 1.0015 , redondeado correctamente al n umero de dgitos se nalados.
Considere las expresiones matem aticamente equivalentes: u = (x1)
3
y w = ((x3)x+3)x1 .
1. Si utiliza en la evaluaci on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c alculo, que valores numericos
se obtendran en cada una de las expresiones?
2. Estudie la propagaci on del error (absoluto) en la expresi on u , determinando una buena
cota para el valor absoluto del error (usando x
A
).
Problema 1.16 Considere la funci on f(x) =
cos(/3 +x) cos(/3 x)
2x
.
i) Es numericamente estable la evaluacion de f(x) para x 0 ? Justique brevemente y
alternativamente evaluando f(x) , para x = 10
n
con n = 1, . . . , 13 .
ii) Determine un polinomio de grado 1, que aproxime a f(x) y que sea estable numericamente
para x 0 .
Problema 1.17 Considere la funci on f(x) =
_
x + 1/x
_
x 1/x.
i) Estudie la estabilidad numerica en la evaluaci on de f(x) para x 0 . Justique.
ii) Proponga una expresi on algebraica, que sea matem aticamente equivalente a f(x) y que
sea numericamente estable en la evaluacion para x 0 .
iii) Determine un polinomio de grado mnimo mayor que 0, que aproxime a f(x) , y que sea
estable numericamente para la evalucion en x 0 . Ademas, obtenga una buena cota
para el error correspondiente con [x[ 0.1 y x ,= 0 .
Problema 1.18 Considere las expresiones equivalentes, u
A
= (x
A
2)(x
2
A
3x
A
+ 1) y
v
A
= ((x
A
5)x
A
+ 7)x
A
2 . Suponga que cada una de las operaciones aritmeticas en las
expresiones u
A
y v
A
deben ser redondeadas a 3 dgitos en la mantisa.
(a) Para x
A
= 2.01 , redondeado al n umero de dgitos se nalados, evalue las expresiones equiv-
alentes de acuerdo a lo expresado arriba, y compare las precisiones de ambos resultados.
(b) Estudie la propagaci on del error absoluto en ambas expresiones, u
A
y v
A
, acotando los
errores correspondientes (en valor absoluto) Que puede decir acerca de lo concluido en
a)?
Captulo 2
Ecuaciones no Lineales
En este capitulo estudiaremos uno de los problemas b asicos de la aproximacion numerica: el
problema de la b usqueda de races. Este consiste en obtener una raz exacta o una buena aprox-
imacion a la raz exacta de una ecuacion de la forma f (x) = 0 , donde f es una funci on dada.
Este es uno de los problemas de aproximacion m as antiguos, y sin embargo, la investigaci on
correspondiente todava continua. El problema de encontrar una aproximaci on a una raz de
una ecuacion se remonta por lo menos al a no 1700 a.C. Una tabla cuneiforme que pertenece a
la Yale Banylonian Collection, y que data de este perodo, da la aproximaci on de

2 , la cual
puede calcularse con algunos de los metodo que veremos mas adelante
2.1 Metodo de bisecci on
Este metodo se basa en el Teorema del Valor Intermedio, el cual enunciamos a seguir.
Teorema 2.1 (del valor intermedio) Sea f : [a, b] R una funci on continua. Supongamos
que f (a) y f (b) tienen signos diferentes, entonces existe r (a, b) tal que f (r) = 0 .
Aunque el procedimiento se aplica en el caso en que f (a) y f (b) tengan signos diferentes y
exista mas de una raz en el intervalo (a, b) , por razones de simplicidad suponemos que la raz
de este intervalo es unica. El metodo requiere dividir varias veces en la mitad los subintervalos
de [a, b] y en cada paso localizar aquella mitad que contenga a la raz r . Para comenzar
consideremos a
0
= a y b
0
= b , y sea c
0
el punto medio de [a, b] , es decir, c
0
=
a0+b0
2
. Si
f (c
0
) = 0 , entonces r = c
0
; si no, entonces f (c
0
) posee el mismo signo que f (a
0
) o que
f (b
0
) . Si f (c
0
) y f (a
0
) tienen igual signo, entonces r (c
0
, b
0
) y tomamos a
1
= c
0
y
b
1
= b
0
. Si f (c
0
) y f (a
0
) tienen signos opuestos, entonces r (a
0
, c
0
) y tomamos a
1
= a
0
y b
1
= c
0
. Enseguida, volvemos a aplicar el proceso al intervalo [a
1
, b
1
] , y as sucesivamente.
A continuaci on describiremos algunos procedimientos de parada que pueden aplicarse en
alg un paso del algoritmo, o a cualquiera de las tecnicas iterativas que se estudian en este
capitulo. Se elige una tolerancia > 0 y generamos una sucesion de puntos p
1
, p
2
, . . . , p
N
,
con p
n
r hasta que se cumplan una de las siguientes condiciones
[p
N
p
N1
[ (2.1)
24
Sergio Plaza 25
[p
N
p
N1
[
[p
N
[
, p
N
,= 0 (2.2)
[f (p
N
)[ (2.3)
Al usar cualquiera de estos criterios de parada pueden surgir problemas. Por ejemplo, existen
sucesiones (p
n
)
nN
con la propiedad de que las diferencias p
n
p
n1
convergen a cero, mientras
que la sucesion diverge, esto se ilustra con la sucesi on siguiente, sea (p
n
)
nN
la sucesion dada
por p
n
=
n

k=1
1
k
, es conocido que (p
n
)
nN
diverge a un cuando se tiene lim
n
(p
n
p
n1
) = 0 .
Tambien es posible que f (p
n
) este cercano a cero, mientras que p
n
diere signicativamente
de r , como lo ilustra la siguiente sucesion. Sea f (x) = (x 1)
10
, tenemos que r = 1 , tomando
p
n
= 1 +
1
n
es facil ver que [f (p
n
)[ < 10
3
para todo n > 1 , mientras que [r p
n
[ < 10
3
solo si n > 1000 . En caso que no se conozca r , el criterio de parada (2.2) es el mejor al cual
puede recurrirse, ya que verica el error relativo.
Observe que para iniciar el algoritmo de bisecci on, tenemos que encontrar un intervalo [a, b] ,
de modo que f (a) f (b) < 0 . En cada paso, la longitud del intervalo que se sabe contiene
una raz de f se reduce en un factor de
1
2
; por lo tanto, conviene escoger un intervalo inicial
[a, b] lo mas peque no posible. Por ejemplo, si f (x) = x
2
1 , entonces f(0) f(2) < 0 y
tambien f(0.75) f(1.5) < 0 , de manera que el algoritmo de biseccion puede emplearse en
ambos intervalos [0, 2] o [0.75, 1.5] . Al comenzar el algoritmo de biseccion en [0, 2] o con
[0.75, 1.5] , la cantidad de iteraciones necesarias para alcanzar determinada exactitud varia.
El siguiente ejemplo ilustra el algoritmo de biseccion. La iteracion se termina cuando el error
relativo es menor que 0.0001 , es decir, cuando
[c
n
c
n1
[
[c
n
[
< 10
4
.
Ejemplo 19 La ecuacion f (x) = x
3
+ 4x
2
10 posee una raz en [1, 2] ya que f (1) = 5 y
f (2) = 14 . El algoritmo de biseccion puede ser resumido por la siguiente tabla
n a
n
b
n
c
n
f(c
n
)
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 1.79687
3 1.25 1.5 1.375 0.16211
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13 1.36499024 1.3671875 1.365112305 0.00194
Despues de 13 iteraciones, c
13
= 1.365112305 aproxima a la raz r con un error de [r c
13
[ <
[b
13
a
13
[ = 0.000122070, ya que [a
13
[ < [r[ , obtenemos
[r c
13
[
[r[
<
[b
13
a
13
[
[c
13
[
9 10
5
,
por lo tanto la aproximaci on ser a correcta por lo menos en cuatro dgitos signicativos. El valor
correcto de r con nueve cifras decimales correctas es r = 1.365230013. Observe que r
9
esta
mas cerca de r que c
13
. Pero lamentablemente no podemos vericar esto si no conocemos la
respuesta correcta.
Sergio Plaza 26
El metodo de biseccion, aunque claro desde el punto de vista conceptual, ofrece inconvenientes
importantes, como el de converger lentamente, es decir, la cantidad de iteraciones puede ser
demasiado grande para poder obtener que c
n
este lo proximo a r , ademas, inadvertidamente
podemos desechar una aproximacion intermedia. Sin embargo, tiene la importante propiedad
de que siempre converge en una soluci on y por tal raz on a menudo sirve para iniciar los metodos
mas ecientes que explicaremos m as adelante.
2.1.1 Analisis del error
Denotemos los intervalos generados por el metodo de biseccion por [a
0
, b
0
] , [a
1
, b
1
] , [a
2
, b
2
] ,
. . . , de donde obtenemos que
a
0
a
1
b
0
luego la sucesion (a
n
)
nN
es creciente y acotada superiormente. Tenemos tambien que
b
0
b
1
a
0
luego la sucesion (b
n
)
nN
es decreciente y acotada inferiormente.
Por lo tanto existen los lmites lim
n
a
n
b
0
y lim
n
b
n
a
0
. Ademas, como
b
n
a
n
=
1
2
(b
n1
a
n1
) =
1
4
(b
n2
a
n2
) = =
1
2
n
(b
0
a
0
) ,
se sigue que lim
n
(b
n
a
n
) = 0 , luego lim
n
b
n
= lim
n
a
n
= r . Ahora como
f (a
n
) f (b
n
) 0 , haciendo n se tiene que (f (r))
2
0 , pues f es continua, de donde
f (r) = 0 .
Si el proceso se detiene en la iteracion n, entonces f posee una raz en el intervalo [a
n
, b
n
]
y
[r a
n
[ 2
n
(b
0
a
0
) y [r b
n
[ 2
n
(b
0
a
0
) .
Por otra parte, vemos que una mejor aproximaci on para la raz r de f(x) = 0 es c
n
=
an+bn
2
,
pues
[r c
n
[
1
2
(b
n
a
n
) = 2
(n+1)
(b
0
a
0
) .
Resumiendo lo anterior, tenemos el siguiente resultado.
Teorema 2.2 Sean [a
0
, b
0
] , [a
1
, b
1
] , [a
2
, b
2
] , . . . , [a
n
, b
n
] , . . . los intervalos obtenidos en el
metodo de bisecci on, entonces lim
n
b
n
= lim
n
a
n
= r y r es una raz de f (x) = 0 .
Ademas, se tiene que [r a
n
[ 2
n
(b
0
a
0
) y [r b
n
[ 2
n
(b
0
a
0
) . Por otra parte, si
c
n
=
an+bn
2
entonces r = lim
n
c
n
y [r c
n
[ 2
(n+1)
(b
0
a
0
) .
Es importante se nalar que el teorema solo nos proporciona una cota del error de aproxima-
cion y que esta puede ser extremadamente conservadora. Por ejemplo, cuando la aplicamos al
problema del ejemplo anterior s olo garantiza que [p p
9
[
21
2
9
2 10
3
pero el error real
es mucho menor [p p
9
[ 4.4 10
6
.
Sergio Plaza 27
Ejemplo 20 Para determinar el n umero de iteraciones necesarias para resolver la ecuacion
f (x) = 0 donde f (x) = x
3
+ 4x
2
10 con una exactitud de 10
3
en el intervalo [1, 2] basta
determinar un entero N tal que
[c
N
r[ 2
(N+1)
(b a) = 2
(N+1)
10
3
.
Aplicando logaritmo a la desigualdad 2
(N+1)
10
3
vemos que el valor del entero positivo
N debe ser mayor que 9.96 , por lo tanto para obtener una exactitud de 10
3
debemos iterar
al menos 10 veces.
2.2 Metodo de Newton
El metodo Newton es uno de los metodos numericos mas populares para tratar un problema de
b usqueda de races de una ecuacion f (x) = 0 . Una forma de introducir el metodo de Newton
se basa en los polinomios de Taylor. En esta ocasion introduciremos el metodo de Newton
geometricamente.
Consideremos una funci on derivable f : [a, b] R, que tiene un cero en [a, b] . Sea
x
0
(a, b) un punto arbitrario.
x0

x1
x2
Para determinar la intersecci on x
1
de la recta tangente al gr aco de f en el punto (x
0
, f (x
0
))
con el eje x basta observar que dicha recta tiene por ecuacion
y f (x
0
) = f

(x
0
) (x x
0
)
as la interseccion con eje x esta dada por f (x
0
) = f

(x
0
) (x
1
x
0
) , despejando x
1
obten-
emos
x
1
= x
0

f (x
0
)
f

(x
0
)
,
si f

(x
0
) ,= 0 . Aplicamos ahora este procedimiento comenzando con x
1
, para determinar la
interseccion x
2
de la recta tangente al gr aco de f en el punto (x
1
, f (x
1
)) con el eje x basta
observar que dicha recta tiene por ecuaci on
Sergio Plaza 28
y f (x
1
) = f

(x
1
) (x x
1
)
as la interseccion con eje x esta dada por f (x
1
) = f

(x
1
) (x
2
x
1
) , despejando x
2
obten-
emos
x
2
= x
1

f (x
1
)
f

(x
1
)
,
si f

(x
1
) ,= 0 . De modo an alogo, si comenzamos con el punto x
2
, obtenemos un punto x
3
dado por
x
3
= x
2

f (x
2
)
f

(x
2
)
si f

(x
2
) ,= 0 , y as sucesivamente. Este procedimiento da lugar a un proceso iterativo llamado
metodo de Newton, dado por
x
n+1
= x
n

f (x
n
)
f

(x
n
)
(2.4)
si f

(x
n
) ,= 0 .
Ejemplo 21 Sea f(x) =
1
x
1 . La ecuacion f(x) = 0 tiene una raz r = 1 en el intervalo
[0.5, 1] Que ocurre al aplicar el metodo de Newton con x
0
= 0.5 ? Realizando los calculos
numericamente, tenemos
k 0 1 2 3 4
x
k
0.5 0.75 0.9374999998 0.9960937501 0.9999847417
Un buen ejercicio para el lector es esbozar una explicacion para lo que est a ocurriendo en
este caso.
2.2.1 Analisis del Error
El error en el paso n es denido como
e
n
= x
n
r (2.5)
Supongamos ahora que f

es continua y que r es un cero simple de f , es decir, f (r) =


0 y f

(r) ,= 0 . Entonces tenemos que


e
n+1
= x
n+1
r = x
n

f (x
n
)
f

(x
n
)
r = (x
n
r)
f (x
n
)
f

(x
n
)
= e
n

f (x
n
)
f

(x
n
)
=
e
n
f

(x
n
) f (x
n
)
f

(x
n
)
por otro lado se tiene que
Sergio Plaza 29
0 = f (r) = f (x
n
e
n
)
Taylor
= f (x
n
) e
n
f

(x
n
) +
1
2
e
2
n
f

(
n
)
donde
n
esta entre x
n
y r . De esta ultima ecuacion obtenemos
e
n
f

(x
n
) f (x
n
) = f

(
n
)
e
2
n
2
.
Luego
e
n+1
=
1
2
f

(
n
)
f

(x
n
)
e
2
n

1
2
f

(r)
f

(r)
e
2
n
= Ce
2
n
Podemos formalizar lo anterior como sigue, si e
n
es peque no y
f

(n)
f

(xn)
no es muy grande,
entonces e
n+1
ser a mas peque no que e
n
.
Denamos
C () =
1
2
max
|xr|<
[f

(x)[
min
|xr|<
[f

(x)[
(2.6)
donde > 0 es tal que [f

(x)[ > 0 para [x r[ < . Eligiendo > 0 mas peque no, si es


necesario, podemos suponer que C () < 1 , podemos hacer esto pues cuando 0 se tiene
que C ()

(r)
2f

(r)

, luego C () 0 si 0 . Denotemos = C () . Comenzando


las iteraciones del metodo de Newton con x
0
tal que [x
0
r[ < obtenemos que [e
0
[ y
[
0
r[ < luego por la denici on de C () , se tiene que

1
2
f

(0)
f

(x0)

C () de donde
[x
1
r[ = [e
1
[ e
2
0
C () = [e
0
[ [e
0
[ C () = [e
0
[ [e
0
[ ,
repetimos el argumento con x
1
, x
1
, . . . , x
n
, . . . obteniendo
[e
1
[ [e
0
[
[e
2
[ [e
1
[
2
[e
0
[
.
.
.
[e
n
[
n
[e
0
[ 0, cuando n
as hemos obtenido el siguiente resultado.
Teorema 2.3 Si f

es continua y r es un cero simple de f , es decir, f(r) = 0 y f

(r) ,= 0 ,
entonces existe un intervalo abierto J conteniendo a r y una constante C > 0 tal que si el
metodo de Newton se inicia con un punto en J , se tiene
[x
n+1
r[ C (x
n
r)
2
.
Teorema 2.4 Si f

es continua, y f es creciente, convexa y tiene un cero, entonces este


cero es unico y la iteraci on del metodo de Newton converge a el a partir de cualquier punto
inicial.
Sergio Plaza 30
El siguiente teorema sobre la conducta local del metodo de Newton muestra que ella es muy
buena, pero como veremos despues, desde el punto de vista global no lo es tanto.
Teorema 2.5 Sea f : R R derivable. Si f

(x
0
) ,= 0 , denimos h
0
=
f(x0)
f

(x0)
, x
1
=
x
0
+ h
0
, J
0
= [x
1
[h
0
[, x
1
+ [h
0
[] y M = sup
xJ0
[f

(x)[. Si 2

f(x0)M
(f

(x0))
2

< 1 entonces la
ecuaci on f(x) = 0 tiene una unica soluci on en J
0
y el metodo de Newton con condicion inicial
x
0
converge a dicha soluci on.
Demostracion. Sea h
1
=
f(x1)
f

(x1)
. Necesitamos estimar h
1
, f(x
1
) y f

(x
1
) . Tenemos
[f

(x
1
)[ [f

(x
0
)[ [f

(x
0
) f

(x
1
)[ [f

(x
0
)[ M[x
1
x
0
[ [f

(x
0
)[
1
2
[f

(x
0
)[
|f

(x0)|
2
,
es decir,
[f

(x
1
)[
[f

(x
0
)[
2
(desigualdad 1)
Ahora estimaremos f(x
1
).
f(x
1
) = f(x
0
) +
_
x1
x0
f

(x)dx
= f(x
0
) [(x
1
x)f

(x)]

x1
x0
+
_
x1
x0
(x
1
x)f

(x)dx
= f(x
0
) + (x
1
x
0
)f

(x
0
) +
_
x1
x0
(x
1
x)f

(x)dx
como h
0
= x
1
x
0
y f

(x
0
)h
0
= f(x
0
), se tiene que
f(x
1
) =
_
x1
x0
(x
1
x)f

(x)dx.
Haciendo el cambio de variables th
0
= x
1
x. Tenemos dx = h
0
dt , y
[f(x
1
)[ M[h
0
[
2
_
1
0
tdt =
M[h
0
[
2
2
.
es decir,
[f(x
1
)[
M[h
0
[
2
2
(desigualdad 2)
De las desigualdades (1) y (2), obtenemos
[h
1
[ =

f(x
1
)
f

(x
1
)

M[h
0
[
2
2

2
f

(x
0
)

= [h
0
[
2

M
f

(x
0
)

y de 2

Mf(x0)
(f

(x0))
2

< 1 , tenemos

M
f

(x
0
)

<
1
2

(x
0
)
f(x
0
)

=
1
2
1

f(x0)
f

(x0)

=
1
2[h
0
[
,
luego [h
1
[ <
|h0|
2
, y
Sergio Plaza 31

Mf(x
1
)
(f

(x
1
))
2

=
M
[f(x
1
)[

f(x
1
)
f

(x
1
)

=
M
[f

(x
1
)[
[h
1
[

M
[f

(x
1
)[
[h
0
[
2
M
[h
0
[
2
2
[f

(x
0
)[
= M

f(x
0
)
(f

(x
0
))
2

.
Denamos x
2
= x
1
+h
1
y J
1
= [x
2
[h
1
[, x
2
+[h
1
[] . Tenemos que J
1
J
0
, y las condiciones
del teorema se verican para x
1
, h
1
, y J
1
. Denimos, inductivamente h
k
=
f(x
k
)
f

(x
k
)
, si f

(x
k
) ,=
0 y x
k+1
= x
k
+ h
k
. Tenemos as que x
k
J
0
, y (x
k
)
kN
es una sucesion convergente, pues
la serie h
0
+ h
1
+ converge. Ademas, el lmite x
f
= lim
k
x
k
es una raz de la ecuacion
f(x) = 0 , pues lim
k
(f(x
k
) +f

(x
k
)(x
k+1
x
k
)) = 0 .
Observaci on. La desigualdad h
k+1

h
k
2
, nos da la convergencia geometrica del metodo de
Newton.
Teorema 2.6 En las condiciones del teorema anterior, el metodo de Newton tiene convergen-
cia cuadr atica, esto es, [h
k+1
[
M
|f

(x
k
)|
[h
k
[
2
.
Demostracion. Dividiendo la desigualdad [f(x
k+1
)[
M|h
k
|
2
2
por [f

(x
k+1
)[ , obtenemos
[k
k+1
[ =
[f(x
k+1
[
[f

(x
k+1
)[

M[h
k
[
2
2
2
[f

(x
k
)[
=
M[h
k
[
2
[f

(x
k
)[
.
Ejemplo 22 Sea f(x) = x
3
2x 5 . Tomando x
0
= 2 , tenemos f(x
0
) = 1 , f

(x
0
) = 10 ,
h
0
= 0.1 y J
0
= [2 , 2.2] , puesto que f

(x) = 6x sobre J
0
el supremo M es 13.2. Como

Mf(x0)
(f

(x0))
2

= 0.132 < 0.5 < 1 , el teorema garantiza que existe una raz de la ecuacion f(x) = 0
en el intervalo [2 , 2.2], y en consecuencia el metodo de Newton con condici on inicial x
0
= 2
converge a dicha raz.
Observaci on. Podemos usar como criterios de paradas unos de los siguientes. Seleccione
una tolerancia > 0 y construya p
1
, p
2
, . . . , p
N
hasta que se cumpla una de las siguientes
desigualdades
[p
N
p
N1
[ (2.7)

p
N
p
N1
p
N

, p
N
,= 0 (2.8)
o bien
[f (x
N
)[ . (2.9)
El metodo de Newton es una tecnica de iteracion funcional de la forma x
n+1
= g (x
n
) , donde
Sergio Plaza 32
x
n+1
= g (x
n
) = N
f
(x
n
) = x
n

f (x
n
)
f

(x
n
)
, n 0.
En esta ecuacion se observa claramente que no podemos continuar aplicando el metodo de
Newton si f

(x
n
) = 0 para alg un n. Veremos que este metodo es mas ecaz cuando f

(r) > 0 .
Vericacion de condiciones de convergencia. Cuando queremos aplicar en la pr actica
las condiciones de convergencia del metodo de Newton, tenemos el problema que no conocemos
exactamente la raz r de la ecuacion f(x) = 0 . Recordemos que las condiciones de convergencia
del metodo de Newton en un intervalo abierto J r son: f(r) = 0 ; f

(r) ,= 0 y f

continua.
Para vericar que estas condiciones se cumplen cuando tomamos aproximaciones x
n
para la
raz r , y procedemos como sigue. Vericamos
1. f

es continua (esta condicion depende s olo de la funci on f y no de las aproximaciones


a la raz).
2. Tomanos las aproximaciones x
n
dadas dadas por el metodo de Newton, y aplicando un
criterio de parada, obtenemos una aproximaci on x
N
.
3. Para x
N
vericamos que f(x
N
) 0 y f

(x
N
) ,= 0 .
4. Usando la continuidad de f y de sus derivadas, concluimos que existe un intervalo J
que contiene a r tal que si x
0
J , entonces la sucesion de aproximaciones dada por el
metodo de Newton convergen a la raz r buscada.
Ejemplo 23 Para aproximar la soluci on de la ecuaci on x = cos(x) , consideremos f (x) =
cos(x)x . Tenemos f
_

2
_
=

2
< 0 < 1 = f (0) , luego y por el Teorema del Valor Intermedio,
existe un cero de f en el intervalo
_
0,

2

. Aplicando el metodo de Newton obtenemos


x
n+1
= x
n

cos (x
n
) x
n
sen(x
n
) 1
, n 0.
En algunos problemas es suciente escoger x
0
arbitrariamente, mientras que en otros es
importante elegir una buena aproximaci on inicial. En el problema en cuesti on, basta analizar
las gr acas de h(x) = x y k (x) = cos (x) por lo que es suciente considerar x
0
=

4
, y as
obtenemos una excelente aproximacion con s olo tres pasos, como muestra la siguiente tabla.
n x
n
0 0.7853981635
1 0.7395361337
2 0.7390851781
3 0.7390851332
4 0.7390851332
Para asegurarnos que tenemos convergencia, veriquemos esas condiciones. Tenemos que
f (x) = cos(x) x, luego f

(x) = cos(x) , la cual es continua, ahora evaluando f

(x) en el
punto x = 0.7390851332 (en radianes) que es una aproximacion a la raz verdadera, se tiene el
valor no cero siguiente, f

(0.7390851332) = sen(0.7390851332) 1 = 1.012899111 . . . ,= 0 .


Sergio Plaza 33
Ejemplo 24 Para obtener una soluci on de la ecuaci on de x
3
+ 4x
2
10 = 0 en el intervalo
[1, 2] mediante el metodo de Newton, generamos la sucesion (x
n
)
nN
dada por
x
n+1
= x
n

x
3
n
+ 4x
2
n
10
3x
2
n
+ 8x
n1
, n 0
Tomando x
0
= 1.5 como condicion inicial se obtiene el resultado x
3
= 1.36523001 este es
correcto en ocho cifras decimales.
Para asegurarnos que tenemos convergencia, veriquemos esas condiciones. Tenemos que
f (x) = x
3
+ 4x
2
10 , luego f

(x) = 6x + 8 , la cual es continua. Ahora evaluando f

(x) en
el punto x
3
= 1.36523001, que es una aproximacion a la raz verdadera, se tiene el valor no
cero siguiente, f

(1.36523001) = 3(1.36523001)
2
+ 8 1.36523001 = 16.1339902 . . . ,= 0 .
Ejemplo 25 Si queremos resolver x
3
x

2
2
= 0 utilizando el metodo de Newton y comen-
zamos las iteraciones con x
0
= 0.001 obtenemos una sucesi on que oscila entre valores cercanos
a 0 y a

2
2
, y de hecho, si comenzamos con la condici on inicial x
0
= 0 obtenemos el ciclo
peri odico
_
0,

2
2
_
, es decir, N
f
(0) =

2
2
y N
f
_

2
2
_
= 0 .
Observaci on. La derivaci on del metodo de Newton por medio de las series de Taylor, subraya
la importancia de una aproximaci on inicial exacta. La suposici on fundamental es que el termino
que contiene (x x)
2
es, en comparacion, tan peque no que podemos suprimirlo. Esto eviden-
temente sera falso a menos que x sea una buena aproximacion a la raz r . En particular, si
x
0
no es lo suciente proximo a la raz real, el metodo de Newton quiz a no sea convergente a
la raz. Pero no siempre es as. Por ejemplo considere la ecuaci on x
2
+ 1 = 0 que no tiene
soluciones reales, y cuando le aplicamos el metodo de Newton obtenemos, para cualesquiera que
sea la condicion inicial una sucesion que no converge a ning un valor determinado, como puede
comprobarse en la pr actica sin mayores esfuerzos, realizando las iteraciones correspondientes.
2.3 Metodo de Newton multivariable
Consideremos el sistema de ecuaciones
_
f
1
(x
1
, x
2
) = 0
f
2
(x
1
, x
2
) = 0.
(2.10)
Si (x
1
, x
2
) es una soluci on aproximada y (x
1
+h
1
, x
2
+h
2
) es la solucion exacta, aplicando
Taylor obtenemos
_

_
0 = f
1
(x
1
+h
1
, x
2
+h
2
) f
1
(x
1
, x
2
) +h
1
f
1
x
1
+h
2
f
1
x
2
0 = f
2
(x
1
+h
1
, x
2
+h
2
) f
2
(x
1
, x
2
) +h
1
f
2
x
1
+h
2
f
2
x
2
.
Denotemos el jacobiano de F (x
1
, x
2
) = (f
1
(x
1
, x
2
) , f
2
(x
1
, x
2
)) por J(f
1
, f
2
) , es decir,
Sergio Plaza 34
J(f
1
, f
2
) =
_
_
_
_
_
f
1
x
1
f
1
x
2
f
2
x
1
f
2
x
2
_
_
_
_
_
, (2.11)
obtenemos
J(f
1
, f
2
)(x
1
, x
2
)
_
h
1
h
2
_
=
_
f
1
(x
1
, x
2
)
f
2
(x
1
, x
2
)
_
(2.12)
de donde, si det(J(f
1
, f
2
)(x
1
, x
2
) ,= 0 , se tiene que
_
h
1
h
2
_
= J
1
(f
1
, f
2
) (x
1
, x
2
)
_
f
1
(x
1
, x
2
)
f
2
(x
1
, x
2
)
_
con lo cual podemos denir el siguiente proceso iterativo
_
x
(k+1)
1
x
(k+1)
2
_
=
_
x
(k)
1
x
(k)
2
_
+
_
h
1
h
2
_
(2.13)
donde
_
h
1
h
2
_
es la colucion de la ecuaci onn lineal (2.12), esto puede ser escrito en forma m as
explcita como
_
_
_
x
(k+1)
1
x
(k+1)
2
_
_
_ =
_
_
_
x
(k)
1
x
(k)
2
_
_
_
_
_
_
_
f
1
x
1
_
x
(k)
1
, x
(k)
2
_
f
1
x
2
_
x
(k)
1
, x
(k)
2
_
f
2
x
1
_
x
(k)
1
, x
(k)
2
_
f
2
x
2
_
x
(k)
1
, x
(k)
2
_
_
_
_
_
1
_
_
_
_
f1
_
x
(k)
1
, x
(k)
2
_
f2
_
x
(k)
1
, x
(k)
2
_
_
_
_
_
(2.14)
Observe que esta formulaci on es, sin embargo, poco util para realizar los c alculos, ya que es
poco pr actico calcular la inversa de la matriz jacobiana. Sin embargo para sistemas de 2 2
es facil obtener. Realizando las operaciones tenemos que
x
(n+1)
1
= x
(n)
1

f
1
_
x
(n)
1
, x
(n)
2
_
f
2
x
2
_
x
(n)
1
, x
(n)
2
_
f
2
_
x
(n)
1
, x
(n)
2
_
f
1
x
2
_
x
(n)
1
, x
(n)
2
_
det(J(f
1
, f
2
)(x
(n)
1
, x
(n)
2
))
x
(n+1)
2
= x
(n)
2

f
2
_
x
(n)
1
, x
(n)
2
_
f
1
x
1
_
x
(n)
1
, x
(n)
2
_
f
1
_
x
(n)
1
, x
(n)
2
_
f
2
x
1
_
x
(n)
1
, x
(n)
2
_
det(J(f
1
, f
2
)(x
(n)
1
, x
(n)
2
))
(2.15)
donde
det J(f
1
, f
2
)
_
x
(n)
1
, x
(n)
2
_
=
f
1
x
1
_
x
(n)
1
, x
(n)
2
_

f
2
x
2
_
x
(n)
1
, x
(n)
2
_

f
2
x
1
_
x
(n)
1
, x
(n)
2
_

f
1
x
2
_
x
(n)
1
, x
(n)
2
_
.
Sergio Plaza 35
Es claro que podemos generalizar el metodo de Newton a mas de dos variables, y de deja
a cargo del lector deducir las f ormulas de iteracion para un sistema de 3 ecuaciones en tres
variables (x, y, z) .
Condiciones de convergencia del metodo de Newton multivariable. Supongamos que
f
1
(r
1
, r
2
) = f
2
(r
1
, r
2
) = 0 , det(J(f
1
, f
2
)(r
1
, r
2
)) ,= 0 y la derivadas parciales segundas

2
f
1
x
2
1
,

2
f
1
x
1
x
2
,

2
f
1
x
2
2
,

2
f
2
x
2
1
,

2
f
2
x
1
x
2
,

2
f
2
x
2
2
son continuas. Entonces existe un conjunto abierto
U (r
1
, r
2
) , tal que si (x
0
1
, x
0
2
) U entonces el metodo de Newton comenzando con ese punto
converge a (r
1
, r
2
) .
Observaci on. En la pr actica, comenzamos con (x
(0)
1
, x
(0)
2
) adecuados y generamos la sucesi on
dada por el metodo de Newton hasta satisfacer alg un criterio de parada, obteniendo un punto
(x
(N)
1
, x
(N)
2
) . Vericamos entonces las condiciones para ese punto, es decir, f
i
(x
(N)
1
, x
(N)
2
) 0 ,
i = 1, 2 , det J(f
1
, f
2
)(x
(N)
1
, x
(N)
2
) ,= 0 . La condici on de continuidad de las segundas derivadas
parciales de f
1
y f
2
no depende de la sucesion de puntos generada. Si las condiciones son
satisfechas para (x
(N)
1
, x
(N)
2
) , entonces existe un conjunto abierto U R
2
, con U (r
1
, r
2
) ,
tal que si (x
0
1
, x
0
2
) U , entonces la sucesion generada por el metodo de Newton converge a
(r
1
, r
2
) .
Observaci on. En general, especialmente desde el punto de vista computacional, usar las ecua-
ciones (2.12) y (2.13) como una descompsici on del metodo de Newton, en vez de las ecuaciones
dadas en (2.14) o en su forma explcita (2.15). M as genral si deseamaos resolver el sistema de
ecuaciones no lienales
_

_
f
1
(x
1
, x
2
, . . . , x
n
) = 0
f
2
(x
1
, x
2
, . . . , x
n
) = 0
.
.
.
f
n
(x
1
, x
2
, . . . , x
n
) = 0
(2.16)
usamos el siguiente algoritmo:
Dado x
(0)
= (x
(0)
1
, x
(0)
2
, . . . , x
(0)
n
) .
Primero: resolvemos el sistema de ecuaciones lineales
J
k
(f
1
, f
2
, . . . , f
n
)
_
_
_
_
_
_
h
(k)
1
h
(k)
2
.
.
.
h
(k)
n
_
_
_
_
_
_
=
_
_
_
_
_
_
f
1
(x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
)
f
2
(x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
)
.
.
.
f
n
(x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
)
_
_
_
_
_
_
(2.17)
para H
(k)
= (h
(k)
1
, h
(k)
2
, . . . , h
(k)
n
)
T
, donde J
k
(f
1
, f
2
, . . . , f
n
) denota el jacobiano de F =
(f
1
, f
2
, . . . , f
n
) evaluado en el punto (x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
) .
Segundo. Realizamos la iteraci on
x
(k+1)
= x
(k)
+H
(k)
(2.18)
donde x
(k)
= (x
(k)
1
, x
(k)
2
, . . . , x
(k)
n
) , y as sucesivamente hasta satisfacer alguna condicion de
parada.
Sergio Plaza 36
Ejemplo 26 Consideremos el siguiente sistema
_

_
f (x, y) = x
2
y xy
2
0.8 = 0
g (x, y) =
x
2
y
2
1
x
2
2
= 0
y encontremos sus races.
Aplicando el metodo de Newton multivariable, primero calculamos las derivadas parciales de
cada funci on obteniendo
f
x
= 2xy y
2
f
y
= x
2
2xy
g
x
=
2x
y
2
x
g
y
=
2x
2
y
3
aplicando la formula anterior nos queda
x
n+1
=
3x
2
n
y
n
+ 2 (x
n
y
n
)
2
0.5 (x
n
y
n
)
3
x
2
n
y
4
n
1.6x
n
x
n
y
3
n
+ 2y
2
n
x
n
y
n
(6x
n
+ 6y
n
+x
n
y
2
n
2y
3
n
)
y
n+1
=
6x
3
n
y
n
+ 5 (x
n
y
n
)
2
+ (x
n
y
n
)
3
1.5x
2
n
y
4
n
+ 2x
n
y
3
n
y
4
n
1.6x
n
+ 8x
n
y
2
n
x
2
n
(6x
n
+ 6y
n
+x
n
y
2
n
2y
3
n
)
La siguiente tabla muestra los resultados obtenidos con el metodo de Newton multivariable
Iter. x y f(x, y) g(x, y) [ J [
0 1 1 0.8 0.5 1
1 2.1 1.3 1.384 0.59553 14.7304
2 1.68036 1.11139 0.26257 0.12583 9.33548
3 1.55237 1.04843 0.02019 0.01257 7.94105
4 1.54040 1.04178 0.00016 0.00011 7.82963
5 1.54030 1.04173 1.06 10
8
6.9 10
9
7.82874
6 1.54030 1.04173 2.22 10
16
6.66 10
16
7.82874
Se puede notar la rapidez a la cual converge el metodo, ya que en solamente 6 itera-
ciones se tiene un valor (x
6
, y
6
) = (1.54030, 1.04173) para el cual f (1.54030, 1.04173) 0
y g (1.54030, 1.04173) 0 , por otra parte, es claro que las segundas derivadas parciales de f
y de g son continuas, pues ambas funciones son polinomios en las variables (x, y) . Tenemos
tambien que
f
x
(x
6
, y
6
) = 2x
6
y
6
y
2
6
= 2.22631238
f
y
(x
6
, y
6
) = x
2
6
2x
6
y
6
= 0.85378829
g
x
(x
6
, y
6
) =
2x
6
y
2
6
x
6
= 1.1401168538
g
y
(x
6
, y
6
) =
2x
2
6
y
3
6
= 4.130734823
Sergio Plaza 37
luego
det J(f, g)(x
6
, y
6
) = det
_
2.22631238 0.85378829
1.1401168538 4.130734823
_
= 4.486785689 ,
por lo tanto el metodo iterativo de Newton es convergente en una vecindad de la solucion exacta
(x
T
, y
T
) del sistema.
2.4 Metodo de la secante
El metodo de Newton es una tecnica poderosa, pero presenta un problema, a saber, la necesidad
de conocer el valor de la derivada de f en cada paso de la aproximacion. Con frecuencia es m as
difcil calcular f

(x) y se requieren mas operaciones aritmeticas para calcularla que para f (x) .
Si queremos evitar el problema de evaluar la derivada en el metodo de Newton, derivamos una
peque na variaci on. Por denici on
f

(x
n
) = lim
xxn
f (x) f (x
n
)
x x
n
.
Haciendo x = x
n1
, tenemos
f

(x
n
)
f (x
n1
) f (x
n
)
x
n1
x
n
=
f (x
n
) f (x
n1
)
x
n
x
n1
.
Al aplicar esta aproximaci on para f

(x
n
) en la formula de Newton, se obtiene el siguiente
metodo iterativo,
x
n+1
= x
n

f (x
n
) (x
n
x
n1
)
f (x
n
) f (x
n1
)
, n 1
el cual depende siempre de los valores de dos iteraciones anteriores, y como valores iniciales se
tienen x
0
y x
1
, los cuales deben ser elegidos con cierto criterio para tener la convergencia del
metodo. Este metodo iterativo en llamado metodo de la secante.
Comenzando con las dos aproximaciones iniciales x
0
y x
1
, la aproximaci on x
2
es la inter-
seccion del eje x y la recta que une los puntos (x
1
, f (x
1
)) y (x
0
, f (x
0
)) . La aproximaci on x
3
es la interseccion con el eje x y la recta que une los puntos (x
1
, f (x
1
)) y (x
2
, f (x
2
)) , y as
sucesivamente.
Las condiciones para garantizar la convergencia del metodo de la secante en un intervalo
abierto J que contiene a la raz r de la ecuacion f(x) = 0 , son las misma que se usan en
el metodo de Newton, es decir, f

debe ser continua y f

(r) ,= 0 , pero como en general no


conocemos r en forma exacta vericamos si f(x
n
) 0 y f

(x
n
) ,= 0 , donde x
n
es nuestra
aproximaci on a la raz.
El siguiente ejemplo incluye un problema que vimos en un ejemplo anterior.
Ejemplo 27 Usando el metodo de la secante determinemos una raz de f (x) = cos(x) x.
En el ejemplo desarrollado anteriormente, usamos la aproximacion inicial x
0
=

4
. Ahora
Sergio Plaza 38
necesitamos dos aproximaciones iniciales. En la siguiente tabla aparecen los calculos con x
0
=
0.5 y x
1
=

4
, y la f ormula
x
n+1
= x
n

(x
n
x
n1
) (cos (x
n
) x
n
)
(cos (x
n
) x
n
) (cos (x
n1
) x
n1
)
, n 1.
n x
n
0 0.5
1 0.7853981635
2 0.7363841388
3 0.7390581392
4 0.7390851493
5 0.7390851332
Observaci on. Al comparar los resultados de ahora con los del ejemplo anterior observamos
que x
5
es exacto hasta la decima cifra decimal. Notese que la convergencia del metodo de la
secante es un poco mas lenta en este caso que en el metodo de Newton, en el cual obtuvimos
este grado de exactitud con x
3
. Este resultado generalmente es verdadero.
El metodo de Newton o el metodo de la secante a menudo se usan para renar las respuestas
conseguidas con otra tecnica, como el metodo de biseccion. Dado que el metodo de Newton
requiere de una buena aproximacion inicial, pero por lo general da una convergencia m as rapida,
sirve perfectamente para el prop osito antes mencionado.
2.4.1 Analisis del error
Recordemos que el error en el paso n es denido como e
n
= x
n
r . Ahora como
x
n+1
= x
n
f (x
n
)
(x
n
x
n1
)
f (x
n
) f (x
n1
)
=
x
n1
f (x
n
) x
n
f (x
n1
)
f (x
n
) f (x
n1
)
obtenemos
e
n+1
= x
n+1
r
=
x
n1
f(x
n
) x
n
f(x
n1
)
f(x
n
) f(x
n1
)
r
=
f(x
n
)(x
n1
r) f(x
n1
)(x
n
r)
f(x
n
) f(x
n1
)
=
f(x
n
)e
n1
f(x
n1
)e
n
f(x
n
) f(x
n1
)
podemos escribir ahora
e
n+1
=
x
n
x
n1
f (x
n
) f (x
n1
)
f(xn)
en

f(xn1)
en1
x
n
x
n1
e
n
e
n1
.
Sergio Plaza 39
Aplicando Taylor tenemos que
f (x
n
) = f (r +e
n
) = f (r)
..
=0
+e
n
f

(r) +
e
2
n
2
f

(r) ,
luego
f(xn)
en
f

(r) +
en
2
f

(r) y
f(xn1)
en1
f

(r) +
en1
2
f

(r) de donde
f (x
n
)
e
n

f (x
n1
)
e
n1

1
2
(e
n
e
n1
) f

(r) .
Observemos que x
n
x
n1
= e
n
e
n1
, por lo tanto
f(xn)
en

f(xn1)
en1
x
n
x
n1

1
2
f

(r)
y como
xnxn1
f(xn)f(xn1)

=
1
f

(r)
, nalmente tenemos
e
n+1

1
2
f

(r)
f

(r)
e
n
e
n1
= Ce
n
e
n1
(2.19)
2.5 Metodo de la posici on falsa
Este metodo es conocido tambien como metodo de Regula Falsi, con el generamos aproxima-
ciones del mismo modo que el de la secante, pero mezclado con el metodo de biseccion, ofrece
por lo tanto una prueba para asegurarse de que la raz quede entre dos iteraciones sucesivas.
Primero elegimos las aproximaciones iniciales x
0
y x
1
con f (x
0
) f (x
1
) < 0 . La aprox-
imacion x
2
se escoge de la misma manera que en el metodo de la secante. Para determinar
con cual secante calculamos x
3
vericamos el signo de f (x
2
) f (x
1
) , si este valor es negativo
entonces [x
1
, x
2
] contiene una raz y eligiremos x
3
como la interseccion del eje x con la recta
que une (x
1
, f (x
1
)) y (x
2
, f (x
2
)) ; si no elegimos x
3
como la interseccion del eje x con la
recta que une (x
0
, f (x
0
)) y (x
2
, f (x
2
)) .
Ejemplo 28 La siguiente tabla contiene los resultados del metodo de Regula Falsi aplicado a
la funci on f (x) = cos(x) x con las mismas aproximaciones iniciales que utilizamos para el
metodo de la secante en el Ejemplo 27. Notese que las aproximaciones son iguales en x
3
y que
en el metodo de Regula Falsi requiere una iteracion m as para alcanzar la misma exactitud que
la de la Secante.
2.6 Metodos iterativos de punto jo
Describimos ahora otro tipo de metodos para encontrar races de ecuaciones, nos referimos a
algunos metodos iterativos de punto jo.
Un punto jo de una funci on g es un punto p para el cual g (p) = p . En esta seccion
estudiaremos el problema de encontrar las soluciones a los problemas de punto jo y la conexi on
entre estos y la b usqueda de la raz que deseamos resolver.
Sergio Plaza 40
n x
n
0 0.5
1 0.7353981635
2 0.7363841388
3 0.7390581392
4 0.7390848638
5 0.7390851305
6 0.7390851332
El problemas de b usqueda de races y el problema de punto jo son clases equivalentes en el
siguiente sentido
Dado un problema de buscar una raz de f (x) = 0 , podemos denir una funci on g con
un punto jo en p de diversas formas; por ejemplo, como g (x) = x f (x) o como g (x) =
x + 3f (x) . Si la funci on g tiene un punto jo en p , es decir, g(p) = p , entonces la funci on
denida, por ejemplo, como g (x) = x+f (x) o m as general g(x) = x+(x)f(x) , con (p) ,= 0 ,
tiene un cero en p .
Aunque los problemas que deseamos resolver vienen en forma de b usqueda de races, la forma
de metodo iterativo de punto jo puede ser m as facil de analizar; algunas opciones de punto
jo dan origen a tecnicas poderosas de b usqueda de races.
Lo primero que debemos de hacer es acostumbrarnos a este tipo de problema, y decidir cuando
una funci on tiene un punto jo y c omo podemos aproximar los puntos jos con determinado
grado de precision.
Ejemplo 29 Resolver la ecuacion 3x
2
e
x
= 0 es equivalente a 3x
2
= e
x
. Gracamente,
vemos que existe una solucion x > 0 , la cual es la interseccion de los gr acos de las funciones
f(x) = 3x
2
y g(x) = e
x
.
0
2
4
6
8
10
y
0.5 1 1.5 2 2.5 3
x
gr aco de f(x) = 3x
2
y g(x) = e
x
Despejando, obtenemos las funciones x =
1
(x) = log(3x
2
) , x =
2
(x) =
e
x
3x
, x =
3
(x) =

3
3
e
x/2
, etc.
Sergio Plaza 41
0
1
2
3
4
1 1.5 2 2.5 3 3.5 4
x
0.5
1
1.5
2
2.5
3
3.5
0.5 1 1.5 2 2.5 3
x
gr aco de
1
(x) = log(3x
2
) gr aco de
2
(x) =
e
x
3x
0.5
1
1.5
2
2.5
3
0.5 1 1.5 2 2.5 3
x
gr aco de
3
(x) =

3
3
e
x/2
Ejemplo 30 La funci on g (x) = x
2
2 para 2 < x < 3 , posee puntos jos en x = 1 y
x = 2 , como se puede ver facilmente resolviendo la ecuacion cuadr atica g(x) = x .
6
4
2
0
2
4
6
y
2 1 1 2 3
x
gr aco de g(x) = x
2
2
Para el problema de existencia de punto jo, tenemos el siguiente resultado.
Teorema 2.7 Sea g : [a, b] [a, b] una funci on continua, entonces g posee un punto jo
en [a, b] .
Demostracion. Usamos el Teorema del Valor Intermedio, para lo cual denimos la funci on
h(x) = g(x) x . Tenemos, h(a) = g(a) a 0 y h(b) = g(b) b 0 , y siendo hcontinua,
se sigue existe c [a, b] tal que h(c) = 0 , es decir, g(c) = c .
Sergio Plaza 42
El siguiente teorema contiene condiciones sucientes para la existencia y unicidad del punto
jo.
Corolario 2.1 Supongamos que g : [a, b] [a, b] es continua en [a, b] y derivable en (a, b) .
Supongamos tambien que existe una constante positiva 0 < 1 con [g

(x)[ , para todo


x (a, b) ( = max[g

(x)[ : x [a, b] ), entonces el punto jo x


g
de g en [a, b] es unico.
Ademas, si elegimos x
0
(a, b) arbitrario, entonces la sucesi on (x
n
)
nN
denida por
x
n+1
= g(x
n
), n 0
converge al unico punto jo x
g
de g .
M as general, si g : [a, b] [a, b] es tal que [g(x) g(y()[ [x y[ para todo x, y [a, b] ,
con 0 < 1 , entonces g tiene un unico punto jo x
g
[a, b] . Adem as, dado x
0
[a, b] , la
sucesion
x
n+1
= g(x
n
), n 0
converge a x
g
.
Demostracion. Por el teorema anterior sabemos que g tiene un punto jo. Ahora como
[g

(x)[ < 1 , por el Teorema del Valor Medio, tenemos


[g(x) g(y)[ = [g

(c)[ [x y[ [x y[
para todo x, y [a, b] , donde c esta entre x e y . Ahora bien, supongamos que existen dos
puntos jos x
g
y x
g
para g . Tenemos entonces que
[x
g
x
g
[ = [g(x
g
) g(x
g
)[ [x
g
x
g
[
y como 0 < 1 , se debe tener que x
g
= x
g
.
Ahora, tenemos
[x
n
x
g
[ = [g(x
n1
) g(x
g
)[ [x
n1
x
g
[
[x
n1
x
g
[ = [g(x
n2
) g(x
g
)[ [x
n2
x
g
[
[x
n2
x
g
[ = [g(x
n3
) g(x
g
)[ [x
n3
x
g
[
.
.
.
[x
1
x
g
[ = [g(x
0
) g(x
g
)[ [x
0
x
g
[ ,
de donde obtenemos que [x
n
x
g
[
n
[x
0
x
g
[ y como
n
0 cuando n , el
resultado se sigue.
Observaci on. El teorema anterior no s olo nos dice que bajo sus condiciones existe un punto
jo unico, adem as nos dice como podemos encontrarlo, usando la sucesion generada a partir de
la funci on g con una condici on inicial arbitraria.
Sergio Plaza 43
Corolario 2.2 Si g satisface las hip otesis del Teorema anterior, cotas para el error que supone
utilizar x
n
para aproximar x
g
son dadas por
[x
n
x
g
[
n
max x
0
a, b x
0

y
[x
n
x
g
[

n
1
[x
1
x
0
[ .
Demostraci on. Para tener la primera de las cotas, s olo basta observar que [x
n
x
g
[

n
[x
0
x
g
[ y como x
g
y x
0
estan entre a y b se tiene que [x
n
x
0
[
n
[x
g
x
0
[

n
max x
0
a, b x
0
, como queramos probar.
Para obtener la segunda cota observemos que si n > m, digamos n = m + k , con k 1 ,
entonces
[x
n
x
m
[ = [x
m+k
x
m
[ [x
m+k
x
m+k1
[ +[x
m+k1
x
m+k2
[ + +[x
m+1
x
m
[ (2.20)
Por otra parte tenemos que
[x
n+1
x
n
[ = [g(x
n
) g(x
n1
)[
[x
n
x
n1
[
[g(x
n1
) g(x
n2
)[

2
[x
n1
x
n2
[

2
[g(x
n2
) g(x
n3
)[

3
[x
n2
x
n3
[
.
.
.

n
[x
1
x
0
[ ,
es decir, [x
n+1
x
n
[
n
[x
1
x
0
[ para todo n 0 . Aplicando esto a la desigualdad en (2.20)
obtenemos
[x
n
x
m
[ = [x
m+k
x
m
[
m+k1
[x
1
x
0
[ +
m+k2
[x
1
x
0
[ + +
m
[x
1
x
0
[
=
m
[x
1
x
0
[ (
k1
+
k2
+ + 1)

m
[x
1
x
0
[ (1 +
2
+ +
j
+ )
=

m
1
[x
1
x
0
[
como deseabamos probar.
Observaci on Ambas desigualdades del Corolario relacionan la razon con la que (x
n
)
nN
converge en la cota de la primera derivada. La raz on de convergencia depende del factor

n
. Cuando m as peque no sea el valor de , mas rapida ser a la convergencia, la cual puede ser
Sergio Plaza 44
muy lenta s es proxima de 1. En el siguiente ejemplo, consideraremos los metodos de punto
jo para algunos de los ejemplos vistos anteriormente.
Observaci on. Podemos usar como criterio de parada de un metodo iterativo de punto
jo como los anteriores los siguientes. Sea > 0 una tolerancia dada, entonces paramos las
iteraciones si
1.
n
max x
0
a, b x
0
,
2.

n
1
[x
1
x
0
[ ,
3. [x
n+1
x
n
[
4. otros que sean razonables de aplicar.
Ejemplo 31 Sea g (x) =
x
2
1
3
en [1, 1] . El mnimo absoluto de g se alcanza en x = 0 y se
tiene que g (0) =
1
3
. De manera an aloga el maximo absoluto de g se alcanza en x = 1 y
g (1) = 0 . Adem as, g es derivable y [g

(x)[ =

2x
3

2
3
para todo x (1, 1) , luego g (x)
satisface las hip otesis del Teorema 2.1, en consecuencia g (x) posee un unico punto jo x
g
en [1, 1] , y si elegimos x
0
] 1, 1[ arbitrario, la sucesi on de puntos x
n+1
= g(x
n
) x
g
cuando n .
0.4
0.2
0
0.2
0.4
y
1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1
x
gr aco de g(x) =
x
2
1
3
En este ejemplo el punto jo p puede ser determinado algebraicamente por medio de la
f ormula para resolver ecuaciones cuadraticas, obteniendose p = g (p) =
p
2
1
3
, de donde p
2

3p 1 = 0 y resolviendo la ecuaci on obtenemos que p =


1
2
_
3

13
_
0.3027756377, la otra
raz es q =
1
2
(3 +

13) 3.302775638 que esta fuera del intervalo [1, 1] . El lector puede
vericar esto usando x
0
= 0 y = 10
5
.
Observaci on. Note que g (x) tambien posee un punto jo unico q =
1
2
_
3 +

13
_
en el
intervalo [3, 4] . Sin embargo, g

(q) > 1 , as que g no satisface las hip otesis del Teorema en


[3, 4] . Esto demuestra que esas hip otesis son sucientes pero no necesarias.
Ejemplo 32 Sea g(x) = 3
x
. Puesto que g

(x) = 3
x
ln 3 < 0 en [0, 1] , la funcion es
decreciente en ese intervalo. Por lo tanto g (1) =
1
3
g (x) 1 = g (0) para todo x [0, 1] ,
por lo cual g posee un punto jo. No podemos garantizar la unicidad del punto jo usando el
Teorema 2.1, sin embargo como g es estrictamente decreciente dicho punto jo debe ser unico.
Sergio Plaza 45
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
gr aco de g(x) = 3
x
Ejemplo 33 La ecuacion x
3
+ 4x
2
10 = 0 posee una unica raz en [1, 2] . Hay muchas
formas para convertir dicha ecuaci on en la forma x = g (x) mediante simple manejo algebraico.
Por ejemplo, para obtener la funci on que se describe en (c), podemos manipular ecuaci on
x
3
+4x
2
10 = 0 , por ejemplo, podemos escribir 4x
2
= 10x
3
, por lo tanto x
2
=
1
4
_
10 x
3
_
, luego x = g
3
(x) =
1
2
_
10 x
3
_
1/2
.
Para obtener una soluci on positiva, elegimos g
3
(x) con el signo positivo. Se deja al lector
deducir las funciones que se indica a continuaci on, pero debemos vericar que el punto jo de
cada una sea realmente una soluci on de la ecuaci on original x
3
+ 4x
2
10 = 0 .
(a) x = g
1
(x) = x x
3
4x
2
+ 10.
(b) x = g
2
(x) =
_
10
x
4x
_
1/2
.
(c) x = g
3
(x) =
1
2
_
10 x
3
_
1/2
.
(d) x = g
4
(x) =
_
10
4+x
_
1/2
(e) x = g
5
(x) = x
x
3
+4x
2
10
3x
2
+8x
.
Con p
0
= 1.5 la siguiente tabla proporciona los resultados del metodo de iteraciones de punto
jo para las cinco opciones de g .
La raz exacta es r = 1.365230013 . . . , seg un se se nalo anteriormente. Al comparar los
resultados del algoritmo de biseccion aplicado para resolver la misma ecuaci on, observamos
que se obtuvieron excelentes resultados con las opciones (3), (4) y (5), ya que el metodo de
biseccion requiere 27 iteraciones para garantizar la exactitud. Conviene se nalar que la opci on
(1) ocasiona divergencia y que la opcion (2) se torna indenida en R ya que contiene la raz
cuadrada de un n umero negativo.
A un cuando las funciones de este ejemplo son problemas de punto jo para el mismo pro-
blema de b usqueda de raz, dieren como metodos para aproximar la soluci on a este tipo de
problemas. Su prop osito es ilustrar la pregunta que es preciso responder a la siguiente pregunta
Como podemos encontrar un problema de punto jo capaz de producir una sucesion convergente
r apidamente a una soluci on de un problema de b usqueda de raz?
Los siguientes ejemplos nos dan algunas pistas sobre los procedimientos que deberamos seguir
y quiz a lo m as importante, algunos que debemos excluir.
Sergio Plaza 46
n g
1
g
2
g
3
g
4
g
5
0 1.5 1.5 1.5 1.5 1.5
1 -0.875 0.8165 1.286953768 1.348399725 1.373333333
2 6.732 2.9969 1.402540804 1.367376372 1.365230015
3 -469.7 (8.65)
1/2
1.345458374 1.364957015 1.365230014
4 1.0310
8
1.375170253 1.365264748 1.365230013
5 1.360094193 1.365225594
6 1.367846968 1.36523.576
7 1.363887004 1.365229942
8 1.365916734 1.365230022
9 1.364878217 1.365230012
10 1.365410062 1.365230014
15 1.365223680 1.365230013
20 1.365230236
25 1.365230006
30 1.365230013
Ejemplo 34 Cuando g
1
(x) = x x
3
4x
2
+ 10 , tenemos que g

1
(x) = 1 3x
2
8x. No
existe un intervalo [a, b] que contenga a la raz r para el cual se tenga [g

1
(x)[ < 1 . Aunque el
Teorema 2.1 no garantiza que el metodo deba fallar para esta elecci on, tampoco tenemos razon
para esperar que el metodo sea convergente.
10
5
5
10
4 3 2 1 1 2
x
gr aco de g
1
(x) = x x
3
4x
2
+ 10
Ejemplo 35 Con x = g
2
(x) =
_
10
x
4x
_
1/2
, podemos ver que g
2
no aplica [1, 2] en [1, 2] y
que la sucesion (x
n
)
nN
no esta denida para x
0
> 1.58113883 . . . . Ademas, tampoco existe
un intervalo que contenga a r para el cual [g

2
(x)[ < 1 , pues [g

2
(r)[ 3.4 .
Sergio Plaza 47
1
1.2
1.4
1.6
1.8
2
y
1.2 1.4 1.6 1.8 2
x
gr aco de g
2
(x) =
_
10
x
4x
_
1/2
Ejemplo 36 Para x = g
3
(x) =
1
2
_
10 x
3
_
1/2
, tenemos que g

3
(x) =
3
4
x
2
_
10 x
3
_
1/2
< 0
en [1, 2] , as que g
3
es estrictamente decreciente en [1, 2] . Sin embargo [g

3
(2)[ 2.12 por
lo cual la condici on [g

3
(x)[ < 1 falla en [1, 2] . Un an alisis mas minucioso de la sucesi on
(x
n
)
nN
con p
0
= 1.5 revela que basta considerar el intervalo [1, 1.5] en vez de [1, 2] . En este
intervalo la funci on sigue siendo estrictamente decreciente, pero ademas 1 < 1.28 g
3
(1.5)
g
3
(x) g
3
(1) = 1.5 para todo x [1, 1.5] en vez de [1, 2] . Esto demuestra que g
3
aplica
el intervalo [1, 1.5] en si mismo. Ademas [g

3
(x)[ 0.66 < 1 , por lo cual el Teorema 2.1 nos
garantiza la unicidad del punto jo y la convergencia del metodo iterativo.
1
1.2
1.4
1.6
1.8
2
y
1.2 1.4 1.6 1.8 2
x
gr aco de g
3
(x) =
1
2
_
10 x
3
_
1/2
Ejemplo 37 Para x = g
4
(x) =
_
10
4+x
_
1/2
, tenemos [g

4
(x)[ =

10(4+x)
3/2

10(5)
3/2
< 0.15
para todo x [1, 2] . La cota en la magnitud de g

4
es mucho menor que magnitud de g

3
lo
cual explica la convergencia mas r apida que se obtiene con g
4
.
Sergio Plaza 48
1
1.2
1.4
1.6
1.8
2
y
1.2 1.4 1.6 1.8 2
x
gr aco de g
4
(x) =
_
10
4+x
_
1/2
2.7 Metodos iterativos de punto jo en varias variables
Extendemos ahora el resultado de convergencia metodos iterativos de punto jo a funciones de
varias variables. Para ellos tenemos el siguiente teorema.
Teorema 2.8 Sea C R
n
un conjunto cerrado y acotado, y sea F : C R
n
una
funci on continua. Supongamos que F (C) C , entonces F posee un punto jo. Ademas,
si |JF (x)| < 1 para todo x C entonces el punto jo es unico, y el proceso iterativo
x
n+1
= F (x
n
) , n 0 .
con x
0
C arbitrario, converge al unico punto jo.
Demostracion. Basta demostrar el siguiente resultado mas debil .
Introducimos el siguiente concepto, que nos ayudara en los siguientes teoremas.
Denicion 2.1 Sea A R
n
. Decimos que una funci on F : A R
n
es una contraccion si
existe una constante 0 < 1 tal que para cada x, y A se tiene que
|F(x) F(y)| |x y|.
La menor constante que satisface la desigualdad anterior es llamada la constante de Lip-
schitz de F .
Teorema 2.9 Sea A R
n
un conjunto cerrado y acotado, y sea F : A R
n
una con-
tracci on, tal que F(A) A, entonces F tiene un unico punto jo en A. Adem as, dado
x
0
A arbitrario, la sucesi on (x
n
)
nN
denida por x
n+1
= F(x
n
) , con n 0 , converge al
unico punto jo x
F
de F . Adem as, si elegimos x
N
como una aproximaci on a x
F
, entonces
se tiene
[[x
N
x
F
[[

N
1
[[x
0
x
1
[[ (2.21)
Demostracion. Tenemos que |F(x) F(y)| |x y| para todo x, y A. Vamos a
demostrar que dado x
0
A arbitrario se tiene que la sucesion (x
n
)
nN
denida por x
n+1
=
Sergio Plaza 49
F(x
n
), n 0 , es una sucesion de Cauchy, y siendo A cerrado y acotado ella es una sucesion
convergente, cuyo lmite es un punto jo de F . Tenemos
|x
n+1
x
n
| = |F(x
n
) F(x
n1
)|
|x
n
x
n1
|
|F(x
n1
) F(x
n2
)|

2
|x
n1
x
n2
|
=
2
|F(x
n2
) F(x
n3
)|

3
|x
n2
x
n3
|
.
.
.

n
|x
1
x
0
| ,
es decir, |x
n+1
x
n
|
n
|x
1
x
0
| y como 0 < 1 se sigue que |x
n+1
x
n
| 0
cuando n . Ahora sean m > n, digamos m = n + k , con k 1 . Tenemos
|x
n+k
x
n
| |x
n+k
x
n+k1
| +|x
n+k1
x
n+k2
| + +|x
n+1
x
n
|
(
n+k1
+
n+k2
+ +
n
)|x
1
x
0
|
=
n
(
k1
+
k2
+ + 1)|x
1
x
0
|

n
(1 + +
k2
+
k1
+ )|x
1
x
0
|
=

n
1
|x
1
x
0
|
esto es,
|x
n+k
x
n
|

n
1
|x
1
x
0
|
y como lim
n

n
= 0 se sigue que (x
n
)
nN
es una sucesion de Cauchy, por lo tanto es una
sucesion convergente. Sea x
F
= lim
n
x
n
. Ahora como F es una contraccion es continua,
y x
F
= lim
n
x
n+1
= lim
n
F(x
n
) = F(lim
n
x
n
) = F (x
F
) . Finalmente, supongamos
que existen dos puntos jos para F , digamos, x
F
y x

F
, entonces
|x
F
x

F
| = |F(x
F
) F(x

F
)| |x
F
x

F
|
y siendo 0 < 1 , se tiene que x
F
= x

F
.
2.7.1 Analisis de error para metodos iterativos de punto jo
En esta seccion estudiaremos el orden de convergencia de los esquemas de iteraci on funcional
y con el prop osito de obtener una r apida convergencia, redescubriremos el metodo de Newton.
Tambien estudiaremos los metodos para acelerar la convergencia de Newton en casos especiales.
Para poder realizar lo antes mencionado necesitamos un procedimiento para medir la rapidez
con la que converge una sucesion dada.
Sergio Plaza 50
Denicion 2.2 Supongamos que (p
n
)
nN
es una sucesi on que converge a p , con p
n
,= p para
todo n sucientemente grande. Si existen constantes positivas y tales que
lim
n
[p
n+1
p[
[p
n
p[

= (2.22)
decimos que la convergencia a p de la sucesi on (p
n
)
nN
es de orden con constante de error
asintotica .
Observaci on. De la denci on de orden de convergencia (2.22), si n es sucientemente grande,
entonces
[p
n+1
p[
[p
n
p[
[p
n+1
p[ [p
n
p[

.
Denicion 2.3 Decimos que un metodo iterativo de punto jo x
n+1
= g(x
n
) es de orden
con constante de error asintotica si, la sucesi on (x
n
)
nN
, donde x
n+1
= g(x
n
) , con n 0 ,
es orden con constante de error asintotica .
Observaci on. En general una sucesi on con un orden de convergencia alto, converge mas
r apidamente que una con un orden de convergencia mas bajo. La constante asint otica inuye
en la rapidez de la convergencia, pero no es tan importante como el orden de convergencia.
Respecto al orden de convergencia, hay dos que son de interes.
1. Si = 1 , la sucesion ser a linealmente convergente.
2. Si = 2 , la sucesion ser a cuadr aticamente convergente.
En el siguiente ejemplo se compara una sucesion linealmente convergente con una de orden
cuadr atico.
Ejemplo 38 Supongamos que (p
n
)
nN
y ( p
n
)
nN
convergen a cero, siendo la convergencia
de (p
n
)
nN
lineal con lim
n
|pn+1|
|pn|
= 0.5 y la convergencia de ( p
n
)
nN
es cuadr atica con
lim
n
| pn+1|
| pn|
2
= 0.5 . Por razones de simplicidad supongamos que
| pn+1|
| pn|
2
0.5 y que
|pn+1|
|pn|

0.5 . As en la convergencia lineal obtenemos que
[p
n
0[ = [p
n
[ 0.5 [p
n1
[ (0.5)
2
[p
n2
[ (0.5)
3
[p
n3
[ (0.5)
n
[p
0
[ ,
mientras que en la convergencia cuadr atica se tiene que
[ p
n
0[ = [ p
n
[ 0.5 [ p
n1
[
2
0.5 (0.5[ p
n2
[
2
)
2
= (0.5)
3
[ p
n2
[
2
2
(0.5)
2
n
1
[ p
0
[
2
n
.
Claramente esta ultima converge mas rapido que la primera.
La siguiente tabla muestra la rapidez de la convergencia lineal y cuadr atica cuando [p
0
[ =
[ p
0
[ = 1 .
La sucesion con convergencia cuadr atica es del orden de 10
38
en el septimo termino. Por
otra parte, se necesitan 126 terminos por lo menos para poder garantizar esta precision en la
sucesion con convergencia lineal.
Sergio Plaza 51
n Lineal Cuadr atica
1 5.0000 10
1
5.0000 10
1
2 2.5000 10
1
1.2500 10
1
3 1.2500 10
1
7.8125 10
3
4 6.2500 10
2
3.0518 10
5
5 3.1250 10
2
4.6566 10
10
6 1.5625 10
2
1.0842 10
19
7 7.8125 10
3
5.8775 10
39
Teorema 2.10 (orden de convergencia de punto jo) Sea g : [a, b] [a, b] continua.
Supongamos que g

es continua en ]a, b[ y que existe una constante positiva 0 < 1 tal que
[g

(x)[ para todo x ]a, b[ . Si g

(p) ,= 0 , entonces para cualquier punto p


0
[a, b] la
sucesion
p
n
= g (p
n1
) , n 1
converge linealmente al unico punto jo p [a, b] .
Observaci on. El teorema anterior establece que en el caso de los metodos de punto jo, la
convergencia de orden superior s olo puede ocurrir si g

(p) = 0 . El siguiente resultado describe


otras condiciones que garantizan la convergencia cuadratica que deseamos.
Teorema 2.11 Sea p un punto jo de g (x) . Supongamos que g

(p) = 0 y que g

es
continua y acotada por M en un intervalo abierto que contiene a p . Entonces existe > 0 tal
que para p
0
[p , p +] la sucesion denida por p
n
= g (p
n1
) , con n 1 , converge al
menos cuadr aticamente a p . Adem as, para valores sucientemente grandes de n se tiene que
[p
n+1
p[ <
M
2
[p
n
p[
2
.
Los teoremas anteriores nos indican que nuestra investigacion de los metodos de punto jo
cuadr aticamente convergentes deberan conducirnos a funciones cuyas derivadas son anulan en
el punto jo.
La manera mas f acil de plantear un problema de punto jo relacionado con la b usqueda de
races de f (x) = 0 consiste en restar un m ultiplo de f (x) (que desaparecera en la raz). Por
lo tanto, a continuaci on consideraremos un metodo iterativo de punto jo de la forma
p
n
= g (p
n1
) , n 1,
con g es de la forma
g (x) = x (x) f (x) ,
donde (x) es una funci on derivable, y sobre la cual imponemos condiciones m as adelante.
Para que el procedimiento iterativo dado por g sea cuadraticamente convergente, es necesario
tener que g

(p) = 0 . Dado que


g

(x) = 1

(x) f (x) f

(x) (x)
Sergio Plaza 52
y como f(p) = 0 tenemos que
g

(p) = 1 f

(p) (p)
entonces g

(p) = 0 si y solo si (p) =


1
f

(p)
.
Es razonable suponer que (x) =
1
f

(x)
, lo cual garantizar a que (p) =
1
f

(p)
. En este caso,
el procedimiento natural para producir la convergencia cuadr atica ser a
p
n+1
= g (p
n
) = p
n

f (p
n
)
f

(p
n
)
que es el metodo de Newton.
En el procedimiento anterior, impusimos la restricci on de que f

(p) ,= 0 , donde p es la
solucion de f (x) = 0 . Conforme a la denici on del metodo de Newton, es evidente que
pueden surgir dicultades si f

(p
n
) tiene un cero simultaneamente con f (p
n
) . En particular,
el metodo de Newton y el de la secante ocasionaran problemas si f

(p) = 0 cuando f (p) = 0 .


Para examinar mas a fondo estas dicultades, damos la siguiente denici on.
Denicion 2.4 Un cero p de f (x) = 0 es de multiplicidad m si para x ,= p podemos escribir
f (x) = (x p)
m
q (x) , con lim
xp
q (x) ,= 0 .
Teorema 2.12 Una funci on f : [a, b] R, derivable m veces, tiene un cero de multiplici-
dad m en p si f (p) = f

(p) = f

(p) = = f
(m1)
(p) = 0 y f
(m)
(p) ,= 0 .
El siguiente ejemplo muestra como la convergencia cuadr atica posiblemente no ocurra si el
cero no es simple.
Ejemplo 39 La funci on f (x) = e
x
x 1 posee un cero de multiplicidad 2 en p = 0 , pues
f (0) = f

(0) = 0 y f

(0) = 1 . De hecho podemos expresar f (x) de la siguiente forma


f (x) = (x 0)
2
e
x
x 1
x
2
empleando la regla de LHospital, obtenemos que
lim
x0
e
x
x 1
x
2
= lim
x0
e
x
1
2x
= lim
x0
e
x
2
=
1
2
la siguiente tabla muestra los terminos que se generaron con el metodo de Newton aplicado a
f con p
0
= 1 .
Teorema 2.13 Supongamos que F dene un metodo iterativo de punto jo y que F(p) = p ,
F

(p) = F

(p) = = F
(m1)
(p) = 0 y F
(m)
(p) ,= 0 , entonces el metodo iterativo de punto
jo denido por F tiene orden de convergencia m.
Demostracion. Sea p
0
un punto arbitrario y denamos la sucesion (p
n
)
nN
por p
n+1
=
F(p
n
), n 0 . Recordemos que el error es denido por
e
n
= p
n
p.
Sergio Plaza 53
n p
n
n p
n
0 1.0 9 2.7750 10
3
1 0.58198 10 1.3881 10
3
2 0.31906 11 6.9411 10
4
3 0.16800 12 3.4703 10
4
4 0.08635 13 1.7416 10
4
5 0.04380 14 8.8041 10
5
6 0.02206 15 4.2610 10
5
7 0.01107 16 1.9142 10
6
8 0.005545
Tenemos entonces que
e
n+1
= p
n+1
p
= F(p
n
) F(p)
= F(p +e
n
) F(p)
Taylor
= F(p) +F

(p)e
n
+F

(p)
e
2
n
2!
+ +F
(m1)
(p)
e
m1
n
(m1)!
+F
(m)
( p)
e
m
n
m!
F(p)
con p entre p y p +e
n
. Usando la hip otesis nos queda e
n+1
= F
(m)
( p)
e
m
n
m!
, de donde
lim
n
|e
n+1
|
|e
n
|
m
=
|F
(m)
(p)|
m!
pues p p cuando p
n
p .
2.8 Races m ultiples
Un metodo para tratar el problema de races m ultiples consiste en denir la funci on (x) por
medio de
(x) =
f (x)
f

(x)
.
Si p es un cero de multiplicidad m entonces podemos escribir f (x) = (x p)
m
q (x) , con
q(p) ,= 0 . Reemplazando, nos queda
(x) =
(x p)
m
q (x)
m(x p)
m1
q (x) + (x p)
m
q

(x)
= (x p)
q (x)
mq (x) + (x p) q

(x)
posee un cero en x = p . Pero como q (p) ,= 0 , derivando y evaluando en x = p , obtenemos

(p) =
1
m
,= 0,
Sergio Plaza 54
por lo tanto p es un cero simple de (x) . As podemos aplicar el metodo de Newton a la
funci on (x) obteniendo
g (x) = x
(x)

(x)
= x
f(x)
f

(x)
(f

(x))
2
f(x) f

(x)
(f

(x))
2
desarrollando, nos queda la f ormula iterativa
g (x) = x
f (x) f

(x)
(f

(x))
2
f (x) f

(x)
, (2.23)
esta es conocida como metodo iterativo de Schroder.
Si g satisface las condiciones de diferenciablidad necesarias, la iteraci on funcional aplicada a
g ser a cuadr aticamente convergente sin importar la multiplicidad de la raz de f . En teora,
el unico inconveniente de este metodo es el calculo adicional de f

(x) y el procedimiento m as
laborioso con que se calculan las iteraciones. Sin embargo, en la pr actica la presencia de un
cero m ultiple puede ocasionar serios problemas de redondeo porque el denominador del metodo
arriba consta de la diferencia de dos n umeros que est an cercanos a la raz, es decir, diferencia
de n umeros parecidos.
Ejemplo 40 La siguiente tabla contiene las aproximaciones de la raz doble en x = 0 de la
funci on f (x) = e
x
x 1 , utilizando el metodo de Schr oder y una m aquina con diez dgitos
de precision. Elegimos la aproximaci on inicial p
0
= 1 de manera que las entradas pueden
compararse con las de la tabla del anterior. Lamentablemente no aparece en la tabla es que no
se produce mejoramiento alguno en la aproximaci on de la raz 2.8085217 10
7
en los calculos
subsecuentes cuando se usa Schroder y esta maquina, ya que el numerador y el numerador se
acercan a cero.
n p
n
1 2.3421061 10
1
2 8.4582788 10
3
3 1.1889524 10
5
4 6.8638230 10
3
5 2.8085217 10
3
Ejemplo 41 En la secci on anterior resolvimos la ecuaci on f (x) = x
3
+ 4x
2
10 = 0 para la
raz p = 1.36523001. Para comparar la convergencia para una raz simple por el metodo de
Newton y el metodo de Schr oder, sea
i. p
n
= p
n1

p
3
n1
+ 4p
2
n1
10
3p
2
n1
+ 8p
n1
(metodo de Newton)
y seg un la f ormula del metodo de Schr oder
ii. p
n
= p
n1

_
p
3
n1
+p
2
n1
10
_ _
3p
2
n1
+ 8p
n1
_
_
3p
2
n1
+ 8p
n1
_
2

_
p
3
n1
+p
2
n1
10
_
(6p
n1
+ 8)
.
Cuando p
0
= 1.5 , las tres primeras iteraciones para (i) y (ii) se incluyen en la siguiente tabla.
Los resultados muestran la convergencia rapida en ambos casos.
Sergio Plaza 55
(i) (ii)
p
1
1.37333333 1.35689898
p
2
1.36526201 1.36519585
p
3
1.36523001 1.36523001
Otra manera de acelerar la convergencia del metodo de Newton para races m ultiples es el
siguiente. Sea p una raz m ultiple de multiplicidad m de f(x) = 0 . Denamos el siguiente
metodo iterativo
N
m
(x) = x m
f(x)
f

(x)
.
este metodo tiene convergencia cuadr atica en un intervalo abierto que contiene a p y tiene
convergencia lineal cerca de la races simples de f(x) = 0 .
2.9 Aceleraci on de convergencia
Existen casos en los que no tenemos convergencia cuadratica, considerando esto a continuaci on
estudiaremos una tecnica denominada metodo
2
de Aitken, la cual sirve para acelerar la
convergencia de una sucesion que sea linealmente convergente.
Supongamos que (p
n
)

n=0
es una sucesion linealmente convergente con limite p . Vamos a
construir una sucesion ( p
n
)

n=0
convergente a p mas rapidamente que (p
n
)

n=0
. Supongamos
primero que los signos de p
n
p, p
n+1
p y p
n+2
p son iguales y que n es sucientemente
grande para que
p
n+1
p
p
n
p

p
n+2
p
p
n+1
p
.
Entonces
(p
n+1
p)
2
(p
n
p) (p
n+2
p) ,
por lo tanto
(p
n+1
)
2
2p
n+1
p +p
2
p
n+2
p
n
(p
n
+ 2p
n
) p +p
2
,
al despejar p obtenemos
p
p
n+2
p
n
(p
n+1
)
2
p
n+2
2p
n+1
+p
n
.
Si sumamos y restamos los terminos p
2
n
y 2p
n
p
n+1
en el numerador podemos escribir esta
ultima expresion de la siguiente manera
p p
n

(p
n+1
p
n
)
2
p
n+2
2p
n+1
+p
n
.
Sergio Plaza 56
El metodo
2
de Aitken se basa en la suposici on de que la sucesion ( p
n
)

n=0
denida por
p
n
= p
n

(p
n+1
p
n
)
2
p
n+2
2p
n+1
+p
n
,
conocido como metodo de acelaraci on de Aitken, converge mas rapido a p que la sucesion
original (p
n
)
nN
.
Ejemplo 42 La sucesion (p
n
)
nN
denida por p
n
= cos
_
1
n
_
, converge linealmente a p = 1 .
En la siguiente tabla se incluyen los primeros terminos de las sucesiones (p
n
)
nN
y ( p
n
)
nN
.
Observe que ( p
n
)
nN
converge mas r apidamente a p = 1 que (p
n
)
nN
. Esto queda claro en la
tabla siguiente
n p
n

p
n
1 0.54030 0.96178
2 0.87758 0.98213
3 0.94496 0.98979
4 0.96891 0.99342
5 0.98007 0.99541
6 0.98614
7 0.98981
La notaci on asociada a esta tecnica tiene su origen en la siguiente denici on.
Denicion 2.5 Dada la sucesion (p
n
)
nN
la diferencia p
n
es denida por
p
n
= p
n+1
p
n
.
Las potencias mayores se denotan por
k
p
n
y se denen recursivamente por

k
p
n
=
_

k1
p
n
_
, k 2.
Tomando en cuenta la denici on anterior obtenemos que

2
p
n
= (p
n+1
p
n
) = p
n+1
p
n
= p
n+2
2p
n+1
+p
n
,
as la f ormula de aceleracion de convergencia de Aitken se puede escribir como

p
n
= p
n

(p
n
)
2

2
p
n
. (2.24)
Teorema 2.14 Supongamos que la sucesi on (p
n
)
nN
converge linealmente a p y que para
todos los valores de n sucientemente grandes se tiene que (p
n
p) (p
n+1
p) > 0 . Entonces
la sucesion ( p
n
)
nN
construida por el metodo de aceleraci on de convergencia de Aitken converge
con mayor rapidez a p que la sucesion (p
n
)
nN
en el sentido que
lim
n
p
n
p
p
n
p
= 0.
Sergio Plaza 57
Al aplicar un metodo
2
modicado de Aitken a una sucesion linealmente convergente
obtenida mediante iteraci on de punto jo podemos acelerar la convergencia. A este proced-
imiento se le conoce con el nombre de metodo de Steensen, y diere un poco de la aplicaci on
del metodo
2
de Aitken directamente a la sucesion de iteraciones de punto jo que convergen
linealmente. El metodo
2
de Aitken deber a construir los terminos en el orden:
p
0
, p
1
= g (p
1
) , p
2
= g (p
1
) , p
0
=
_

2
_
p
0
, p
3
= g (p
2
) , p
1
=
_

2
_
p
1
donde
_

2
_
indica que se usa le metodo
2
de Aitken.
El metodo de Steensen construye los mismos primeros cuatro terminos p
0
, p
1
, p
2
y p
0
.
No obstante, en este paso supone que p
0
es una mejor aproximacion de p que p
2
y aplica la
iteraci on de punto jo a p
0
en vez de a p
2
. Al aplicar esta notacion, la secuencia generada sera
p
(0)
0
, p
(0)
1
= g
_
p
(0)
0
_
, p
(0)
2
= g
_
p
(0)
1
_
,
p
(1)
0
=
_

2
_
p
(0)
0
, p
(1)
1
= g
_
p
(1)
0
_
, p
(1)
2
= g
_
p
(1)
1
_
,
p
(2)
0
=
_

2
_
p
(1)
0
, p
(2)
1
= g
_
p
(2)
0
_
, . . .
Ejemplo 43 Para resolver x
3
+4x
2
10 = 0 mediante el metodo de Steensen, sea x
3
+4x
2
=
10 y resolvamos para x dividiendo entre x +4 . Con este procedimiento se produce el metodo
de punto jo
g (x) =
_
10
x + 4
_
1/2
,
y x = g (x) implica que x
3
+ 4x
2
10 = 0 .
En la siguiente tabla se muestran los valores obtenidos con el metodo de Steensen con
p
0
= 1.5 .
k p
k
0
p
k
1
p
k
2
0 1.5 1.348399725 1.367376372
1 1.365265224 1.365225534 1.365230583
2 1.365230013
La exactitud de la iteraci on p
2
0
= 1.365230013 es de nueve cifras decimales. En este ejemplo,
con el metodo de Steensen se obtuvo casi la misma rapidez de convergencia que con el metodo
de Newton.
Teorema 2.15 Supongamos p que es un punto jo de g (x) , con g

(p) ,= 1 . Si existe > 0


tal que g es 3 veces derivable y que g

es continua en [a , p +] , entonces con el metodo


de Steensen obtendremos convergencia cuadratica para cualquier x [a , p +] .
Sergio Plaza 58
2.10 Problemas resueltos
Problema 2.1 Sea g(x) = 0.1 + 0.6 cos(2x) .
(a) Pruebe que g(x) dene un metodo iterativo convergente, encontrando explcitamente un
intervalo cerrado y acotado I = [a, b] tal que g(I) I y una constante 0 < 1 tal
que [g

(x)[ para todo x I .


(b) Estime el n umero de iteraciones que debe hacerse con este metodo de modo que se tengan
4 decimales de precision para el punto jo de g en I si tomamos como condicion inicial
el punto x
0
= 0.4 .
(c) Use el metodo de Newton para encontrar una aproximaci on al punto jo de g(x) en I .
Use como condicion inicial x
0
= 0.4 y como criterio de parada [x
n
g(x
n
)[ 10
5
.
(d) Considere una peque na variaci on g(x) de g(x) , donde g(x) = 0.2 + 0.6 cos(2x) . Denote
por y los puntos jos de g y g respectivamente. Demuestre que
[ [
0.1
1 L
donde L es la constante de Lipschitz de la funci on g Que ocurre con las iteraciones
x
n+1
= g(x
n
) , donde x
0
= 0.45 ? Explique
Solucion
(a) Tenemos que g(x) = 0.1 + 0.6 cos(2x) . Para probar que esta funci on dene un metodo
iterativo convergente, debemos mostrar que
(i) Existe un intervalo cerrado y acotado I que es aplicado en si mismo por g .
(ii) Existe una constante 0 < 1 tal que [g

(x)[ para todo x I .


Es f acil ver que podemos satisfacer ambas condiciones por separado. Por ejemplo, como
1 cos(2x) 1
para todo x, se sigue que
0.5 g(x) 0.7 ,
0.2
0.3
0.4
0.5
0.6
0.7
0.2 0.3 0.4 0.5 0.6 0.7
x
gr aco de g en [0.2, 0.7]
Sergio Plaza 59
y como g(x) tiene un maximo en x = 0 , se tiene que
0.2 < g(0.7) g(g(x)) g(0) 0.7 .
Tambien, g

(x) = 1.2 sen(2x) , luego (b) se satistace si


[x[ 0.5 arcsen(1/1.2) 0.49255539 .
Sin embargo ninguno de esos intervalos mencionados satisface ambas condiciones. Debe-
mos encontrar un intervalo adecuado donde se satisfacen ambas condiciones.
No se gana mucho considerando un intervalo que no este contenido en [0.2, 0.7] , pues
todo los valores de g(g(x)) estan en este intervalo. Notemos que g(x) es decreciente
sobre este intervalo (considere la derivada) y como g(0.2) = 0.6526365964... y g(0.7) =
0.2019802857... se tiene que g([0.2, 0.7]) = [0.2019802857..., 0.6526365964...] [0.2, 0.7] =
I . Luego, como puntos extremos de I son llevados en I por g , (a) se satisfecha, pero (b)
requiere que el extremo derecho no sea mayor que 0.5 arcsen(1/1.2) 0.49255539 , luego
el punto extremo izquierdo no puede ser menor que la preimagen de este valor bajo g , la
cual es aproximadamente 0.4288 . Ahora, tomando x
0
= 0.45 se tiene que x
1
= g(x
0
)
0.4729659810 < 0.473 = x
1
, y podemos tomar el intervalo J = [0.45, 0.473] I , y se tiene
que g(0.45) 0.4729659810 y g(0.473) 0.4509592536 , y siendo g decreciente en ese
intervalo, se tiene que g(J) = [0.4509592536..., 0.4729659810...] [0.45, 0.473] , es decir,
g(J) J . En este intervalo J se tiene que max[g

(x)[ : x J = 0.9732987256... =
< 1 . Luego, el metodo propuesto converge para cada x
0
J .
0
0.2
0.4
0.6
0.8
1
y
0.45 0.455 0.46 0.465 0.47
x
gr aco de [g

(x)[ en J
(b) Usaremos la f ormula [x
n
x
g
[

n
1
[x
0
x
1
[ , donde = max[g

(x)[ : x J =
0.9732987256... y x
g
es el punto jo de g que andamos buscando. Para simplicar,
tomamos un

= 0.98 > en el numerador, pues tenemos que 1/(1 ) 37.45139595
y 1/(1 0.98) 50.00 . Luego
[x
n
x
g
[

n
1
[x
0
x
1
[
1
1

n
[x
0
x
1
[ = 50

n
[x
0
x
1
[
tomando un valor x
1
< x
1
[ , agrandamos la diferencia [x
0
x
1
, por ejemplo, tomamos
x
1
= 0.473 , y tememos 0.7296598110
1
[x
0
x
1
[ [x
0
x
1
[ = [0.40.473[ = 0.073 .
Reemplazando esos valores en la ultima parte de la desigualdad anteior, obtenemos
Sergio Plaza 60
50 (0.98)
n
0.073 10
4
es decir,
3.65 (0.98)
n
10
4
de donde
(0.98)
n
0.27397 10
4
ahora, tomando logartmo natural, nos queda
n ln(0.98) ln(0.27397 10
4
) 10.50507704
de donde, n ln(0.869565217410
4
)/ ln(0.98) 519.9836,. Luego, debemos tomar n
520 como el n umero de iteraciones para asegurar que tenemos 4 decimales de precisi on.
(c) Para encontrar el punto jo de g debemos resolver la ecuacion g(x) = x, es decir,
0.1 + 0.6 cos(2x) = x, de donde debemos encontrar una raz de la ecuacion f(x) =
0.1 + 0.6 cos(2x) x = 0 . Usando el metodo de Newton, tenemos
N
f
(x) = x
f(x)
f

(x)
= x
0.1 + 0.6 cos(2 x) x
1.2 sin(2 x) 1
=
0.5 (12 xsin(2 x) + 1 + 6 cos(2 x))
6 sin(2 x) + 5
Comenzando con las iteraciones, y usando que x
n+1
= g(x
n
) , y trabajando con 12 dgitos
se tiene que
x
1
= N
f
(0.4) = 0.463425566162 , e
1
= [x
1
x
0
[ = 0.13425566162 10
1
x
2
= N
f
(x
1
) = 0.461786298387 , e
2
= [x
2
x
1
[ = 0.1639267775 10
2
x
3
= N
f
(x
2
) = 0.461785307874 , e
3
= [x
3
x
2
[ = 0.990513 10
6
x
4
= N
f
(x
3
) = 0.461785307873 , e
4
= [x
4
x
3
[ = 0.1 10
11
.
Ademas, g(x
4
) = 0.461785307873 = x
4
, por lo tanto, salvo errores de orden mayor que
10
11
se tiene que el punto jo es x
g
= 0.461785307873
(d) Es f acil ver gracamente que g tiene un punto jo .
0
0.2
0.4
0.6
0.8
1
0.2 0.4 0.6 0.8 1
x
gr aco de g en [0, 1]
Sergio Plaza 61
Solucion Numerica. Podemos usar el metodo de Newton para aproximar . Para
ello debemos resolver la ecuacion g(x) = x, es decir, si denimos la funci on r(x) =
0.2 + 0.6 cos(2x) x, dedemos encontrar una raz de r . Ahora, como r(x) = 0.2 +
0.6 cos(2 x) x, se tiene que r

(x) = 1.2 sin(2 x) 1 y


N
r
(x) = x
r(x)
r

(x)
viene dada por
N
r
(x) = x
0.2 + 0.6 cos(2 x) x
1.2 sin(2 x) 1
=
6 xsin(2 x) + 1 + 3 cos(2 x)
6 sin(2 x) + 5
Tomando y
0
= 0.4 , tenemos
y
1
= N
r
(y
0
) = 0.5171651042 , E
1
= 0.1171651042
y
2
= N
r
(y
1
) = 0.5119943202 , E
2
= 0.0051707840
y
3
= N
r
(y
2
) = 0.5119861755 , E
3
= 0.81447 10
5
y
4
= N
r
(y
3
) = 0.5119861754 , E
4
= 0.1 10
9
y podemos considerar que salvo un error, = y
4
= 0.5119861754 , pues g(y
4
) =
0.5119861753 y g(y
4
) y
4
= 0.1 10
9
, es decir, consideremos = y
4
= 0.5119861753
Ahora, calculemos la constante de Lipschitz de g(x) = 0.1 + 0.6 cos(2x) . Tenemos,
[g(x) g(y)[ = [0.6 cos(2x) 0.6 cos(2y)[
= 0.6[ cos(2x) cos(2y)[
= 0.6[2sen(2)[ [x y[
donde esta entre x e y , y x, y [0.45, 0.473] . Debemos maximizar la expresion
sen(2) para [0.45, 0.473] . Se tiene que max[sen(2)[ : [0.45, 0.473]
0.8110822713 , luego
[g(x) g(y)[ 1.2 0.8110822713 [xy[
es decir,
[g(x) g(y)[ 0.9732987256 [xy[ .
y tomamos L = 0.973298726 . Tememos = x
g
= 0.461785307873 y = 0.5119861753 ,
luego
[ [ = 0.050200867
0.1
1 L
=
0.1
1 0.973298726
= 3.745139651 .
Solucion Teorica.
Tenemos
[ [ = [ g( ) g()[
= [0.2 + 0.6 cos(2 ) 0.1 0.6 cos(2)[
= [0.1 + 0.6 cos( ) 0.6 cos()[
0.1 +[0.1 + 0.6 cos(2 ) (0.1 + 0.6 cos())[
= 0.1 +[g( ) g()[
0.1 +L[ [ .
Sergio Plaza 62
Es decir, hemos probado que [ [ 0.1 +L[ [ , de donde, [ [(1 L) 0.1 ,
y de aqu, [ [
1
1L
como se peda.
Problema 2.2 Sea f(x) = (x 1) ln(x) .
(a) Determine la formula de Newton x
n+1
= g(x
n
) . Tomando como valor inicial x
0
= e ,
calcule las primeras dos iteraciones x
1
y x
2
del metodo.
(b) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1 .
(c) De un metodo alternativo de iteracion que garantice un orden de convergencia p = 2 y
demuestre que efectivamente este es su orden de convergencia.
Solucion.
(a) La frmula del metodo de Newton para encontrar la raz de f(x) = (x 1) ln x = 0 es:
x
n+1
= g(x
n
) = x
n

(x
n
1) ln x
n
ln x
n
+
xn1
xn
=
x
n
(x
n
ln x
n
+ (x
n
1) (x
n
1) lnx
n
)
x
n
ln x
n
+ (x
n
1)
= x
n
x
n
1 + ln x
n
x
n
1 +x
n
ln x
n
.
Tomando x
0
= e y simplicando al m aximo, obtenemos
x
1
=
e
2
2e 1
y x
2
=
e
2
2e 1

(e + 1)
2
2 ln(2e 1)
e
2
(2 ln(2e 1)) + (e 1)
2
(b) La raz de f(x) = 0 es evidentemente x = 1 y es una raz doble, es decir, f(1) = 0,
f

(1) = 0, y f

(1) ,= 0. En efecto, es claro que f(1) = 0. Ademas, f

(x) = ln x + 1
1
x
.
As, f

(1) = 0. Por ultimo, f

(x) =
1
x
+
1
x
2
y por lo tanto f

(1) = 2 ,= 0. Esto muestra


que x = 1 es una raz doble de f(x) = 0. Como se vi en clases, esto implica que la funcin
de iteracin del metodo de Newton g(x) satisface que
g

(1) = 1
1
2
=
1
2
.
Luego, como [g

(1)[ < 1, el metodo de Newton es convergente, partiendo de un punto x


0
sucientemente cercano a 1, pero su orden de convergencia es slo 1, pues g

(1) ,= 0.
(c) Como es sabido de lo visto en clases, la forma de reparar el orden de convergencia
cuadr atico del metodo de Newton es mediante el metodo de Newton modicado, el cual
se obtiene multiplicando el cuociente
f(x)
f

(x)
(en la frmula de Newton) por la multiplicidad
de la raz (que en este caso es 2), es decir,
x
n+1
= g(x
n
) = x
n
2
(x
n
1) ln x
n
ln x
n
+
xn1
xn
= x
n
x
n
1 + (2 x
n
) ln x
n
x
n
ln x
n
+x
n
1
.
Con esto, por lo que se vi en clases, obtenemos que
g

(1) = 1 2
1
2
= 0,
lo cual implica que el metodo de Newton modicado converge cuadr aticamente, partiendo
de un punto x
0
sucientemente cercano a 1.
Sergio Plaza 63
Problema 2.3 Considere la ecuacion
cos(x) = tan(x),
de la cual se sabe que tiene una soluci on x = 0.6662394321 , con un error de 0.9 10
9
.
(a) Dena un metodo de punto jo (diferente a Newton) y demuestre su convergencia (sin
hacer iteraciones) en el intervalo que usted dena.
(b) Cu antas iteraciones necesitara para obtener el error de 0.9 10
9
comenzando con
x
0
= 0.6 ?
(c) Use el metodo de Newton con el punto inicial x
0
= 0.6 y obtenga x
1
y x
2
Cu al es la
velocidad de convergencia del metodo de punto jo propuesto por usted en la parte (a)?
Solucion.
(a) Propuesta del metodo.
Despejando de la ecuaci on tenemos
x = arctan(cos(x)) = g(x) ,
es decir,
x
k+1
= g(x
k
) = arctan(cos(x
k
)) .
Elegimos el intervalo [0, 1] , tenemos que g(x) = arctan(cos(x)) es decreciente en ese inter-
valo, pues g

(x) =
d
dx
arctan(cos(x)) =
sen(x)
1 + cos
2
(x)
y como g(0) = arctan(cos(0)) =

4
y
g(1) = arctan(cos(1)) 0.4953672892 , vemos que g([0, 1]) [0, 1] . Por lo tanto, g tiene un
unico punto jo x
g
en [0, 1] .
0.5
0.55
0.6
0.65
0.7
0.75
0 0.2 0.4 0.6 0.8 1
x
Ahora, g

(x) =
d
dx
arctan(cos(x)) =
sen(x)
1 + cos
2
(x)
. Luego,
[g( x)[ = [g

(0.6662394321)[ 0.381964618 < 1


y el metodo iterativo propuesto es convergente.
Sergio Plaza 64
(b) Para estimar el n umero de iteraciones podemos usar la formula para cotas del error
[x
n
x[

n
1
[x
0
x
1
[ ,
donde 0 < 1 es tal que [g

(x)[ para todo x ] a, b [ . Ahora como [g

(x)[ =
|sen(x)|
1+cos
2
(x)
=
sen(x)
1+cos
2
(x)
, para x [0, 1] , es una funci on creciente, se sigue que
[g

(x)[
sen(1)
1 + cos
2
(1)
0.5463024898 0.55
y podemos usar = 0.55 .
Tenemos que x
0
= 0.6 , luego x
1
= 0.6899997083 y [x
0
x
1
[ = 0.0899997083 . Luego
0.55
n
1 0.55
0.0899997083 0.9 10
9
0.55
n
4.50001458 10
9
nln(0.55) ln(4.50001458 10
9
)
n(0.5978370008) 19.2191852
de donde n 32.14786836 , por lo tanto basta tomar n = 33 iteraciones para tener lo pedido.
(c) Tenemos que N
f
(x) = x
f(x)
f

(x)
, donde en este caso, f(x) = tan(x) cos(x) . Como
f

(x) = 1 + tan
2
(x) + sen(x) , se tiene que
N
f
(x) = x
tan(x) cos(x)
1 + tan
2
(x) + sen(x)
luego, calculando obtenemos x
1
= 0.6694641628 y x
2
= 0.6660244822 . Ahora, como f

( x)
2.236067976 ,= 0 el metodo de Newton tiene convergencia cuadratica, es decir, orden p = 2 .
Para analizar la convergencia del metodo propuesto en (a) tenemos que buscar la primera
derivada no nula en el punto jo, y por los c alculos ya realizados se tiene que g

( x) ,= 0 , por
tanto el metodo tiene orden de convergencia p = 1 . Por lo tanto, el metodo de Newton converge
mucho mas rapido, en este caso.
Problema 2.4 Se desea resolver la ecuacion x
3
ln(1 + 2x) = 0.
1. Compruebe que esta ecuacion tiene exactamente una solucion en el intervalo [1, 2] .
2. Proponga un metodo iterativo de punto jo (diferente de Newton) que converja a la
soluci on de la ecuaci on en el intervalo [1, 2]. Justique.
3. Partiendo de x
0
= 1, determine el n umero mnimo de iteraciones que se necesitaran para
alcanzar una precision de 10
4
, utilizando el metodo iterativo propuesto anteriormente.
Solucion.
Sergio Plaza 65
1. Tenemos la ecuacion
f(x) = x
3
ln(1 + 2x) = 0 .
Es claro que el dominio de f es x R : x > 1/2, en el cual f es continua y
diferenciable.
Ahora,
f

(x) = 3x
2

2
1 + 2x
=
3x
2
(1 + 2x) 2
2x + 1
=
6x
3
+ 3x
2
2
2x + 1
.
El denominador de f es positivo en el intervalo [1,2] y su numerador h(x) = 6x
3
+3x
2
2
tambien es positivo en dicho intervalo, pues h

(x) = 18x
2
+ 6x = 0 si y solo si x = 0 o
18x + 6 = 0 , es decir, x = 1/3. Con esto, es claro que h

(x) > 0 en el intervalo [1, 2],


luego h es estrictamente creciente en [1, 2] . Adem as, como h(1) = 6+32 = 7 , se sigue
que h(x) > 0 en todo [1, 2] . Por lo tanto f

(x) > 0 en [1, 2] , en consecuencia si tiene un


cero en dicho intervalo, este sera unico. Ahora, como f(1) = 1ln(3) 0.09861 . . . < 0
y f(2) = 8 ln(5) 6.39056 . . . > 0 , por el Teorema del Valor Intermedio, f tiene un
cero en [1, 2] , y como vimos, este es unico.
2. Despejando x desde la igualdad
x
3
ln(1 + 2x) = 0
tenemos
x =
3
_
ln(1 + 2x) .
Proponemos entonces el metodo iterativo de punto jo
x
n+1
= g(x
n
) =
3
_
ln(1 + 2x
n
) .
Tenemos
g

(x) =
2
3
1
(ln(1 + 2x))
2/3

1
2x + 1
> 0
en [1, 2] . Por lo tanto, g es creciente en [1, 2] .
Ahora, para ver que g([1, 2]) [1, 2] , basta ver que 1 g(1) g(2) 2 . Tenemos
1 < 1.03184584 . . .
. .
g(1)
1.171902307 . . .
. .
g(2)
2
de donde g([1, 2]) [1, 2] y como g es estrictamente creciente, en ese intervalo, g tiene
un unico punto jo x
g
g([1, 2]) [1, 2] .
Para ver la convergencia del metodo propuesto, debemos probar que [g

(x)[ < 1 para


todo x [1, 2] .
Ahora, g

(x) es decreciente en [1, 2] y g

(1) = 0.208717132 > g

(x) > g

(2) = 0.0970858457.
Por lo tanto = max[g

(x)[ : x [1, 2] = 0.2087170132 y es claro que < 1 .


Por lo tanto el metodo propuesto es convergente al unico punto jo de g en [1, 2] .
Sergio Plaza 66
3. Tomando x
0
= 1 , tenemos que x
1
= g(1) =
3
_
ln(3) = 1.03184584 . . .

Usando la formula
[x
g
x
n
[

n
1
[x
1
x
0
[,
si queremos precisi on de 10
4
, imponemos entonces que

n
1
[x
1
x
0
[ 10
4
.
Como [x
1
x
0
[ = [0.0318458398 . . . [ < 0.032 (para evitar el calculo con tantos decimales)
y = 0.2087170132, se tiene 1 = 0.7912829868 . . . > 0.79 (misma razon anterior)
As
1
1
<
1
0.79
, y como < 0.21 nos queda

n
1

(0.21)
n
0.79
.
Luego

n
1
[x
1
x
0
[
(0.21)
n
0.79
0.032 = (0.21)
n
0.0405063 . . . (0.21)
n
0.041
y hacemos 0.041 (0.21)
n
< 10
4
, de donde (0.21)
n
<
10
4
0.041
, y entonces
n ln(0.21) ln
_
10
4
0.041
_
y como ln(0.21) < 0 , se sigue que
n
ln
_
10
4
0.041
_
ln(0.21)
3.8549104 . . .
Por lo tanto, con al menos 4 iteraciones tenemos garantizado lo pedido.
Problema 2.5 Considere el siguiente sistema de ecuaciones no lineales
_
_
_
x
2
1
+x
2
37 = 0
x
1
x
2
2
5 = 0
x
1
+x
2
+ x
3
3 = 0
(a) Utilizando el metodo de Newton para sistemas no lineales y tomando como punto inicial
x
0
= (0, 0, 0)
T
, obtenga el punto x
1
.
(b) Cuando se utiliza el metodo de Newton para sistemas no lineales, una alternativa para
no calcular la inversa de una matriz en cada iteraci on es resolver un sistema auxiliar de
ecuaciones linwales en cada iteracion, lo cual es desde el punto de vista numerico siempre
resulta mas conveniente.
Describa el sistema de ecuaciones lineales que debera resolver para obtener el punto x
1
de la parte (a) y calcule el n umero de condicionamiento de la matriz del sistema con
respecto al redio espectral puede inferir algo sobre la estabilidad de las soluciones del
sistema?
Sergio Plaza 67
Solucion. Tenemos el sistema de ecuaciones no lineales siguiente
_
_
_
x
2
1
+x
2
37 = 0
x
1
x
2
2
5 = 0
x
1
+x
2
+ x
3
3 = 0
a) Metodo de Newton. Llamemos
f
1
(x
1
, x
2
, x
3
) = x
2
1
+x
2
37
f
2
(x
1
, x
2
, x
3
) = x
1
x
2
2
5
f
3
(x
1
, x
2
, x
3
) = x
1
+x
2
x
3
3
y F(x
1
, x
2
, x
3
) = (f
1
(x
1
, x
2
, x
3
), f
2
(x
1
, x
2
, x
3
), f
3
(x
1
, x
2
, x
3
)) .
El metodo de Newton es dado por
_
_
_
_
_
_
_
x
(k+1)
1
x
(k+1)
2
x
(k+1)
3
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
x
(k)
1
x
(k)
2
x
(k)
3
_
_
_
_
_
_
_

_
JF(x
(k)
1
, x
(k)
2
, x
(k)
3
)
_
1
_
_
_
_
_
_
_
f
1
(x
(k)
1
, x
(k)
2
, x
(k)
3
)
f
2
(x
(k)
1
, x
(k)
2
, x
(k)
3
)
f
3
(x
(k)
1
, x
(k)
2
, x
(k)
3
)
_
_
_
_
_
_
_
Ahora,
JF =
_
_
_
_
_
_
_
f1
x1
f1
x2
f1
x3
f2
x1
f2
x2
f2
x3
f3
x1
f3
x2
f3
x3
_
_
_
_
_
_
_
.
Derivando, tenemos
F
x
1
=
_
f
1
x
1
,
f
2
x
1
,
f
3
x
1
_
= (2x
1
, 1, 1)
F
x
2
=
_
f
1
x
2
,
f
2
x
2
,
f
3
x
2
_
= (1, 2x
1
, 1)
F
x
3
=
_
f
1
x
3
,
f
2
x
3
,
f
3
x
3
_
= (0, 0, 1)
Luego,
JF(x
1
, x
2
, x
3
) =
_
_
2x
1
1 0
1 2x
2
0
1 1 1
_
_
.
Evaluando en x
(0)
= (0, 0, 0)
T
nos queda la matriz
Sergio Plaza 68
JF(0, 0, 0) =
_
_
0 1 0
1 0 0
1 1 1
_
_
.
Para calcular (JF(0, 0, 0))
1
, lo podemos hacer en forma simple, escribiendo
_
_
0 1 0
1 0 0
1 1 1
_
_

_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
de donde a
21
= 1 , a
22
= 0 , a
23
= 0 , a
11
= 0 , a
13
= 0 , a
11
+ a
21
+ a
31
= 0 , de donde,
a
31
= 1 ; a
12
+a
22
+a
32
= 0 , de donde, a
32
= 1 ; a
13
+a
23
+a
33
= 1 , de donde, a
33
= 1 .
Por lo tanto,
_
_
0 1 0
1 0 0
1 1 1
_
_
1
=
_
_
0 1 0
1 0 0
1 1 1
_
_
Tenemos, F(0, 0, 0) = (37, 5, 5) . Por lo tanto,
_
_
_
x
(1)
1
x
(1)
2
x
(1)
3
_
_
_ =
_
_
0
0
0
_
_

_
_
0 1 0
1 0 0
1 1 1
_
_
_
_
37
5
3
_
_
=
_
_
5
37
39
_
_
b) Para obtener la f ormula pedida, recordemos lo hecho en clases para sistemas de ecuaciones
no lineales, en este caso de 3 3 . Sean (x
1
, x
2
, x
3
) una soluci on aproximada del sistema de
ecuaciones no lineales, y sea (x
1
+ h
1
, x
2
+ h
2
, x
3
+ h
3
) la soluci on exacta. Aplicando Taylor,
obtenemos
0 = f
1
(x
1
+h
1
, x
2
+h
2
, x
3
+h
3
) f
1
(x
1
, x
2
, x
3
) +h
1
f
1
x
1
+h
2
f
1
x
2
+h
3
f
1
x
3
0 = f
2
(x
1
+h
1
, x
2
+h
2
, x
3
+h
3
) f
2
(x
1
, x
2
, x
3
) +h
1
f
2
x
1
+h
2
f
2
x
2
+h
3
f
2
x
3
0 = f
3
(x
1
+h
1
, x
2
+h
2
, x
3
+h
3
) f
3
(x
1
, x
2
, x
3
) +h
1
f
3
x
1
+h
2
f
3
x
2
+h
3
f
3
x
3
donde las derivadas parciales est an evaluadas en (x
1
, x
2
, x
3
) . De lo anterior, tenemos que
JF(x
1
, x
2
, x
3
)
_
_
h
1
h
2
h
3
_
_
= F(x
1
, x
2
, x
3
) .
Ahora, usando los datos, tenemos
F(x
(0)
1
, x
(0)
2
, x
(0)
3
) =
_
_
37
5
3
_
_
,
Sergio Plaza 69
JF(x
(0)
1
, x
(0)
2
, x
(0)
3
) = JF(0, 0, 0) =
_
_
0 1 0
1 0 0
1 1 1
_
_
.
Por lo tanto el sistema de ecuaciones lineales es dado por
_
_
0 1 0
1 0 0
1 1 1
_
_
_
_
h
1
h
2
h
3
_
_
=
_
_
37
5
3
_
_
De aqu, h
2
= 37 , h
1
= 5 y h
1
+h
2
+h
3
= 3 , de donde h
3
= 39 .
Ahora, como
_
_
_
x
(1)
1
x
(1)
2
x
(1)
3
_
_
_ =
_
_
_
x
(0)
1
x
(0)
2
x
(0)
3
_
_
_+
_
_
h
1
h
2
h
3
_
_
,
se tiene que
_
_
_
x
(1)
1
x
(1)
2
x
(1)
3
_
_
_ =
_
_
5
37
39
_
_
el cual coincide, obviamente, con el c alculo hecho en la parte (a) .
El n umero de condici on con respecto al radio espectral, signica que usando la norma sub-
ordinada [[ [[
2
, se tiene que
k(A) =

max[[ : valor propio de AA


T

min[[ : valor propio de AA


T

.
LLamando
A =
_
_
0 1 0
1 0 0
1 1 1
_
_
,
Se tiene que
A
T
=
_
_
0 1 1
1 0 1
0 0 1
_
_
.
Luego
AA
T
=
_
_
0 1 0
1 0 0
1 1 1
_
_

_
_
0 1 1
1 0 1
0 0 1
_
_
=
_
_
1 0 1
0 1 1
1 1 3
_
_
Sergio Plaza 70
AA
T
I =
_
_
1 0 1
0 1 1
1 1 3
_
_
y
det(AA
T
) = (1 )
2
(3 ) (1 ) (1 ) = (1 )((1 )(3 ) 2)
luego, det(AA
t
I) = 0 si
1
= 1 o
2
4 + 3 = 0 , de donde
2
= 3 y
3
= 1 . Luego,
max[[ : valor propio de AA
T
= 3 y min[[ : valor propio de AA
T
= 1 . Por lo
tanto, k(A) =
_
3
1
=

3 . Como el n umero de condici on de A es relativamente peque no, esl
sistema esta bien condicionado y es estable.
Problema 2.6 Resuelva usando el metodo de Newton para varias variables, el siguiente sistema
no lineal:
_
3x
2
1
x
2
2
= 0
3x
1
x
2
2
x
3
1
= 1
Para esto, tome como punto inicial x
(0)
= (1, 1)
T
y realice dos iteraciones, es decir, calcule x
(1)
y x
(2)
.
Solucion. Tenemos el sistema de ecuaciones no lineales
_
f(x, y) = 3x
2
y
2
= 0
g(x, y) = 3xy
2
x
3
1 = 0 .
Sea F(x, y) = (f(x, y), g(x, y)) . El metodo de Newton aplicado a F es dado por
N
F
(x, y) = (x, y) (JF(x, y))
1
F(x, y) .
Ahora,
JF(x, y) =
_
_
_
_
_
f
x
(x, y)
f
y
(x, y)
g
x
(x, y)
g
y
(x, y)
_
_
_
_
_
=
_
6x 2y
3y
2
3x
2
6xy
_
.
Luego, det JF(x, y) = 36x
2
y + 2y(3y
2
3x
2
) = 36x
2
y + 6y
3
6x
2
y = 30x
2
y + 6y
3
=
6y(5x
2
+y
2
) . Por lo tanto det JF(x, y) ,= 0 si y ,= 0 y (x, y) ,= (0, 0) .
Como x
(0)
= (1, 1)
_
x
1
y
1
_
=
_
x
0
y
0
_
(JF(x
0
, y
0
))
1
F(x
0
, y
0
)
y
JF(x
0
, y
0
) = JF(1, 1) =
_
6 2
0 6
_
Sergio Plaza 71
se tiene que det JF(x
0
, y
0
) = 36 y
(JF(1, 1))
1
=
1
36
_
_
6 2
0 6
_
_
=
_
_
1
6
1
18
0
1
6
_
_
_
_
2
1
_
_
=
_
2
6
+
1
18
,
1
6
_
=
_
7
18
,
1
6
_
y
x
(1)
= (x
1
, y
1
) = (1, 1)
_
7
18
,
1
6
_
=
_
11
18
,
5
6
_
Para x
(2)
, tenemos
JF(x
1
, y
1
) = JF
_
11
18
,
5
6
_
=
_
_
_
_
_
11
3

5
3
26
27
55
18
_
_
_
_
_
luego det JF(x
1
, y
1
) =
2075
162
.
Ahora,
(JF(x
1
, y
1
))
1
=
162
2075
_
_
_
_
_
55
18
5
3

26
27
11
3
_
_
_
_
_
=
_
_
_
_
_
99
415
54
415

156
2075
594
2075
_
_
_
_
_
As
(JF(x
1
, y
1
))
1
F(x
1
, y
1
) =
_
_
_
_
_
99
415
54
415

156
2075
594
2075
_
_
_
_
_
_
_
_
_
_
23
54
131
2916
_
_
_
_
_
=
_
1204
11205
,
2147
112050
_
= (0.1074520303 , 0.01916108880) .
Luego,
Sergio Plaza 72
x
(2)
= (x
2
, y
2
) =
_
11
18
,
5
5
_

_
1204
11205
,
2147
112050
_
=
_
11287
22410
,
47761
56025
_
= (0.5036590808 , 0.8524944221)
Una forma alternativa y m as simple es resolver en cada paso un sistema de ecuaciones lineales,
para ello recordemos que el metodo de Newton es dado
_
x
n+1
y
n+1
_
=
_
x
n
y
n
_
+
_
h
n
k
n
_
,
donde
_
h
n
k
n
_
es la soluci on del sistema de ecuaciones lineales
JF(x
n
, y
n
)
_
h
n
k
n
_
= F(x
n
, y
n
)
Tenemos, F(x, y) = (3x
2
y
2
, 3xy
2
x
3
1)
JF(x, y) =
_
6x 2y
3y
2
3x
2
6xy
_
Como (x
0
, y
0
) = (1, 1) nos queda JF(x
0
, y
0
) =
_
6 2
0 6
_
y F(x
0
, y
0
) = (2, 1) , obtenemos
as el sistema de ecuaciones lineales
_
6 2
0 6
__
h
0
k
0
_
=
_
2
1
_
de donde 6k
0
= 1 , es decir, k
0
=
1
6
; la otra ecuacion es 6h
0
2k
0
= 2 , y de aqu
h
0
=
7
18
. Luego
_
_
x
1
y
1
_
_
=
_
_
1
1
_
_
+
_
_
_
_
_
7
18
1
6
_
_
_
_
_
=
_
_
_
_
_
11
18
5
6
_
_
_
_
_
Para
_
x
2
y
2
_
debemos resolver el sistema
JF(x
1
, y
1
)
_
h
1
k
1
_
= F(x
1
, y
1
)
Este sistema es
Sergio Plaza 73
_
_
_
_
_
11
3

5
3
26
27
55
18
_
_
_
_
_
_
h
1
k
1
_
=
_
_
_
_
_
23
54
131
2916
_
_
_
_
_
cuya soluci on es
(h
1
, k
1
) =
_

1024
11205
,
2147
112050
_
= (0.10745203030 , 0.01916108880) .
Luego,
(x
2
, y
2
) = (x
1
, y
1
) + (h
1
, k
1
) =
_
11
18

1024
11205
,
5
6
+
2147
112050
_
= (0.5036590808 , 0.8524944221)
2.11 Ejercicios
Problema 2.1 Use el manejo algebraico para demostrar que las siguientes funciones tienen un
punto jo en p exactamente cuando f (p) = 0 , donde f (x) = x
4
+ 2x
2
x 3 .
1. g
1
(x) =
_
3 +x 2x
2
_
1/4
2. g
2
(x) =
_
x+3x
4
2
_
1/2
3. g
3
(x) =
_
x+3
x
2
+2
_
1/2
4. g
4
(x) =
3x
4
+2x
2
+3
4x
3
+x1
Problema 2.2 1. Efect ue cuatro iteraciones, si es posible hacerlo, en las funciones denidas
en el problema anterior, considerando p
0
= 1 y p
n+1
= g (p
n
) , n = 0, 1, 2, 3 .
2. Cu al funci on, a su juicio, dar a la mejor aproximaci on a la soluci on?
Problema 2.3 Se proponen los siguientes metodos para calcular 21
1/3
. Clasique por orden,
bas andose para ello la rapidez de convergencia y suponiendo que p
0
= 1 en cada caso.
1. p
n
=
20pn1+
21
p
2
n1
21
2. p
n
= p
n1

p
3
n1
21
3p
2
n1
3. p
n
= p
n1

p
4
n1
21pn1
p
2
n1
21
4. p
n
=
_
21
pn1
_
1/2
Problema 2.4 Aplique el metodo de biseccion para determinar c
3
, para f (x) =

x cos(x)
en [0, 1] .
Sergio Plaza 74
Problema 2.5 Sea f (x) = 3 (x + 1)
_
x
1
2
_
(x 1) . Aplique el metodo de biseccion para
determinar c
3
en los siguientes intervalos
1.
_
2,
3
2

2.
_
5
4
,
5
2

Problema 2.6 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproxiamciones a las soluciones de x
3
7x
2
+ 14x 6 = 0 con una exactitud de 10
2
.
1. [0, 1]
2.
_
1,
16
5

3.
_
16
5
, 4

Problema 2.7 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproximaciones a las soluciones de x
4
2x
3
4x
2
+ 4x + 4 = 0 con una exactitud de 10
2
.
1. [2, 1]
2. [0, 2]
3. [2, 3]
4. [1, 0]
Problema 2.8 Aplique el metodo de biseccion para determinar una aproximaci on a la soluci on
de tan(x) = x con una exactitud de 10
3
en el intervalo
_
4,
9
2

.
Problema 2.9 Aplique el metodo de biseccion para determinar una aproximaci on a la soluci on
de 2 + cos (e
x
2) e
x
= 0 con una exactitud de 10
3
en el intervalo
_
1
2
,
3
2

Problema 2.10 En cada caso aplique el metodo de biseccion para determinar una aproxi-
macion a la soluci on con una exactitud de 10
5
.
1. x 2
x
= 0 para x [0, 1] .
2. e
x
x
2
+ 3x 2 = 0 para x [0, 1] .
3. 2xcos (2x) (x + 1)
2
= 0 para x [3, 2] y para x [1, 0] .
4. xcos (x) 2x
2
+ 3x 1 = 0 para x
_
1
5
,
3
10

y para x
_
6
5
,
13
10

.
Problema 2.11 Determine una aproximaci on de

3 con una exactitud de 10
4
usando el
metodo de biseccion.
Problema 2.12 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 10
3
de la soluci on de x
3
+x 4 = 0 en el intervalo
[1, 4] .
Sergio Plaza 75
Problema 2.13 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 10
3
de la soluci on de x
3
x 1 = 0 en el intervalo
[1, 2] .
Problema 2.14 Sea f (x) = (x 1)
10
, p = 1 y p
n
= 1 +
1
n
. Demuestre que [f (p
n
)[ < 10
3
para todo n > 1 , mientras que [p p
n
[ < 10
3
solo si n > 1000 .
Problema 2.15 Sea (p
n
)
nN
la sucesion dada por p
n
=

n
k=1
1
k
. Demuestre que (p
n
)
nN
diverge a un cuando lim
n
(p
n
p
n1
) = 0 .
Problema 2.16 Los cuatro siguientes metodos tienen por objeto calcular 7
1/5
. Clasique por
orden, bas andose para ello la rapidez de convergencia y suponiendo que p
0
= 1 en cada caso.
1. p
n
=
_
1 +
7p
3
n1
p
2
n1
_
1/2
2. p
n
= p
n1

p
5
n1
7
p
2
n1
3. p
n
= p
n1

p
5
n1
7
5p
4
n1
4. p
n
= p
n1

p
5
n1
7
12
5. Aplique el metodo de iteraci on de punto jo para determinar una soluci on con una exac-
titud de 10
2
para x
4
3x
2
3 = 0 en [1, 2] . Utilice p
0
= 1 .
Problema 2.17 La ecuacion x
2
x 1 = 0 tiene una raz positiva 1.61803398 .
Proponga un metodo iterativo convergente, no Newton, para aproximar dicha raz.
Indicacion. Tenemos x
2
x = 0 2x
2
x = x
2
+ 1 x(2x 1) = x
2
+ 1 x =
x
2
+ 1
2x 1
.
Proponemos g(x) =
x
2
+ 1
2x 1
como metodo iterativo.
Armacion 1 g :
_
3
2
, 2
_

_
3
2
, 2
_
Armacion 2 g es una contraccion.
Problema 2.18 Considere la ecuacion e
x
x
2
+ 3x 2 = 0 .
1. Proponga un metodo de punto jo, explicitando un intervalo [a, b] contenido en [0, 1]
que contenga dicha raz, para resolver esta ecuacion. Justique porque el metodo por Ud.
propuesto es convergente.
2. Suponga que realizamos iteraciones con el metodo propuesto en el item anterior hasta
obtener un error absoluto no mayor que 10
5
respecto de la raz exacta. Sin utilizar
calculadora, encuentre este n umero de iteraciones, para ellos use el intervalo [a, b] explic-
itado.
Problema 2.19 Sean f (x) = x
2
6 y x
0
= 1 . Aplique el metodo de Newton para determinar
x
4
.
Sergio Plaza 76
Problema 2.20 Sean f (x) = x
3
cos(x) y x
0
= 1 . Aplique el metodo de Newton para
determinar x
4
Podramos utilizar x
0
= 0 ?
Problema 2.21 Considere la ecuacion no lineal
cos
_
x
2
+ 5
x
4
+ 1
_
= 0
se sabe que esta ecuacion tiene una unica raz en el intervalos [0, 1] . Use los metodos de Newton
y secante para aproximar la raz. Para Newton use x
0
= 0 y para secante use x
0
= 0 y x
1
= 1 .
Problema 2.22 Sean f (x) = x
2
6 , x
0
= 3 y x
1
= 2 determine x
3
.
1. Aplique el metodo de la secante.
2. Aplique el metodo de Regula Falsi.
3. Que metodo da una mejor aproximaci on de

6 ?
Problema 2.23 Aplique el metodo de Newton para obtener soluciones con una exactitud de
10
5
para los siguiente problemas.
1. x
3
2x
2
5 = 0 , x [1, 4] .
2. x cos x = 0 , x
_
0,

2

.
3. x
3
+ 3x
2
1 = 0 , x [3, 2] .
4. x 0.8 0.2sen(x) = 0 , x
_
0,

2

.
5. e
x
+ 2
x
+ 2 cos(x) 6 = 0 , x [1, 2] .
6. ln (x 1) + cos (x 1) = 0 , x [1.3, 2] .
7. 2xcos(x) (x 2)
2
= 0 , x [2, 3] .
8. sen(x) e
x
= 0 , x [0, 1] .
Problema 2.24 Utilice el metodo de Newton para aproximar con exactitud de 10
5
el valor
de x en la graca de y = x
2
mas cercano del punto (1, 0) .
Problema 2.25 Utilice el metodo de Newton para aproximar con exactitud de 10
5
el valor
de x en la graca de y =
1
x
mas cercano del punto (2, 1) .
Problema 2.26 Con una exactitud de 10
5
y utilizando el metodo de Newton resuelva la
ecuacion
1
2
+
1
4
x
2
xsen(x)
1
2
cos (2x) = 0 , con condici on inicial x
0
=

2
. Explique por que
el resultado parece poco usual para el metodo de Newton. Tambien resuelva la ecuacion con
x
0
= 5 y x
0
= 10 .
Problema 2.27 Considere la funci on f : R R denida por f(x) = 3x
5
10x
3
+ 23x
a) Pruebe que f(x) = 0 tiene una soluci on en el intervalo [2, 2] .
Sergio Plaza 77
b) Usando el metodo de Newton con la condici on inicial x
0
= 1.07 y el criterio de parada
[f(x)[ 10
6
, encuentre una aproximacion a una raz de f(x) .
c) Usando el metodo de Newton con la condici on inicial x
0
= 1.06 realice iteraciones Que
ocurre en este caso? Explique.
d) Demuestre la convergencia de los iterados del metodo de Newton cerca de la raz que
encontr o b).
e) Considere el siguiente metodo iterativo
Sf(x) = x
f(x)f

(x)
(f(x))
2
f(x)f

(x))
.
Considere las dos condiciones iniciales x
0
= 1.07 y x
0
= 1.06 y realice las iteraciones en
ambos caso Que ocurre?
Problema 2.28 Se sabe que la ecuacion 2x
4
+ 24x
3
+ 61x
2
16x + 1 = 0 tiene dos raices
cerca de 0.
1. Usando el metodo de Newton encuentre estas dos raices, con un error absoluto de 10
6
.
2. Considere el metodo iterativo siguiente
x
n+1
= x
n

2f(x
n
)f

(x
n
)
2(f

(x
n
))
2
f(x
n
)f

(x
n
)
encuentre las races, con un error absoluto de 10
6
.
3. Analizando el error absoluto, compare la rapidez de convergencia de ambos metodos.
4. Pruebe que este nuevo metodo iterativo tiene orden de convergencia 3 alrededor de cada
raz simple de una ecuacion f(x) = 0 , donde f(x) es al menos 3 veces derivable, con
f

(x) continua.
Problema 2.29 Considere la ecuacion e
x
4x
2
= 0 .
(a) Usando el metodo de regula falsi encuentre una raz positiva de la ecuacion.
(b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
la raz encontrada en (a) de la ecuacion.
(c) Usando el metodo de punto jo propuesto en (b), encuentre la soluci on buscada con una
precision de = 10
3
, considerando como criterio de parada [f(x
n
)[ .
Problema 2.30 Considere la ecuacion x
3
x
2
x1 = 0 , la cual posee una soluci on [1, 2] .
Se propone el metodo iterativo x
n+1
= g(x
n
) , donde g(x) = 1 +
1
x
+
1
x
2
, para resolver la
ecuacion.
1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.
Sergio Plaza 78
2. Si elige x
0
[a, b] [1, 2] arbitrario para comenzar las iteraciones, estime el n umero de
iteraciones que debe realizar para obtener x
k
que satisface la condicion [x
k+1
x
k
[
5 10
5
.
Problema 2.31 Considere al ecuacion x
3
+ 2x
2
+ 10x 20 = 0 .
(a) Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
solucion =

10 . La demostracion de la convergencia debe hacerse sin iteraciones.


(b) Usando el metodo que propuso en a), encuentre una soluci on aproximada a con un
error de no m as de 10
2
Problema 2.32 Considere la ecuacion x
3
x
2
x1 = 0 , la cual posee una soluci on [1, 2] .
Se propone el metodo iterativo x
n+1
= g(x
n
) , donde g(x) = 1 +
1
x
+
1
x
2
, para resolver la
ecuacion.
1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.
2. Si elige x
0
[a, b] [1, 2] arbitrario para comenzar las iteraciones, estime el n umero de
iteraciones que debe realizar para obtener x
k
que satisface la condicion [x
k+1
x
k
[
5 10
5
.
Problema 2.33 Utilice el metodo de Newton para encontrar las soluciones de los siguientes
problemas con una exactitud de 10
5
, usando uno de los criterios de paradas especicados
arriba.
1. x
2
2xe
x
+e
2x
= 0, x [0, 1] .
2. cos
_
x +

2
_
+x
_
x
2
+

2
_
= 0, x [2, 1] .
3. x
3
3x
2
2
x
+ 2x4
x
8
x
= 0, x [0, 1] .
4. e
6x
+ 3 (ln 2)
2
e
2x
e
4x
ln 8 (ln 2)
3
, x [1, 0] .
Problema 2.34 Repita el ejercicio anterior, aplicando el metodo de Newton modicado Mejora
la rapidez o la exactitud en comparaci on con el ejercicio 1.?
Problema 2.35 Demuestre que las siguientes sucesiones convergen linealmente a p = 0 Que
tan grande debe ser n para que [p
n
p[ 5 10
2
?
a.) p
n
=
1
n
, n 1 , b. ) p
n
=
1
n
2
, n 1
Problema 2.36 Demuestre que la sucesion p
n
= 10
2
n
converge cuadr aticamente a cero.
Problema 2.37 Demuestre que la sucesion p
n
= 10
n
c
no converge cuadr aticamente a cero,
sin importar el tama no del exponente c > 1 .
Problema 2.38 Demuestre que el algoritmo de biseccion determina una sucesion con una cota
de error que converge linealmente a cero.
Sergio Plaza 79
Problema 2.39 El metodo iterativo para resolver f (x) = 0 , dado por el metodo de punto
jo g (x) = x , donde
p
n+1
= g (p
n
) = p
n

f (p
n
)
f

(p
n
)

f

(p
n
)
2f

(p
n
)
_
f (p
n
)
f

(p
n
)
_
2
,
para n = 1, 2, 3, . . . . Puebe que es una raz simple de f , entonces se tiene g() = ,
g

() = g

() = 0 , esto generalmente, producira una convergencia c ubica ( = 3) .


Problema 2.40 Considere el siguiente sistema de ecuaciones
x
2
+y
2
9 = 0
x
2
+y
2
8x + 12 = 0
1. Explicite por componentes y simplique al m aximo, el esquema iterativo denido por el
metodo de Newton.
2. Se sabe que el sistema tiene una soluci on (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime el error del resultado de la tercera iteracion respecto a la soluci on exacta (, ) =
(
21
8
,

135
8
) .
Problema 2.41 Considere el siguiente sistema de ecuaciones
_
x
2
+y
2
16 = 0
x
2
+y
2
8x = 0 .
1. Explicite por componentes y simplique al m aximo, el esquema iterativo denido por el
metodo de Newton.
2. Se sabe que el sistema tiene una soluci on (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime el error del resultado de la tercera iteracion respecto a la soluci on exacta (, ) =
(3,

12 ) .
Problema 2.42 Considere el sistema de ecuaciones no lineales
_
x
2
1
+ 8x
1
x
2
2
6 = 0
x
2
1
x
2
x
1
+ 8x
2
6 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 80
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)
Problema 2.43 Considere al ecuacion x
3
+ 2x
2
+ 10x 20 = 0 .
1. Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
soluci on =

10 . La demostracion de la convergencia debe hacerse sin iteraciones.


2. Usando el metodo que propuso en 1), encuentre una soluci on aproximada a con un
error de no m as de 10
2
Problema 2.44 Considere la funci on f(x) = e
1/x
x, denida para x > 0 .
1. Proponga un metodo iterativo convergente, no Newton, para encontrar una soluci on de
la ecuacion f(x) = 0 . Use el metodo propuesto por usted para encontrar una soluci on
de f(x) = 0 , con una precision = 10
3
, con el criterio de parada [x
n+1
x
n
[ , y
comenzando con x
0
= 1.76. La demostracion de la convergencia debe hacerla en forma
teorica.
2. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
solucion de f(x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.
x
n+1
= g
1
(x
n
) = x
n
x
2
n
x
n
e
1/xn
x
2
n
+e
1/xn
x
n+1
= g
2
(x
n
) = x
n
+
1 x
n
ln(x
n
)
1 + ln(x
n
)
.
Use el metodos que demostr o ser convergente para encontrar una solucion de f(x) = 0 ,
con una precision = 10
3
, con el criterio de parada [x
n+1
x
n
[ , y comenzando
con x
0
= 1.76 .
3. Use el metodo de la secante para encontrar una soluci on de f(x) = 0 , con una precision
= 10
3
, con el criterio de parada [x
n+1
x
n
[ , comenzando con x
0
= 1.76 y
x
1
= 1.763 .
4. En los casos anteriores Cual de los metodos converge m as rapido?
Problema 2.45 Considere el sistema de ecuaciones no lineales
_
x
2
1
10x
1
+x
2
2
+ 8 = 0
x
1
x
2
2
+x
1
10x
2
+ 8 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 81
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)
Problema 2.46 Considere el sistema de ecuaciones no lineales u(x, y) = 0 , donde
_
u
1
(x, y) = x
2
+xy 10
u
2
(x, y) = y + 3xy
2
57
1. Proponga un metodo iterativo de punto jo convergente, no Newton, para encontrar una
soluci on al sistema, comenzando con (x
0
, y
0
) = (1.5, 3.5)
2. Aplique el metodo de Newton con las mismas condiciones iniciales. Obtenga dos itera-
ciones hay convergencia en este caso?
3. Si ambos metodos (1) y (2) son convergentes Cu al de ellos converge m as rapido a la
soluci on buscada del sistema?
Problema 2.47 Dado el sistema de ecuaciones no lineales
_
5 cos(x
2
y) 5 cos(x
3
y) = x
sen
2
(xy) +

2
cos(x
3
y) = y
1. Determine un dominio en el plano que contenga una unica soluci on (, ) del sistema.
Justique te oricamente.
2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci on (, ) del
sistema. La demostraci on de la convergencia debe hacerse sin iterar.
3. Si considera una precisi on = 10
3
. Cu al es la soluci on aproximada que se obtiene?
(use el criterio de parada [[(x
n
, y
n
) (x
n1
, y
n1
)[[

.)
Problema 2.48 Dado el sistema de ecuaciones no lineales
_
sen(3x
2
y) = x
cos(x) 3 cos(x
3
y
3
) = y
1. Determine un dominio en el plano que contenga una unica soluci on (, ) del sistema.
Justique te oricamente.
2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci on (, ) del
sistema. La demostraci on de la convergencia debe hacerse teoricamente.
3. Si considera una precisi on = 10
2
y la norma [[(x, y)[[
M
= max[x[, [y[ Obtenga la
soluci on aproximada al sistema en este caso.
Problema 2.49 el sistema de ecuaciones no lineales
_
x
3
+x + 4x
2
y + 4xy
2
= 0.7
4x
3
+ 3x 4x
2
y +xy
2
= 0.3
Sergio Plaza 82
1. Determine un dominio en el plano que contenga una unica soluci on (, ) del sistema.
Justique te oricamente.
2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci on (, ) del
sistema. La demostraci on de la convergencia debe hacerse sin iterar.
3. Si considera una precisi on = 10
3
Cu al es la soluci on aproximada que se obtiene?
Problema 2.50 Dado el sistema de ecuaciones no lineales
_
x
4/3
+y
4/3
= b
4/3
y ax = 0
donde a = 1/4 y b =
_
1 +
_
1
4
_
4/3
_
3/4
1. Proponga un metodo de punto jo, no Newton, y demuestre teoricamente que converge a
la raz = (1, 1/4) ,
2. Proponga un metodo casi-Newton y demuestre teoricamente que converge a la raz =
(1, 1/4) .
3. Partiendo del punto inicial (x
0
, y
0
) = (0.95, 0.23) realice 2 iteraciones con ambos metodos.
Compare los resultados. Cu al es su conclusi on?
Problema 2.51 Considere el sistema de ecuaciones no lineales
_
_
_
x = 1 +h
e
x
2
1 +y
2
y = 0.5 +h arctan(x
2
+y
2
) .
Muestre que si h es elegido sucientemente peque no y no cero, entonces el sistema tiene una
unica soluci on = (
1
,
2
) en alguna regi on rectangular. Adem as, muestre que el metodo
iterativo de punto jo denido por el sistema es convergente a la solucion para cualquier
eleccion (x
0
, y
0
) elegida en la region que determin o. (La demostracion de la convergencia debe
hacerse sin iterar.)
Problema 2.52 Considere el sistema de ecuaciones no lineales
_
x
2
+y
2
2x 2y + 1 = 0
x +y 2xy = 0 .
1. Proponga un metodo de punto jo, no Newton, convergente para encontrar una soluci on
del sistema. La demostracion de la convergencia debe hacerse sin iterar.
2. Demuestre sin iterar que el metodo de Newton es convergente en un region que contiene
una soluci on del sistema, y encuentre una soluci on con una aproximaci on de 10
3
usando
la norma [[ [[

.
Problema 2.53 Suponga que p es una raz de multiplicidad m 2 de la ecuacion f(x) = 0 ,
donde f

(x) es continua en un intervalo abierto que contiene a p .


Sergio Plaza 83
(a) Demuestre que el metodo iterativo de punto jo g(x) = x m
f(x)
f

(x)
tiene orden de
convergencia la menos 2.
(b) Use la parte a) para calcular la raz positiva de x
4
1 = 0 , redondeando cada operaci on
a 4 dgitos y con una precision de 10
3
, comenzando con x
0
= 0.8 .
Problema 2.54 Considere la ecuacion e
1x
1 = 0 .
(a) Demuestre que ella tiene una unica raz, la cual es positiva.
(b) Demuestre que el metodo de Newton asociado a esta ecuacion es convergente para cualquier
condici on inicial x
0
[0, 10]
(c) Comenzando con la condicion inicial x
0
= 10 . Realice algunas iteraciones con el metodo
de Newton Cual es su conclusi on?
(d) Considere el intervalo [0, 10] , use el metodo de biseccion para encontrar una aproximaci on
a la raz, con una precision de 10
3
. Compare su resultado con lo obtenido en el item
c). Cual es su conclusi on?
Problema 2.55 Considere el polinomio f(x) = 230x
4
+ 18x
3
+ 9x
2
221x 9 . Se sabe que
este polinomio tiene una raz en el intervalo [0, 1] .
a) Use el metodo de biseccion para aproximar la raz de f(x) con una presicion de 10
3
.
b) Use el metodo de Newton para aproximar la raz de f(x) con una presicion de 10
5
,
comenzando con x
0
= 0.3 .
c) Proponga un metodo iterativo de punto jo convergente para aproximar la raz de f(x) .
La convergencia debe demostrarla sin iterar.
Problema 2.56 Considere el sistema de ecuaciones no lineales
_
_
_
3x cos(yz)
1
2
= 0
x
2
81(y + 0.1)
2
+ sen(z) + 1.06 = 0
e
xy
+ 20z +
103
3
= 0
a) Proponga un metodo iterativo de punto jo convergente para encontrar la soluci on del
sistema. La demostraci on de la convergencia debe hacerse sin iterar.
b) Explcite las componentes del metodo iterativo de Newton para este sistema, y demuestre
la convergencia del metodo para este caso (teoricamente).
c) Usando el metodo iterativo convergente que propuso en a), comenzando con el punto
(0.1, 0.1, 0.1) realice iteraciones hasta obtener una aproximaci on (x
k
, y
k
, z
k
) de la soluci on,
la cual satisface la siguiente condici on: [[(x
k
, y
k
, z
k
) (x
k1
, y
k1
, z
k1
)[[

10
3
.
Problema 2.57 Dado el sistema de ecuaciones no lineales
_
x
2
+xy
3
= 9
3x
2
y y
3
= 4
Estudie la convergencia del metodo de Newton para el sistema, suponiendo que su condicions
iniciales son:
Sergio Plaza 84
(a) (x
0
, y
0
) = (1.3, 1.7) ,
(b) (x
0
, y
0
) = (1, 2) ,
(c) (x
0
, y
0
) = (3, 0.2)
(d) Realizando 4 iteraciones encuentre una aproximaci on a la soluci on en el caso (b)
Problema 2.58 Considere el sistema
_
x
2
+y
2
= 1
2x
2
y = 0
1. Demuestre, sin iterar, que el metodo iterativo de Newton es convergente para este caso.
2. Usando el metodo iterativo de Newton, encuentre la soluci on del sistema ubicada en el
primer cuadrante.
Problema 2.59 Dado el sistema de ecuaciones no lineales
_
_
_
x +x(x +y)
2
0.5 = 0
y +y(y x)
2
0.5 = 0
a) Determine un dominio en el plano que contenga una unica soluci on (, ) del sistema.
Justique te oricamente.
b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
(, ) .
Problema 2.60 Dado el sistema de ecuaciones no lineales
_
sen(3x
2
y) = x
cos(x) 3 cos(x
3
y
2
) = y
1. Determine un dominio en el plano que contenga una unica soluci on (, ) del sistema.
Justique te oricamente.
2. Proponga un metodo de punto jo convergente (no Newton) para encontrar la soluci on
(, ) del sistema. La demostraci on de la convergencia debe hacerse teoricamente.
3. Considere una precisi on = 10
2
y la norma [[(x, y)[[
M
= max[x[, [y[ . Obtenga la
solucion aproximada al sistema en este caso.
Problema 2.61 Dado el sistema no lineal
_
x
2
1
+x
2
2
+x
1
x
2
1 = 0
x
2
1
+ 2x
2
2
+x
1
+x
2
1 = 0
y considere la raz = (
1
,
2
)
T
, tal que
1
> 0 .
Sergio Plaza 85
1. Demuestre sin iterar, que el metodo de Newton converge a , si la condici on inicial
x
(0)
= (x
(0)
1
, x
(0)
2
) se elige sucientemente cerca de .
2. Partiendo de x
(0)
= (0.6, 0.1)
T
y utilizando la m axima capacidad de su calculadora,
resuelva el sistema dado, para la raz mediante el metodo de Newton con una presici on
de 10
2
(utilizando el criterio de parada [[x
(k+1)
x
(k)
[[ )
Problema 2.62 Considere la ecuacion x
4
3x
3
+4x
2
3x+1 = 0 . Esta tiene una raz = 1
1. Use el metodo de Newton para determinar dicha raz , partiendo desde x
0
= 0.8 y
realizando 5 iteraciones.
2. Use el siguiente metodo iterativo
x
n+1
= x
n
2
f(x
n
)
f

(x
n
)
.
para determinar en forma aproximada la raz , comenzando con x
0
= 0.8 .
3. Utilizando los resultados de las iteraciones en a) y en b), compare la rapidez de convergen-
cia de ambos metodos, estimando el error relativo de la aproximaci on x
5
, correspondiente.
Problema 2.63 Considere la ecuacion
cos(3x) + cos
3
(61x) = 0 .
1. Proponga un metodo de punto jo (no del tipo Newton) convergente a la raz =

2
. La
demostracion de convergencia debe hacerse sin iterar.
2. Sin iterar, demuestre que el metodo de la secante converge a dicha raz .
Problema 2.64 Considere la funci on f(x) = 2x
2
x + 6e
x
8 .
1. Usando el metodo iterativo de Newton, comenzando con x
0
= 0.3 . Encuentre una raz
negativa de f(x) = 0 con precisi on de 10
4
, utilizando la m axima capacidad de dgitos
de su calculadora.
2. Usando el metodo iterativo de la Secante, comenzando con x
0
= 0.3 y x
1
= 0 . Encuentre
una raz negativa de f(x) = 0 con precisi on de 10
4
, utilizando la m axima capacidad
de dgitos de su calculadora.
3. Considerando los resultados obtenidos en 1) y 2) Que puede decir acerca de la conver-
gencia de ambos metodos en este caso particular? Compare con los resultados te oricos
relacionados.
Problema 2.65 Considere la ecuacion 230x
4
+ 18x
3
+ 9x
2
221x 9 = 0 .
1. Demuestre (te oricamente) que la ecuacion tiene una raz en el intervalo [0, 1] .
2. Usando el metodo de biseccion encuentre la raz , con una precision de 10
3
. Cu antos
iteraciones seran necesarias para obtener una aproximaci on de la raz, con precisi on de
10
3
, en el peor de los casos? (Use la formula de la cota del error).
Sergio Plaza 86
3. Use el metodo de Newton para determinar dicha raz , partiendo desde x
0
= 0.8 con
una precision de 10
3
.
Problema 2.66 Considere el sistema de ecuaciones no lineales
_
4x
2
40x +
1
4
y + 8 = 0
1
2
xy
2
+ 2x 10y + 8 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x
0
, y
0
) = (0, 0) y utilizando la m axima capacidad de su calculadora, obtenga la
soluci on con una precision de = 0.05 , usando como criterio
_
(x
n
x
n+1
)
2
+ (y
n
y
n+1
)
2

.
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
Problema 2.67 Considere el sistema de ecuaciones no lineales
_
4x
2
20x +
1
4
y + 8 = 0
1
2
xy
2
+ 2x 5y + 8 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x
0
, y
0
) = (0, 0) y utilizando la m axima capacidad de su calculadora, obtenga la
soluci on con una precision de = 0.05 , usando como criterio
_
(x
n
x
n+1
)
2
+ (y
n
y
n+1
)
2

.
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
Problema 2.68 Considere la ecuacion f(x) = x
3
5x
2
+3x7 = 0 . Se sabe que esta ecuacion
tiene una raz cerca de 4.6783 .
1. Use el metodo de Newton para obtener una aproximaci on para con una presicion =
10
8
, utilizando como criterio de parada [f(x
n
)[ < , y como punto inicial a x
0
= 4.67 .
Justique teoricamente la convergencia del metodo de Newton en este caso.
2. Considere el metodo iterativo siguiente
x
n+1
= x
n

2f(x
n
)f

(x
n
)
2(f

(x
n
))
2
f(x
n
)f

(x
n
)
.
Use este metodo para obtener una aproximaci on a la raz de la ecuacion anterior con
una presicion = 10
8
, utilizando como criterio de parada [f(x
n
)[ < , y como punto
inicial a x
0
= 4.67 .
Sergio Plaza 87
3. Cu al de ellos converge m as rapido?
Problema 2.69 Considere la funci on f(x) = e
1/x
x, denida para x > 0 .
1. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
soluci on de f(x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.
x
n+1
= g
1
(x
n
) = x
n
x
2
n
x
n
e
1/xn
x
2
n
+e
1/xn
y x
n+1
= g
2
(x
n
) = x
n
+
1 x
n
ln(x
n
)
1 + ln(x
n
)
Use el metodos que demostr o que es convergente para encontrar una solucion de f(x) = 0 ,
con una precision = 10
3
, con el criterio de parada [x
n+1
x
n
[ , y comenzando
con x
0
= 1.76 .
2. Proponga un metodo iterativo convergente, no Newton, para encontrar una soluci on de
la ecuacion f(x) = 0 . Use el metodo propuesto por usted para encontrar una soluci on
de f(x) = 0 , con una precision = 10
3
, con el criterio de parada [x
n+1
x
n
[ , y
comenzando con x
0
= 1.76. La demostracion de la convergencia debe hacerla en forma
teorica.
3. Use el metodo de la secante para encontrar una soluci on de f(x) = 0 , con una precision
= 10
3
, con el criterio de parada [x
n+1
x
n
[ , comenzando con x
0
= 1.76 y
x
1
= 1.763 .
4. En los casos anteriores Cual de los metodos converge m as rapido?
Problema 2.70 Considere el sistema de ecuaciones no lineales
_
x
2
1
+ 8x
1
x
2
2
6 = 0
x
2
1
x
2
x
1
+ 8x
2
6 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar.
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
. Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto
en 2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)
Problema 2.71 Considere el siguiente sistema de ecuaciones
_
x
2
+ y
2
9 = 0
x
2
+y
2
8x + 12 = 0
1. Explicite por componentes y simplique al m aximo, el esquema iterativo denido por el
metodo de Newton.
Sergio Plaza 88
2. Se sabe que el sistema tiene una soluci on (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime el error del resultado de la tercera iteracion respecto a la soluci on exacta (, ) =
(
21
8
,

135
8
) .
Problema 2.72 Considere al ecuacion x
3
+ 2x
2
+ 10x 20 = 0 .
1. Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
soluci on =

10 . La demostracion de la convergencia debe hacerse sin iteraciones.


2. Usando el metodo que propuso en a), encuentre una soluci on aproximada a con un
error de no m as de 10
2
Problema 2.73 Considere al ecuacion x
3
+ 2x
2
+ 10x 20 = 0 .
1. Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
soluci on =

10 . La demostracion de la convergencia debe hacerse sin iteraciones.


2. Usando el metodo que propuso en a), encuentre una soluci on aproximada a con un
error de no m as de 10
2
Problema 2.74 Considere el siguiente sistema de ecuaciones
_
x
2
+y
2
16 = 0
x
2
+y
2
8x = 0
1. Explicite por componentes y simplique al m aximo, el esquema iterativo denido por el
metodo de Newton.
2. Se sabe que el sistema tiene una soluci on (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.
3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime el error del resultado de la tercera iteracion respecto a la soluci on exacta (, ) =
(3,

12 ) .
Problema 2.75 Considere el sistema de ecuaciones no lineales
_
x
2
1
10x
1
+x
2
2
+ 8 = 0
x
1
x
2
2
+x
1
10x
2
+ 8 = 0 .
1. Determinar una regi on D R
2
que contiene una unica soluci on = (
1
,
2
) del sistema.
2. Proponga un metodo de punto jo convergente para determinar la soluci on = (
1
,
2
)
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 89
3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?
4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)
Problema 2.76 Sea f(x) = (x 3)
5
.
(a) Determine la formula de Newton x
n+1
= g(x
n
) para calcular el cero de la funcion f.
Tomando como valor inicial x
0
= 1, calcule seg un la f ormula de iteraci on de Newton
encontrada en la parte (a) los valores de x
1
, x
2
y x
3
.
(b) Calcule usando como valores iniciales x
0
y x
1
obtenidos en (a), los valores de x
2
y x
3
usando el metodo de la secante. Podra usted usar el metodo de Regula-falsi?. Explique
su respuesta en el caso negativo o partiendo de dos puntos iniciales apropiados x
0
y x
1
,
obtenga los valores de x
2
y x
3
en caso armativo.
(c) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1. De un metodo alternativo de iteracion que garantice un orden de convergencia
p = 2 y demuestre que efectvamente este es su orden de convergencia.
Problema 2.77 Aplique el metodo de la biseccion y regula falsi para encontrar una aproxi-
macion a soluci on de ecuaci on x = tan(x) en [4,4.5]. Use una tolerancia de 10
3
.
Problema 2.78 Use el metodo de la biseccion y regula falsi para encontrar una aproximaci on
a

5 correcta en 5 cifras signicativas. Sugerencia: considere f(x) = x
2
5 .
Problema 2.79 Calcule el n umero de iteraciones que se requieren usando el metodo de biseccion
para alcanzar una aproximaci on con una exactitud de 10
3
a la soluci on de x
3
+x 4 = 0 que
se encuentra en el intervalo [1, 4] . Obtenga una aproximaci on de la raz con este grado de
exactitud.
Problema 2.80 Sean f(x) = (x 1)
10
, = 1 y x
n
= 1 + 1/n. Pruebe que [f(x
n
)[ < 10
3
siempre que n > 1 pero que [x
n
[ < 10
3
requiere que n > 1000 . Este ejercicio muestra una
funci on f(x) tal que [f(x
n
)[ se aproxima a cero, mientras que la sucesi on de aproximaciones
(x
n
)
nN
lo hace mucho mas lento.
Problema 2.81 Sea (x
n
)
nN
la sucesion denida por x
n
=

k=1
1/k . Pruebe que (x
n
)
nN
diverge a un cuando lim
n
(x
n
x
n1
) = 0 . Este ejercicio muestra una sucesion (x
n
)
nN
con
la propiedad de que las diferencias x
n
x
n1
(en referencia al error relativo) convergen a cero,
mientras que la sucesi on (x
n
)
nN
diverge.
Problema 2.82 El metodo dede biseccion se puede aplicar siempre que f(a)f(b) < 0 . Si f(x)
tiene mas de un cero en (a, b) se podr a saber de antemano cu al cero es el que se encuentra al
aplicar el metodo de la biseccion? ilustre su respuesta con ejemplos.
Sergio Plaza 90
Problema 2.83 Las siguientes funciones cumplen con la condici on f(a) f(b) < 0 , donde
a = 0 y b = 1 . Si se aplica el metodo de biseccion en el intervalo [a, b] a cada una de esas
funciones Que punto se encuentra en cada caso? Es este punto un cero de f ?
a. f(x) = (3x 1)
1
b. f(x) = cos(10x) c. f(x) =
_
1, para x > 0
1, para x 0 .
Problema 2.84 Verique que se puede aplicar el metodo de biseccion para aproximar el unico
cero de la funcion f(x) = x
3
x 1 en el intervalo [1, 2] Cu antas iteraciones seran necesarias
para que al aplicar el metodo de biseccion en el intervalo [1,2] se logre una aproximacion de por
lo menos 3 cifras decimales exactas? Calcule tal aproximacion.
Problema 2.85 Estudie la funci on g(x) =

1 +x
2
como una posible funci on de iteraci on de
punto jo Por que no es convegente la iteracion x
n
= g(x
n1
) , n = 1, 2, . . .? .
Problema 2.86 Verique que cada una de las siguientes funciones g
i
(x) , i = 1, 2, 3, 4 es una
funci on de iteraci on de punto jo para la ecuaci on x
4
+ 2x
2
x 3 = 0 , es decir, = g
i
() ,
i = 1, 2, 3, 4 implica que f() = 0 , siendo f(x) = x
4
+ 2x
2
x 3
a) g
1
(x) = (3 +x 2x
2
)
1/4
b) g
2
(x) =
_
3 +x x
4
2
_
1/2
c) g
3
(x) =
_
3 +x
x
2
+ 2
_
1/2
d) g
4
(x) =
3x
4
+ 2x
2
+ 3
4x
3
+ 4x 1
.
Efect ue 4 iteraciones, si es posible, con cada una de las funciones de iteracion denidas
arriba, tomando x
0
= 1 y x
n
= g
i
(x
n1
), i = 1, 2, 3, 4 Cu al funci on cree usted que da la mejor
aproximaci on? Explique.
Problema 2.87 Demuestre que la ecuacion 2 sin (x) + x = 0 tiene una unica raz
[1/2, 3/2] . Use un metodo de iteraci on de punto jo para encontrar una aproximai on de con
una precision de por lo menos tres cifras signicativas.
Problema 2.88 Pruebe que la funci on g(x) = 2 +xtan
1
(x) tiene la propiedad [g

(x)[ < 1
para toda x. Pruebe que g no tiene un punto jo. Explique porque esto no contradice los
teoremas sobre existencia de punto jo.
Problema 2.89 Use un metodo iterativo de punto jo para demostrar que la sucesi on (x
n
)
nN
denida por
x
n+1
=
1
2
_
x
n
+
2
x
n
_
, n = 0, 1, 2, . . .
converge a

2 para x
0
> 0 escogido adecuadamente.
En general, si R > 0 , entonces la sucesion (x
n
)
nN
denida por
Sergio Plaza 91
x
n+1
=
1
2
_
x
n
+
R
x
n
_
, n = 0, 1, 2,
converge a

R para x
0
> 0 escogido adecuadamente. Esta sucesi on se usa con frecuencia
en subrutinas para calcular races cuadradas.
Problema 2.90 Cu al es el valor de la siguiente expresion?
x =
_
2 +
_
2 +

2+
Note que esta expresi on puede ser interpretada como signicado x = lim
n
x
n
, donde
x
0
=

2, x
1
=
_
2 +

2 =

2 +x
0
y as sucesivamente. USe un metodo de punto jo con una
funci on de iteraci on g(x) apropiada.
Problema 2.91 Resuelva la ecuacion 4 cos(x) = e
x
con una precision de 5 10
5
, es decir,
calcular las iteraciones x
n
hasta que [x
n
x
n1
[ < 5 10
5
usando
a) El metodo de Newton con x
0
= 1
b) El metodo de la secante con x
0
= /4 y x
1
= /2 .
Problema 2.92 Use el metodo de Newton para resolver la ecuacion
_
sen(x)
x
2
_
2
= 0 , con x
0
=

2
.
Itere hasta obtener una precision de 5 10
5
para la raz aproximada con f(x) = (sen(x)
x
2
)
2
e parecen los resultados fuera de lo com un para el metodo de Newton? Resuelva tambien
la ecuacion con x
0
= 5 y x
0
= 10 .
Problema 2.93 se el metodo de Newton modicado para encontrar una aproximaci on de la
raz de la ecuacion
f(x) = x
2
+ 2xe
x
+e
2x
= 0
empezando con x
0
= 0 y efectuando 10 iteraciones C ual es la multiplicidad de la raz buscada?
Problema 2.94 Se desea resolver la ecuacion no lineal f(x) = 0 , donde f : R R tiene
tantas derivadas cuantas sean necesarias Es posible elegir una funcion h de modo que la formula
iterativa siguiente
x
n+1
= x
n

f(x
n
)
f

(x
n
)
+h(x
n
)
_
f(x
n
)
f

(x
n
)
_
2
tenga orden de convergencia 3 a una raz simple de f(x) = 0 ?
Sergio Plaza 92
Problema 2.95 Considere una rma que desea maximizar sus ganancias, eligiendo el precio
de venta de su producto, denotado por y y la cantidad gastada en publicidad, denotada por
z . Para esto, se supone que la funci on de benecio B viene dada por
B = yx (z +g
2
(x)),
con x = g
1
(y, z) = a
1
+a
2
y +a
3
z +a
4
yz +a
5
z
2
, g
2
(x) = e
1
+e
2
x, y donde
B = Benecio
x = n umero de unidades vendidas
y = precio de venta por unidad
z = dinero gastado en publicidad
g
1
(y, z) representa una prediccion de unidades vendidas
cuando el precio es y y el gasto en publicidad es z
g
2
(x) es el costo de producir unidades
y los par ametros a
i
y e
i
son
a
1
= 50000, a
2
= 5000, a
3
= 40, a
4
= 1, a
5
= 0.002
e
1
= 100000, e
2
= 2.
Se pide encontrar los valores de y y de z que maximicen el Benecio B. Para esto, resuelva
el sistema no lineal
B(y, z) = 0.
Problema 2.96 Sea f(x) = e
x
1 cos(x) . Muestre que la ecuacion f(x) = 0 tiene
una unica raz en [0, 1] . Estudie que ocurre con el metodo de Newton comenzando con las
condiciones iniciales x
0
= y x
0
= 1 + , x
0
= 0 y x
0
= 1 .
Problema 2.97 Dena f : ]0, [ R denida como f(x) =
8x1
x
e
x
. Considere los
metodos iterativos
x
n+1
= f
1
(x
n
) =
1
8
(1 +x
n
e
x
n
) y x
n+1
= f
2
(x
n
) = ln
_
8x
n
1
x
n
_
Cual de ellos es convergente a la raz de f(x) = 0 mas pr oxima de cero? Cual de ellos es
convergente a la raz de f(x) = 0 mas pr oxima de 2?
Problema 2.98
Problema 2.99
2.12 Uso de metodos de integraci on para obtener f ormulas
iterativas para resolver ecuaciones no lineales
1
1
En una primera lectura, puede obviarse esta seccion
Sergio Plaza 93
Es com un obtener la f ormula de iteraci on de Newton
N
f
(x) = x
f(x)
f

(x)
mediante un argumento geometrico. En esta nota veremos que podemos obtener esa f ormula a
partir del Teorema Fundamental del C alculo.
Del teorema Fundamental del C alculo tenemos que
f(x) = f(x
n
) +
_
x
xn
f

(t)dt (2.25)
aproximando el valor de la integral por el area del rectangulo de base x
n
, x y altura f

(x
n
) ,
obtenemos
_
x
xn
f

(t)dt f

(x
n
)(x x
n
) (2.26)
luego, reemplazando esto en (4.18) obtenemos
f(x) f(x
n
) + f

(x
n
)(x x
n
) (2.27)
si x
n
es tal que f(x
n+1
) = 0 , tenemos
f(x
n
) +f

(x
n
)(x
n+1
x
n
) 0 , (2.28)
de donde
x
n+1
= x
n

f(x
n
)
f

(x
n
)
(2.29)
que no es otra que la f ormula iterativa de Newton.
2.13 Otras f ormulas iterativas
Ahora si usamos la regla de Simpson para aproximar las integral (que estudiaremos en forma
detallada en un captulo mas adelante)
_
x
xn
f

(t)dt ,
obtenemos
_
x
xn
f

(t)dt
x x
n
6
[f

(x) + 4f

(
x +x
n
2
) +f

(x
n
)] (2.30)
y tenemos la ecuacion
Sergio Plaza 94

M(x) = f(x
n
) +
x x
n
6
[f

(x) + 4f

(
x +x
n
2
) +f

(x
n
)] . (2.31)
Sea x
n+1
la soluci on de la ecuaci on

M(x) = 0 , entonces obtenemos
f(x
n
) +
x x
n
6
[f

(x) + 4f

(
x +x
n
2
) +f

(x
n
)] = 0 (2.32)
de donde
x
n+1
= x
n

6f(x
n
)
f

(x
n+1
) + 4f

(
xn+xn+1
2
) +f

(x
n
)
(2.33)
si reemplazamos x
n+1
por x
n+1
= x
n

f(xn)
f

(xn)
en el lado derecho de la igualdad anterior,
obtenemos la f ormula iterativa
x
n+1
= x
n

6f(x
n
)
f

_
x
n

f(xn)
f

(xn)
_
+ 4f

_
x
n

1
2
f(xn)
f

(xn)
_
+f

(x
n
)
(2.34)
Este es un metodo de tercer orden de convergencia en las races simples de f(x) .
Tenemos tambien el metodo iterativo
x
n+1
= x
n

2f(x
n
)
f

(x
n
) +f

_
x
n

f(xn)
f

(xn)
_ (2.35)
que tambien es de orden de convergencia 3 en las races simples de f(x) . Para obtener esta
f ormula iterativa, aproximamos la integral
_
x
xn
f

(t)dt
por la regla de los trapecios, es decir,
_
x
xn
f

(t)dt
x x
n
2
(f(

(x) +f

(x
n
)) . (2.36)
Resolviendo la ecuacion
M
f
(x) = f(x
n
) +
(x x
n
)
2
(f

(x) +f

(x
n
)) = 0 , (2.37)
si x
n+1
es su soluci on, obtenemos
f(x
n
) +
(x
n+1
x
n
)
2
(f

(x
n
) +f

(x
n+1
)) = 0 , (2.38)
de donde
x
n+1
= x
n

2f(x
n
)
f

(x
n
) +f

(x
n+1
)
(2.39)
Sergio Plaza 95
reemplazando x
n+1
por x
n+1
= x
n

f(xn)
f

(xn)
en el lado derecho de esta ultima igualdad, tenemos
x
n+1
= x
n

2f(x
n
)
f

(x
n
) +f

_
x
n

f(xn)
f

(xn)
_ . (2.40)
Captulo 3
Sistemas de Ecuaciones Lineales
Sistemas de ecuaciones lineales se utilizan en muchos problemas de ingeniera y de las ciencias,
as como en aplicaciones de las matematicas a las ciencias sociales y al estudio cuantitativo de
problemas de administracion y economa.
En este captulo se examinan metodos iterativos y metodos directos para resolver sistemas
de ecuaciones lineales
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
.
(3.1)
Este sistema puede ser expresado en la forma matricial como
Ax = b, (3.2)
donde A = (a
ij
)
nn
M (n n, R) , b = (b
1
, b
2
, . . . , b
n
)
T
R
n
y x = (x
1
, x
2
, . . . , x
n
)
T

R
n
es la inc ognita.
En la siguiente secci on estudiaremos algunos metodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos metodos iterativos .
3.1 Normas matriciales
Para estudiar algunos metodos iterativos que nos permitan resolver sistemas de ecuaciones
lineales, necesitamos de algunos conceptos b asicos de

Algebra Lineal.
3.1.1 Normas vectoriales
Sea V un espacio vectorial de dimension nita.
Denicion 3.1 Una norma en V es una funci on [[ [[ : V R que satisface
N1) |x| 0 para todo x V ,
96
Sergio Plaza 97
N2) |ax| = [a[ |x| para todo x V y todo a R,
N3) |x +y| |x| +|y| para todo x, y V (desigualdad triangular).
Ejemplo 44 En R
n
podemos denir las siguientes normas
1. | (x
1
, x
2
, . . . , x
n
) |
2
= (

n
i=1
x
2
i
)
1/2
(norma euclideana)
2. | (x
1
, x
2
, . . . , x
n
) |

= max [x
i
[ : 1 i n
3. | (x
1
, x
2
, . . . , x
n
) |
1
=
n

i=1
[x
i
[
4. [[(x
1
, x
2
, . . . , x
n
)[[
p
= (

n
i=1
[x
i
[
p
)
1/p
(norma p ).
Ejemplo 45 Denotemos por V = M(n n, R) el espacio vectorial real de las matrices de
orden n n con entradas reales. Denimos las siguientes normas en V
1. [[A[[
2
=
_
traza(AA
T
)
2. [[A[[
F
=
_

n
i,j=1
a
2
ij
_
1/2
=
_

n
i=1

n
j=1
a
2
ij
_
1/2
(norma de Fr obenius)
3. [[A[[
,
= sup[[Ax[[

: x R
n
, con |x|

= 1 , donde [[ [[

y [[ [[

, denotan
normas cualesquiera norma sobre R
n
. Esta norma es llamada norma subordinada a las
norma en R
n
.
Notemos que tambien se tiene
|A|
,
= sup
_
|Ax|

|x|

: x R
n
, |x|

,= 0
_
.
La vericacion que lo anterior dene una norma sobre el espacio vectorial M (n n, R)
no es difcil, por ejemplo N1 es inmediata, para vericar N2, usamos la propiedad sigu-
iente del supremo de conjuntos en R, sup (A) = sup(A) , para todo 0 , donde
A = x : x A . Finalmente, para vericar N3, usamos la propiedad sup (A + B)
sup(A) + sup(B) , donde A +B = x +y : x A, y B .
Observaci on.
1. Si A M(n n, R) es no singular, esto es, det(A) ,= 0 , entonces
inf[[Ax[[ : [[x[[ = 1 =
1
[[A
1
[[
.
2. [[A[[
2
=

max
, donde
max
es el mayor valor propio de AA
T
.
3. Si A M(n n, R) es no singular, entonces
[[A
1
[[
2
=
1
inf[[Ax[[
2
: [[x[[
2
= 1
=
1

min
,
donde
min
es el menor valor propio de AA
T
.
Sergio Plaza 98
4. [[A[[
2
= [[A
T
[[
2
.
5.

_
A 0
0 B
_

2
= max[[A[[
2
, [[B[[
2
.
Teorema 3.1 Para A M(n n, R) y x R
n
, se tiene que |Ax| |A| |x| .
Demostracion. Desde la denicion de norma matricial se tiene que [[A[[
||Ax||
||x||
, para
todo x R
n
, con x ,= 0 , de donde [[Ax[[ [[A[[ [[x[[ , y como esta ultima desigualdad vale
trivialmente para x = 0 , el resultado se sigue.
Ejemplo 46 Si en R
n
elegimos la [[ [[

, entonces la norma matricial subordinada viene dada


por
[[A[[

= sup |Ax|

: |x|

= 1
= max
_
_
_
n

j=1
[a
1j
[,
n

j=1
[a
2j
[, . . . ,
n

j=1
[a
ij
[, . . . ,
n

j=1
[a
nj
[
_
_
_
.
Ejemplo 47 Si en R
n
elegimos la [[ [[
1
, entonces la norma matricial subordinada viene dada
por
[[A[[
1
= sup |Ax|
1
: |x|
1
= 1
= max
_
n

i=1
[a
i1
[,
n

i=1
[a
i2
[, . . . ,
n

i=1
[a
ij
[, . . . ,
n

i=1
[a
in
[
_
.
Una de las normas m as usadas en Algebra Lineal es la norma de Fr obenius la cual es dada
por
[[A[[
F
=
_
_
n

i=1
m

j=1
a
2
ij
_
_
1/2
, A M(mn, R)
y tambien las p normas ( p 1 ), las cuales son dadas por
[[A[[
p
= sup
_
[[Ax[[
p
[[x[[
p
: x ,= 0
_
.
Teorema 3.2 Para cualquier norma matricial subordinada se tiene
1. | I | = 1.
2. |AB| |A| |B| .
Demostracion. Del teorema (3.1) para todo x R
n
se tiene que
[[ABx[[ [[A[[ [[Bx[[ [[A[[ [[B[[ [[x[[ ,
de donde el resultado se sigue.
Sergio Plaza 99
Ejemplo 48 No toda norma matricial es subordinada a alguna norma en R
n
. Para verlo,
usamos la parte 2 del teorema anterior.
Denamos la norma matricial
[[A[[

= max
i,j=1,...,n
[a
i,j
[ .
Armamos que esta es una norma matricial (se deja al lector la vericaci on) y no es subor-
dinada a ninguna norma en M(n n, R) .
En efecto, tomemos las matrices
A = B =
_
1 1
0 1
_
.
Tenemos [[A[[

= [[B[[

= 1 y como
AB =
_
1 2
0 1
_
se tiene que [[AB[[

= 2 > [[A[[

[[B[[

= 1 .
Teorema 3.3 Para las normas matriciales denidas anteriormente valen las siguientes rela-
ciones. Sea A M(n n, R) , entonces
1. [[A[[
2
[[A[[
F

n [[A[[
2
2. [[A[[

[[A[[
2
n [[A[[

3.
1

n
[[A[[

[[A[[
2

n [[A[[

4.
1

n
[[A[[
1
[[A[[
2

n [[A[[
1
.
Teorema 3.4 Sea A M (n n, R) , con | A| < 1 , entonces I A es una matriz que tiene
inversa, la cual viene dada por (I A)
1
=

k=0
A
k
, donde A
0
= I . Adem as, se tiene que
_
_
_(I A)
1
_
_
_
1
1 |A|
.
Demostracion. Es solo calculo y se deja a cargo del lector.
Teorema 3.5 Sean A, B M (n n, R) tales que |I AB| < 1 entonces A y B tienen
inversas, las cuales son dadas por A
1
= B
_

k=0
(I AB)
k
_
y B
1
=
_

k=0
(I AB)
k
_
A,
respectivamente,.
Demostracion. Directa desde el teorema anterior.
Denicion 3.2 Sea A M (n n, R) , decimos que C es un valor propio de A si la
matriz AI no es invertible, en otras palabras, es soluci on de la ecuaci on polinomial
p
A
() = det (A I) = 0,
Sergio Plaza 100
donde p () es el polinomio caracterstico de A. Se dene el espectro de A como el conjunto
de sus valores propios, es decir,
(A) = C : valor propio de A .
Observaci on. El polinomio caracterstico de A, p() , tiene grado menor o igual a n.
Denicion 3.3 Sea A M (n n, R) , denimos el radio espectral de A por
(A) = max [[ : (A) .
Observaci on. Geometricamente (A) es el menor radio tal que el crculo centrado en el origen
en el plano complejo con radio (A) contiene todos los valores propios de A.
Observaci on. Si = a +ib C, su valor absoluto o norma es dado por [ [ =

a
2
+b
2
.
Teorema 3.6 Se tiene (A) = inf |A| , donde el nmo es tomado sobre todas las normas
matriciales denidas sobre el espacio vectorial M (n n, R) .
Observaci on. Desde la denicion de las norma matriciales [[ [[

y [[ [[
1
vemos que calcularlas
para una matriz dada es f acil. Para lo norma [[ [[
2
el calculo no es tan sencillo, pero tenemos
el siguiente resultado.
Teorema 3.7 Sea A M(n n, R) . Entonces
[[A[[
2
=
_
max
_
[[ : (A
T
A)
__
1/2
,
en otras palabras, [[A[[
2
es la raz cuadrada del mayor valor propio de la matriz A
T
A.
Corolario 3.1 Si A M(n n, R) es simetrica, entonces
[[A[[
2
= max[[ : (A) .
3.2 N umero de condici on
Consideremos el sistema Ax = b, donde A es una matriz invertible, por lo tanto tenemos que
x
T
= A
1
b es la soluci on exacta.
Caso 1: Se perturba A
1
para obtener una nueva matriz B, la soluci on x = A
1
b resulta
perturbada y se obtiene un vector x
A
= Bb que debera ser una solucion aproximada al sistema
original. Una pregunta natural es que ocurre con E(x
A
) = |x
T
x
A
| ? Tenemos
|x
T
x
A
| = |x
T
Bb| = |x
T
BAx
T
| = |(I BA) x
T
| |I BA| |x
T
|
de donde obtenemos que
E (x
A
) = |x
T
x
A
| |I BA| |x
T
|
Sergio Plaza 101
y para el error relativo E
R
(x
A
) , tenemos
E
R
(x
A
) =
|x
T
x
A
|
|x
T
|
|I BA| .
Caso 2: Si perturbamos b para obtener un nuevo vector b
A
. Si x
T
satisface Ax = b y x
A
satisface Ax = b
A
. Una pregunta natural es determinar cotas para E(x
A
) = |x
T
x
A
| y
E
R
(x
A
) =
xT xA
xT
. Tenemos que
|x
T
x
A
| =
_
_
A
1
b A
1
b
A
_
_
=
_
_
A
1
(b b
A
)
_
_

_
_
A
1
_
_
|b b
A
| ,
por lo tanto
E (x
A
) |A
1
| |b b
A
| = |A
1
| E (b
A
) ,
esto es,
E (x
A
) |b b
A
| =
_
_
A
1
_
_
E (b
A
) , (3.3)
y por otro lado se tiene
|x
T
x
A
|
_
_
A
1
_
_
|b b
A
| =
_
_
A
1
_
_
|Ax
T
|
|b b
A
|
|b|

_
_
A
1
_
_
|A| |x
T
|
|b b
A
|
|b|
luego
E
R
(x
T
) =
|x
T
x
A
|
|x
T
|

_
_
A
1
_
_
|A|
|b b
A
|
|b|
=
_
_
A
1
_
_
|A| E
R
(b
A
) .
esto es,
E
R
(x
A
) [[A
1
[[ [[A[[E
R
(b
A
. (3.4)
Denicion 3.4 Sea A M (n n, R) una matriz invertible, el n umero condici on de A es
dado por
(A) = |A|
_
_
A
1
_
_
. (3.5)
Observaci on. Note que (A) 1 , pues es evidente que (I) = 1 y que
1 = [[I[[ [[A[[ [[A
1
[[ = (A).
Ejemplo 49 Considere
A =
_
1 1 +
1 1
_
,
con > 0, sucientemente peque no. Tenemos que det(A) =
2
0 es muy peque no, lo cual
signica que A es casi singular. Como
Sergio Plaza 102
A
1
=
2
_
1 1
1 + 1
_
,
obtenemos que |A|

= 2 +,
_
_
A
1
_
_

=
2
(2 +) , por lo tanto
(A) =
(2 +)
2

2

4

.
Observe que si < 0.0001, entonces k (A) 40.000.
Ejemplo 50 Consideremos la matriz
A =
_
1 1
1 1.00000001
_
Tenemos
A
1
=
_
1.0 10
8
1.0 10
8
1.0 10
8
1.0 10
8
_
Luego, [[A[[
1
= [[A[[
2
[[A[[

= 2 , [[A
1
[[
1
= [[A
1
[[

[[A
1
[[
2
2 10
8
, luego

1
(A) =

(A) 4 10
8
.
Observaci on. Si (A) es demasiado grande diremos que A esta mal condicionada.
Ejemplo 51 Consideremos la matriz
A =
_
_
_
_
_
_
_
_
1 1 1 1
0 1 1 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
0 0 0 1
_
_
_
_
_
_
_
_
.
La matriz A tiene solo unos en su diagonal, y sobre ella tiene s olo menos unos. Tenemos que
det(A) = 1 , pero

(A) = n2
n1
, esta matriz esta mal condicionada.
Si resolvemos Ax = b numericamente no obtenemos una solucion exacta, x
T
, si no una
soluci on aproximada x
A
. Una pregunta natural al resolver numericamente el sistema es que
tan cerca esta Ax
A
de b?
Para responder dicha interrogante denamos r = b Ax
A
como el vector residual y e =
x
T
x
A
como el vector de error.
Observaci on. Tenemos que
1. Ae = r.
2. x
A
es solucion exacta de Ax
A
= b
A
= b r .
Sergio Plaza 103
Que relacion existe entre
xT xA
xT
y
bbA
b
=
r
b
?
Teorema 3.8 Para toda matriz invertible A M(n n, R) , se tiene que
1
(A)
| b b
A
|
| b|

| x
T
x
A
|
| x
T
|
(A)
| b b
A
|
| b|
, (3.6)
es decir,
1
(A)
| r |
| b|

| e |
| x
T
|
(A)
| r |
| b|
. (3.7)
Observaci on. Si tenemos una matriz B escrita en la forma
B = A(I +E)
donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo
[[x
T
x
A
[[
[[x
T
[[

(A)
1 (A)
||AE||
||A
[[AE[[
[[A[[
(3.8)
si [[AE[[ < 1 y
[[x
T
x
A
[[
[[x
T
[[

[[E[[
1 [[E[[
(3.9)
si [[E[[ < 1 .
Observaci on. Sea A M(n n, R) . Denotemos por
max
y
min
, respectivamente, el
maximo y el mnimo de los valores propios de AA
T
. Entonces
2
(A) =
_
max
min
.
Ejemplo 52 Determine [[A[[
2
, [[A
1
[[
2
y
2
(A) , donde
A =
_
_
_
_
_
_
3

3

1

3
0

3
_
_
_
_
_
_
Tenemos que
A
T
=
_
_
_
_
_
_
3

3
0

3
_
_
_
_
_
_
Luego
AA
T
I =
_
_
_
_
_
10
3

8
3

8
3
8
3

_
_
_
_
_
.
Sergio Plaza 104
Por lo tanto, det(AA
T
I) =
2
6+8 , de donde los valores propios de AA
T
son = 2
y = 4 , es decir,
min
= 2 y
max
= 4 . Luego
[[A[[
2
=
_

max
= 2 y [[A
1
[[
2
=
1

min
=
1

2
,
y se tiene que
2
(A) =
2

2
=

2 .
3.3 Soluci on de sistemas de ecuaciones lineales: metodos
directos
En esta parte estudiaremos metodos directos, es decir, algebraicos, para resolver sistemas de
ecuaciones lineales. Herramienta fundamental aqu es el

Algebra Lineal.
3.3.1 Conceptos basicos
La idea es reducir un sistema de ecuaciones lineales a otro que sea mas sencillo de resolver.
Denicion 3.5 Sean A, B M(n n, R) . Decimos que dos sistemas de ecuaciones lineales
Ax = b y Bx = d son equivalentes si poseen exactamente las mismas soluciones.
Por lo tanto si podemos reducir un sistema de ecuaciones lineales Ax = b a un sistema
equivalente y mas simple Bx = d, podemos resolver este ultimo, y obtenemos de ese modo las
soluciones del sistema original.
Denicion 3.6 Sea A M(n n, R) . Llamaremos operaciones elementales por las sobre A
a cada una de las siguientes operaciones
1. Intercambio de la la i con la la j , denotamos esta operacion por F
i
F
j
.
2. Reemplazar la la i, F
i
, por un m ultiplo no nulo F
i
de la la i , denotamos esta
operacion por F
i
F
i
3. Reemplazar la la i , F
i
, por la suma de la la i m as un m ultiplo no nulo F
j
de la la
j , i ,= j , denotamos esta operacion por F
i
F
i
+F
j
Denicion 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a traves de una unica operaci on elemental. Una matriz elemental sera
denotada por E .
Ejemplo 53 1.
_
_
1 0 0
0 1 0
0 0 1
_
_
F
3
F
2
_
_
1 0 0
0 0 1
0 1 0
_
_
.
2.
_
_
1 0 0
0 1 0
0 0 1
_
_
F
2
rF
2
_
_
1 0 0
0 r 0
0 0 1
_
_
Sergio Plaza 105
3.
_
_
1 0 0
0 1 0
0 0 1
_
_
F
3
F
3
+rF
2
_
_
1 0 0
0 1 0
0 r 1
_
_
Observaci on. Si a una matriz A se le aplican una serie de operaciones elementales
E
1
, E
2
, . . . , E
k
denotaremos el resultado por E
k
E
k1
E
2
E
1
A.
Ademas, si E
k
E
k1
E
2
E
1
A = I , se tiene que A posee inversa y E
k
E
k1
E
2
E
1
= A
1
.
El teorema siguiente resume las condiciones para que una matriz tenga inversa.
Teorema 3.9 Sea A M (n n, R) entonces son equivalentes
1. A tiene inversa.
2. det (A) ,= 0.
3. Las las de A forman una base de R
n
.
4. Las columnas de A forman una base de R
n
.
5. La transformacion lineal T : R
n
R
n
dada por T(x) = Ax, asociada a la matriz A,
es inyectiva,
6. La transformacion T : R
n
R
n
dada por T(x) = Ax, asociada a la matriz A, es
sobreyectiva
7. El sistema Ax = 0 , donde x R
n
posee soluci on unica x = 0 .
8. Para cada b R
n
existe un unico vector x R
n
tal que Ax = b.
9. A es producto de matrices elementales.
10. Todos los valores propios de A son distinto de cero.
3.4 Factorizaci on de matrices
En esta seccion estudiaremos las condiciones necesarias para que una matriz A M(n n, R)
tenga una factorizacion de la forma LU donde L, U M(nn, R) , con L una matriz triangular
inferior y U una matriz triangular superior.
Observe que si A M(nn, R) tiene una factorizacion de la forma LU como arriba, entonces
el sistema de ecuaciones lineales Ax = b, con x, b R
n
, puede resolverse de una manera mas
sencilla, para ello consideramos el cambio de variable Ux = z , y resolvemos primero el sistema
Lz = b primero y enseguida resolvemos el sistema Ux = z , obteniendo as la soluci on del
sistema original, es decir,
Ax = b L Ux
..
z
= b
_
Lz = b
Ux = z .
Supongamos que A M(n n, R) tiene una descomposicion de la forma LU como arriba,
con
Sergio Plaza 106
L =
_
_
_
_
_
l
11
0 0 0
l
21
l
22
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
l
nn1
l
nn
_
_
_
_
_
y U =
_
_
_
_
_
u
11
u
12
u
1n1
u
1n
0 u
22
u
2n1
u
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 u
nn
_
_
_
_
_
(3.10)
De esta descomposici on tenemos
det(A) = det(L) det(U) =
_
n

i=1
l
ii
__
n

i=1
u
ii
_
(3.11)
as, det(A) ,= 0 si y solo si l
ii
,= 0 y u
ii
,= 0 para todo i = 1, . . . , n.
Para simplicar la notaci on, escribamos
L = (F
1
F
2
. . . F
n
)
T
y U = (C
1
C
2
C
n
) ,
donde F
i
= (l
i1
l
i2
l
ii
0 0) y C
i
= (u
1i
u
2i
u
ii
0 0)
T
, son las las de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicaci on A = LU ,
_
_
_
_
_
a
11
a
21
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
=
_
_
_
_
_
F
1
F
2
.
.
.
F
n
_
_
_
_
_
(C
1
C
2
C
n
) =
_
_
_
_
_
F
1
C
1
F
1
C
2
F
1
C
n
F
2
C
1
F
2
C
2
F
2
C
n
.
.
.
.
.
.
.
.
.
.
.
.
F
n
C
1
F
n
C
2
F
n
C
n
_
_
_
_
_
donde F
i
C
j
es considerado como el producto de las matrices F
i
= (l
i1
l
i2
l
ii
0 0) y
C
i
= (u
1i
u
2i
u
ii
0 0)
T
. Tenemos entonces
_

_
a
11
= F
1
C
1
= l
11
u
11
a
12
= F
1
C
2
= l
11
u
12
.
.
.
.
.
.
.
.
.
a
1n
= F
1
C
n
= l
11
u
1n
(3.12)
de aqu, vemos que si jamos l
11
,= 0 , podemos resolver las ecuaciones anteriores para u
1i
,
i = 1, . . . , n. Enseguida, para la segunda la de A tenemos
_

_
a
21
= F
2
C
1
= l
21
u
11
a
22
= F
2
C
2
= l
21
u
12
+l
22
u
22
.
.
.
.
.
.
.
.
.
a
2n
= F
2
C
n
= l
21
u
1n
+l
22
u
2n
(3.13)
como u
11
ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l
21
, conocido
este valor, jando un valor no cero para l
22
, y dado que conocemos los valores u
1i
para
i = 2, . . . , n, podemos encontrar los valores de u
2i
para i = 2, . . . , n. Siguiendo este metodo
vemos que es posible obtener la descomposicion de A en la forma LU . Note que tambien
Sergio Plaza 107
podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.
Ejemplo 54 Sea A =
_
_
10 3 6
1 8 2
2 4 9
_
_
. Encontremos una descomposicion LU para A.
Escribamos
_
_
10 3 6
1 8 2
2 4 9
_
_
=
_
_
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
_
_
_
_
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
_
_
desarrollando, obtenemos que
_
_
_
l
11
u
11
= 10
l
11
u
12
= 3
l
11
u
13
= 6
de aqu jando un valor no cero para l
11
, digamos l
11
= 2 , obtenemos que u
11
= 5 , u
12
=
3
2
,
y u
13
= 3 . Enseguida tenemos las ecuaciones
_
_
_
l
21
u
11
= 1
l
21
u
12
+l
22
u
22
= 8
l
21
u
13
+l
22
u
23
= 2
como u
11
= 5 se tiene que l
21
=
1
5
. Ahora jamos el valor de l
22
= 1 y obtenemos los valores
u
22
=
83
10
, y u
23
=
13
5
. Finalmente, para la ultima la de A, nos queda
_
_
_
l
31
u
11
= 2
l
31
u
12
+l
32
u
22
= 4
l
31
u
13
+l
32
u
23
+l
33
u
33
= 2
como u
11
= 5 de la primera ecuacion l
31
=
2
5
, reemplazando los valores de l
31
=
2
5
,
u
12
=
3
2
y u
22
=
83
10
en la segunda ecuacion encontramos que l
32
=
34
83
. Ahora, reemplazando
los valores ya obtenidos en la tercera ecuacion obtenemos que l
33
u
33
=
1694
415
, para encontrar el
valor de u
33
podemos jar el valor de l
33
, digamos l
33
=
1
415
, y obtenemos que u
33
= 1604 .
Tenenmos as una descomposicion LU para la matriz A, es decir,
_
_
10 3 6
1 8 2
2 4 9
_
_
=
_
_
_
_
_
_
_
_
_
2 0 0
1
5
1 0

3
5
34
83

1
415
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
3
2
3
0
83
10

13
5
0 0 1604
_
_
_
_
_
_
_
_
_
.
No siempre es posible encontrar una descomposicion de la forma LU para una matriz A
dada, esto se muestra en el siguiente ejemplo.
Sergio Plaza 108
Ejemplo 55 La matriz A =
_
0 1
1 1
_
no tiene descomposicion de la forma LU . Notemos
que det(A) ,= 0 .
Para verlo supongamos que podemos escribir A = LU , donde
L =
_
l
11
0
l
21
l
22
_
y U =
_
u
11
u
12
0 u
22
_
.
Tenemos entonces que
_
0 1
1 1
_
=
_
l
11
0
l
21
l
22
__
u
11
u
12
0 u
22
_
de donde l
11
u
11
= 0 , por lo tanto
l
11
= 0 () o u
11
= 0 ().
Como l
11
u
12
= 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l
11
,= 0 ,
en consecuencia se debe tener que u
11
= 0 , pero adem as se tiene que u
12
,= 0 . Ahoram, como
l
21
u
11
= 1 , llegamos a una contradicci on. Luego tal descomposici on para A no puede existir.
En el algoritmo que vimos para buscar la descomposici on de una matriz A en la forma LU ,
en los sucesivos paso fue necesario jar valores no cero para los coecientes l
ii
de L, de modo a
poder resolver las ecuaciones resultantes. Tambien, si procedemos con el algoritmo a comparar
las columnas de la matriz producto LU con las columnas de A, vemos que ser a necesario jar
en paso sucesivos valores no cero para los coecientes u
ii
de U , de modo a poder resolver las
ecuaciones resultantes. Como es evidente existe una manera simple de hacer esto, por ejemplo
si en el primer algoritmo jamos los valores l
ii
= 1 para i = 1, . . . , n, decimos que tenemos una
descomposicion LU de Doolitle para A, y si en el segundo algoritmo jamos los valores u
ii
= 1
para i = 1, . . . , n, decimos que tenemos una descomposicion LU de Crout para A, nalmente
si jamos U = L
T
(transpuesta de L) se tiene que l
ii
= u
ii
, y decimos que tenemos una
descomposicion LU de Cholesky para A. Note que para la existencia de descomposicion de
Cholesky es necesario que A sea simetrica, pues si A = LL
T
entonces A
T
= A, esto signica
que es una condici on necesario, pero una no es una condici on suciente.
Sobre la existencia de descomposicion LU para una matriz A veremos a continuacion algunos
teoremas. Primero recordemos que si
A =
_
_
_
_
_
a
11
a
21
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
nn
entonces los menores principales de A son las submatrices A
k
, k = 1, . . . , n, denidas por
Sergio Plaza 109
A
1
= (a
11
)
11
, A
2
=
_
a
11
a
21
a
21
a
22
_
22
, . . . , A
k
=
_
_
_
_
_
a
11
a
21
a
1k
a
21
a
22
a
2k
.
.
.
.
.
.
.
.
.
.
.
.
a
k1
a
k2
a
kk
_
_
_
_
_
kk
,
. . . , A
n
= A.
Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposici on LU .
Para tener descomposicion de Cholesky, recordemos algunos conceptos y resultados.
Denicion 3.8 Sea A M(n n, R) . Decimos que A es denida positiva si Ax, x) > 0
para todo x R
n
, con x ,= 0 .
Ejemplo 56 La matriz
A =
_
_
2 1 0
1 2 1
0 1 2
_
_
es denida positiva. En efecto considere x = (x y z)
T
, tenemos
x, Ax) = (x, y, z)
_
_
2 1 0
1 2 1
0 1 2
_
_
_
_
x
y
z
_
_
= 2x
2
2xy + 2y
2
2yz + 2z
2
.
Luego,
x, Ax) = 2x
2
2xy + 2y
2
2yz + 2z
2
= x
2
+ (x y)
2
+ (y z)
2
+z
2
> 0,
para todo (x, y, z) ,= (0, 0, 0) .
Teorema 3.11 Si A M(n n, R) es denida positiva entonces todos sus valores propios
son reales y positivos.
Observaci on. Si A M(n n, R) entonces podemos descomponer A de manera unica
como la suma de una matriz simetrica, A
0
=
1
2
_
A +A
T
_
, y una matriz antisimetrica, A
1
=
1
2
_
AA
T
_
. Desde la denicion de matriz positiva denida se tiene que Ax, x) = A
0
x, x) ,
por lo cual s olo necesitamos considerar matrices simetricas.
Teorema 3.12 Sea A M(n n, R) , entonces A es positiva denida si y s olo si todos los
menores principales de A tiene determinante positivo.
Teorema 3.13 Sea A M(n n, R) , entonces A simetrica y positiva denida si y s olo si
A tiene una descomposici on de Cholesky.
Sergio Plaza 110
Ejemplo 57 La matriz
A =
_
_
2 1 0
1 2 1
0 1 2
_
_
es denida positiva, pues se tiene que det (A
1
) = 2 > 0 , det (A
2
) = det
_
2 1
1 2
_
= 3 > 0
y det (A
3
) = det (A) = 4 > 0 . Luego tiene descomposicion de Cholesky.
Ahora, para encontrar la descomposicion de Cholesky para esta matriz procedemos como
sigue.
_
_
2 1 0
1 2 1
0 1 2
_
_
=
_
_
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
_
_
_
_
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
_
_
Luego, l
2
11
= 2 , es decir, l
11
=

2 ; 1 = l
11
l
21
, de donde l
21
=

2
2
; 0 = l
11
l
31
, de
donde l
31
= 0 ; l
2
21
+l
2
22
= 2 , de donde l
22
=

2
; l
21
l
31
+l
22
l
32
= 1 , de donde l
32
=

5
;
l
2
31
+l
2
32
+l
2
33
= 2 , de donde l
33
=
2

5
.
Por lo tanto
_
_
2 1 0
1 2 1
0 1 2
_
_
=
_
_
_

2 0 0

2
2

2
0
0

5
2

5
_
_
_
_
_
_

2
2
0
0

5
0 0
2

5
_
_
_ .
3.5 Metodo de eliminaci on gaussiana
En esta seccion estudiaremos el metodo de eliminaci on gaussiana para resolver sistemas de
ecuaciones lineales
_
_
_
_
_
a
11
a
21
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
.
Colocamos primero esta informaci on en la forma
_
A b
_
=
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
b
n
_
_
_
_
_
F
1
F
2
.
.
.
F
n
esto es, consideramos la matriz aumentada del sistema. En la notacion anterior, los smbolos
F
i
denotan las las de la nueva matriz.
Sergio Plaza 111
Si a
11
,= 0 , el primer paso de la eliminaci on gaussiana consiste en realizar las operaciones
elementales
(F
j
m
j1
F
1
) F
j
, donde m
j1
=
a
j1
a
11
, j = 2, 3, ..., n. (3.14)
Estas operaciones transforman el sistema en otro en el cual todos los componentes de la
primera columna situada bajo la diagonal son cero.
Podemos ver desde otro punto de vista el sistema de operaciones. Esto lo logramos si-
mult aneamente al multiplicar por la izquierda la matriz original A por la matriz
M
(1)
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
m
n1
0 1
_
_
_
_
_
(3.15)
Esta matriz recibe el nombre de primera matriz gaussiana de transformaci on. El producto
de M
(1)
con la matriz A
(1)
= A lo denotamos por A
(2)
y el producto de M
(1)
con la matriz
b
(1)
= b lo denotamos por b
(2)
, con lo cual obtenemos
A
(2)
x = M
(1)
Ax = M
(1)
b = b
(2)
(3.16)
De manera an aloga podemos construir la matriz M
(2)
, en la cual si a
(2)
22
,= 0 los elemen-
tos situados bajo de la diagonal en la segunda columna con los elementos negativos de los
multiplicadores
m
j2
=
a
(2)
j2
a
(2)
22
, j = 3, 4, . . . , n (3.17)
As obtenemos
A
(3)
x = M
(2)
A
(2)
x = M
(2)
M
(1)
Ax = M
(2)
M
(1)
b = b
(3)
(3.18)
En general, con A
(k)
x = b
(k)
ya formada, multiplicamos por la kesima matriz de transfor-
macion gaussiana
M
(k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0 1
.
.
. 1
.
.
.
.
.
.
0
.
.
. m
k+1 k
.
.
.
.
.
.
.
.
.
.
.
. 0 0
0 0 m
n k
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
para obtener
Sergio Plaza 112
A
(k+1)
x = M
(k)
A
(k)
x = M
(k)
M
(1)
Ax = M
(k)
b
(k)
= b
(k+1)
= M
(k)
M
(1)
b (3.19)
Este proceso termina con la formacion de un sistema A
(n)
x = b
(n)
, donde A
(n)
es una matriz
triangular superior
A
(n)
=
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
a
(1)
1n
0 a
(2)
22
. . . a
(2)
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
(n1)
n1 n
0 0 a
(n)
nn
_
_
_
_
_
_
_
_
_
dada por
A
(n)
= M
(n1)
M
(n2)
M
(n3)
M
(1)
A. (3.20)
El proceso que hemos realizado solo forma la mitad de la factorizaci on matricial A = LU ,
donde con U denotamos la matriz triangular superior A
(n)
. Si queremos determinar la matriz
triangular inferior L, primero debemos recordar la multiplicaci on de A
(k)
x = b
(k)
mediante la
transformacion gaussiana M
(k)
con que obtuvimos
A
(k+1)
x = M
(k)
A
(k)
x = M
(k)
b
(k)
= b
(k+1)
para poder revertir los efectos de esta transformacion debemos considerar primero la matriz
L
(k)
=
_
M
(k)
_
1
, la cual esta dada por
L
(k)
=
_
M
(k)
_
1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0 1
.
.
.
.
.
. 1
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
. m
k+1 k
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
. 0
0 0 m
n k
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Por lo tanto si denotamos
L = L
(1)
L
(2)
L
(n1)
obtenemos
LU = L
(1)
L
(2)
L
(n1)
M
(n1)
M
(n2)
M
(n3)
M
(1)
= A.
Con lo cual obtenemos el siguiente resultado.
Sergio Plaza 113
Teorema 3.14 Si podemos efectuar la eliminacion gaussiana en el sistema lineal Ax = b sin
intercambio de las, entonces podemos factorizar la matriz A como el producto de una matriz
triangular inferior L y una matriz triangular superior U , donde
U =
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
a
(1)
1n
0 a
(2)
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. a
(n1)
n1 n
0 0 a
(n)
nn
_
_
_
_
_
_
_
y L =
_
_
_
_
_
_
1 0 0
m
21
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
m
n1
m
n n1
1
_
_
_
_
_
_
.
Ejemplo 58 Consideremos el siguiente sistema lineal
x +y + 3w = 4
2x +y z +w = 1
3x y z +w = 3
x + 2y + 3z w = 4
Si realizamos las siguientes operaciones elementales F
2
(FE
2
2F
1
) , F
3
(F
3
3F
1
) ,
F
4
(F
4
(1) F
1
) , F
3
(F
3
4F
2
) , F
4
(F
4
(3) F
2
) con lo que obtenemos el sis-
tema triangular
x +y + 3w = 4
y z 5w = 7
3z + 13w = 13
13w = 13
Por lo tanto la factorizaci on LU esta dada por
A =
_
_
_
_
1 1 0 3
2 1 1 1
3 1 1 2
1 2 3 1
_
_
_
_
=
_
_
_
_
1 0 0 0
2 1 0 0
3 4 1 0
1 3 0 1
_
_
_
_
. .
L
_
_
_
_
1 1 0 3
0 1 1 5
0 0 3 13
0 0 0 13
_
_
_
_
. .
U
= LU.
Esta factorizacion nos permite resolver facilmente todo sistema que posee como matriz aso-
ciada la matriz A. As, por ejemplo, para resolver el sistema
Ax = LUx =
_
_
_
_
1 0 0 0
2 1 0 0
3 4 1 0
1 3 0 1
_
_
_
_
_
_
_
_
1 1 0 3
0 1 1 5
0 0 3 13
0 0 0 13
_
_
_
_
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
8
7
14
7
_
_
_
_
primero realizaremos la sustituci on y = Ux. Luego resolvemos Ly = b, es decir,
LUx = Ly =
_
_
_
_
1 0 0 0
2 1 0 0
3 4 1 0
1 3 0 1
_
_
_
_
_
_
_
_
y
1
y
2
y
3
y
4
_
_
_
_
=
_
_
_
_
8
7
14
7
_
_
_
_
.
Sergio Plaza 114
Este sistema se resuelve para y mediante un simple proceso de susbtitucion hacia adelante,
con lo cual obtenemos
y =
_
_
_
_
y
1
y
2
y
3
y
4
_
_
_
_
=
_
_
_
_
8
9
26
26
_
_
_
_
.
Por ultimo resolvemos Ux = y, es decir, resolvemos el sistema por un proceso de susbtitucion
hacia atras
Ux =
_
_
_
_
1 1 0 3
0 1 1 5
0 0 3 13
0 0 0 13
_
_
_
_
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
8
9
26
26
_
_
_
_
el cual tiene por soluci on
x =
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
3
1
0
2
_
_
_
_
.
que es la solucion buscada.
3.6 Eliminaci on gaussiana con pivoteo
Al resolver un sistema lineal Ax = b, a veces es necesario intercambiar las ecuaciones, ya sea
porque la elimninaci on gaussiana no puede efectuarse o porque las soluciones que se obtienen
no corresponden a as soluciones exactas del sistema. Este proceso es llamado pivoteo y nos
lleva a la descomposicion PA = LU del sistema. As el sistema se transforma en LUx = Pb
y resolvemos entonces los sistemas
_
Ux = z
Lz = Pb
donde P es una matriz de permutaci on, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus las. M as precisamente.
Denicion 3.9 Una matriz de permutaci on P M (n n, R) es una matriz obtenida desde
la matriz identidad por permutaci on de sus las.
Observaci on. Las matrices de permutacion poseen dos propiedades de gran utilidad que se
relacionan con la eliminaci on gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutaci on P , es decir, al realizar el producto PA se permutan las
las de A. La segunda propiedad establece que si P es una matriz de permutaci on, entonces
P
1
= P
T
.
Sergio Plaza 115
Si A M (n n, R) es una matriz invertible entonces podemos resolver el sistema lineal
Ax = b va eliminaci on gaussiana, sin excluir el intercambio de las. Si conocieramos los inter-
cambios que se requieren para resolver el sistema mediante eliminacion gaussiana, podramos
arreglar las ecuaciones originales de manera que nos garantice que no se requieren intercambios
de las. Por lo tanto, existe un arreglo de ecuaciones en el sistema que nos permite resolver el
sistema con eliminacion gaussiana sin intercambio de las. Con lo que podemos concluir que
si A M (n n, R) es una matriz invertible entonces existe una matriz de permutacion P
para la cual podemos resolver el sistema PAx = Pb, sin hacer intercambios de las. Pero
podemos factorizar la matriz PA en PA = LU , donde L es una triangular inferior y U
triangular superior, y P es una matriz de permutaci on. Dado que P
1
= P
T
obtenemos que
A =
_
P
T
L
_
U . Sin embargo, la matriz P
T
L no es triangular inferior, salvo que P = I .
Supongamos que tenemos el sistema
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
(3.21)
Se dene la escala de cada la como
s
i
= max[a
i1
[, [a
i2
[, . . . , [a
in
[ , 1 i n. (3.22)
Eleccion de la la pivote. Elegimos como la povote la la para la cual se tiene que
[a
i01
[
s
i0
(3.23)
es el mayor.
Intercambiamos en A la la 1 con la la i
0
, esto es, realizamos la operaci on elemental
F
1
F
i0
. Esto nos produce la primera permutaci on. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminaci on gaussiana.
Denotamos el ndice que hemos elegido por p
1
, este se convierte en la primera componente de
la permutaci on.
M as especicamente, comenzamos por jar
p = (p
1
p
2
. . . p
n
) = (1 2 . . . n) (3.24)
como la permutaci on antes de comenzar el pivoteo. As la primera permutaci on que hemos
hecho es
_
1 2 . . . i
0
. . . n
i
0
2 . . . 1 . . . n
_
.
Para jar las ideas, comenzamos con la permutaci on (p
1
p
2
. . . p
n
) = (1 2 . . . n) . Primero
seleccionamos un ndice j para el cual se tiene
Sergio Plaza 116
[a
pjj
[
s
pj
, 2 j n (3.25)
es el mayor, y se intercambia p
1
con p
j
en la permutaci on p . Procedemos a la elmincaci on
gaussiana, restando
a
pi1
a
p11
F
p1
a las las p
i
, 2 i n.
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los n umeros
[a
pik
[
s
pi
, k i n (3.26)
y buscamos el mayor de ellos. Si j es el ndice del primer cuociente mas grande, intercambiamos
p
k
con p
j
en la permutaci on p y las las F
p
k
con la la F
pj
en la matriz que tenemos en
esta etapa de la eliminacion gaussianapivoteo. Enseguida producimos ceros en la columna p
k
bajo el elemento a
p
k
k
, para ellos restamos
a
pik
a
p
k
k
F
p
k
de la la F
pi
, k + 1 i n, y continuamos el proceso hasta obtener una matriz triangular
superior.
Veamos con un ejemplo especco como podemos ir guardando toda la informaci on del proceso
que vamos realizando en cada etapa del proceso de eliminacion gaussianapivoteo
Ejemplo 59 Resolver el sistema de ecuaciones lineales
_
_
2 3 6
1 6 8
3 2 1
_
_
_
_
x
y
z
_
_
=
_
_
1
1
1
_
_
Solucion. Primero calculemos la escala de las las. Tenemos
s
1
= max[2[, [3[, [ 6[ = 6
s
2
= max[1[, [ 6[, [8[ = 8
s
3
= max[3[, [ 2[, [1[ = 3
permutaci on inicial p = (1 2 3) . Denotemos por s el vector de la escala de las las, es decir,
s = (6 8 3) .
Eleccion de la primera la pivote:
Sergio Plaza 117
[a
11
[
s
1
=
2
6
=
1
3
[a
21
[
s
2
=
1
8
[a
31
[
s
3
= 1 ,
luego j = 3 . Antes de proceder a intercambiar la la F
1
con la la F
3
guardamos la infor-
macion en la forma siguiente
_
_
2 3 6 1 6 1
1 6 8 1 8 2
3 2 1 1 3 3
_
_
donde la primera parte de esta matriz representa a la matriz A, la segunda al vector b , la
tercera al vector s y la ultima a la permutaci on inicial p = (1 2 3) . Como j = 3 intercambianos
las las F
1
F
3
y obtenemos
_
_
3 2 1 1 3 3
1 6 8 1 8 2
2 3 6 1 6 1
_
_
en la parte (A[b) de la matriz arriba procedemos a hacer eliminacion gaussiana. Los multipli-
cadores son m
21
=
1
3
y m
31
=
2
3
, obtenemos as
_
_
_
_
_
_
_
3 2 1 1 3 3
0
16
3
23
3
2
3
8 2
0
13
3

20
3
1
3
6 1
_
_
_
_
_
_
_
Agregamos la informaci on de los multiplicadores a esta estructura como sigue
_
_
_
_
_
_
_
3 2 1 1 3 3
0
16
3
23
3
2
3
8 2
1
3
0
13
3

20
3
1
3
6 1
2
3
_
_
_
_
_
_
_
Ahora determinamos la nueva la pivote. Recuerde que la primera la de esta nueva matriz
permanece inalterada, y solo debemos trabajar con las las restantes. Para determinar la nueva
la pivote, calculamos
Sergio Plaza 118
[a
p22
[
s
p2
=
16
3
8
=
16
24
=
2
3
[a
p32
[
s
p3
=
13
3
6
=
13
18
como
13
18
>
2
3
la nueva la pivote es la la 3. Intercambiando F
2
F
3
nos queda
_
_
_
_
_
_
_
3 2 1 1 3 3
0
13
3

20
3
1
3
6 1
2
3
0
16
3
23
3
2
3
8 2
1
3
_
_
_
_
_
_
_
El multiplicador es m
32
=

16
3
13
3
=
16
13
. Agregando la informaci on del nuevo multiplicador y
aplicando eliminaci on gaussiana, nos queda
_
_
_
_
_
_
_
3 2 1 1 3 3
0
13
3

20
3
1
3
6 1
2
3
0 0
7
13
94
117
8 2
1
3

16
13
_
_
_
_
_
_
_
De esto, el sistema a resolver es
_
_
_
_
_
_
_
_
_
3 2 1
0
13
3

20
3
0 0
7
13
_
_
_
_
_
_
_
_
_
. .
U
_
_
_
_
_
_
_
x
y
z
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
1
1
3
94
117
_
_
_
_
_
_
_
_
_
La matriz L es
L =
_
_
_
_
_
_
_
_
_
1 0 0
2
3
1 0
1
3

16
13
1
_
_
_
_
_
_
_
_
_
y la matriz de permutaci on P es
P =
_
_
0 0 1
1 0 0
0 1 0
_
_
Sergio Plaza 119
Ahora es f acil vericar que PA = LU .
Ejemplo 60 Consideremos la matriz
A =
_
_
_
_
0 0 1 1
1 1 1 2
1 1 0 3
1 2 1 3
_
_
_
_
puesto que a
11
= 0 la matriz no posee una factorizacion LU . Pero si realizamos el intercambio
de las F
1
F
2
, seguido de F
3
(F
3
F
1
) y de F
4
(F
4
F
1
) obtenemos
_
_
_
_
1 1 1 2
0 0 1 1
0 0 1 1
0 1 0 1
_
_
_
_
.
Realizando las operaciones elementales F
2
F
4
y F
4
(F
4
+F
3
) , obtenemos
U =
_
_
_
_
1 1 1 2
0 1 0 1
0 0 1 1
0 0 0 2
_
_
_
_
.
La matriz de permutaci on asociada al cambio de las F
1
F
2
seguida del intercambio de
las F
2
F
4
es
P =
_
_
_
_
0 1 0 0
0 0 0 1
0 0 1 0
1 0 0 0
_
_
_
_
.
La eliminaci on gaussiana en PA se puede realizar sin intercambio de las usando las opera-
ciones F
2
(F
2
F
1
) , F
3
(F
3
F
1
) y (F
4
+F
3
) F
4
, esto produce la factorizaci on LU
de PA
PA =
_
_
_
_
1 1 1 2
1 2 1 3
1 1 0 3
0 0 1 2
_
_
_
_
=
_
_
_
_
1 0 0 0
1 1 0 0
1 0 1 0
0 0 1 1
_
_
_
_
_
_
_
_
1 1 1 2
0 1 0 1
0 0 1 1
0 0 0 2
_
_
_
_
= LU.
Al multiplicar por P
1
= P
T
obtenemos la factorizaci on
A =
_
P
T
L
_
U =
_
_
_
_
0 0 1 1
1 0 0 0
1 0 1 0
1 1 0 0
_
_
_
_
_
_
_
_
1 1 1 2
0 1 0 1
0 0 1 1
0 0 0 2
_
_
_
_
.
Sergio Plaza 120
3.7 Matrices especiales
En esta seccion nos ocuparemos de clases de matrices en las cuales podemos realizar la elimi-
nacion gaussiana sin intercambio de las.
Decimos que una matriz A M (n n, R) es diagonal dominante si
[a
ii
[ >
n

j = 1
j = i
[a
ij
[
para todo i = 1, 2, . . . , n.
Ejemplo 61 Consideremos las matrices
A =
_
_
7 2 0
3 5 1
0 5 6
_
_
y B =
_
_
6 4 3
4 2 0
3 0 1
_
_
.
La matriz A es diagonal dominante y la matriz B no es diagonal dominante, pues por
ejemplo [6[ < [4[ +[3[ = 7 .
Teorema 3.15 Toda matriz A M (n n, R) diagonal dominante tiene inversa, m as aun,
en este caso podemos realizar la eliminacion gaussiana de cualquier sistema lineal de la forma
Ax = b para obtener su soluci on unica sin intercambio de las, y los c alculos son estables
respecto al crecimiento de los errores de redondeo.
Teorema 3.16 Si A M (n n, R) es una matriz denida positiva entonces
1. A tiene inversa.
2. a
ii
> 0, para todo i = 1, 2, . . . , n.
3. max
1 k, j n
[a
kj
[ max
1 i n
[a
ii
[ .
4. (a
ij
)
2
< a
ii
a
jj
, para todo i ,= j
Teorema 3.17 Una matriz simetrica A es denida positiva si y s olo si la eliminaci on gaus-
siana sin intercambio de las puede efectuarse en el sistema Ax = b con todos los elementos
pivotes positivos. Ademas, en este caso los c alculos son estables respecto al crecimiento de los
errores de redondeo.
Corolario 3.2 Una matriz simetrica A es denida positiva si y s olo si A puede factorizarse
en la forma LDL
T
, donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.
Corolario 3.3 Una matriz simetrica A es denida positiva si y s olo si A puede factorizarse
de la forma LL
T
, donde L es una matriz triangular inferior con elementos distintos de cero
en su diagonal.
Sergio Plaza 121
Corolario 3.4 Sea A M(n n, R) una matriz simetrica a la cual puede aplicarse la elim-
inacion gaussiana sin intercambio de las. Entonces, A puede factorizarse en LDL
T
, donde
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
con a
(1)
11
, . . . , a
(n)
nn
en su diagonal.
Ejemplo 62 La matriz
A =
_
_
4 1 1
1 4.25 2.75
1 2.75 3.5
_
_
es denida positiva. La factorizaci on LDL
T
de la matriz A es
A =
_
_
1 0 0
0.25 1 0
0.25 0.75 1
_
_
_
_
4 0 0
0 4 0
0 0 1
_
_
_
_
1 0.25 0.25
0 1 0.75
0 0 1
_
_
mientras que su descomposicion de Cholesky es
A =
_
_
2 0 0
0.5 2 0
0.5 1.5 1
_
_
_
_
2 0.5 0.5
0 2 1.5
0 0 1
_
_
.
Denicion 3.10 Una matriz A M(n n, R) es llamada matriz banda si existen enteros
p y q con 1 < p, q < n, tales que a
ij
= 0 siempre que i +p j o j +q i . El ancho de la
banda de este tipo de matrices esta dado por w = p +q 1 .
Ejemplo 63 La matriz A =
_
_
1 2 0
2 1 2
0 1 1
_
_
es una matriz de banda con p = q = 2 y con
ancho de banda 3.
Denicion 3.11 Una matriz A M(n n, R) se denomina tridiagonal si es una matriz de
banda con p = q = 2 .
Observaci on. Los algoritmos de factorizaci on pueden simplicarse considerablemente en el
caso de las matrices de banda.
Para ilustrar lo anterior, supongamos que podemos factorizar una matriz tridiagonal A en
las matrices triangulares L y U . Ya que A tiene solo 3n2 elementos distintos de cero, habra
apenas 3n 2 condiciones aplicables para determinar los elementos de L y U , naturalmente
a condici on de que tambien se obtengan los elementos cero de A. Supongamos que podemos
encontrar las matrices de la forma
L =
_
_
_
_
_
_
_
_
_
_
l
11
0 0
l
21
l
22
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 l
n n1
l
nn
_
_
_
_
_
_
_
_
_
_
y U =
_
_
_
_
_
_
_
_
_
_
1 u
12
0 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
. u
n1 n
0 0 1
_
_
_
_
_
_
_
_
_
_
Sergio Plaza 122
De la multiplicacion que incluye A = LU , obtenemos
a
11
= l
11
;
a
i i1
= l
i i1
para cada i = 2, 3, . . . , n;
a
ii
= l
i i1
u
i1 i
+ l
ii
para cada i = 2, 3, . . . , n;
a
i i+1
= l
ii
u
i i+1
para cada i = 1, 2, 3, . . . , n 1;
3.8 Soluci on de sistemas de ecuaciones lineales: metodos
iterativos
En general, puede resultar muy engorroso encontrar la soluci on exacta a un sistema de ecua-
ciones lineales, y por otra parte, a veces nos basta con tener buenas aproximaciones a dicha
soluci on. Para obtener estas ultimas usamos metodos iterativos de punto jo, que en este caso
particular resultan ser mas analizar su convergencia.
Teorema 3.18 Consideremos un metodo iterativo
x
(k+1)
= Gx
(k)
+c (3.27)
donde G M(nn, R) , x, c R
n
. Entonces el metodo iterativo es convergente, para cualquier
condicion inicial x
(0)
elegida arbitrariamente si y s olo si (G) < 1 . Adem as, si existe una
norma |[ [[ en M(n n, R) , en la cual se tiene [[G[[ < 1 , entonces el metodo iterativo
converge cualesquiera que sea la condici on inicial x
(0)
R
n
dada. Si tomamos x
(k)
como una
aproximaci on al punto jo x
T
del metodo iterativo (3.27), entonces valen las desigualdades
siguientes,
_
_
_x
(k)
x
_
_
_
(G)
k
1 (G)
_
_
_x
(1)
x
(0)
_
_
_ . (3.28)
y
_
_
_x
(k)
x
_
_
_

k
1
_
_
_x
(1)
x
(0)
_
_
_ , (3.29)
donde = [[G[[ .
Observaci on. Si el metodo iterativo x
(k+1)
= Gx
(k)
+ c es convergente y tiene por lmite a
x R
n
, entonces
x = lim
k
x
(k+1)
= G
_
lim
k
x
(k)
_
+c = Gx +c,
de donde x = (I G)
1
c .
Regresemos al problema inicial de resolver el sistema de ecuaciones lineales
Ax = b,
donde A = (a
ij
) M (n n, R) , b = (b
1
, b
2
, . . . , b
n
)
T
R
n
y x = (x
1
, x
2
, . . . , x
n
)
T
R
n
es la inc ognita.
Sergio Plaza 123
Consideremos una matriz Q M(n n, R) , la cual suponemos tiene inversa. Tenemos que
Ax = b es equivalente a escribir 0 = Ax + b, sumando a ambos miembros de esta ultima
igualdad el termino Qx, no queda la ecuacion Qx = QxAx+b, multiplicando esta ecuacion
por la izquierda por Q
1
obtenemos x = (I Q
1
A)x + Q
1
b, lo que nos sugiere proponer
el siguiente metodo iterativo para resolver la ecuacion original Ax = b,
x
(k+1)
= (I Q
1
A)x
(k)
+Q
1
b, (3.30)
donde x
(0)
R
n
es arbitrario. Sobre la convergencia del metodo propuesto, tenemos el siguiente
corolario.
Corolario 3.5 La f ormula de iteraci on x
(k+1)
=
_
I Q
1
A
_
x
(k)
+Q
1
b dene una sucesi on
que converge a la soluci on de Ax = b, para cualquier condici on inicial x
(0)
R
n
si y s olo
si
_
I Q
1
A
_
< 1 . Adem as, si existe una norma |[ [[ en M(n n, R) , en la cual se
tiene [[I Q
1
A[[ < 1 , entonces el metodo iterativo converge cualesquiera que sea la condici on
inicial x
(0)
R
n
dada.
Observaci on La f ormula de iteraci on
x
(k+1)
=
_
I Q
1
A
_
x
(k)
+Q
1
b
dene un metodo iterativo de punto jo. En efecto, consideremos la funci on F : R
n
R
n
denida por F (x) =
_
I Q
1
A
_
x + Q
1
b. Observemos que si x es un punto jo de F
entonces x es una solucion de la ecuaci on Ax = b. Ademas, si x =
_
I Q
1
A
_
x + Q
1
b
entonces se tiene que
x
(k)
x =
_
I Q
1
A
_
_
x
(k1)
x
_
,
por lo tanto
_
_
_x
(k)
x
_
_
_
_
_
I Q
1
A
_
_
_
_
_x
(k1)
x
_
_
_ ,
de donde, iterando esta desigualdad obtenemos
_
_
_x
(k)
x
_
_
_
_
_
I Q
1
A
_
_
k
_
_
_x
(0)
x
_
_
_ ,
luego si
_
_
I Q
1
A
_
_
< 1 , se tiene de inmediato que lim
k
_
_
x
(k)
x
_
_
= 0 para cualquier
x
(0)
R
n
dado.
Observaci on. La condici on
_
_
I Q
1
A
_
_
< 1 implica que las matrices Q
1
A y A tienen
inversas.
Teorema 3.19 Si
_
_
I Q
1
A
_
_
< 1 para alguna norma matricial subordinada en M(n
n, R) , entonces el metodo iterativo x
(k+1)
=
_
I Q
1
A
_
x
(k)
+ Q
1
b es convergente a una
solucion de Ax = b, para cualquier vector inicial x
(0)
R
n
. Adem as, si =
_
_
I Q
1
A
_
_
<
1 , podemos usar el criterio de parada
_
_
x
(k)
x
(k1)
_
_
< y se tiene que
_
_
_x
(k)
x
_
_
_

1
_
_
_x
(k)
x
(k1)
_
_
_

k
1
_
_
_x
(1)
x
(0)
_
_
_ .
, es decir,
_
_
_x
(k)
x
_
_
_

k
1
_
_
_x
(1)
x
(0)
_
_
_ . (3.31)
Sergio Plaza 124
Tambien vale la desigualdad siguiente
_
_
_x
(k)
x
_
_
_
(I Q
1
A)
k
1 (I Q
1
A)
_
_
_x
(1)
x
(0)
_
_
_ . (3.32)
Observaci on. Desde la denicion de radio espectral de una matriz, se tiene que (A) < 1
implica que existe una norma matricial [[ [[ en M(nn, R) , tal que [[A[[ < 1 . Por otra parte, si
[[A[[ < 1 para alguna norma matricial en M(nn, R) entonces se tiene que (A) < 1 . Notemos
que si existe una norma matricial [[ [[ en M(nn, R) , tal que [[A[[ 1 no necesariamente se
tiene que (A) 1 .
Observaci on. Si M
1
y M
2
son dos metodos iterativos convergentes para resolver un sistema
de ecuaciones lineales Ax = b, digamos M
1
: x
(k+1)
= G
1
x
(k)
+ c
1
y M
2
: x
(k+1)
=
G
2
x
(k)
+c
2
. Si (G
1
)) (G
2
) , entonces M
1
converge mas rapido que M
2
a la soluci on de la
ecuacion. Adem as, si existe una norma [[ [[ en M(n n, R) tal que [[G
1
[[ [[G
2
[[ , entonces
M
1
converge mas r apido que M
2
a la soluci on de la ecuaci on.
3.9 Metodo de Richardson
Para este metodo tomamos Q
R
= I , luego el metodo iterativo x
(k+1)
=
_
I Q
1
A
_
x
(k)
+
Q
1
b se transforma en
x
(k+1)
= (I A)
. .
TR
x
(k)
+b, (3.33)
el cual converge si y s olo si (T
R
) = (I A) < 1 .
Si existe una norma matricial | | para la cual se tiene que |T
R
| = [[I A[[ < 1 , entonces
el metodo iterativo de Richardson es convergente.
Ejemplo 64 Resolver el sistema de ecuaciones lineales usando el metodo de Richardson.
_
_
_
_
_
_
_
1
1
2
1
3
1
3
1
1
2
1
2
1
3
1
_
_
_
_
_
_
_
_
_
x
y
z
_
_
=
_
_
_
_
_
_
_
11
18
11
18
11
18
_
_
_
_
_
_
_
Solucion. Tenemos
T
R
= I A =
_
_
1 0 0
0 1 0
0 0 1
_
_

_
_
_
_
_
_
_
1
1
2
1
3
1
3
1
1
2
1
2
1
3
1
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0
1
2

1
3

1
3
0
1
2

1
2

1
3
0
_
_
_
_
_
_
_
Sergio Plaza 125
Llamando x
(j)
= (x
j
y
j
z
j
)
T
, nos queda
x
(k+1)
= T
R
x
(k)
+b =
_
_
_
_
_
_
_
0
1
2

1
3

1
3
0
1
2

1
2

1
3
0
_
_
_
_
_
_
_
_
_
x
k
y
k
z
k
_
_
+
_
_
_
_
_
_
_
11
18
11
18
11
18
_
_
_
_
_
_
_
se tiene [[T
R
[[

=
5
6
<, luego el metodo iterativo de Richardson para este sistema converge.
3.10 Metodo de Jacobi
En este caso tomamos
Q
J
= diag (A) =
_
_
_
a
11
0
.
.
.
.
.
.
.
.
.
0 a
nn
_
_
_
donde los elementos fuera de la diagonal en Q
J
son todos iguales a 0. Notemos que det(Q
J
) =
a
11
a
22
a
nn
, luego det(Q
J
) ,= 0 si y solo si a
ii
,= 0 para todo i = 1, . . . , n, es decir, Q
J
tiene inversa si y s olo si a
ii
,= 0 para todo i = 1, . . . , n.
Como antes, colocando esta matriz Q
J
= diag(A) en la f ormula iterativa denida por
x
(k+1)
=
_
I diag(A)
1
A
_
. .
TJ
x
(k)
+ diag(A)
1
b, (3.34)
obtenemos un metodo iterativo convergente si y s olo si (T
J
) = (I diag(A)
1
A) < 1 . Si
existe una norma matricial | | para la cual se tiene que |T
J
| = [[I diag(A)
1
A[[ < 1 ,
entonces el metodo iterativo de Jacobi es convergente.
Examinemos un poco m as la f ormula iterativa del metodo de Jacobi. Tenemos, en este caso,
que un elemento generico de Q
1
A es de la forma
aij
aii
y todos los elementos de la diagonal de
Q
1
A son iguales a 1. Luego, tomando la norma | |

en M(n n, R) tenemos que


_
_
I diag(A)
1
A
_
_

= max
1in
_
_
_
n

j=1 ,j=i
[a
ij
[
[a
ii
[
_
_
_
.
Recordemos que una matriz A es diagonal dominante si
[a
ii
[ >
n

j=1 , j=i
[a
ij
[ , 1 i n,
es decir,
n

j=1 , j=i

aij
aii

< 1 , por lo tanto tenemos el siguiente teorema.


Teorema 3.20 Si A es una matriz diagonal dominante, entonces el metodo iterativo de Ja-
cobi es convergente para cualquiera que sea la condici on inicial x
(0)
elegida.
Sergio Plaza 126
3.11 Metodo de GaussSeidel
En esta caso, consideremos la matriz Q como la matriz triangular obtenida considerando la
parte triangular inferior de la matriz A incluyendo su diagonal, es decir,
Q
G-S
=
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
Se tiene que det(Q
G-S
) = a
11
a
22
a
nn
. Luego, det(Q
G-S
) ,= 0 si y solo si a
ii
,= 0 ( i =
1, . . . , n). Usando la matriz Q
G-S
, obtenemos el metodo iterativo
x
(k+1)
=
_
I Q
1
G-S
A
_
. .
TG-S
x
(k)
+Q
1
G-S
b. (3.35)
Teorema 3.21 Sea A M(n n, R) . Entonces el metodo iterativo de GaussSeidel es
convergente si y s olo si (T
G-S
) = (I Q
1
G-S
A) < 1 , donde Q
G-S
es la matriz triangular
inferior denida arriba a partir de A.
Como en el caso del metodo iterativo de Jacobi, tenemos el siguiente teorema.
Teorema 3.22 Si A M(nn, R) es una matriz es diagonal dominante entonces el metodo
de GaussSeidel converge para cualquier elecci on inicial x
(0)
.
Ejemplo 65 Considere el sistema de ecuaciones lineales
_
_
4 2 1
2 5 2
1 2 6
_
_
_
_
x
y
z
_
_
=
_
_
5
4
7
_
_
Explicitaremos los metodos iterativos de Jacobi y GaussSeidel para este sistema. Estudi-
aremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la soluci on exacta del
sistema es (x
T
, y
T
, z
T
) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos pregun-
tar Cual de ellos converge m as rapido?, para las comparaciones usaremos la norma | |

en
M(n n, R) .
Primero que nada tenemos que los metodos iterativos de Jacobi y GaussSeidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el metodo de Jacobi. En este caso tenemos
Q
J
=
_
_
4 0 0
0 5 0
0 0 6
_
_
por lo tanto
Sergio Plaza 127
Q
1
J
=
_
_
1
4
0 0
0
1
5
0
0 0
1
6
_
_
luego
Q
1
J
A =
_
_
1
4
0 0
0
1
5
0
0 0
1
6
_
_
_
_
4 2 1
2 5 2
1 2 6
_
_
=
_
_
1
1
2
1
4
2
5
1
2
5
1
6
1
3
1
_
_
de donde
T
J
I Q
1
J
A =
_
_
0
1
2

1
4

2
5
0
2
5

1
6

1
3
0
_
_
y Q
1
J
b =
_
_
1
4
0 0
0
1
5
0
0 0
1
6
_
_
_
_
5
4
7
_
_
=
_
_
5
4
4
5
7
6
_
_
,
por lo tanto
_

_
x
k+1
=
2y
k
z
k
+ 5
4
y
k+1
=
2x
k
2z
k
+ 4
5
z
k+1
=
x
k
2y
k
+ 7
6
Como [[T
J
[[

= max[
1
2
[ +[
1
4
[, [
2
5
[ +[
2
5
[, [
1
6
[ +[
1
3
[ = max
3
4
,
4
5
,
1
2
= 0.75, 0.8, 0.5 =
0.8 < 1 , el metodo de Jacobi converge para cualquier condicion inicial x
(0)
R
n
dada. Ahora
explicitemos el metodo de GaussSeidel. En este caso,
Q
G-S
=
_
_
4 0 0
2 5 0
1 2 6
_
_
por lo tanto Q
1
G-S
=
_
_
1
4
0 0

1
10
2
10
0

1
120

8
120
20
120
_
_
as obtenemos que
Q
1
G-S
A =
_
_
1
4
0 0

1
10
2
10
0

1
120

8
120
20
120
_
_
_
_
4 2 1
2 5 2
1 2 6
_
_
=
_
_
1
1
2
1
4
0
8
10
3
10
0
2
120
103
120
_
_
luego I Q
1
G-S
A =
_
_
0
1
2

1
4
0
2
10

3
10
0
2
120
17
120
_
_
y Q
1
G-S
b =
_
_
5
4
3
10
103
120
_
_
, por lo tanto
_

_
x
k+1
=
2y
k
z
k
+ 5
4
y
k+1
=
2y
k
3z
k
+ 3
10
z
k+1
=
2y
k
17z
k
+ 103
120
Sergio Plaza 128
Como [[T
G-S
[[

= max[
1
4
[ + [
1
4
[, [
2
10
[ + [
3
10
[, [
2
120
[ + [
17
120
= max
3
4
,
5
10
,
19
120
= 0.75 < 1 .
Luego, el metodo de GaussSeidel converge para cualquier condici on inicial x
(0)
R
n
dada.
Notemos que como [[T
G-S
[[

< [[T
J
[[

, vemos que el metodo de GaussSeidel converge mas


r apido que el metodo de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.
3.12 Metodo SOR (successive overrelaxation)
Este metodo, tambien llamado sobre-relajacion sucesiva.
Supongamos que escogemos la matriz Q como Q
SOR
=
1

D C , donde R, ,= 0 , es
un par ametro, D es una matriz simetrica, positiva denida y C satisface C + C
T
= D A,
tenemos entonces el metodo iterativo
x
(k+1)
=
_
I Q
1
SOR
A
_
. .
TSOR
x
(k)
+Q
1
SOR
b, (3.36)
Teorema 3.23 Si A es simetrica y positiva denida, Q
SOR
es no singular y 0 < < 2 ,
entonces el metodo iterativo SOR converge para todo valor inicial dado.
Recordemos que una matriz A M(n n, R) de la forma
A =
_
_
_
_
_
_
_
_
_
_
a
1
b
1
0 0 0
c
2
a
2
b
2
0 0
0 c
3
a
3
b
3
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 c
n1
a
n1
b
n1
0 0 0 c
n
a
n
_
_
_
_
_
_
_
_
_
_
es llamada tridiagonal.
Teorema 3.24 Si A es simetirca, positiva denida y tridiagonal, entonces, en caso se tiene
(T
G-S
) = (T
J
)
2
, donde T
J
= D
1
(C
L
+C
U
) es la matriz de iteraci on en el metodo de Jacobi
y T
G-S
= (D C
L
)
1
C
U
es la matriz de iteraci on en el metodo de GaussSeidel. Adem as, la
elecci on optima de en el metodo SOR es

opt
=
2
1 +
_
1 (T
J
)
2
=
2
1 +
_
1 (T
G-S
)
(3.37)
Por otra parte, tambien se tiene
(T
SOR,opt
) =
opt
1 . (3.38)
Sergio Plaza 129
3.13 Otra forma de expresar los metodos iterativos para
sistemas lineales
Sea
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_
podemos escribir A en la forma
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_
=
_
_
_
_
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
. .
D

_
_
_
_
_
0 0 0
a
21
0 0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
nn1
0
_
_
_
_
_
. .
CL

_
_
_
_
_
0 a
12
a
1n
0 0
.
.
.
.
.
.
0 0 a
n1n
0 0 0
_
_
_
_
_
. .
CU
Notemos primero que Ax = b si y solo si (D C
L
C
U
)x = b si y solo si Dx = (C
L
+
C
U
)x +b.
Veamos como quedan los metodos anteriores con esta notacion.
Metodo de Jacobi. Si det(D) ,= 0 , entonces como (D C
L
C
U
)x = b se sigue que
x = D
1
(C
L
+C
U
)
. .
Tj
x +D
1
b
. .
CJ
(3.39)
luego el metodo de Jacobi se puede escribir como
x
(k+1)
= D
1
(C
L
+C
U
)
. .
Tj
x
(k)
+D
1
b
. .
CJ
Metodo de GaussSeidel. Este se puede escribir como
(D C
L
)x
(k+1)
= C
U
x
(k)
+b (3.40)
de donde, si det(DC
L
) ,= 0 nos queda
x
(k+1)
= (DC
L
)
1
C
U
. .
TG-S
x
(k)
+ (D C
L
)
1
. .
CG-S
b
Resumen. Supongamos que la matriz A se escribe en la forma A = D C
L
C
U
, donde
D = diag(A) , C
L
es el negativo de la parte triangular inferior estricta de A y C
U
es el
negativo de la parte triangular superior estricta de A. Entonces podemos rescribir los metodos
iterativos vistos antes como sigue:
Sergio Plaza 130
Richardson
_
Q = I
G = I A
x
(k+1)
= (I A)x
(k)
+b
Jacobi
_
Q = D
G = D
1
(C
L
+C
U
)
Dx
(k+1)
= (C
L
+C
U
)x
(k)
+b
Gauss-Seidel
_
Q = D C
L
G = (D C
L
)
1
C
U
(D C
L
)x
(k+1)
= C
U
x
(k)
+b
SOR
_
Q =
1
(D C
L
)
G = (D C
L
)
1
(C
U
+ (1 )D)
(D C
L
)x
(k+1)
= (C
U
x
(k)
+b) + (1 )Dx
(k)
=
1

, 0 < < 2.
3.14 Ejemplos resueltos
Problema 3.1 Considere el sistema de ecuaciones lineales
_
_
_
_
_
1
3
1
4
1
4
1
5
_
_
_
_
_
_
_
x
1
x
2
_
_
=
_
_
_
7
12
0.45
_
_
_ .
(a) Para realizar los calculos con decimales, se considera el vector

b =
_
0.58
0.45
_
. Obtenga
una cota para el error relativo de la solucion del sistema con respecto a la solucion del
sistema Ax =

b.
(b) Ahora considere la matriz perturbada

A =
_
0.33 0.25
0.25 0.20
_
.
Obtenga una cota para el error relativo de la soluci on del sistema original con respecto a
la soluci on del sistema

Ax = b.
Sergio Plaza 131
Solucion. Tenemos el sistema de ecuaciones lineales
_
_
_
_
_
1
3
1
4
1
4
1
5
_
_
_
_
_
_
_
x
1
x
2
_
_
=
_
_
_
7
12
0.45
_
_
_ .
a) El vector

b =
_
0.58
0.45
_
es una perturbaci on del vector b =
_
_
_
7
12
0.45
_
_
_. Sean x
T
la
soluci on exacta del sistema Ax = b y x
A
la soluci on exacta del sistema Ax =

b. Se tiene
entonces que x
A
es una aproximaci on a x
T
. Para simplicar los c alculos trabajaremos con la
norma subordinada [[ [[

. Como

b es una perturbaci on de b, tenemos la f ormula
E
R
(x
A
) =
[[x
T
x
A
[[

[[x
T
[[

[[A[[

[[A
1
[[

[[b

b[[

[[b[[

.
Ahora,
b

b =
_
3.33333333 10
3
0
_
.
Recordemos que si A =
_
a
11
a
12
a
21
a
22
_
, entonces
A
1
=
1
det(A)
_
a
22
a
12
a
21
a
11
_
En nuestro caso, det
_
_
1
3
1
4
1
4
1
5
_
_
=
1
240
. Luego,
A
1
=
1
1
240
_
_
1
5

1
4

1
4
1
3
_
_
= 240
_
_
1
5

1
4

1
4
1
3
_
_
=
_
48 60
60 80
_
.
De esto, tenemos
[[A[[

= max
_
1
3
+
1
4
,
1
4
+
1
5
_
= max
_
7
12
,
9
20
_
=
7
12
[[A
1
[[

= max[48[ +[ 60[, [ 60[ +[80[ = 140


[[b[[

= max
_
7
12
, 0.45
_
=
7
12
[[

b[[

= max0.58, 0.45 = 0.58


[[b

b[[

= max3.33333333 10
3
, 0 = 3.33333333 10
3
.
Sergio Plaza 132
Reemplazando nos queda
E
R
(x
A
)
7
12
140
3.3333333 10
3
7
12
= 0.4666666662 ,
esto es, E
R
(x
A
) 0.4666666662 .
b) Consideremos ahora la matriz perturbada

A =
_
0.33 0.25
0.25 0.20
_
.
Podemos escribir

A en la forma

A = A(I +E) , donde I es la matriz identidad 2 2 y E
es la matriz de error, esto es, .E =

A A. Como

A = A(I + E) , se tiene que

A A = AE .
Luego,
AE =

A A =
_
0.33 0.25
0.25 0.20
_

_
_
1
3
1
4
1
4
1
5
_
_
=
_
3.33333333 10
3
0
0 0
_
,
de donde [[AE[[

= 3.33333333 10
3
.
Veamos si podemos usar la formula
[[x
T
x
A
[[
[[x
T
[[

k(A)
1 k(A)
||AE||
||A||

[[AE[[
[[A[[
,
para ello debemos vericar que
[[AE[[ <
1
[[A
1
[[
.
Como [[A[[

= 140 y [[AE[[

= 3.33333333 10
3
, se cumple que
[[AE[[

<
1
140
= 7.14285714 10
3
,
y podemos aplicar la f ormula anterior. Reemplazando nos queda
[[x
T
x
A
[[

[[x
T
[[

81.66666667
1 81.66666667
3.3333333310
3
0.5833333333

3.3333333 10
3
0.5833333333
=
81.66666667
1 81.66666667 5.7142857 10
3
5.7142857 10
3
=
0.466666667
0.5333333349
= 0.8749999945
Luego E
R
(x
A
) 0.8749999945 .
Sergio Plaza 133
Problema 3.2 Dada la matriz
A =
_
_
2 1 1
1 1 1
1 1 3
_
_
se tiene que A
1
=
_
_
1 1 0
1 5/2 1/2
0 1/2 1/2
_
_
(a) Obtenga la descomposicion de Cholesky de A. Utilice lo anterior para resolver el sistema
Ax = b para el vector b = (1, 1, 2)
T
.
(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
nalmente

A =
_
_
2 0.99 0.98
1 1 0.99
1 1.02 2.99
_
_
Solucion.
(a) Tenemos que
A =
_
_
2 1 1
1 1 1
1 1 3
_
_
es simetrica. Ahora, A
1
= [2] , luego det(A
1
) = 2 > 0 , A
2
=
_
2 1
1 1
_
y det(A
2
) =
1 > 0 , A
3
= A =
_
_
2 1 1
1 1 1
1 1 3
_
_
y det(A
3
) = 2 > 0 . Por lo tanto A es positiva
denida, y consecuentemente tiene descomposicion de Cholesky.
Para obtener la descompsici on de Cholesky de A escribamos
_
_
2 1 1
1 1 1
1 1 3
_
_
=
_
_

11
0 0

21

22
0

31

32

33
_
_
_
_

11

21

31
0
22

32
0 0
33
_
_
De aqu,
2
11
= 2 , de donde
11
=

2 ;
11

21
= 1 , de donde
21
=

2
2
,
11

31
= 1 ;

31
=

2
2
;
2
21
+
2
22
= 1 , de donde
22
=

2
2
;
21

31
+
22

32
= 1 , de donde
32
=

2
2
;
nalmente
2
31
+
2
32
+
2
33
= 3 , de donde
33
=

2 . Por lo tanto,
_
_
2 1 1
1 1 1
1 1 3
_
_
=
_

2 0 0

2
2

2
2
0

2
2

2
2

2
_

_
_

2
2

2
2
0

2
2

2
2
0 0

2
_

_
Ahora, resolver el sistema Ax = b, con b
T
= (1, 1, 2) es equivalente a resolver los
sistemas
_
Ly = b
L
T
x = y
Sergio Plaza 134
El sistema Ly = b
_

2 0 0

2
2

2
2
0

2
2

2
2

2
_

_
_
_

_
_
=
_
_
1
1
2
_
_
De aqu

2 = 1 , de donde =

2
2
;

2
2
+

2
2
= 1 , reemplazando y despejando
nos da que =
3
2

2 ; nalmente

2
2
+

2
2
+

2 = 2 , reemplazando y despejando
nos da que =

2
2
. Debemos resolver ahora el sistema L
T
x = y , es decir,
_

2
2

2
2
0

2
2

2
2
0 0

2
_

_
_
_
x
y
z
_
_
=
_

2
2
3

2
2

2
2
_

_
de donde z =
1
2
, y =
5
2
, x = 2 .
(b) Sean x
T
y x
A
las soluciones exactas de los sistemas Ax = b y

Ax = b, respectivamente,
es decir, x
T
= A
1
b. Entonces
E(x
A
= [[x
A
x
T
[[ = [[x
A
A
1
b[[
= [[x
A
A
1

Ax
A
[[ = [[(I A
1

A)x
A
[[
[[I A
1

A[[ [[x
A
[[
de donde
E
R
(x
A
) =
[[x
A
x
T
[[
[[x
A
[[
[[I A
1

A[[ .
Para simplicar los c alculos usamos la norma subordinada [[ [[

. Ahora, tenemos
A
1
=
_

_
1 1 0
1
5
2
1
2
0
1
2
1
2
_

A =
_
_
2 0.99 0.98
1 1 0.99
1 1.02 2.99
_
_
luego,
A
1

A =
_
_
1 0.01 0.01
0 1.0 0
0 0.01 1.0
_
_
Ademas, como
I =
_
_
1 0 0
0 1 0
0 0 1
_
_
Sergio Plaza 135
se tiene que
I A
1

A =
_
_
0 0.01 0.01
0 0 0
0 0.01 0
_
_
luego, [[IA
1

A[[

= max0.02, 0, 0.01 = 0.02 , de donde


||xAxT ||
||xA||
[[IA
1

A[[

=
0.02 .
Otra solucion. Escribimos

A de la forma

A = A(I +E) . Entonces se tiene las f ormulas
1.
E
R
(x
A
) =
[[x
T
x
A
[[
[[x
T
[[

[[E[[
1 [[E[[
si [[E[[ < 1 .
2.
E
R
(x
A
) =
[[x
T
x
A
[[
[[x
T
[[

k(A)
1 k(A)
||AE||
||A||
[[AE[[
[[A[[
si [[AE[[ <
1
||A
1
||
.
Usemos por ejemplo la primera de ellas. Debemos calcular la matriz E . De la ecuacion

A = A(I + E) se tiene que A


1

A = I + E , de donde, A
1

A I = E . Realizando los
calculos, obtenemos que
E =
_
_
0 0.01 0.01
0 0 0
0 0.01 0
_
_
Por simplicidad de los c alculos, usaremos la norma subordinada [[ [[

. Luego, [[E[[

=
0.02 < 1 , por lo tanto, reemplazando nos queda,
[[x
T
x
A
[[
[[x
T
[[

[[E[[
1 [[E[[
=
0.02
1 0.02
=
0.02
0.98
= 0.0204016...
Ahora usamos la segunda de las f ormulas. Tenemos que calcular k(A) = [[A[[ [[A
1
[[ .
Sabemos que
A =
_
_
2 1 1
1 1 1
1 1 3
_
_
luego [[A[[

= 5
y
A
1
=
_

_
1 1 0
1
5
2
1
2
0
1
2
1
2
_

_
luego [[A
1
[[

= 4 ,
Sergio Plaza 136
de donde k

(A) = 5 4 = 20 . Para aplicar la f ormula debemos vericar que [[AE[[

<
1
||A
1
||
. Tenemos que
AE =
_
_
0 0.01 0.01
0 0.005 0.01
0 0.005 0
_
_
luego, [[AE[[

= 0.02 y [[A
1
[[

= 4 , de aqu se tiene que


1
||A
1
||
=
1
4
= 0.25 y
es claro entonces que se satisface la condicion [[AE[[

<
1
||A
1
||
. Reemplazando los
valores obtenidos, nos queda
[[x
T
x
A
[[

[[x
T
[[

20
1 20
0.02
5

0.02
5
=
20 0.004
1 20 0.004
=
0.08
1 0.08
=
0.08
0.92
= 0.08695652...
esto es,
[[x
T
x
A
[[

[[x
T
[[

0.08695652...
Problema 3.3 Sean
A =
_
_
_
_
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
_
_
_
_
y b =
_
_
_
_
5.00
1.02
1.04
1.10
_
_
_
_
(a) Calcule una soluci on aproximada x
A
del sistema Ax = b, primero aproximando cada
entrada del vector b al entero mas pr oximo, obteniendo un vector

b y luego resolviendo
el sistema Ax =

b.
(b) Calcule [[r[[

y k

(A) , donde r es el vector residual, es decir r = b Ax


A
y k

(A)
el n umero de condicionamiento de la matriz A.
(c) Estime una cota para el error relativo de la solucion aproximada, respecto a la soluci on
exacta (no calcule esta ultima explcitamente).
Solucion.
(a) El vector perturbado es (5 1 1 1)
T
. Luego la soluci on del sistema perturbado es
_
_
_
_
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
5
1
1
1
_
_
_
_
de donde (x, y, z, w) = (12, 4, 2, 1) = x
A
Sergio Plaza 137
(b) Tenemos [[b[[

= [[

b[[

= 5 . Por otra parte,


r = b Ax
A
=
_
_
_
_
5.00
1.02
1.04
1.10
_
_
_
_

_
_
_
_
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
12
4
2
1
_
_
_
_
=
_
_
_
_
5.00
1.02
1.04
1.10
_
_
_
_

_
_
_
_
5
1
1
1
_
_
_
_
=
_
_
_
_
0
0.02
0.04
0.10
_
_
_
_
Luego, [[r[[

= 0.10 .
Para encontrar la inversa de la matriz A basta resolver el sistema
_
_
_
_
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
a
11
a
12
a
13
a
14
a
21
a
22
a
23
a
24
a
31
a
32
a
33
a
34
a
41
a
42
a
43
a
44
_
_
_
_
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
de donde
A
1
=
_
_
_
_
1 1 2 4
0 1 1 2
0 0 1 1
0 0 0 1
_
_
_
_
Luego, [[A
1
[[

= 8 . Tenemos que [[A[[

= 4 , luego k

(A) = [[A[[

[[A
1
[[

= 48 =
32 .
(c) Usamos la formula
1
k(A)
[[r[[
[[b[[

[[x
T
x
A
[[
[[x
T
[[
k(A)
[[r[[
[[b[[
Reemplazando los datos nos queda
1
32

0.10
5

[[x
T
x
A
[[
[[x
T
[[
32
0.10
5
es decir,
0.625 10
3

[[x
T
x
A
[[
[[x
T
[[
0.64 .
Problema 3.4 Encuentre una descomposicion del tipo LU para la matriz A siguiente
A =
_
_
_
_
4 3 2 1
3 4 3 2
2 3 4 3
1 2 3 4
_
_
_
_
Use la descomposion anterior para solucionar el sistema Ax = (1 1 1 1)
T
.
Sergio Plaza 138
Solucion. La descomposicion de Doolittle de A es dada por
A = L U =
_
_
_
_
_
_
_
_
_
1 0 0 0
3
4
1 0 0
1
2
6
7
1 0
1
4
5
7
5
6
1
_
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
_
_
_
4 3 2 1
0
7
4
3
2
5
4
0 0
12
7
10
7
0 0 0
5
3
_
_
_
_
_
_
_
_
_
_
_
Ahora resolver el sistemas Ax = b es equivalente a resolver los sistemas Ly = b y Ux = y.
Tenemos que b = (1 1 1 1)
T
. Llamando y = (y
1
y
2
y
3
y
4
)
T
, de la forma del sistema
Ly = b, obtenemos que y
1
= 1 , y
2
=
1
4
, y
3
=
12
7
, y y
4
= 0. Ahora al resolver el sistema
Ux = b obtenemos x
4
= 0 , x
3
= 1 , x
2
= 1 y x
1
= 0 .
Problema 3.5 Considere el sistema de ecuaciones lineales Ax = b , donde
A =
_
_
_
_
2 3 8 1
4 0 1 10
16 4 2 1
0 7 1 5
_
_
_
_
y b =
_
_
_
_
1
1
1
1
_
_
_
_
a) Usando aritmetica exacta y el metodo de eliminaci on gaussiana con pivoteo resuelva el
sistema de ecuaciones lineales Ax = b .
b) Denote por B a la matriz PA obtenida en el item anterior Demuestre que el metodo
iterativo de Jacobi aplicado a la matriz B es convergente. Usando como punto inicial
(0.0377,0.21819,0.20545,-0.06439) y la m axima capacidad de su calculadora, realice itera-
ciones con el metodo de Jacobi para obtener una soluci on aproximada del sistema Bx = b .
Use como criterio de parada |(x
n+1
, y
n+1
, z
n+1
, w
n+1
) (x
n
, y
n
, z
n
, w
n
)| 10
5
.
Solucion. a) Tenemos que
A =
_
_
_
_
2 3 8 1
4 0 1 10
16 4 2 1
0 7 1 5
_
_
_
_
y b =
_
_
_
_
1
1
1
1
_
_
_
_
.
Escribiendo la matrix ampliada del sistema, nos queda
A =
_
_
_
_
2 3 8 1 1
4 0 1 10 1
16 4 2 1 1
0 7 1 5 1
_
_
_
_
,
de donde
s =
_
_
_
_
8
10
16
7
_
_
_
_
y P =
_
_
_
_
1
2
3
4
_
_
_
_
.
Sergio Plaza 139
Luego
m
1
= max
_
2
8
,
4
10
,
16
16
, 0
_
= 1 = m
31
por lo tanto debemos intercambiar la la 1 con la la 3. Realizando este intercambio de las y
la eliminaci on gaussiana, nos queda
_
_
_
_
16 4 2 1 1
4 0 1 10 1
2 3 8 1 1
0 7 1 5 1
_
_
_
_
F
2

1
4
F
1

F
3

1
8
F
1
_
_
_
_
16 4 2 1 1
0 1 3/2 41/4 3/4
0 7/2 33/4 7/8 7/8
0 7 1 5 1
_
_
_
_
de donde
L
1
=
_
_
_
_
1
1/4
1/8
0
_
_
_
_
, s
1
=
_
_
_
_
16
10
8
7
_
_
_
_
, P
1
=
_
_
_
_
3
2
1
4
_
_
_
_
Para la elecci on del segundo pivote tenemos
m
2
= max
_
1
10
,
7
16
,
7
7
_
= 1 = m
42
por lo tanto debemos intercambiar la la 2 con la la 4
_
_
_
_
16 4 2 1 1
0 7 1 5 1
0 7/2 33/4 7/8 7/8
0 1 3/2 41/4 3/4
_
_
_
_
F
3

1
2
F
2

F
4

1
7
F
2
_
_
_
_
16 4 2 1 1
0 7 1 5 1
0 0 31/4 27/8 11/8
0 0 19/14 227/28 25/28
_
_
_
_
luego,
L
1
1
=
_
_
_
_
1
0
1/8
1/4
_
_
_
_
, L
2
=
_
_
_
_
0
1
1/2
1/7
_
_
_
_
, P
2
=
_
_
_
_
3
4
1
2
_
_
_
_
, S
2
=
_
_
_
_
16
7
8
10
_
_
_
_
Para la elecci on del tercer pivote tenemos que
m
3
= max
_
31
32
,
19
140
_
=
31
32
= m
33
y obtenemos
_
_
_
_
16 4 2 1
0 7 1 5 1
0 0 31/4 27/8 11/8
0 0 19/14 227/28 25/8
_
_
_
_

F
4

38
217
F
3
_
_
_
_
16 4 2 1 1
0 7 1 5 1
0 0 31/4 27/8 11/8
0 0 0 4395/434 283/434
_
_
_
_
Sergio Plaza 140
luego,
L
3
=
_
_
_
_
0
0
1
38/217
_
_
_
_
Por lo tanto
PA = LU =
_
_
_
_
1 0 0 0
0 1 0 0
1/8 1/2 1 0
1/4 1/7 38/217 1
_
_
_
_
_
_
_
_
16 4 2 1
0 7 1 5
0 0 31/4 27/8
0 0 0 4395/434
_
_
_
_
(3.41)
donde
P =
_
_
_
_
0 0 1 0
0 0 0 1
1 0 0 0
0 1 0 0
_
_
_
_
.
Por lo tanto
PA =
_
_
_
_
16 4 2 1
0 7 1 5
2 3 8 1
4 0 1 10
_
_
_
_
Resolviendo la ecuacion se obtiene que
w =
283
4395
, z =
301
1465
, y =
959
4395
, x = 331/8790 (3.42)
Ahora, como
B = PA =
_
_
_
_
16 4 2 1
0 7 1 5
2 3 8 1
4 0 1 10
_
_
_
_
tenemos que la matriz B es diagonal dominante, por lo tanto el metodo de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por
Sergio Plaza 141
J = I Q
1
B
= I
4

_
_
_
_
1/16 0 0 0
0 1/7 0 0
0 0 1/8 0
0 0 0 1/10
_
_
_
_
_
_
_
_
16 4 2 1
0 7 1 5
2 3 8 1
4 0 1 10
_
_
_
_
=
_
_
_
_
0 1/4 1/8 1/16
0 0 1/7 5/7
1/4 3/8 0 1/8
2/5 0 1/10 0
_
_
_
_
Para determinar si el metodo de Jacobi converge determinaremos los valores propios de J .
Tenemos
det(J I
4
) = det
_
_
_
_
1/4 1/8 1/16
0 1/7 5/7
1/4 3/8 1/8
2/5 0 1/10
_
_
_
_
=
4
+
17
1120

219
4480
+
33
2240
(3.43)
de donde se tiene que los valores propios son

1,2
= 0.2483754458 0.3442140503i

3,4
= 0.2483754458 0.1416897424i
(3.44)
Por lo tanto, se tiene que el radio espectral es = 0.4244686967 < 1 y el metodo de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla
n x
n
y
n
z
n
w
n
E
0 0.000041875
1 0.037658125 0.2182 0.205445 -0.064375 0.00001725
2 0.0376540625 0.218188571428 0.20545734375 -0.064392640625 0.000014084822
3 0.0376595407368 0.21820265625 0.20545622991 -0.064392640625 0.3961078E-5
4 0.0376559047154 0.218202776148 0.205460190988 -0.0643905607143
Problema 3.6 Para cada n N, se denen
A
n
=
_
1 2
2 4 +
1
n
2
_
y b
n
=
_
1
2
1
n
2
_
.
Se desea resolver el sistema A
n
x = b
n
. Un estudiante obtiene como resultado x = (1, 0)
T
.
1. Se dene el vector residual asociado a esta soluci on como
r
n
= A
n
x b
n
Calcule r
n
Podemos decir que para n grande, la soluci on es razonablemente conable?
Justique
Sergio Plaza 142
2. Resolver A
n
x = b
n
en forma exacta. Denote por x
n
la soluci on exacta y c alcule el error
relativo de la aproximacion x = (1, 0)
T
.
3. Lo razonablemente esperado es que x
n
converja a x cuando n tiende a innito. Para este
ejemplo, se tiene dicha armacion?. Calcule K

(A
n
) y explique el resultado obtenido.
Solucion. Para cada n N, un resultado para una soluci on de A
n
x = b
n
es x = (1, 0) .
1. El vector residual asociado a esta solucion es
r
n
= A
n
x b
n
.
Tenemos
r
n
=
_
1 2
2 4 +
1
n
2
__
1
0
_

_
1
2
1
n
2
_
=
_
1
2
_

_
1
2
1
n
2
_
=
_
0
1
n
2
_
Ahora, la solucion exacta del sistema es
_
1 2
2 4 +
1
n
2
__
x
y
_
=
_
1
2
1
n
2
_
esto del par de ecuaciones lineales
x + 2y = 1
2x +
_
4 +
1
n
2
_
y = 2
1
n
2
.
De la primera ecuacion obtenemos x = 1 2y , reemplazando en la segunda ecuacion nos
queda
2 4y + 4y +
1
n
2
y = 2
1
n
2
,
es decir,
1
n
2
y =
1
n
2
, de donde y = 1 , por lo tanto x = 3 . Note que la soluci on es
exactamente la misma para cada n N, es decir, la soluci on no depende de n N.
Por lo tanto la soluci on dada no es razonablemente conable, pues no se aproxima en
nada a la soluci on exacta x
T
= (3, 1) del sistema A
n
x = b
n
.
2. Ya calculamos la soluci on exacta x
n
de A
n
x = b
n
, la cual es x
n
= (3, 1) = x
T
para
todo n N.
Sergio Plaza 143
Usando la norma [[ [[

para simplicar los c alculos.


E
R
( x) =
[[x
T
x[[

[[x
T
[[

=
[[(3, 1) (1, 0)[[

[[(3, 1)[[

=
[[(2, 1)[[

[[(3, 1)[[

=
max[2[, [ 1[
max[3[, [ 1[
=
2
3
.
3. No, pues x
n
= (3, 1) = x
T
es un vector constante y no se aproxima (obviamente) a
x = (1, 0) .
Para calcular k

(A
n
) , tenemos
[[A
n
[[

= max[1[ +[2[, [2[ +

4 +
1
n
2

= 6 +
1
n
2
Ahora, det(A
n
) = 4 +
1
n
2
4 =
1
n
2
. Luego
A
1
n
=
1
1
n
2
_
_
_
4 +
1
n
2
2
2 1
_
_
_
= n
2
_
_
_
4 +
1
n
2
2
2 1
_
_
_
=
_
_
4n
2
+ 1 2n
2
2n
2
n
2
_
_
y [[A
1
n
[[

= max[14n
2
+ 1[ + [ 2n
2
[ + [n
2
[ = max6n
2
+ 1, 3n
2
= 6n
2
+ 1 . Por lo
tanto
k

(A
n
) =
_
6 +
1
n
2
_
(6n
2
+ 1)
= 36n
2
+ 6 + 6 +
1
n
2
= 36n
2
+ 12 +
1
n
2

n
,
Sergio Plaza 144
lo cual signica que la matriz A
n
esta muy mal condicionada para valores grandes de n (es
numericamente no invertible para n grande), lo cual explica la mala aproximaci on x de x
n
para
n grande.
3.15 Ejercicios Propuestos
Problema 3.1 Para resolver un sistema de ecuaciones lineales Ax = b , donde x, b R
2
, se
propone el siguiente metodo iterativo
x
(k+1)
= Bx
(k)
+b , k 0
donde
B =
_
c
0
_
, , c R
1. Para que valores de y c el metodo iterativo propuesto es convergente?
2. Sea x el punto jo de la iteraci on. Calcule [[ x x
(k)
[[

y [[x
(k+1)
x
(k)
[[

cuando
k Es la convergencia la punto jo independiente de c ? Justicque.
Problema 3.2 Dado un metodo iterativo para resolver un sistema de ecuaciones lineales
x
(k+1)
= Bx
(k)
+c ,
Si det(B) = 0 Puede el metodo propuesto ser convergente?
Problema 3.3 Si un metodo iterativo de punto jo x
n+1
= Ax
n
, donde A M(n n, R)
tiene un punto jo x ,= 0 . Pruebe que [[A[[ 1 para cualquier norma ssubordinada en
M(n n, R) .
Problema 3.4 Dada una matriz
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
y un vector b R
3
, se quiere resolver el sistema Ax = b. Para ello, se propone el metodo
iterativo siguiente:
x
(k+1)
=
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
1

_
_
0 0 a
13
0 0 a
23
a
31
a
32
0
_
_
x
(k)
+
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
1
b
(a) Pruebe que el metodo propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes
A =
_
_
8 2 3
3 9 4
3 1 7
_
_
y b =
_
_
20
62
0
_
_
.
Indicaci on: Use que
_
_
8 2 0
3 9 0
0 0 7
_
_
1
=
_
_
3/26 1/39 0
1/26 4/39 0
0 0 1/7
_
_
.
Sergio Plaza 145
(b) Considere el vector x
(0)
= (0 0 0)
T
. Encuentre el n umero mnimo de iteraciones necesarias
k N, de modo de tener una precision [[x
(k)
x[[

10
4
.
(c) Compare el metodo anterior con el metodo de Jacobi en cuanto a velocidad de conver-
gencia. Justique.
Problema 3.5 Encuentre la inversa A
1
de la matriz A, las normas [[A[[
1
, [[A
1
[[
1
, [[A[[
2
,
[[A
1
[[
2
, [[A[[

, [[A
1
[[

y los n umeros de condici on


1
(A) ,
2
(A) y

(A) si
1. A =
_
_
0 0 1
0 1 0
1 1 1
_
_
2. A =
_
_
3 0 0
0 2 0
0 0 1
_
_
3. A =
_
_
_
_
2 1 2 1
1 2 1 2
2 1 2 1
0 2 0 1
_
_
_
_
Problema 3.6 Sean A, B M(nn, R) , matrices invertibles. Pruebe que (AB) (A)(B) ,
donde el n umero de condici on es calculado usando cualquier norma subordinada en M(nn, R) .
Problema 3.7 Sean A, B M(3 3, R) las matrices
A =
_
_
a c 0
c a c
0 c a
_
_
, B =
_
_
0 b 0
b 0 b
0 b 0
_
_
1. Probar que lim
n
B
n
= 0 si y solo si [b[ <

2/2 .
2. Dar condiciones necesarias y sucientes sobre a, c R para la convergencia de los metodos
de Jacobi y de GaussSeidel aplicados a resolver el sistema de ecuacion es lineales Ax = b.
Problema 3.8 Considere el sistema de ecuaciones lineales siguiente
_
_
_
3x +y +z = 5
x + 3y z = 3
3x +y 5z = 1
1. Explicite el metodo iterativo de Jacobi para encontrar soluci on a la ecuaci on. Justique
porque este metodo converge (sin usar calculadora). Comenzando con (0, 0, 0) , realice 10
iteraciones Cu al es el error absoluto respecto de la soluci on exacta?
2. Explicite el metodo iterativo de GaussSeidel y justique la convergencia o no de este
metodo para la ecuacion dada.
Sergio Plaza 146
Problema 3.9 Sean
A =
_
_
1 1 1
1 2 2
2 1 1
_
_
y b =
_
_
1
2
3
_
_
Proponga un metodo iterativo convergente para resolver Ax = b . La demostracion de con-
vergencia debe hacerse sin iterar. Resuelva la ecuacion utilizando el metodo iterativo propuesto.
Use como critero de parada [[(x
n+1
, y
n+1
, z
n+1
) (x
n
, y
n
, z
n
)[[
2
10
3
.
Problema 3.10 Considere el sistema de ecuaciones lineales
_
_
_
3x 2y +z = 1
x
2
3
y + 2z = 2
x + 2y z = 0
1. Resolver el sistema usando descomposicion LU y aritmetica exacta.
2. Resolver el sistema usando descomposicion LU y aritmetica decimal con 4 dgitos y
redondeo.
3. Resolver el sistema usando aritmetica exacta sin pivoteo.
4. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y sin pivoteo.
5. Resolver el sistema usando aritmetica exacta con pivoteo.
6. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y con pivoteo.
7. cual es su conclusi on?
Problema 3.11 1. Obtener la descomposicion LU para matrices tridiagonales.
2. Describir el proceso de eliminacion gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.
3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y GaussSeidel.
4. Ilustre todo lo anterior con el sistema
_
_
3 1 0
1 3 1
0 1 3
_
_
_
_
x
y
z
_
_
=
_
_
1
4
10
_
_
Problema 3.12 Considere los siguientes sistemas de ecuaciones lineales
_
_
3 2 1
1
2
3
2
1 2 1
_
_
_
_
x
y
z
_
_
=
_
_
1
2
0
_
_
(3.45)
_
_
0 1 0
0 2 1
2 3 1
_
_
_
_
x
y
z
_
_
=
_
_
8
7
5
_
_
(3.46)
Sergio Plaza 147
_
_
3 1 1
1 3 1
3 1 5
_
_
_
_
x
y
z
_
_
=
_
_
5
3
1
_
_
(3.47)
1. Estudie la convergencia de los metodos iterativos de Richardson, Jacobi, GaussSeidel y
de SOR para cada uno de ellos.
2. Caso algunos de los metodos anteriores sea convergente, encontrar la solucion del sis-
tema, con precisi on = 10
3
y usando como criterio de parada [[(x
n+1
, y
n+1
, z
n+1
)
(x
n
, y
n
, z
n
)[[

, comenzando con (x
0
, y
0
, z
0
) = (0, 0, 0) .
Problema 3.13 Considere el sistema de ecuaciones lineales
_
10
5
1
2 1
__
x
y
_
=
_
1
0
_
1. Resuelva el sistema usando eliminaci on gaussiana sin pivoteo y con aritmetica de redondeo
a 4 dgitos.
2. Resuelva el sistema usando eliminaci on gaussiana con pivoteo y con aritmetica de redondeo
a 4 dgitos.
3. Cu al de las soluciones obtenidas en a) y b) es la m as aceptable?
4. Calcule el n umero de condici on para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cual es su conclusi on?
Problema 3.14 Dado el sistema lineal de ecuaciones estructurado
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n1
a
1 n
0 a
22
. . . a
2n1
a
2 n
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 a
n2 n2
a
n2 n1
a
n2 n
a
n1 1
a
n1 2
. . . a
n1 n2
a
n1 n1
a
n1 n
a
n1
a
n2
. . . a
nn2
a
nn1
a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
a) Dise ne un algoritmo basado en el metodo de eliminaci on gaussiana que permita resolver
dicho sistema adaptado a la estructura particular de este, sin hacer ceros donde ya existen.
b) Realice un conteo de las operaciones (multiplicaci on, divisi on, suma y resta) involucrados
solo en la triangulaci on del sistema en el algoritmo de la parte a).
Sergio Plaza 148
Problema 3.15 Dado el sistema lineal Ax = h con
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
c
1
0 0 0 0 0 0 0
b
2
a
2
c
2
0 0 0 0 0 0
0 b
3
a
3
c
3
0 0 0 0 0
0 0 b
4
a
4
c
4
0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 b
n1
a
n1
c
n1
0 0 f
3
f
4
f
n2
b
n
a
n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
y h R
n
un vector columna.
Dise ne un algoritmo en pseudo lenguaje basado en el metodo de eliminaci on gaussiana, sin
eleccion de pivote, que utilice el mnimo n umero de localizaciones de memoria, realice el mnimo
n umero de operaciones (es decir, que obve los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h.
Problema 3.16 Resuelva mediante el metodo de eliminaci on gaussiana con aritmetica exacta
el sistema
5x
1
x
2
= 4
x
1
+ 5x
2
x
3
= 2
x
2
+ 5x
3
= 1
Problema 3.17 Dado el sistema lineal
_
x = 0.9x +y + 17
y = 0.9y 13
1. Proponga un metodo iterativo convergente (en R
2
). La demostracion de convergencia
debe hacerse sin iterar.
2. Resuelva el sistema por su metodo propuesto, con aritmetica decimal de redondeo a 3
dgitos y con una precision de 10
3
en la norma [[ [[

, eligiendo como punto de partida


(0, 0) . (el redondeo debe hacerse en cada operacion).
3. Analice la convergencia del metodo de Jacobi y del metodo de GaussSeidel. Sin iterar.
Problema 3.18 Dado el sistema lineal
_
_
_
3x +y +z = 5
3x +y 5z = 1
x + 3y z = 1
1. Resuelva el sistema usando eliminaci on gaussiana, con o sin pivoteo, con aritmetica deci-
mal de redondeo a 3 dgitos. (el redondeo debe hacerse en cada operacion).
2. Analice la convergencia del metodo de Jacobi, sin iterar.
Sergio Plaza 149
3. Analice la convergencia del metodo de GaussSeidel, sin iterar.
Problema 3.19 Considere el sistema de ecuaciones lineal
_
_
_
_
_
_
_
_
_
_
1
1
2
1
3
1
2
1
1
6
1
3
1
6
1
_
_
_
_
_
_
_
_
_
_
_
_
x
y
z
_
_
=
_
_
1
2
3
_
_
.
1. Resuelva el sistema por el metodo de eliminaci on de Gauss (sin elecci on de pivote) re-
dondeando cada operaci on a 4 dgitos en la mantisa.
2. Resuelva el sistema por el metodo de Jacobi redondeando cada operaci on a 4 dgitos en
la mantisa, y con una presicion de 10
3
, comenzando con x
0
= y
0
= z
0
= 0 .
3. En este caso particular Cual de los dos metodos es m as conveniente? Justique.
Problema 3.20 Resuelva el sistema Ax = b , donde
A =
_
_
_
_
3 2 3 1
6 2 6 0
9 4 10 3
12 4 13 5
_
_
_
_
y b =
_
_
_
_
1
2
3
4
_
_
_
_
usando descomposicion LU con pivoteo.
Problema 3.21 Considere la matriz
A =
_
0.0001 1
1 1
_
1. Trabajando con aritmetica decimal de tres dgitos y redondeo Es posible encontrar una
descomposici on LU para A?
2. Considere ahora aritmetica decimal de cinco dgitos y redondeo. Encuentre una des-
composicion LU para A, y compare los n umeros de condici on de A y de LU Cual es
su conclusi on?
3. Ahora considere la matriz
A =
_
1 1
0.0001 1
_
Es posible ahora encontrar una descomposici on LU , con aritmetica decimal de redondeo
a tres dgitos para A?
Problema 3.22 Considere el siguiente sistema de ecuaciones lineales
_
_
10 3 6
1 8 2
2 4 9
_
_
_
_
x
y
z
_
_
=
_
_
25
9
50
_
_
Sergio Plaza 150
1. Resuelva el sistema usando descomposici on LU de Doolittle.
2. Cu ales de los metodos iterativos: Richardson, Jacobi, GaussSeidel convergen?
3. Use un metodo iterativo convergente para encontrar la soluci on del sistema con una pre-
cision de = 10
3
, con criterio de parada [[(x
n
, y
n
, z
n
) (x
T
, y
T
, z
T
)[[

, donde
(x
T
, y
T
, z
T
) es la solucion exacta del sistema.
Problema 3.23 Considere la matriz
A =
_
_
4 1 1
1 4 1
1 1 4
_
_
a) Demuestre que existe la descomposion de Cholesky (sin calcularla) de A.
b) Determine la descompisici on de Cholesky de A.
Problema 3.24 a) Demuestre que la matriz
A =
_
_
0 1 0
0 2 1
2 3 1
_
_
no tiene descomposicion LU .
b) Realice pivoteo en la matriz A y demuestre que la matriz resultante tiene descomposicion
LU .
Problema 3.25 Considere la matriz
A =
_
_
2 1 0
0 3 2
1 2 4
_
_
1. Usando aritmetica exacta, encuentre una descomposici on A = LU , donde L es triangular
inferior con unos en la diagonal.
2. Usando la descomposicion LU obtenida en a), encuentre la soluci on del sistema (usando
aritmetica exacta) Ax = b , con b
T
= (5, 3, 8) .
3. Proponga un metodo de punto jo y demuestre la convergencia (sin iterar) para resolver
el sistema dado en b), y encuentre una soluci on aproximada con una presicion de 10
3
.
Problema 3.26 Consideremos el problema de calcular la temperatura de una barra met alica
de largo L, cuyos extremos se mantienen a temperaturas constantes T
0
y T
L
conocidas. La
ecuacion diferencial que gobierna este fen omeno es conocida como ecuaci on de conduccion del
calor, la cual, en regimen estacionario esta dada por
kT

(x) = f(x) 0 < x < L, (3.48)


Sergio Plaza 151
donde f(x) es una funci on conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeciente de difusi on o conductividad termica. A esta ecuacion
se le agregan las condiciones de borde:
T(0) = T
0
, T(L) = T
L
. (3.49)
Una de las tecnicas m as usadas para resolver el problema 3.48-3.49 es el metodo de diferencias
nitas. En este metodo, el intervalo [0, L] se divide en N + 1 intervalos de largo h =
L
N+1
y
la soluci on es buscada en los puntos internos denidos por esta division, es decir, en los puntos
x
n
= nh, con n = 1, . . . , N (los valores de la temperatura en los nodos del borde x
0
= 0 y
x
N+1
= L son conocidos). En este metodo, las derivadas de primer orden se aproximan por el
cuociente de diferencias nitas
f

(x)
f(x +h) f(x)
h
,
mientras que las derivadas de segundo orden, se aproximan por
f

(x)
f(x h) 2f(x) +f(x +h)
h
2
. (3.50)
Denotemos por T
n
los valores aproximados de la evaluaciones de la temperatura exacta en los
puntos de la malla, T(x
n
) . Reemplazando T

(x) en la ecuacion 3.48 por la expresi on 3.50,


y evaluando la ecuaci on en los nodos internos de la malla x
1
, . . . , x
N
, se obtiene el siguiente
sistema de ecuaciones lineales:
2T
1
T
2
= h
2
f(x
1
) +T
0
, (3.51)
T
j1
+ 2T
j
T
j+1
= h
2
f(x
j
), j = 2, . . . , N 1; (3.52)
2T
N1
+ 2T
N
= h
2
f(x
N
) +T
L
, (3.53)
que matricialmente puede ser escrito como
_
_
_
_
_
_
_
_
_
2 1 0 0
1 2 1 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 2 1
0 0 1 2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
T
1
T
2
.
.
.
T
N1
T
N
_
_
_
_
_
_
_
_
= h
2
_
_
_
_
_
_
_
_
f(x
1
)
f(x
2
)
.
.
.
f(x
N1
)
f(x
N
)
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
T
0
0
.
.
.
0
T
L
_
_
_
_
_
_
_
_
(3.54)
Denotemos por A la matriz y por F
h
el lado derecho de este sistema.
Tomando como par ametros del problema los valores
k = 1, L = 1, f(x) = 37
_

2
_
2
sin(

2
x),
T
0
= 0, T
L
= 37,
(3.55)
se pide resolver numericamente el sistema 3.54, usando los metodos iterativos de Jacobi, Gauss-
Seidel y SOR. Para el metodo SOR tome distintos valores del parametro de aceleracion
(1, 2) . Calcule ademas el par ametro de aceleracion optimo

.
Para ello, siga los siguientes pasos:
1. Compruebe que la matriz A es denida positiva.
Sergio Plaza 152
2. Implemente cada uno de los 3 metodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especique
el criterio de parada utilizado y el n umero de iteraciones para cada uno de los metodos y
para los distintos valores de N . Presente sus resultados en una tabla.
3. Finalmente, determine la soluci on analtica del problema 3.48-3.49, con los par ametros
dados por 3.55 y graque el error absoluto en la soluci on, para cada uno de los metodos
y para los distintos valores de N . A partir de estos gracos, comente cual de los tres
metodos aproxima mejor a la soluci on .
Problema 3.27 Demuestre que la matriz no singular
A =
_
_
0 0 1
1 0 0
0 1 0
_
_
no tiene descomposicion LU , pero la matriz A I si tiene descomposicion LU . Dar una
matriz de permutaci on P de modo que PA tiene descomposicion LU .
Problema 3.28 Sea a > 0 una constante. Se tiene la siguiente matriz
A =
_
_
_
_
_
_
_
_
_
_
2 a 0
2
3
a
3
0
2
3
a
3
0
2
3
a
3
0
2
5
a
5
_
_
_
_
_
_
_
_
_
_
(a) Demuestre que A tiene descomposicion de Cholesky y usela para calcular A
1
.
(b) calcule el n umero de condici on de la matriz A, en terminos de A y determine cuando
ella esta bien condicionada.
(c) Si b = (0 1 1)
T
. Usando la descomposicion anterior resuelva el sistema de ecuaciones
lineales Ax = b.
Problema 3.29
Problema 3.30
Problema 3.31
Captulo 4
Interpolaci on
Supongamos que tenemos una funci on f : [a, b] R y queremos aproximarla por funciones
mas simples. M as general, nos son dados los datos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) donde los
puntos x
i
( i = 0, . . . , n) son distintos y estan sobre el eje x, los cuales suponemos ordenados
por x
0
< x
1
< < x
n
, y los puntos y
i
(i = 0, 1, . . . , n) son tales que y
i
= f(x
i
) para alguna
funci on desconocida f(x) con la cual deseamos hacer algunos c alculos. Podemos aproximar
f(x) por funciones simples, y hacer los calculos con estas aproximaciones, por ejemplo, calculo
de integrales (areas) y de derivadas.
4.1 Interpolaci on de Lagrange
Comenzamos aproximando los datos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) , con x
0
< x
1
< < x
n
,
por funciones polinomiales a trozo o por funciones polinomiales.
4.1.1 Aproximaci on lineal por trozo o de grado 1
Dados los puntos (x
0
, y
0
) y (x
1
, y
1
) , con x
0
< x
1
, tales que y
0
= f(x
0
) y x
1
= f(x
1
) ,
podemos aproximar f(x) en el intervalo [x
0
, x
1
] por la m as simple de las funciones, es decir,
afn . Para ello consideramos el segmento de recta que une los puntos (x
0
, y
0
) y (x
1
, y
1
) .
Tenemos entonces que la aproximacion es dada por
L
1
(x) =
x x
1
x
0
x
1
y
0
+
x x
0
x
1
x
0
y
1
. (4.1)
Ademas, el error viene expresado como
Error = f(x) L
1
(x) =
f

((x))
2!
(x x
0
)(x x
1
) , (4.2)
donde (x) [x
0
, x
1
] .
153
Sergio Plaza 154

x
0
y
0
x
1
y
1
L
1
(x)
f(x)
Para obtener la expresi on de L
1
(x) , escribimos
L
1
(x) = a
0
+a
1
x. (4.3)
Usando las condiciones L
1
(x
0
) = y
0
y L
1
(x
1
) = y
1
, obtenemos el siguiente sistema de
ecuaciones lineales
L
1
(x
0
) = a
0
+a
1
x
0
= y
0
L
1
(x
1
) = a
0
+a
1
x
1
= y
1
(4.4)
o en forma matricial
_
1 x
0
1 x
1
__
a
0
a
1
_
=
_
y
0
y
1
_
cuya soluci on es
a
0
=
1
x
1
x
0
y
0
+
1
x
1
x
0
y
1
a
1
=
1
x
1
x
0
y
0
+
1
x
1
x
0
y
1
Reemplazando estos valores en la expresion para L
1
(x) dada en (4.3), obtenemos la f ormula
(4.1).
Si queremos aproximar f(x) en todo el intervalo [a, b] , consideramos una partici on de [a, b] ,
digamos x
0
= a < x
1
< x
2
< < x
n
= b , y en cada subintervalo [x
i
, x
i+1
] tomamos una
aproximaci on como la anterior. Para el error total s olo basta sumar los errores cometidos en
cada aproximaci on. Esta es llamada aproximaci on lineal por trozos de f(x) .
Usando este tipo de aproximacion tenemos, por ejemplo,
_
x1
x0
f(x)
_
x1
x0
L
1
(x)dx =
x
1
x
0
2
(y
1
+y
0
) , (4.5)
es decir,
_
x1
x0
f(x)dx
_
x1
x0
L
1
(x)dx =
x
1
x
0
2
(f(x
0
) +f(x
1
)) , (4.6)
esta es llamada regla del trapecio para el c alculo integral.
Sergio Plaza 155

x
0
y
0
x
1
y
1
Error
L
1
(x)
f(x)
Area del trapecio
Para el error cometido en el calculo de la integral usando esta aproximaci on, tenemos que
_
x1
x0
f

((x))
2!
(x x
0
)(x x
1
)dx =
f

(c)
2
_
x1
x0
(x x
0
)(x x
1
)
=
f

(c)
2
_
x
3
3

x
0
+x
1
2
x
2
+x
0
x
1
x
_

x1
x0
=
f

(c)
2

h
3
6
=
h
3
12
f

(c)
para alg un c en [x
0
, x
1
] , donde h = x
1
x
0
. Por lo tanto,
_
x1
x0
f(x)dx =
h
2
(f(x
0
) +f(x
1
))
h
3
12
f

(c) . (4.7)
De (4.7) tenemos una cota para el error cometido en el calculo de la integral, dado por

_
x1
x0
f(x)dx
h
2
(f(x
0
) +f(x
1
))

h
3
12
max [f

(x)[ : x [x
0
, x
1
] . (4.8)
En general, usando la partici on a = x
0
< x
1
< < x
n
= b del intervalo [a, b] , con paso
constante h = x
i+1
x
i
, tenemos la f ormula de los trapecios compuesta
_
b
a
f(x)
h
2
(f(x
0
) + 2f(x
1
) + 2f(x
2
) + + 2f(x
n1
) +f(x
n
)) . (4.9)
El error de esta aproximaci on lo estudiaremos en el Captulo 8
4.2 Polinomio de Lagrange de grado n
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x
0
= a < x
1
< < x
n
= b y
f : [a, b] R una funci on n + 1 veces derivable con f
(n+1)
(x) continua. Sean y
i
= f(x
i
) ,
i = 0, 1, . . . , n. Entonces existe un unico polinomio L
n
(x) de grado menor o igual que n tal
que
f(x
k
) = L
n
(x
k
) , k = 0, 1, . . . , n. (4.10)
Sergio Plaza 156
x
0
y
0
x
1
y
1
x
2
y
2
x
n2
y
n2
x
n1
y
n1
xn
yn
f(x)
Este polinomio es dado por
L
n
(x) =
n

k=0
f(x
k
)L
n,k
(x) , (4.11)
donde
L
n,k
(x) =
(x x
0
) (x x
k1
)(x x
k+1
) (x x
n
)
(x
k
x
0
) (x
k
x
k1
)(x
k
x
k+1
) (x
k
x
n
)
=
n

i = 0
i = k
(x x
i
)
(x
k
x
i
)
. (4.12)
Ademas, se tiene que
Error = f(x) L
n
(x) =
f
(n+1)
((x))
(n + 1)!
(x x
0
) (x x
n
) (4.13)
donde (x) [x
0
, x
n
] .
La siguiente gura ilustra L
2
(x) ,

x
0
y
0
x
1
x
2
y
1

y
2
L
2
(x)
f(x)
Para encontrar la f ormula (4.11), escribimos
L
n
(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
(4.14)
Sergio Plaza 157
e imponemos las condiciones L
n
(x
j
) = y
j
para j = 0, 1, . . . , n. Esto da origen al siguiente
sistema de n + 1 ecuaciones con n + 1 incognitas
_

_
L
n
(x
0
) = a
0
+a
1
x
0
+a
2
x
2
0
+ +a
n
x
n
0
= y
0
L
n
(x
1
) = a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
= y
1
.
.
.
L
n
(x
n
) = a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n
x
n
n
= y
n
(4.15)
o en forma matricial
_
_
_
_
_
1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
x
n
n
_
_
_
_
_
_
_
_
_
_
a
0
a
2
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
y
0
y
1
.
.
.
y
n
_
_
_
_
_
(4.16)
el cual se resuelve usando la regla de Cramer, y se obtiene la formula (4.12) para los coecientes
del polinomio de Lagrange.
Aplicando esta aproximaci on para el c alculo integral, tenemos
_
xn
x0
f(x)dx
_
xn
x0
L
n
(x)dx
y
_
xn
x0
L
n
(x)dx =
_
xn
x0
n

i=0
f(x
i
)L
n,i
(x)dx
=
n

i=0
f(x
i
)
_
xn
x0
L
n,i
(x)dx
luego,

_
xn
x0
f(x)dx
_
xn
x0
L
n
(x)dx

=
1
(n + 1)!

_
xn
x0
f
(n+1)
((x))
n

i=0
(x x
i
)dx

1
(n + 1)!
_
xn
x0

f
(n+1)
((x))

i=0
(x x
i
)

dx
=
[f
(n+1)
(c)[
(n + 1)!
_
xn
x0

i=0
(x x
i
)

dx
max
_
[f
(n+1)
(x)[
(n + 1)!
: x [x
0
, x
n
]
__
xn
x0

i=0
(x x
i
)

dx

nh
(n + 1)!
K
1
K
2
,
Sergio Plaza 158
donde K
1
= max
_

f
(n+1)
(x)

: x [x
0
, x
n
]
_
y K
2
= max [

n
i=0
(x x
i
)[ : x [x
0
, x
n
] ,
esto es,

_
xn
x0
f(x)dx
_
xn
x0
L
n
(x)dx

nh
(n + 1)!
K
1
K
2
. (4.17)
4.3 Regla de Simpson
Sean x
0
= a , x
2
= b y x
1
= a + h, donde h =
b a
2
. Si usamos L
2
(x) para aproximar f ,
tenemos
L
2
(x) =
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
f(x
0
) +
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
f(x
1
) +
(x x
0
)(x x
1
)
(x
2
x
0
)(x
2
x
1
)
f(x
2
) ,
donde el resto (error) viene dado por
R(x) =
(x x
0
)(x x
1
)(x x
2
)
6
f
(3)
((x)) ,
con (x) [a, b] .
Luego
_
b
a
f(x)dx = f(x
0
)
_
x2
x0
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
dx +f(x
1
)
_
x2
x0
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
dx
+f(x
2
)
_
x2
x0
(x x
0
)(x x
1
)
(x
2
x
0
)(x
2
x
1
)
dx +
_
x2
x0
(x x
0
)(x x
1
)(x x
2
)
6
f
(3)
((x))dx
Tenemos h = x
2
x
1
= x
1
x
0
y x
2
x
0
= (x
2
x
1
) + (x
1
x
0
) = 2h.
Ejercicio. Desarrollar el c alculo de las integrales y obtener la regla de Simpson.
Una forma alternativa para obtener la regla de Simpson es la siguiente. Desarrollamos f(x)
en serie de Taylor hasta orden 4 alrededor del punto x
1
en el intervalo [x
0
, x
2
] . Tenemos,
x
1
= x
0
+h, luego
f(x) = f(x
1
) +f

(x
1
)(x x
1
) +
f

(x
1
)
2
(x x
1
)
2
+
f

(x
1
)
6
(x x
1
)
3
+
f
(4)
((x))
24
(x x
1
)
4
,
con (x) [x
0
, x
2
] .
Integrando, obtenemos
_
x2
x0
f(x)dx = f(x
1
)(x
2
x
0
) +
_
f

(x
1
)
2
(x x
1
)
2
+
f

(x
1
)
6
(x x
1
)
3
+
f

(x
1
)
24
(x x
1
)
4
_

x2
x0
+
1
24
_
x2
x0
f
(4)
((x))(x x
1
)
4
dx.
Sergio Plaza 159
Como (x x
1
)
4
0 , podemos usar el teorema valor medio para integrales, y tenemos
1
24
_
x2
x0
f
(4)
((x))(x x
1
)
4
dx =
f
(4)
(c)
24
_
x2
x0
(x x
1
)
4
dx
=
1
120
f
(4)
(c)(x x
1
)
5

x2
x0
, c ]x
0
, x
2
[ .
Ahora, usando que h = x
1
x
0
= x
2
x
1
, tenemos
(x
2
x
1
)
2
(x
0
x
1
)
2
= (x
2
x
1
)
4
(x
0
x
1
)
4
= 0
(x
2
x
1
)
3
(x
0
x
1
)
3
= 2h
3
(x
2
x
1
)
5
(x
0
x
1
)
4
= 2h
5
.
Luego
_
x2
x0
f(x)dx = 2hf(x
1
) +
h
3
3
f

(x
1
) +
f
(4)
(c)
60
h
5
. (4.18)
Usando desarrollos de Taylor, tenemos
f(x +h) = f(x) +f

(x)h +
1
2
f

(x)h
2
+
1
6
f

(x)h
3
+
1
24
f
(4)
(
1
)h
4
(4.19)
f(x h) = f(x) f

(x)h +
1
2
f

(x)h
2

1
6
f

(x)h
3
+
1
24
f
(4)
(
2
)h
4
, (4.20)
donde x h <
2
< x <
1
< x +h. Sumando estas dos igualdades, obtenemos
f(x +h) +f(x h) = 2f(x) +f

(x)h
2
+
1
24
(f
(4)
(
1
) +f
(4)
(
2
))h
4
(4.21)
y resolviendo para f

(x) nos queda


f

(x) =
1
h
2
(f(x h) 2f(x) +f(x +h))
h
2
24
(f
(4)
(
1
) +f
(4)
(
1
)) . (4.22)
Si f
(4)
(x) es continua en [x h, x +h] , usando el teorema del valor medio obtenemos
f
(4)
(
1
) +f
(4)
(
2
)
2
= f
(4)
() , (4.23)
para alg un [x h, x +h] .
Luego
f

(x) =
1
h
2
(f(x h) 2f(x) +f(x +h))
h
2
12
f
(4)
() . (4.24)
Sergio Plaza 160
Usando (4.24) en la formula (4.18) de la integral, tenemos
f

(x
1
) =
1
h
2
(f(x
1
h) 2f(x
1
) +f(x
1
+h))
h
2
12
f
(4)
() . (4.25)
Como x
1
h = x
0
y x
1
+h = x
2
, obtenemos que
f

(x
1
) =
1
h
2
(f(x
0
) 2f(x
1
) +f(x
2
))
h
2
12
f
(4)
((x))
y (4.18) se transforma en
_
x2
x0
f(x)dx = 2hf(x
1
) +
h
3
3
_
1
h
2
(f(x
0
) 2f(x
1
) +f(x
2
))
h
2
12
f
(4)
()
_
+
f
(4)
(c)
60
h
5
= 2hf(x
1
) +
h
3
(f(x
0
) 2f(x
1
) +f(x
2
))
h
5
36
f
(4)
() +
f
(4)
(c)
60
h
5
=
h
3
(f(x
0
) + 4f(x
1
) +f(x
2
))
h
5
12
_
1
3
f
(4)
()
1
5
f
(4)
(c)
_
=
h
3
(f(x
0
) + 4f(x
1
) +f(x
2
))
h
5
12
2
f
(4)
15
()
=
h
3
(f(x
0
) + 4f(x
1
) +f(x
2
))
h
5
90
f
(4)
() .
En resumen,
Regla de Simpson simple . Si x
1
= x
0
+h y x
2
= x
1
+h, entonces
_
x2
x0
f(x)dx =
h
3
(f(x
0
) + 4f(x
1
) +f(x
2
))
h
5
90
f
(4)
() , (4.26)
de donde

_
x2
x0
f(x)dx
h
3
(f(x
0
) + 4f(x
1
) +f(x
2
))

h
5
90
max[f
(4)
(x)[ : x [x
0
, x
2
] . (4.27)
esta formula es llamada regla de Simpson simple.
M as general, si usamos puntos x
0
< x
1
< x
2
< x
3
< x
4
< < x
2n2
< x
2n1
< x
2n
y haciendo uso de la propiedad
_
c
a
f(x) = dx =
_
b
a
f(x)dx +
_
c
b
f(x)dx para a < b < c , se
obtenemos
_
x
2n
x
0
f(x)dx =
_
x
2
x
0
f(x)dx +
_
x
4
x
2
f(x)dx + +
_
x
2n
x
2n2
f(x)dx
=
h
3
(f(x0) + 4f(x1) + 2f(x2) + 4f(x3) + 2f(x4) + + 2f(x2n2) + 4f(x2n1) + f(x2n)) ,
esto es,
_
x
2n
x
0
f(x)dx =
h
3
(f(x0) +4f(x1) +2f(x2) +4f(x3) +2f(x4) + +2f(x2n2) +4f(x2n1) +f(x2n))
(4.28)
Sergio Plaza 161
esta es formula de integraci on numerica es llamada regla de Simpson compuesta. El error total
es obtenido sumando los errores en cada parcela del calculo. En el Captulo 8 analizarenos este
error.
La regla de los trapecios (simple y compuesta) y la regla de Simpson (simple y compuesta)
forma parte de una serie de formulas para el c alculo aproximado de integrales, llamadas f ormulas
de NewtonCote, que seran estudiadas en el Captulo 8.
4.4 Metodo de las diferencias divididas
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x
0
= a < x
1
< < x
n
= b y
f : [a, b] R una funci on n + 1 veces derivable con f
(n+1)
(x) continua. Sean y
i
= f(x
i
) ,
i = 0, 1, . . . , n. Tenemos el polinomio de Lagrange L
n
(x) interpolando esos puntos. Ahora,
queremos escribir L
n
(x) en una forma m as sencilla, digamos como,
L
n
(x) = a
0
+a
1
(x x
0
) +a
2
(x x
0
)(x x
1
) + +a
n
(x x
0
) (x x
n1
) (4.29)
El problema que tenemos es determinar los coecientes a
0
, . . . , a
n
.
Evaluando, tenemos que
L
n
(x
0
) = f(x
0
) = a
0
,
L
n
(x
1
) = f(x
1
) = f(x
0
) +a
1
(x
1
x
0
) ,
de donde
a
1
=
f(x
1
) f(x
0
)
x
1
x
0
.
Antes de continuar evaluando, introduzcamos la siguiente notaci on
f[x
i
] = f(x
i
) (4.30)
f[x
i
, x
i+1
] =
f[x
i+1
] f[x
i
]
x
i+1
x
i
(4.31)
As, si tenemos denidas f[x
i
, x
i+1
, . . . , x
i+k1
] y f[x
i+1
, . . . , x
i+k
] , podemos denir la
kesima diferencia dividida relativa a x
i
, x
i+1
, . . . , x
i+k
por
f[x
i
, x
i+1
, . . . , x
i+k
] =
f[x
i+1
, . . . , x
i+k
] f[x
i
, . . . , x
i+k1
]
x
i+k
x
i
. (4.32)
Ahora un c alculo directo, nos da que a
k
= f[x
0
, x
1
, . . . , x
k
] , as podemos escribir
Sergio Plaza 162
L
n
(x) = f[x
0
] +
n

k=1
f[x
0
, . . . , x
k
](x x
0
) (x x
k1
) . (4.33)
La siguiente tabla muestra como se van generando las sucesivas diferencias divididas
x
0
f[x
0
]

f[x
0
, x
1
] =
f[x
1
] f[x
0
]
x
1
x
0

x
1
f[x
1
] f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] f[x
0
, x
1
]
x
2
x
0

f[x
1
, x
2
] =
f[x
2
] f[x
1
]
x
2
x
1

x
2
f[x
2
]
.
.
.
Veamos en forma mas detallada la denicion, el c alculo y la interpretacion geometrica de de
las diferencias divididas.
Sea f : R R una funci on, la cual suponemos derivable tantas veces cuanto sea necesario.
Dados x
0
y x
1
, como vimos, el cuociente
f [x
0
, x
1
] =
f(x
1
) f(x
0
)
x
1
x
0
es la diferencia dividida de primer orden de f(x) . La diferencia dividida de primer orden
f[x
0
, x
1
] es la pendiente de la linea secante al gr aco de y = f(x) uniendo los puntos
(x
0
, f(x
0
)) y (x
1
, f(x
1
)) .
y = f(x)
(x1, f(x1) )
(x0, f (x0) )
Sergio Plaza 163
Por ejemplo, si f (x) = sen(x) , x
0
= 1.2 y x
1
= 1.3 entonces
f [x
0
, x
1
] =
sen(1.3) sen(1.2)
1.3 1.2
= 0.3151909944 .
Las diferencias divididas de primer orden pueden ser pensadas como siendo un an alogo
numerico de la derivada de f (x) .
Si f (x) es una funci on diferenciable y si x
0
y x
1
son pr oximos, entonces
f

_
x
0
+x
1
2
_
f [x
0
, x
1
] , (4.34)
esto es, la pendiente de la linea secante uniendo los puntos (x
0
, f(x
0
)) y (x
1
, f(x
1
)) sobre
el graco de y = f(x) es aproximadamente igual a la pendiente de la linea tangente en el
punto medio del intervalo desde x
0
a x
1
. Ademas, desde la denicion de f[x
0
, x
1
] , haciendo
x
1
x
0
, obtenemos
f

(x
0
) = lim
x1x0
f[x
0
, x
1
]
def
= f[x
0
, x
0
] (4.35)
En el ejemplo anterior f (x) = sen(x) , x
0
= 1.2 , x
1
= 1.3 y f

(x) = cos(x) , luego


f

_
x0+x1
2
_
= cos
_
1.2+1.3
2
_
= 0.3153223624 , que es aproximadamente igual a f [x
0
, x
1
] =
0.3153223624
Como vimos las diferencias divididas de orden superior son denidas recursivamente en
termino de las diferencias divididas de orden menor.
Dados x
0
, x
1
y x
2
distintos (usualmente tomados en orden creciente), la diferencia dividida
de segundo orden de f(x) en esos tres puntos es
f [x
0
, x
1
, x
2
] =
f [x
1
, x
2
] f [x
0
, x
1
]
x
2
x
0
.
Si x
0
, x
1
, x
2
y x
3
son 4 n umeros reales distintos (usualmente tomados en orden creciente),
la diferencia dividida de tercer orden de f(x) en esos cuatro puntos es
f [x
0
, x
1
, x
2
, x
3
] =
f [x
1
, x
2
, x
3
] f [x
0
, x
1
, x
2
]
x
3
x
0
.
En general, si x
0
, x
1
, . . . , x
n
son n + 1 n umeros distintos (usualmente tomados en orden
creciente), la diferencia dividida de orden n de f(x) en esos puntos es
f [x
0
, x
1
, x
2
, . . . , x
n
] =
f [x
1
, . . . , x
n
] f [x
0
, . . . , x
n1
]
x
n
x
0
.
Observaci on. Existe una relacion entre una diferencia dividida de orden n y la derivada de
orden n de la funci on.
Por ejemplo, si f (x) = sen(x) , x
0
= 1.2 , x
1
= 1.21 , y x
2
= 1.22 , entonces
f [x
0
, x
1
] =
sen(1.21) sen(1.2)
1.21 1.2
= 0.315190994 .
Sergio Plaza 164
f [x
1
, x
2
] =
sen(1.22) sen(1.21)
1.22 1.21
= 0.34833547,
f [x
0
, x
1
, x
2
] =
f [x
1
, x
2
] f [x
0
, x
1
]
1.22 1.2
= 0.46780450.
Si miramos f [x
0
, x
1
] y f [x
1
, x
2
] como siendo una aproximacion numerica para la derivada
de f

(x) en los puntos medios


x0+x1
2
y
x1+x2
2
, respectivamente, entonces
f [x
1
, x
2
] f [x
0
, x
1
]
(
x1+x2
2
) (
x0+x1
2
)
= 2 f [x
0
, x
1
, x
2
]
puede ser pensado como siendo una aproximacion numerica para f

(x
1
) , pues x
1
es el punto
medio del intervalo desde x
0
a x
2
. Luego la diferencia dividida de segundo orden f [x
0
, x
1
, x
2
]
es una aproximaci on numerica para
f

(x1)
2
, en otras palabras,
f

(x
1
) 2f[x
0
, x
1
, x
2
] (4.36)
Como f

(x) = sen(x) , tenemos


f

(x1)
2
=
f

(1.21)
2
= 0.46780800 , la cual puede ser
comparada con el valor f [x
0
, x
1
, x
2
] = 0.46780450 .
4.5 Calculo de diferencias divididas
Una manera eciente de calcular polinomios de interpolaci on es hacer uso de diferencias divi-
didas en conexion con la f ormula de interpolaci on de Newton.
Supongamos que son dada una funci on f (x) y una sucesion x
0
, x
1
, . . . , x
n
de valores dis-
tintos de la variable x .
La diferencias divididas de primer orden asociadas son
f [x
0
, x
1
] =
f (x
1
) f (x
0
)
x
1
x
0
f [x
1
, x
2
] =
f (x
2
) f (x
1
)
x
2
x
1
.
.
.
f [x
n1
, x
n
] =
f (x
n
) f (x
n1
)
x
n
x
n1
.
Las segundas diferencias divididas asociadas son
f [x
0
, x
1
, x
2
] =
f [x
1
, x
2
] f [x
0
, x
1
]
x
2
x
0
f [x
1
, x
2
, x
3
] =
f [x
2
, x
3
] f [x
1
, x
2
]
x
3
x
1
.
.
.
f [x
n2
, x
n1
, x
n
] =
f [x
n1
, x
n
] f [x
n2
, x
n1
]
x
n
x
n2
.
Sergio Plaza 165
Note que el n umero de diferencias divididas decrece a cada etapa hasta que llegamos a la
unica diferencia dividida de orden n
f [x
0
, . . . , x
n
] =
f [x
1
, . . . , x
n
] f [x
0
, . . . , x
n1
]
x
n
x
0
.
Dada una lista de valores de la variable x , digamos [x
0
, x
1
, . . . , x
n
] y valores de y , digamos
[y
0
, y
1
, . . . , y
n
] , donde y
i
= f (x
i
) para i = 0, 1, . . . , n, podemos generar todas las diferencias
divididas asociadas.
Por ejemplo, dados x
0
, x
1
, x
2
, x
3
, x
4
y y
0
, y
1
, y
2
, y
3
, y
4
. Tenemos 4 diferencias divididas
de primer orden
y
1
y
0
x
1
x
0
,
y
2
y
1
x
2
x
1
,
y
3
y
2
x
3
x
2
,
y
4
y
3
x
4
x
3
tres diferencias divididas de segundo orden
y
2
y
1
x
2
x
1

y
1
y
0
x
1
x
0
x
2
x
0
,
y
3
y
2
x
3
x
2

y
2
y
1
x
2
x
1
x
3
x
1
,
y
4
y
3
x
4
x
3

y
3
y
2
x
3
x
2
x
4
x
2
dos diferencias divididas de tercer orden
y
3
y
2
x
3
x
2

y
2
y
1
x
2
x
1
x
3
x
1

y
2
y
1
x
2
x
1

y
1
y
0
x
1
x
0
x
2
x
0
x
3
x
0
,
y
4
y
3
x
4
x
3

y
3
y
2
x
3
x
2
x
4
x
2

y
3
y
2
x
3
x
2

y
2
y
1
x
2
x
1
x
3
x
1
x
4
x
1
una diferencia dividida de cuarto orden
y
4
y
3
x
4
x
3

y
3
y
2
x
3
x
2
x
4
x
2

y
3
y
2
x
3
x
2

y
2
y
1
x
2
x
1
x
3
x
1
x
4
x
1

y
3
y
2
x
3
x
2

y
2
y
1
x
2
x
1
x
3
x
1

y
2
y
1
x
2
x
1

y
1
y
0
x
1
x
0
x
2
x
0
x
3
x
0
x
4
x
0
Por ejemplo, tomando un conjunto de puntos (nodos) equiespaciados calculemos un polinomio
de grado 6 que aproxima a sen(x) sobre el intervalo [0,

2
] . Para ello tomamos h = /12 y
generamos los valores de x
i
y los correspondientes valores y
i
= sen(x
i
) , para i = 0, . . . , 6 .
Tenemos entonces x
0
= 0 , x
1
= 0.2617993878, x
2
= 0.5235987756, x
3
= 0.7853981634,
x
4
= 1.047197551, x
5
= 1.308996939, x
6
= 1.570796327 y y
0
= 0 , y
1
= 0.2588190451,
y
2
= 0.5000000000, y
3
= 0.7071067812, y
4
= 0.8660254037, y
5
= 0.9659258263, y
6
= 1 ,
esto nos genera las siguiente lista de diferencias divididas
Sergio Plaza 166
diferencias divididas = [0, 0.9886159295, 0.1286720769, 0.1526656066, 0.02059656984,
0.006517494278, 0.0009653997733] .
Ejemplo 66 Si n = 1 , tenemos dos puntos (x
0
, f (x
0
)) y (x
1
, f (x
1
)) , luego
p(x) = f (x
0
) +
(f (x
1
) f (x
0
)) (x x
0
)
x
1
x
0
,
esta es la ecuacion de la linea recta pasando a traves de los puntos (x
0
, f (x
0
)) y (x
1
, f (x
1
)) .
4.6 Interpolaci on de Hermite
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x
0
= a < x
1
< < x
n
= b y
f : [a, b] R una funci on 2n + 2 veces derivable con f
(2n+2)
(x) continua, sean y
i
= f(x
i
) ,
i = 0, 1, . . . , n.
Problema. Encontrar un polinomio P(x) tal que
_
P(x
i
) = f(x
i
)
P

(x
i
) = f

(x
i
)
(4.37)
para i = 0, 1, . . . , n.
Teorema 4.1 Dados n + 1 puntos distintos en el intervalo [a, b] , digamos a x
0
< x
1
<
< x
n
b y f : [a, b] R una funci on 2n + 2 veces derivable con f
(2n+2)
(x) continua,
sean y
i
= f(x
i
) , i = 0, 1, . . . , n. Entonces existe un unico polinomio de grado a lo m as 2n+1 ,
H
2n+1
(x) , tal que
_
H
2n+1
(x
i
) = f(x
i
)
H

2n+1
(x
i
) = f

(x
i
)
(4.38)
para i = 0, 1, . . . , n donde H
2n+1
(x) es dado por
H
2n+1
(x) =
n

j=0
f(x
j
)H
n,j
(x) +
n

j=0
f

(x
j
)

H
n,j
(x) (4.39)
con
H
n,j
(x) =
_
1 2(x x
j
)L

n,j
(x
j
)

(L
n,j
(x))
2
(4.40)
y

H
n,j
(x) = (x x
j
)(L
n,j
(x))
2
, (4.41)
Sergio Plaza 167
donde
L
n,j
(x) =
(x x
0
) (x x
j1
)(x x
j+1
) (x x
n
)
(x
j
x
0
) (x
j
x
j1
)(x
j
x
j+1
) (x
j
x
n
)
son los coecientes en la interpolaci on de Lagrange de f(x) . Adem as,
f(x) H
2n+1
(x) =
(x x
0
)
2
(x x
1
)
2
(x x
n
)
2
(2n + 2)!
f
(2n+2)
((x)) , (4.42)
con x
0
< (x) < x
n
.
Integrando, tenemos
_
xn
x0
f(x)dx =
_
xn
x0
H
2n+1
(x) +
_
xn
x0
(x x
0
)
2
(x x
n
)
2
(2n + 2)!
f
(2n+2)
((x))dx (4.43)
y
_
xn
x0
f(x)
_
xn
x0
H
2n+1
(x) . (4.44)
4.7 Ejemplos resueltos
Problema 4.1 Encontrar el polinomio de interpolaci on para los puntos (1, 5) , (2, 3) , (4, 2) ,
(5, 4) , (6, 3) .
Solucion. Tenenos
x valores = [1, 2, 4, 5, 6] , y valores = [5, 3, 2, 4, 3]
luego, calculando las diferencias divididas, obtenemos
p(x) := 7 2 x +
(x 1) (x 2)
2
+
(x 1) (x 2) (x 4)
12

2 (x 1) (x 2) (x 4) (x 5)
15
La siguiente gura muestra el resultado obtenido
Sergio Plaza 168
0
1
2
3
4
5
6
7
y
1 2 3 4 5 6 7
x
Expandiendo los terminos del polinomio de interpolaci on de Newton y ordenando, obtenemos
p(x) =
2
15
x
4
+
101
60
x
3

397
60
x
2
+
121
15
x + 2
Problema 4.2 Encontrar el polinomio de interpolaci on de grado 6 para sen(x) en el intervalo
[0,

2
] y que coincide de sen(x) en 7 puntos equiespaciados entre 0 y

2
inclusive.
Solucion. Tenemos entonces que h = /12 0.261799387799149 y generamos los valores de
x , obteniendo
x valores = [0., 0.261799387799149, 0.523598775598298, 0.785398163397447,
1.04719755119660, 1.30899693899574, 1.57079632679489]
y los valores de y ,
y valores = [0., 0.258819045102520, 0.499999999999999, 0.707106781186547,
0.866025403784440, 0.965925826289066, 1.00000000000000]
de donde, relizando el c alculo de las diferencias divididas, otenemos el polinomio
p(x) = 0.988615929465368 x0.128672076727087 x(x0.261799387799149)
0.152665606983500 x(x0.261799387799149) (x0.523598775598298) +
0.0205965705401489 x(x0.261799387799149) (x0.523598775598298)
(x 0.785398163397447) + 0.00651749335845159 x(x0.261799387799149)
(x 0.523598775598298) (x0.785398163397447) (x1.04719755119660)
0.000965398750105050 x(x0.261799387799149) (x0.523598775598298)
(x 0.785398163397447) (x1.04719755119660) (x1.30899693899574)
En los 7 puntos de los nodos el valor dado por la f ormula de interpolaci on, esencialmente
coinciden con los valores de y dados por la funci on, excepto por un peque no error. Por ejemplo,
Sergio Plaza 169
p(1.047197551) = 0.8660254034 y sen(1.047197551) = 0.8660254037, p(1) = 0.8414709003 y
sen(1) = 0.8414709848 . Tenemos los siguientes datos
p(x
i
) f(x
i
) = [[0, 0], [0.2617993878, 0.2588190451], [0.5235987756, 0.5000000000],
[0.7853981634, 0.7071067812], [1.047197551, 0.8660254038],
[1.308996939, 0.9659258263], [1.570796327, 1.000000000]]
Tenemos
0
0.2
0.4
0.6
0.8
1
0.2 0.4 0.6 0.8 1 1.2 1.4
x
Gr aco del polinomio de interpolaci on
Desarrollando y ordenando, nos queda
p(x) = 0.000965398750105050 x
6
+ 0.01030860538 x
5
0.00209041508 x
4
0.1654864753 x
3
0.0003303719 x
2
+ 1.000034956 x
Podemos gracar el error absoluto para p(x) como una aproximaci on para sen(x) en el
intervalo [0,

2
] .
1e06
5e07
0
5e07
1e06
0.2 0.4 0.6 0.8 1 1.2 1.4
x
Gr aco del error del polinomio de interpolaci on
Sergio Plaza 170
Problema 4.3 De una funci on f(x) se conocen sus valores y
i
en los puntos x
i
, i = 0, 1, 2, 3, 4 .
Se desea concer un valor aproximado de f(2.5)
x
i
y
i
x
0
= 0.0 y
0
= 1.90
x
1
= 0.5 y
1
= 2.39
x
2
= 1.0 y
2
= 2.71
x
3
= 1.5 y
3
= 2.98
x
4
= 2.0 y
4
= 3.20
x
5
= 3.0 y
5
= 3.20
x
6
= 3.5 y
6
= 2.98
x
7
= 4.0 y
7
= 2.74
La forma mas directa de calcular L
7
(2.5) es escribir
L
7,0
(x) =
(x x
1
) (x x
2
) (x x
3
) (x x
4
) (x x
5
) (x x
6
) (x x
7
)
(x
0
x
1
) (x
0
x
2
) (x
0
x
3
) (x
0
x
4
) (x
0
x
5
) (x
0
x
6
) (x
0
x
7
)
evaluando L
7,0
(2.5) , tenemos A
0
= L
7,0
(2.5) = 0.0178571428572
L
7,1
(x) =
(x x0) (x x
2
) (x x
3
) (x x
4
) (x x
5
) (x x
6
) (x x
7
)
(x
1
x0) (x
1
x
2
) (x
1
x
3
) (x
1
x
4
) (x
1
x
5
) (x
1
x
6
) (x
1
x
7
)
evaluando A
1
= L
7,1
(2.5) = 0.142857142857
L
7,2
(x) =
(x x
0
) (x x
1
) (x x
3
) (x x
4
) (x x
5
) (x x
6
) (x x
7
)
(x
2
x
0
) (x
2
x
1
) (x
2
x
3
) (x
2
x
4
) (x
2
x
5
) (x
2
x
6
) (x
2
x
7
)
evaluando, tenemos A
2
= L
7,2
(2.5) = 0.500000000000 .
L
7,3
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
4
) (x x
5
) (x x
6
) (x x
7
)
(x
3
x
0
) (x
3
x
1
) (x
3
x
2
) (x
3
x
4
) (x
3
x
5
) (x
3
x
6
) (x
3
x
7
)
evaluando, tenemos A
3
= L
7,3
(2.5) = 1.00000000000
L
7,4
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
3
) (x x
5
) (x x
6
) (x x
7
)
(x
4
x
0
) (x
4
x
1
) (x
4
x
2
) (x
4
x
3
) (x
4
x
5
) (x
4
x
6
) (x
4
x
7
)
evaluando, tenemos A
4
= L
7,4
(2.5) = 1.25000000000
L
7,5
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
3
) (x x
4
) (x x
6
) (x x
7
)
(x
5
x
0
) (x
5
x
1
) (x
5
x
2
) (x
5
x
3
) (x
5
x
4
) (x
5
x
6
) (x
5
x
7
)
evaluando, tenemos A
5
= L
7,5
(2.5) = 0.500000000000 ,
L
7,6
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
3
) (x x
4
) (x x
5
) (x x
7
)
(x
6
x
0
) (x
6
x
1
) (x
6
x
2
) (x
6
x
3
) (x
6
x
4
) (x
6
x
5
) (x
6
x
7
)
evaluando, tenemos A
6
= L
7,6
(2.5) = .142857142857
Sergio Plaza 171
L
7,7
(x)
(x x
0
) (x x
1
) (x x
2
) (x x
3
) (x x
4
) (x x
5
) (x x
6
)
(x
7
x
0
) (x
7
x
1
) (x
7
x
2
) (x
7
x
3
) (x
7
x
4
) (x
7
x
5
) (x
7
x
6
)
y tenemos A
7
= L
7,7
(2.5) = 0.0178571428572 .
Por lo tanto,
L
7
(2.5) = A
0
1.9 + A
1
2.39 +A
2
2.71 +A
3
2.98 +A
4
3.2
+A
5
3.2 +A
6
2.98 +A
7
2.74
= 3.29071428572
Otra forma, indirecta, es escribir cada uno de los polinomios coecientes del polinomio de
Lagrange, calcular el polinomio de Lagrange en cuesti on y despues evaluar.
Tenemos
L
7,0
(x) = 0.0158730158730 x
7
+ 0.246031746032 x
6
+ 0.999999999999
1.55158730159 x
5
5.03571428571 x+ 5.12103174603 x
4
+ 9.70436507936 x
2
9.46825396824 x
3
L
7,1
(x) = 0.101587301588 x
7
1.52380952382 x
6
+ 12.8000000001 x
+ 9.16825396832 x
5
38.8571428574 x
2
28.1904761907 x
4
+46.5015873019 x
3
L
7,2
(x) = 0.266666666667 x
7
+ 3.86666666667 x
6
16.8000000000 x
22.2000000000 x
5
+ 67.8000000001 x
2
+ 63.8333333334 x
4
95.2333333335 x
3
L
7,3
(x) = 0.355555555554 x
7
4.97777777776 x
6
+ 14.9333333333 x
+ 27.2888888888 x
5
65.2444444442 x
2
73.7777777775 x
4
+101.422222222 x
3
L
7,4
(x) = 0.222222222222 x
7
+ 3.00000000000 x
6
6.99999999999 x
15.7222222222 x
5
+ 31.7500000000 x
2
+ 40.2500000000 x
4
52.0555555555 x
3
Sergio Plaza 172
L
7,5
(x) = 0.0888888888886 x
7
1.11111111111 x
6
+ 1.86666666666 x
+ 5.35555555554 x
5
8.77777777775 x
2
12.6111111111 x
4
+15.1888888888 x
3
L
7,6
(x) = 0.0507936507936 x
7
+ 0.609523809523 x
6
0.914285714285 x
2.83174603174 x
5
+ 4.34285714285 x
2
+ 6.47619047618 x
4
7.63174603174 x
3
L
7,7
(x) = 0.00952380952380 x
7
0.109523809524 x
6
+ 0.150000000000 x
+ 0.492857142857 x
5
0.717857142856 x
2
1.10119047619 x
4
+ 1.27619047619 x
3
Luego,
L
7
(x) = L
7,0
(x) y
0
+ L
7,1
(x) y
1
+ L
7,2
(x) y
2
+ L
7,3
(x) y
3
+L
7,4
(x) y
4
+ L
7,5
(x) y
5
+ L
7,6
(x) y
6
+ L
7,7
(x) y
7
por lo tanto,
L7 (x) = 0.0301587301587 (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
+ 0.242793650795 x(x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
0.722666666668 x(x 0.5) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
+ 1.05955555555 x(x 0.5) (x 1.0) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
0.711111111110 x(x 0.5) (x 1.0) (x 1.5) (x 3.0) (x 3.5) (x 4.0)
+ 0.284444444444 x(x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.5) (x 4.0)
0.151365079365 x(x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 4.0)
+ 0.0260952380952 x (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5)
desarrollando, nos queda
L
7
(x) = 1.90000000000 0.0024126984178 x
7
+ 0.0311746033 x
6
0.1385079373 x
5
+ 0.211507937 x
4
+ 0.085825394 x
3
0.634825396 x
2
+ 1.2572380950 x.
Luego, el valor pedido es
L
7
(2.5) = 3.29071428572 .
Sergio Plaza 173
Ahora podemos calcular una aproximacion de la integral de f(x) usando el polinomio de
Lagrange esto es
_
4
0
f(x)
_
4
0
L
7
(x) = 11.5714225246 .
Usando la regla de los trapecios con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L
7
(x) en x = 2.5 , el cual representa un valor
aproximado para f(x) en x = 2.5 . Denimos los nuevos valores x
i
e y
i
= f(x
i
) , i = 0, . . . , 8
x
i
0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
f(x
i
) 1.90 2.39 2.71 2.98 3.20 3.29071428572 3.20 2.98 2.74
Tenemos, que
Trap
f
=
h
2
(y
0
+ 2 y
1
+ 2 y
2
+ 2 y
3
+ 2 y
4
+ 2 y
5
+ 2 y
6
+ 2 y
7
+y
8
)
evaluando, obtenemos
Trap
f
:= 11.5353571428 .
El error que hemos cometido en el calculo comparado con el valor dado por la interpolaci on
de Lagrange
Error(Trap
f
) = [Trap
f

_
4
0
L(x)[
nos da
Error(Trap
f
) = 0.0360653818 .
Usando la regla de Simpson con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L
7
(x) en x = 2.5 , el cual representa un valor
aproximado para f(x) en x = 2.5 y hemos redenido los nuevos valores x
i
e y
i
= f(x
i
) ,
i = 0, . . . , 8 . Tenemos que
Simpson
f
=
h
3
(y
0
+ 4 y
1
+ 2 y
2
+ 4 y
3
+ 2 y
4
+ 4 y
5
+ 2 y
6
+ 4 y
7
+y
8
)
evaluando, obtenemos
Simpson
f
= 11.5704761905 .
El error que hemos cometido en el calculo de la integral usando el polinomio de Lagrange y
la aproximacion de Simpson es
Error (Simpson
f
) = [Simpson
f

_
4
0
L(x)[ = 0.0009463341
Sergio Plaza 174
2
2.2
2.4
2.6
2.8
3
3.2
0 1 2 3 4
x
Graco de L7(x) en el intervalo [0, 4]
Podemos continuar nuestros c alculos, y tenemos simpson8 11.5704761904 , con error Error
0.0009463342 , simpson16 11.5713597470 , con error Error 0.0000627776 y simpson32
11.5714185442 , con error Error 0.39804 10
5
, y para la regla de los trapecios, obtenemos
Trap 11.5704929653 .
Problema 4.4 Consideremos la funcion f(x) = x
2
exp(x
2
) . Deseamos calcular un valor
apromixado para la integral de f(x) en el intervalo [2, 2] usando el polinomio de Lagrange
que interpola f(x) en los puntos x
0
= 2 , x
1
= 1 , x
2
= 0 , x
3
= 1 y x
4
= 2 .
Solucion. Tenemos que f(x) = x
2
e
x
2
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
2 1 1 2
x
gr aco de f en [2, 2]
Como la funci on es simetrica respecto del origen, se tiene que f(1) = f(1) = 0.3678794412 ,
f(2) = f(2) = 0.07326255556 y f(0) = 0 .
x
0
= 2.0
x
1
= 1.0
x
2
= 0.
x
3
= 1.0
x
4
= 2.0
L
4
(x) = L
4,0
(x) f(x
0
) +L
4,1
(x) f(x
1
) +L
4,2
(x) f(x
2
) +L
4,3
(x) f(x
3
) +L
4,4
(x) f(x
4
)
Luego,
L
4
(x) = 0.0732625555548 L
4,0
(x) + 0.367879441171 L
4,1
(x) +
0.367879441171 L
4,3
(x) + 0.0732625555548 L
4,4
(x)
Sergio Plaza 175
L
4,0
(x) =
(x x
1
) (x x
2
) (x x
3
) (x x
4
)
(x
0
x
1
) (x
0
x
2
) (x
0
x
3
) (x
0
x
4
)
leugo, reemplazando nos queda
L
4,0
(x) = 0.0416666666668 x
4
0.0833333333336 x
3
0.0416666666668 x
2
+0.0833333333336 x
L
4,1
(x) =
(x x
0
) (x x
2
) (x x
3
) (x x
4
)
(x
1
x
0
) (x
1
x
2
) (x
1
x
3
) (x
1
x
4
)
L
4,1
(x) = 0.166666666667 x
4
+ 0.166666666667 x
3
0.666666666668 x+ 0.666666666668 x
2
.
Como f(x
2
) = 0 , no es necesario calcular L
4,2
(x) , pero de todas maneras lo hacemos;
L
4,2
(x) =
(x x
0
) (x x
1
) (x x
3
) (x x
4
)
(x
2
x
0
) (x
2
x
1
) (x
2
x
3
) (x
2
x
4
)
.
Expandiendo L
4,2
(x) nos queda
L
4,2
(x) = 0.250000000000 x
4
+ 1.00000000000 1.25000000000 x
2
L
4,3
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
4
)
(x
3
x
0
) (x
3
x
1
) (x
3
x
2
) (x
3
x
4
)
,
de donde
L
4,3
(x) = 0.166666666666 x
4
0.166666666666 x
3
+ 0.666666666664 x+ 0.666666666664 x
2
L
4,4
(x) =
(x x
0
) (x x
1
) (x x
2
) (x x
3
)
(x
4
x
0
) (x
4
x
1
) (x
4
x
2
) (x
4
x
3
)
L
4,4
(x) = 0.0416666666666 x
4
+0.0833333333332 x
3
0.0833333333332 x0.0416666666666 x
2
Luego,
L
4
(x) = 0.116521267427 x
4
+ 0.4 10
12
x
3
+ 0.484400708598 x
2
0.1 10
11
x
Calculo aproximado de la integral, usando un software, nos da
_
2
2
f(x) = 0.845450112985 .
Sergio Plaza 176
Usando el polinomio de Lagrange L
4
(x) , obtenenos la siguiente aproximacion para el valor
de la integral
_
2
2
f(x)
_
2
.2
L
4
(x) = 1.09199822279 .
El error cometido al calcular la integral usando la interpolacion de Lagrange comparado con
el resultado de la integrla de f(x) es
Error Lagrange = 0.246548109805 ,
el cual es muy grande.
Usando la regla de los trapecios para aproximar la integral de f(x) , tenemos
h = 1
y0 = 0.0732625555548
y1 = 0.367879441171
y2 = 0
y3 = 0.367879441171
y4 = 0.0732625555548
luego,
Trap
f
= 0.809021437895
El error cometido es entonces
Error Trapecio = 0.036428675090
0
0.1
0.2
0.3
0.4
0.5
2 1 1 2
x
simpson8 = 1.08811418054
Err = 0.00388404225
simpson32 = 1.09198305075
Err = 0.00001517204
trap = 1.04463387609
Sergio Plaza 177
Problema 4.5 Ejemplo del fen omeno de Runge
Para un ejemplo numerico del fenomeno de Runge consideramos un polinomio de grado 10
interpolando la funci on f(x) =
1
1+25 x
2
en el intervalo [1, 1] , tomamos el conjunto de datos
equiespaciado. Este es un ejemplo clasico para ilustrar el problema asociado con el uso de
polinomios interpolantes para aproximar una funci on.
f(x) =
1
1 + 25 x
2
Tomando h =
1
5
, obtenemos
p(x) =
390625
1768
x
10
+
109375
221
x
8

51875
136
x
6
+
54525
442
x
4

3725
221
x
2
+ 1
Notemos que el polinomio interpolante oscila violentamente y no aproxima muy bien a la
funcion original.
0.2
0.4
0.6
0.8
1
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
x
0
0.5
1
1.5
2
1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1
x
0
0.5
1
1.5
2
1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1
x
gr afico de f(x) gr afico de p(x) graficos de f(x) y de p(x)
4.8 Ejercicios
Problema 4.1 Considere la funci on f (x) = e
x
2
en el intervalo [1, 1] . Construya los poli-
nomios de interpolaci on de Newton, con puntos equiespaciados y h = 1/10 y h = 1/20 .
Problema 4.2 Encuentre el polinomio de interpolaci on de Newton para los puntos dados a
seguir
_
2,
1
4
_
,
_
1,
1
2
_
, (0, 1) ,
_
1,
3
2
_
,
_
2,
5
4
_
.
Muestre la graca del polinomio de interpolaci on.
Problema 4.3 Para la funci on
f (x) =
1
1 + 25 x
2
muestre explicitamente el polinomio de interpolacion de Newton
p(x) = f (x
0
) + (x x
0
) f [x
0
, x
1
] + (x x
0
) (x x
1
) f [x
0
, x
1
, x
2
]
+(x x
0
) (x x
1
) (x x
2
) f [x
0
, x
1
, x
2
, x
3
] +
+ (x x
0
) (x x
1
) (x x
n1
) f [x
0
, . . . , x
n
]
Sergio Plaza 178
considerando las siguientes listas de valores de x :
[0,
1
4
] ; [0,
1
4
,
1
2
] ; [0,
1
4
,
1
2
,
3
4
] ; [0,
1
4
,
1
2
,
3
4
, 1] ; [0,
1
4
,
1
2
,
3
4
, 1,
5
4
] ; [0,
1
4
,
1
2
,
3
4
, 1,
5
4
,
3
2
] ;
[0,
1
4
,
1
2
,
3
4
, 1,
5
4
,
3
2
,
7
4
] ; [0,
1
4
,
1
2
,
3
4
, 1,
5
4
,
3
2
,
7
4
, 2] .
Graque en cada caso el polinomio resultante y compare con el gr aco de la funci on original
Cu al es su conclusi on?
Problema 4.4 Para la funci on f (x) = ln(1 + x) , encuentre explicitamente el polinomio de
interpolaci on de Newton en su forma
p(x) = f (x
0
) + (x x
0
) f [x
0
, x
1
] + (x x
0
) (x x
1
) f [x
0
, x
1
, x
2
] + (x x
0
) (x x
1
) (x
x
2
) f [x
0
, x
1
, x
2
, x
3
] + + (x x
0
) (x x
1
) (x x
n1
) f [x
0
, . . . , x
n
]
para las siguientes listas de valores de x
[0,
1
5
] ; [0,
1
5
,
2
5
] ; [0,
1
5
,
2
5
,
3
5
] ; [0,
1
5
,
2
5
,
3
5
,
4
5
] ; [0,
1
5
,
2
5
,
3
5
,
4
5
, 1] .
Graque en cada caso el polinomio obtenido y la funci on original, y compare Cu al es su
conlcusi on?
Problema 4.5 Calcule el polinomio de interpolaci on de Lagrange para f(x) , si se conocen los
los siguientes datos
x 3 8 5 1 7
f(x) 459 18864 3105 13 11263
Usando la aproximacion polinomial de f obtenida en (a), calcule un valor aproximado para
_
8
1
f(x)dx.
Problema 4.6 Considere la funci on f(x) = e
x
2
.
a) Usando los puntos x
0
= 0 , x
1
= 0.25 , x
2
= 0.5 , x
3
= 0.75 , x
4
= 1.0 . Calcule el
polinomio de interpolaci on de Lagrange para f(x) .
b) Exprese una cota para el error en la aproximaci on de Lagrange obtenida en la parte a).
(Simplique al m aximo la expresi on obtenida para el error).
c) Usando el polinomio de interpolaci on de Lagrange obtenido en la parte a), calcular una
aproximaci on para la integral
_
1
0
f(x) dx, y obtener una buena cota para el error.
Problema 4.7 Considere la funci on f(x) = e
x
.
1. Usando los puntos x
0
= 0 , x
1
= 0.25 , x
2
= 0.5 , x
3
= 0.75 , x
4
= 1.0 . Calcule el
polinomio de interpolaci on de Hermite para f(x) .
2. Exprese una cota para el error en la aproximacion de Hermite obtenida en la parte 1).
(Simplique al m aximo la expresi on obtenida para el error)
3. Usando el polinomio de interpolaci on de Hermite obtenido en la parte 1), calcular una
aproximaci on para la integral
_
1
0
f(x) dx, y obtener una buena cota para el error (com-
pare con el valor exacto de la integral).
Sergio Plaza 179
Problema 4.8 Sea f : [a, b] R una funci on sucientemente derivable un n umero suciente
de veces.
a) Si f es simetrica respecto al origen, es decir, f(x) = f(x) , y se consideran los puntos
x
0
, . . . , x
2n
distribuidos simetricamente, con x
n
= 0 Son los polinomios
L
2n,k
(x) =
(x x
0
) (x x
k1
)(x x
k+1
) (x x
2n
)
(x x
0
) (x
k
x
k1
)(x
k
x
k+1
) (x
k
x
2n
)
simetricos respecto al origen? Es el polinomio de Lagrange L
2n
(x) simetrico respecto al
origen? Justique su respuesta. Ilustre usando la funci on f(x) = e
x
2
, con x [, 1] .
b) Que puede decir de L
2n,k
(x) y de L
2n
(x) si f es antisimetrica, respecto al origen es
decir, f(x) = f(x) ? Justique su respuesta. Ilustre usando la funci on f(x) = sen(x) ,
con x [1, 1] .
Problema 4.9 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
f(0) = 0 , f(1) = 1 , f(2) = 0 , f(3) = 1 , f(4) = 0 , y [f
(5)
(x)[

5
32
.
1. Determine el polinomio de Lagrange L
4
(x) asociado a f .
2. Estime el error [f(x) L
4
(x)[ .
3. Usando L
4
(x) , determine una aproximacion y el error cometido para el calculo de
_
4
0
f(x)dx.
Problema 4.10 Considere la funci on f(x) = sen(x) , con 2 x 2 .
1. Calcule los desarrollos de Taylor de f(x) en torno a x = 0 , hasta los ordenes 3 , 5 ,
9 estimando en cada caso el error. Graque los polinomios de Taylor y compare con la
gr aca de f(x) .
2. Considere la partici on 2 < < 0 < < 2 , y calcule el polinomio de Lagrange
para f(x) , estimando el error. Aproxime el valor de
_
2
2
f(x) usando el polinomio de
Lagrange, estimando el error.
3. Considerando la partici on anterior, encuentre el polinomio de Hermite para f . Aproxime
el valor de
_
2
2
f(x) , estimando el error.
4. Cu al es su conclusi on para los itemes 1), 2), y 3)?
5. Renando la partici on anterior, obtenemos una nueva particion, 2 < 3/2 < <
/2 < 0 < /2 < < 3/2 < 2 . Usando esta nueva particion repita los ejercicios 2)
y 3) anteriores.
6. Calcule aprimadamente la derivada de dos maneras distintas para f(x) en x = usando
h = /2 . Calcule tambien la segunda derivada aproximadamente de f(x) en x = .
Como se conoce explicitamente las derivadas primeras y segundas de f(x) , estime el error
que cometio en sus aproximaciones.
Problema 4.11 Considere la funci on f(x) = sen(2x) .
Sergio Plaza 180
a) Usando los puntos x
0
= 0 , x
1
= 0.25 , x
2
= 0.5 , x
3
= 0.75 , x
4
= 1.0 . Calcule el
polinomio de interpolaci on de Hermite para f(x) . Exprese una cota para el error en la
aproximaci on obtenida en la parte. (Simplique al m aximo la expresion obtenida para el
error)
b) Usando el polinomio de interpolaci on de Hermite obtenido en la parte a), calcular una
aproximaci on para la integral
_
1
0
f(x) dx, y obtener una buena cota para el error.
Problema 4.12 Sea f : [0, 1] R una funci on al menos tres veces derivable con continuidad,
que satisface f(0) = 0 , f

(0) = 1 , f(0.5) = 1 , f

(0.5) = 0 , f(1) = 0 y f

(1) = 1 .
1. Encuentre un polinomio P , de menor grado posible, que aproxime a f y que satisface
las mismas condiciones que f en los puntos jados x
0
= 0 , x
1
= 0.5 y x
2
= 1 .
2. Determine una expresion para error y una buena cota para este (simplique al maximo).
Problema 4.13 Considere una funci on f : [0, 4] R, al menos cinco veces derivable, de la
cual se sabe que f(0) = 0 , f(1) = 1.7183 , f(2) = 6.3891 , f(3) = 19.0855 , f(4) = 53.5982 , y
tal que [f
(k)
(x)[ e
x
para todo x [0, 4]
1. Encuentre el polinomio de Lagrange L
4
(x) correspondiente a f .
2. Calcule
_
4
0
f(x)dx aproximadamente y acote el valor absoluto del error cometido en la
aproximaci on.
Problema 4.14 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f(0) = 0 , f(0.25) = 1 , f(0.5) = 0 , f(0.75) = 1 ,
f(1) = 0 , y [f
(n)
(x)[ (2)
n
para todo x R y todo n 1 .
(a) Usando la informaci on dada, encuentre el polinomio de interpolaci on Lagrange para f(x) .
(b) Calcule una aproximaci on para
_
1
0
f(x)dx usando el polinomio obtenido en a).
(c) Encuentre una cota para el error que tenemos al aproximar f(x) por el polinomio de
Lagrange obtenido en a) en el intervalo [0, 1] .
(d) Encuentre el error para la aproximaci on de
_
0.5
0
f(x)dx por la integral del polinomio de
interpolaci on de Lagrange obtenido en a)
Problema 4.15 a) Sea f(x) = a
0
+a
1
x+ +a
n
x
n
un polinomio de grado n. Dadas las
condiciones de interpolaci on, x
0
< x
1
< < x
n
y f(x
j
) = y
j
, j = 0, 1, . . . , n. Pruebe
que el polinomio de interpolaci on correspondiente, P
n
(x) , coincide con f(x) .
b) Dado f(x) = 1 +x x
2
. Verique a) para este caso particular.
Problema 4.16 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
f(0) = 0 , f(1) = 1 , f(2) = 0 , f(3) = 1 , f(4) = 0 , y [f
(5)
(x)[

5
32
para todo x [0, 4] .
Sergio Plaza 181
(a) Determine el polinomio de Lagrange L
4
(x) asociado a f .
(b) Estime el error [f(x) L
4
(x)[ .
(c) Usando L
4
(x) , determine una aproximacion y el error cometido para el calculo de
_
4
0
f(x)dx.
Problema 4.17 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f(0) = 1 , f(0.25) = 0 , f(0.5) = 1 , f(0.75) = 0 ,
f(1) = 1 , y [f
(n)
(x)[ (2)
n
para todo x R y todo n 1 .
1. Usando la informaci on dada, encuentre el polinomio de interpolaci on Lagrange para f(x) .
2. Calcule una aproximaci on para
_
1
0
f(x)dx usando el polinomio obtenido en 1).
3. Encuentre una cota para el error que tenemos al aproximar f(x) por el polinomio de
Lagrange obtenido en 1) en el intervalo [0, 1] .
4. Encuentre el error para la aproximacion de
_
0.5
0
f(x)dx por la integral del polinomio de
interpolaci on de Lagrange obtenido en 1)
Problema 4.18 Considere la funci on f : [1, 1] R dada por f(x) =
1
1 + 25x
2
. Usando
divisiones uniformes, calcule y graque L
n
(n) , para n = 2, 3, 4, . . . , 10 para esas subdivisiones.
Graque f(x) y L
n
(x) . Compare Cu al es su conclusi on?
Problema 4.19 Una funci on f(x) satisface f(0) = 1 , f(1) = 1 , f(2) = 2 . Calcule la
interpolaci on de Lagrange para f , y use esta para estimar f
_
3
2
_
. Graque.
Problema 4.20 Una funci on f(x) satisface f(1) = 1, f(0) = 2 , f(2) = 1 . Encuentre
la aproximacion de f mediante interpolaci on de Lagrange. Estime f(1) . Si es sabido que
[f

(x)[ , es acotada por 1.12 para x [1, 2] . Encuentre el error que se produce al aproximar
f(1) por la interpolaci on de Lagrange. Graque.
Problema 4.21 Dados los siguientes datos
x 0 1 2 3 4 5
y 2 2 3 5 6 7
Calcule el polinomio de interpolaci on de Lagrange para esos datos. Graque el resultado.
Sean x
0
= 0 , x
1
= 1.5 , x
2
= 2 . Suponga que f(x
0
) = 1 , f(x
1
) = 0 y f(x
2
) = 1 . Calcule
las diferencias divididas (todas) y escriba el poinomio de Lagrange. Graque.
Problema 4.22 Sea f(x) = x
3
. Sean x
0
, x
1
, x
2
tres puntos distintos, con x
0
< x
1
< x
2
.
Calcule f[x
0
, x
1
, x
2
] .
Problema 4.23 Para una funci on f(x) se conocen f[1] = 2, f[1, 1] = 1, f[1, 1, 2] =
2, f[1, 1, 2, 4] = 2 . Escriba el polinomio de interpolaci on de grado a lo m as 3 con nodos en
1 , 1 , 2 , 4 . Usando ese polinomio, estime f(0) .
Sergio Plaza 182
Problema 4.24 Complete la siguiente tabla de diferencias divididas
k 0 1 2 3
x
k
-1 0 1 3
y
k
1 0 -1 2
f[x
k1
, x
k
] ? -1 -1 ?
f[x
k2
, x
k1
, x
k
] ? ? ? ?
f[x
k3
, x
k2
, x
k1
, x
2
] ? ? ? ?
y calcule el polinomio de interpolaci on de grado a lo m as 3 para (x
k
, y
k
) , k = 0, 1, 2, 3.
Problema 4.25 Para aproximar I(f) =
_
1
1
f(x) dx se propone la siguiente f ormula:
I
a
(f) = Af(0) +Bf

(1) +Cf

(1).
(a) Calcular los valores de las constantes A, B y C de modo que la formula I
a
sea exacta
en T
2
(R) (el espacio vectorial de los polinomios de grado menor o igual que 2).
(b) Usando la f ormula obtenida en la parte (a), aproxime la integral
_

0
exp(sin(x)) dx.
Problema 4.26 Se desea construir una funci on f : R R tal que f(x) = 0 para x 0
y f(x) = 1 para x 1. Para x [0, 1], necesitaremos denir una funci on s, polinomial por
pedazos, que conecte ambas ramas de f, esto es, s(0) = 0, s(1) = 1, y para tener continuidad
de las tangentes, s

(0) = 0 y s

(1) = 0. Se busca entonces s : [0, 1] R denida por dos


polinomios p, q T
3
(R) de modo que
s(x) =
_
p(x) si x [0,
1
2
],
q(x) si x (
1
2
, 1],
que sea de clase C
2
([0, 1]) (es decir, que tenga segunda derivada continua en [0, 1]), y que
interpole a los datos 0,
1
2
, 1 en la malla 0,
1
2
, 1 (ver gura).
(a) Sea m la derivada de s en
1
2
(o sea m = s

(
1
2
)). Encuentre las expresiones de p(x) y q(x)
en funci on de m.
(b) Determine el valor de la constante m de modo que la funcion s(x) resultante sea de clase
C
2
([0, 1]). En este caso, escriba explcitamente s(x) en el intervalo [0, 1].
Problema 4.27
Problema 4.28
Problema 4.29
Problema 4.30
Problema 4.31
Problema 4.32
Captulo 5
Derivadas Numericas
La primera f ormula para calcular derivadas numericamente proviene del calculo diferencial, y
es dada por
f

(x) =
f(x +h) f(x)
h
+R(h
2
) , (5.1)
donde lim
h0
R(h
2
) = 0 .
Para tener mejores aproximaciones podemos usar expansion de Taylor alrededor de x para
f(x +h) y f(x h)
f(x +h) = f(x) +hf

(x) +
h
2
2
f

(x) +
h
3
6
f

(x) + (5.2)
f(x) = f(x) (5.3)
f(x h) = f(x) hf

(x) +
h
2
2
f

(x)
h
3
6
f

(x) + (5.4)
y haciendo alguna combinaciones de esa expansiones.
Por ejemplo, considerando la expansion hasta orden 2, tenemos
f(x +h) = f(x) +hf

(x) +
h
2
2
f

(
1
(x)) (5.5)
f(x) = f(x) (5.6)
f(x h) = f(x) hf

(x) +
h
2
2
f

(
2
(x)) (5.7)
con
1
(x) entre x y x +h y
2
(x) entre x h y x. Restando (5.6) de (5.5), nos queda
f(x +h) f(x) = hf

(x) +
h
2
2
f

(
1
(x)) ,
de donde, despejando f

(x) obtenemos la f ormula


f

(x) =
f(x +h) f(x)
h
. .
aproximacion

h
2
f

(
1
(x))
. .
error
. (5.8)
183
Sergio Plaza 184
Considerando ahora el desarrollo hasta orden 3, tenemos
f(x +h) = f(x) +hf

(x) +
h
2
2
f

(x) +
h
3
6
f

(
1
(x)) (5.9)
f(x) = f(x) (5.10)
f(x h) = f(x) hf

(x) +
h
2
2
f

(x)
h
3
6
f

(
2
(x)) (5.11)
con
1
(x) entre x y x +h y
2
(x) entre x h y x.
Restando (5.11) de (5.9), nos queda
f(x +h) f(x h) = 2hf

(x) +
h
3
3
f

(
1
(x)) +f

(
2
(x))
2
.
Si f

(x) es continua, entonces


f

(
1
(x)) +f

(
2
(x))
2
= f

((x))
para alg un (x) entre x h y x +h. Luego,
f

(x) =
f(x +h) f(x h)
2h
. .
arpoximaci on

h
2
6
f

((x))
. .
error
. (5.12)
esta es llamada f ormula de las diferencias centradas para la primera derivada.
Para obtener f ormulas para derivadas de orden 2, consideramos desarrollos hasta orden 4.
f(x +h) = f(x) +hf

(x) +
h
2
2
f

(x) +
h
3
6
f

(x) +
h
4
24
f
(4)
(
1
(x)) (5.13)
f(x) = f(x) (5.14)
f(x h) = f(x) hf

(x) +
h
2
2
f

(x)
h
3
6
f

(x) +
h
4
24
f
(4)
(
2
(x)) (5.15)
con
1
(x) entre x y x + h y
2
(x) entre x h y x. Sumando (5.13) y (5.15) y restando
(5.14) multiplicada por 2, nos queda
f(x +h) 2f(x) +f(x h) = h
2
f

(x) +
h
4
12
f
(4)
(
1
(x)) +f
(4)
(
2
(x))
2
.
Si f
(4)
(x) es continua, entonces
f
(4)
(
1
(x)) +f
(4)
(
2
(x))
2
= f
(4)
((x))
con (x) entre x h y x +h. Luego,
f(x +h) 2f(x) +f(x h) = h
2
f

(x) +
h
4
12
f
(4)
((x))
Sergio Plaza 185
con (x) entre x h y x +h. De donde
f

(x) =
f(x +h) 2f(x) +f(x h)
h
2
. .
aproximacion

h
2
12
f
(4)
((x))
. .
error
(5.16)
esta es llamada f ormula de las diferencias centradas para la segunda derivada.
Veamos ahora como obtener otras formulas para derivadas numerica usando interpolacion de
Lagrange.
Sea f : [a, b] R tal que f

(x) es continua. Sea x


0
]a, b[ y h ,= 0 peque no. Denimos
x
1
= x
0
+ h, h ,= 0 sucientemente peque no para que x
1
[a, b] . Tenemos la aproximacion
de Lagrange de grado 1, L
1
(x) para f(x) determinada por x
0
y x
1
, con su error. Esta es
dada por
f(x) = L
1
(x) +
(x x
0
)(x x
1
)
2!
f

((x))
= f(x
0
)
x x
1
x
0
x
1
+f(x
1
)
x x
0
x
1
x
0
+
(x x
0
)(x x
1
)
2
f

((x))
= f(x
0
)
(x x
0
h)
h
+f(x
0
+h)
(x x
0
)
h
+
(x x
0
)(x x
0
h)
2
f

((x))
donde (x) [a, b] .
Derivando la igualdad anterior, obtenemos
f

(x) =
f(x
0
+h) f(x
0
)
h
+
d
dx
_
(x x
0
)(x x
0
h)
2
f

((x))
_
=
f(x
0
+h) f(x
0
)
h
+
2(x x
0
) h
2
f

((x))
+
(x x
0
)(x x
0
h)
2
d
dx
(f

((x))) .
Luego
f

(x)
f(x
0
+h) f(x
0
)
h
.
Ahora
d
dx
(f

((x))) = f

((x))

(x) , y no tenemos informaci on sobre esto, luego el error de


truncacion no lo podemos estimar. Cuando x = x
0
, el coeciente que acompa na a
d
dx
f

((x))
se anula, y entonces
f

(x
0
) =
f(x
0
+h) f(x
0
)
h

h
2
f

() (5.17)
Ahora, si x
0
, . . . , x
n
son n + 1 puntos distintos en el intervalo I = [a, b] y f(x) es n + 1
veces derivable, con f
(n+1)
(x) continua. Tenemos que
Sergio Plaza 186
f(x) =
n

k=0
f(x
k
)L
n,k
(x) +
(x x
0
) (x x
n
)
(x + 1)!
f
(n+1)
((x))
con (x) [a, b] . Derivando, obtenemos
f

(x) =
n

k=0
f(x
k
)L

n,k
(x) +
d
dx
_
(x x
0
) (x x
n
)
(n + 1)!
f
(n+1)
((x))
_
=
n

k=0
f(x
k
)L

n,k
(x) +
d
dx
_
(x x
0
) (x x
n
)
(n + 1)!
_
f
(n+1)
((x))
+
(x x
0
) (x x
n
))
(n + 1)!
d
dx
f
(n+1)
((x))
el factor del ultimo sumando se anula en cuando x = x
j
, para j = 0, . . . , n.
Luego
f

(x
j
) =
n

k=0
f(x
k
)L

n,k
(x) +
f
(n+1)
((x))
(n + 1)!
n

i = 0
i = j
(x
j
x
i
) (5.18)
Ejemplo. F ormula con tres modos.
En este caso, son dados x
0
, x
1
y x
2
, y f(x) una funci on 3 veces derivable, con f

(x)
continua. Entonces
L
2,0
(x) =
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
, L

2,0
(x) =
2x x
1
x
2
(x
0
x
1
)(x
0
x
2
)
L
2,1
(x) =
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
, L

2,1
(x) =
2x x
0
x
2
(x
1
x
0
)(x
1
x
2
)
L
2,2
(x) =
(x x
0
)(x x
1
)
(x
2
x
0
)(x
2
x
1
)
, L

2,2
(x) =
2x x
0
x
1
(x
2
x
0
)(x
2
x
1
)
Reemplazando en la formula (5.18), nos queda
f

(x
j
) = f(x
0
)
2x
j
x
1
x
2
(x
0
x
1
)(x
0
x
2
)
+f(x
1
)
2x
j
x
0
x
2
(x
1
x
0
)(x
1
x
2
)
+f(x
2
)
2x
j
x
0
x
1
(x
2
x
0
)(x
2
x
1
)
+
1
6
f
(3)
(
j
)
2

i = 0
i = j
(x
j
x
i
)
donde j = 0, 1, 2 y
j
depende de x
j
.
Sergio Plaza 187
Ahora, tomamos a
1
= x
0
+h, x
2
= x
1
+h = x
0
+2h ( h ,= 0 ). Para x
j
= x
0
, tenemos que
x
1
= x
0
+h y x
2
= x
0
+ 2h. Luego
f

(x
0
) =
1
h
_

3
2
f(x
0
) + 2f(x
1
)
1
2
f(x
2
)
_
+
h
2
3
f
(3)
(
0
) ,
para x
j
= x
1
, tenemos
f

(x
1
) =
1
h
_

1
2
f(x
0
) +
1
2
f(x
2
)
_

h
2
6
f
(3)
(
1
)
y para x
j
= x
2
,
f

(x
2
) =
1
h
_
1
2
f(x
0
) 2f(x
1
) +
3
2
f(x
2
)
_
+
h
2
3
f
(3)
(
2
) .
Como x
1
= x
0
+h y x
2
= x
0
+ 2h, tenemos
f

(x
0
) =
1
h
_

3
2
f(x
0
) + 2f(x
0
+h)
1
2
f(x
0
+ 2h)
_
+
h
2
3
f
(3)
(
0
)
f

(x
0
+h) =
1
h
_

1
2
f(x
0
) +
1
2
f(x
0
+ 2h)
_

h
2
6
f
(3)
(
1
)
f

(x
0
+ 2h) =
1
h
_
1
2
f(x
0
) 2f(x
0
+h) +
3
2
f(x
0
+ +2h)
_
+
h
2
6
f
(3)
(
2
) ,
es decir, reemplazamdo x
0
para x
0
+h en la segunda ecuacion y x
0
para x
0
+2h en la tercera
ecuacion obtenemos
a) f

(x
0
) =
1
2h
(3f(x
0
) + 4f(x
0
+h) f(x
0
+ 2h) +
h
2
3
f
(3)
(
0
)
b) f

(x
0
) =
1
2h
(f(x
0
h) +f(x
0
+h))
h
2
6
f
(3)
(
1
)
c) f

(x
0
) =
1
2h
(f(x
0
2h) 4f(x
0
h) + 3f(x
0
)) +
h
2
3
f
(3)
(
2
)
De modo an alogo, puede deducirse las f ormulas
d) f

(x
0
) =
1
12h
(f(x
0
2h) 8f(x
0
h) + 8f(x
0
+h) f(x
0
+ 2h)) +
h
4
30
f
(5)
()
e) f

(x
0
) =
1
12h
(25f(x
0
) + 48f(x
0
+h) 36f(x
0
+ 2h) + 16f(x
0
+ 3h) 3f(x
0
+ 4h)))+
h
4
5
f
(5)
()
Sergio Plaza 188
5.1 Ejercicios
Problema 5.1 Usando las f ormulas anteriores (todas) calcule f

(2.0) , donde f(x) = xe


x
,
primero con h = 0.1 y despues con h = 0.1 . Analice los resultados en comparacion con la
derivada f

(x) calculada en forma exacta y evaluada en x = 2.0 .


Problema 5.2 Para calcular numericamente la derivada de una funci on f(x) , podemos usar
las siguiente aproximaciones
(i) f

(x
0
)
f(x
0
+h) f(x
0
)
h
,
(ii) f

(x
0
)
f(x
0
+h) f(x
0
h)
2h
.
(a) Considerando f(x) = sen(x) , x
0
= /4 , y h
n
=
1
10
n
, con n = 1, . . . , 5 , estime f

(/4) ,
usando (i) y (ii) anteriores.
(b) En ambas f ormulas (a) y (b) anteriores existe perdidad de dgitos signicativos (es decir,
son numericamente inestables) pues existe resta de n umeros parecidos Cual de ellas es
mas inestable? Justique su respuesta en forma te orica y numerica.
Problema 5.3 Obtenga los valores de a
1
y a
2
de modo que la formula de derivaci on numerica
f

(1/2) a
1
f(0) +a
2
f(1/2) sea exacta para las funciones 1 , x.
Problema 5.4
Problema 5.5
Problema 5.6
Problema 5.7
Problema 5.8
Poner lista de formulas para derivadas numericas
Captulo 6
Spline C ubicos
Sea f : [a, b] R y sean a = x
0
< x
1
< < x
n
= b . Un spline c ubico S(x) para f(x) es
una funci on que satisface
1. S(x) es un polinomio c ubico en cada intervalo [x
j
, x
j+1
] . Notaci on S

[xj,xj+1]
= S
j
,
j = 0, 1, . . . , n 1 ,
2. S(x
j
) = f(x
j
) , j = 0, 1, . . . , n,
3. S
j
(x
j+1
) = S
j+1
(x
j+1
) , j = 0, 1, . . . , n 2 ,
4. S

j
(x
j+1
) = S

j+1
(x
j+1
) , j = 0, 1, . . . , n 2 ,
5. S

j
(x
j+1
) = S

j+1
(x
j+1
) , j = 0, 1, . . . , n 2 ,
6. una de las siguientes condiciones de frontera se cumple
(a) S

(x
0
) = S

(x
n
) = 0 , frontera libre o natural.
(b) S

(x
0
) = f

(x
0
) y S

(x
n
) = f

(x
n
) , frontera sujeta.
6.1 Construcci on de Spline c ubicos
Consideremos los polinomios c ubicos
S
j
(x) = a
j
+b
j
(x x
j
) +c
j
(x x
j
)
2
+d
j
(x x
j
)
3
, (6.1)
j = 0, 1, . . . , n 1 .
Ahora, aplicando la condici on (3), tenemos
a
j+1
= S
j+1
(x
j+1
) = S
j
(x
j+1
)
= a
j
+b
j
(x
j+1
x
j
)
. .
hj
+c
j
(x
j+1
x
j
)
2
. .
h
2
j
+d
j
(x
j+1
x
j
)
3
. .
h
3
j
(6.2)
189
Sergio Plaza 190
j = 0, 1, . . . , n 2 .
Usaremos la notacion h
j
= x
j+1
x
j
, para j = 0, 1, . . . , n 1 , y
a
n
= f(x
n
) . (6.3)
La ecuacion (6.2) se escribe entonces como
a
j+1
= a
j
+b
j
h
j
+c
j
h
2
j
+d
j
h
3
j
, j = 0, 1, . . . , n 1. (6.4)
Ahora denamos
b
n
= S

(x
n
) . (6.5)
Tenemos entonces
S

j
(x) = b
j
+ 2c
j
(x x
j
) + 3d
j
(x x
j
)
2
, (6.6)
Luego, S

j
(x
j
) = b
j
, j = 0, 1, . . . , n 1 .
Aplicando la condici on (4) obtenemos
b
j+1
= S

j+1
(x
j+1
) = S

j
(x
j+1
) = b
j
+ 2c
j
h
j
+ 3d
j
h
2
j
(6.7)
j = 0, 1, . . . , n 1 .
Denamos
c
n
=
S

(x
n
)
2
(6.8)
aplicando la condici on (5), obtenemos
c
j+1
= c
j
+ 3d
j
h
j
, j = 0, 1, . . . , n 1 (6.9)
despejando d
j
de esta ecuacion obtenemos
d
j
=
c
j+1
c
j
3h
j
(6.10)
Reemplazando en la ecuacion para a
j+1
(6.4) y para b
j+1
(6.7), nos queda
a
j+1
= a
j
+b
j
h
j
+
h
2
j
3
(2c
j
+c
j+1
) (6.11)
b
j+1
= b
j
+h
j
(c
j
+c
j+1
) (6.12)
De la ecuacion (6.11) despejamos b
j
, y nos queda
b
j
=
1
h
j
(a
j+1
a
j
)
h
j
3
(2c
j
+c
j+1
) (6.13)
Sergio Plaza 191
Para j 1 obtenemos
b
j1
=
1
h
j1
(a
j
a
j1
)
h
j1
3
(2c
j1
+c
j
) . (6.14)
Reemplazando en la ecuacion para b
j+1
, con el ndice reducido en 1, obtenemos el siguiente
sistema de ecuaciones lineales
h
j1
c
j1
+ 2(h
j1
+h
j
)c
j
+h
j
c
j+1
=
3
h
j
(a
j+1
a
j
)
3
h
j1
(a
j
a
j1
) (6.15)
j = 1, . . . , n 1 .
Notemos que h
j
y a
j
son conocidos. Los otros coecientes b
j
y d
j
, j = 0, 1, . . . , n 1 se
obtienen de
b
j
=
1
h
j
(a
j+1
a
j
)
h
j
3
(2c
j
+c
j+1
) (6.16)
d
j
=
c
j+1
c
j
3h
j
. (6.17)
Teorema 6.1 Sea f : [a, b] R y a = x
0
< x
1
< < x
n
= b . Entonces f tiene un unico
spline c ubico natural en los nodos x
0
, x
1
, . . . , x
n
.
Demostracion. En este caso las condiciones de frontera signican que c
n
=
S

(xn)
2
= 0 y que
0 = S

(x
0
) = 2c
0
+ 6d
0
(x
0
x
0
) , luego c
0
= 0 .
De las dos ecuaciones c
0
= 0 y c
n
= 0 junto con las ecuaciones lineales (6.15) se tiene el
sistema de ecuaciones lineales Ax = b , donde A es la matriz (n + 1) (n + 1) dada por
A =
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0 0 0
h
0
2(h
0
+h
1
) h
1
0 0 0 0
0 h
1
2(h
1
+h
2
) h
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 h
n2
2(h
n2
+h
n1
) h
n1
0 0 0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
y los vectores b y x son dados por
b =
_
_
_
_
_
_
_
_
_
_
_
0
3
h1
(a
2
a
1
)
3
h0
(a
1
a
0
)
.
.
.
.
.
.
3
hn1
(a
n
a
n1
)
3
hn2
(a
n1
a
n2
)
0
_
_
_
_
_
_
_
_
_
_
_
y x =
_
_
_
_
_
_
_
_
_
c
0
c
1
.
.
.
.
.
.
c
n
_
_
_
_
_
_
_
_
_
La matriz A es diagonal dominante, luego existe solucion unica c
0
, c
1
, . . . , c
n
del sistema.
Sergio Plaza 192
Teorema 6.2 Si f : [a, b] R es derivable en a y b , y a = x
0
< x
1
< < x
n
= b .
Entonces existe un unico spline c ubico con las condiciones de frontera S

(a) = f

(a) y S

(b) =
f

(b) .
Demostraci on. Como f

(a) = S

(a) = S

(x
0
) = b
0
. Tenemos,
b
j
=
1
h
j
(a
j+1
a
j
)
h
j
3
(2c
j
+c
j+1
) (6.18)
con j = 0 nos queda la ecuacion
b
0
= f

(a) =
1
h
0
(a
1
a
0
)
h
0
3
(2c
0
+ c
1
)
y de aqu obtenemos que
2h
0
c
0
+h
0
c
1
=
3
h
0
(a
1
a
0
) 3f

(a) .
De modo an alogo
f

(b) = b
n
= b
n1
+h
n1
(c
n1
+c
n
)
y con j 1 la ecuacion (6.18) nos da que
f

(b) =
a
n
a
n1
h
n1

h
n1
3
(2c
n1
+c
n
) +h
n1
(c
n1
+ c
n
)
=
a
n
a
n1
h
n1
+
h
n1
3
(c
n1
+ 2c
n
)
y que
h
n1
c
n1
+ 2h
n1
c
n
= 3f

(b)
3
h
n1
(a
n
a
n1
) .
El sistema de ecuaciones lineales (6.15) junto con las ecuaciones
2h
0
c
0
+h
0
c
1
=
3
h
0
(a
1
a
0
) 3f

(a)
y
h
n1
c
n1
+ 2h
n1
c
n
= 3f

(b)
3
h
n1
(a
n
a
n1
)
determinan un sistema de ecuaciones lineales Ax = b , donde
Sergio Plaza 193
A =
_
_
_
_
_
_
_
_
_
_
2h
0
h
0
0 0 0 0 0
h
0
2(h
0
+h
1
) h
1
0 0 0 0
0 h
1
2(h
1
+h
2
) h
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 h
n2
2(h
n2
+h
n1
) h
n1
0 0 0 0 0 h
n1
2h
n1
_
_
_
_
_
_
_
_
_
_
b =
_
_
_
_
_
_
_
_
_
_
_
3
h0
(a
1
a
0
) 3f

(a)
3
h1
(a
2
a
1
)
3
h0
(a
1
a
0
)
.
.
.
.
.
.
3
hn1
(a
n
a
n1
)
3
hn2
(a
n1
a
n2
)
3f

(b)
3
hn1
(a
n
a
n1
)
_
_
_
_
_
_
_
_
_
_
_
y x =
_
_
_
_
_
_
_
_
_
c
0
c
1
.
.
.
.
.
.
c
n
_
_
_
_
_
_
_
_
_
La matriz A es diagonal dominante, luego existe solucion unica c
0
, c
1
, . . . , c
n
del sistema
6.2 Otra forma de construir spline c ubicos naturales
Sean z
i
= S

(x
i
) , para 0 i n. Sobre [x
i
, x
i+1
] , debemos tener que S

i
(x) es una
interpolaci on lineal y S

i
(x
i
) = z
i
, S

i
(x
i+1
) = z
i+1
. Luego podemos escribir
S

i
(x) =
x x
i+1
x
i
x
i+1
z
i
+
x x
i
x
i+1
x
i
z
i+1
.
Integrando S

(x) dos veces, obtenemos


S
i
(x) = (x
i+1
x)
3
z
i
6h
i
+ (x x
i
)
3
z
i+1
6h
i
+cx +d (6.19)
donde h
i
= x
i+1
x
i
y c, d son las constantes de integracion. Ahora, imponiendo las condi-
ciones
S
i
(x
i
) = f(x
i
) = y
i
S
i
(x
i+1
) = y
i+1
.
Obtenemos las ecuaciones
_

_
h
3
i
z
i
6h
i
+cx
i
+d = y
i
h
3
i
z
i
6h
i
+cx
i+1
+d = y
i+1
de donde c =
y
i+1
y
i
h
i

(z
i+1
z
i
)
6
h
i
y d =
y
i
x
i+1
y
i+1
x
i
h
i
+h
i
x
i
z
i+1
x
i+1
z
i
6
.
Reemplazando en la ecuacion (6.19) nos queda
Sergio Plaza 194
S
i
(x) = (x
i+1
x)
3
z
i
6h
i
+
(x x
i
)
3
z
i+1
6h
i
+
_
(y
i+1
y
i
)
h
i

(z
i+1
z
i
)
6
h
i
_
x
+
y
i
x
i+1
y
i+1
x
i
h
i
+h
i
x
i
z
i+1
x
i+1
z
i
6
(6.20)
Para encontrar z
i
y z
i+1
imponemos la condicion S

i1
(x
i
) = S

i
(x
i
) .
Ahora, derivando (6.20) y reemplazando obtenemos
S

i
(x
i
) =
1
3
h
i
z
i

1
6
h
i
z
i+1
+b
i
y
S

i1
(x
i
) =
1
6
h
i1
z
i1
+
1
3
h
i1
z
i
+b
i
imponiendo la condici on S

i1
(x
i
) = S

i
(x
i
) nos queda
h
i1
z
i1
+ 2(h
i1
+h
i
)z
i
+h
i
z
i+1
= 6(b
i
b
i1
) , i = 1, . . . , n 1
Para encontrar z
i
, (1 i n 1) , considerando que z
0
= z
n
= 0 , se tiene un sistema de
ecuaciones, simetrico, tridiagonal, diagonal dominante, de la forma
_
_
_
_
_
_
_
_
_
_
_
_
_
u
1
h
1
0 0 0 0
h
1
u
2
h
2
0 0 0
0 h
2
u
3
h
3
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 h
n3
u
n2
h
n2
0 0 0 0 h
n2
u
n1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
z
1
z
2
.
.
.
z
n2
z
n1
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n2
v
n1
_
_
_
_
_
_
_
_
donde
_

_
h
i
= t
i+1
t
i
u
i
= 2(h
i
+h
i1
)
b
i
=
6
h
i
(x
i+1
x
i
), S
j
(t
j
) = x
j
v
i
= b
i
b
i1
6.3 Ejercicios
Problema 6.1 Sea f : [a, b] R un polinomio c ubico. Denote por S
1
y S
2
, los spline
c ubicos libre y sujeto determinados por f S
1
y S
2
coinciden con f ? Justique su respuesta.
Sergio Plaza 195
Problema 6.2 Determine los valores de a , b y c de modo que la funcion
f(x) =
_
x
3
, x [0, 1]
1
2
(x 1)
3
+a(x 1)
2
+b(x 1) +c , x [1, 3]
es un spline c ubico.
Problema 6.3 Sea s(x) el spline c ubico natural con nodos (0, 2) , (1, 0) , (2, 3) y (3, 1) .
Suponga que
s(x) =
_

_
2
11
3
x +
5
3
x
3
si 0 x < 1
7
56
3
x + 15x
2

10
3
x
3
si 1 x < 2
33 +
124
3
x +Ax
2
+Bx
3
si 2 x 3
Encuentre A y B.
Problema 6.4 Si s(x) = 0 para x < 2 y s(x) = (x 2)
3
para x 2 es s(x) un spline c ubico?
Justique.
Problema 6.5 Suponga que
s(x) =
_
x
3
+ax
2
4x +c 0 x 2
x
3
+ax
2
+bx + 34, 2 x 4
Encuentre las constantes a, b y c de modo que s(x) es dos veces continuamente derivable
en [0, 4] Es s(x) para esas constantes un spline c ubico?
Problema 6.6 Sea
s(x) =
_
1 x + ax
2
+x
3
si 0 x 1
3 +bx +cx
2
x
3
si 1 < x 2
Determine a, b , y c de modo que s(x) sea un spline c ubico natural sobre el intervalo [0, 2]
Problema 6.7 Considere la funci on f : [1, 1] R dada por f(x) =
1
1 + 25x
2
. Usando
divisiones uniformes, calcule y graque L
n
(x) , para n = 2, 3, 4, . . . , 10 . Calcule y graque
las interpolaciones por spline c ubicos naturales y libres (imponga las condiciones adecuadas en
cada caso) para esas subdivisiones. Graque f(x) , L
n
(x) y s
n
(x) . Compare Cu al es su
conclusi on?
Problema 6.8
Problema 6.9
Sergio Plaza 196
Problema 6.10
Problema 6.11
Problema 6.12
Problema 6.13
Problema 6.14
Captulo 7
Ajuste de Curvas
7.1 Ajuste de curvas
Sean x
1
, x
2
, . . . , x
n
un conjunto de puntos, con x
1
< x
2
< < x
n
, y sean y
1
, y
2
, . . . , y
n

un conjunto de datos, es decir, tenemos los puntos (x


1
, y
1
) , (x
2
, y
2
), . . . , (x
n
, y
n
) .
Problema 1 Determinar una funci on que relacione las variables.
En general esto no es posible hacer en forma exacta. Buscamos entonces una funci on f(x)
tal que
f(x
k
) = y
k
+e
k
, (7.1)
donde e
k
es el error de medicion.
Problema 2 Como encontramos la mejor aproximaci on, es decir, que pase lo m as cerca posible
y no necesariamente sobre esos puntos? Para responder a esta pregunta, hay que considerar los
errores (los cuales son tambien llamados desviaciones o residuos).
Para ello debemos encontrar f(x) tal que
e
k
= f(x
k
) y
k
, 1 k n, (7.2)
donde e
k
son llamados errores o desviaciones o residuos, sean en alg un sentido peque nos.
Existen varias formas que pueden usarse en (7.2) para medir la distancia entre la curva
y = f(x) y los datos.
a) Error maximo
E

(f) = max[f(x
k
) y
k
[ : 1 k n .
b) Error medio
E
1
(f) =
1
n
n

k=1
[f(x
k
) y
k
[ .
197
Sergio Plaza 198
c) Error medio cuadratico
E
2
(f) =
_
1
n
n

k=1
[f(x
k
) y
k
[
2
_
1/2
.
Observaci on. Minimizar E
2
(f) equivale a minimizar
E
2
(f)
2
=
1
n
n

k=1
[f(x
k
) y
k
[
2
,
y esto equivale a minimizar
F(f) =
n

k=1
[f(x
k
) y
k
[
2
.
Ejemplo 67 consideremos la funci on y = f(x) = 8.6 1.6x y el conjunto de a ajustar datos
(1, 10), (0, 9), (1, 7), (2, 5), (3, 4), (4, 3), (5, 0), (6, 1). Tenemos e
k
= f(x
k
) y
k
. Luego
E

(f) = max0.2, 0.4, 0, 0.4, 0.2, 0.8, 0.6, 0 = 0.8


E
1
(f) =
1
8
2.6 0.325
E
2
(f) =
_
14
8
_
1/2
0.4183300133 .
7.2 Ajuste por rectas: recta de regresi on
En este caso, tenemos los datos
(x
k
, y
k
)
n
k=1
, con x
1
< x
2
< < x
n
.
La recta de regresi on o recta optima, en el sentido de los mnimos cuadrados es la recta de
ecuacion y = f(x) = Ax +B que minimiza el error cuadr atico medio E
2
(f) .
Problema 3 Determinar A y B.
Tenemos y = Ax +B y sea d
k
= distancia entre (x
k
, y
k
) y (x
k
, Ax
k
+B)
DIBUJO
Esta distancia es
d
k
= [Ax
k
+B y
k
[ .
Sea E(A, B) =
n

k=1
(Ax
k
+B y
k
)
2
=
n

k=1
d
2
k
.
Sergio Plaza 199
Problema 4 Determinar el valor mnimo de E(A, B) .
Para esto, debemos resolver las ecuaciones
_

_
E
A
= 0
E
B
= 0 ,
llamadas ecuaciones normales de Gauss. Tenemos
E
A
=
n

k=1
2(Ax
k
+B y
k
)x
k
=
n

k=1
2(Ax
2
k
+Bx
k
x
k
y
k
) ,
luego
E
A
= 0 si y solo si
_
n

k=1
x
2
k
_
A +
_
n

k=1
x
k
_
B =
n

k=1
x
k
y
k
.
Ahora
E
B
=
n

k=1
2(Ax
k
+B y
k
) = 0
si y solo si
_
n

k=1
x
k
_
A+nB =
n

k=1
y
k
Ejemplo 68 Hacer el que esta antes.
7.3 Ajuste potencial y = Ax
M
En este caso, buscamos una curva de ajuste de la forma y = Ax
M
, donde M es una constante
conocida.
Como antes, sea
E(A) =
n

k=1
(Ax
M
k
y
k
)
2
.
Debemos resolver
E
A
= 0 . Tenemos
Sergio Plaza 200
E
A
=
n

k=1
2(Ax
M
k
y
k
)x
M
k
= 2
n

k=1
Ax
2M
k
x
M
2
y
k
.
Luego,
E
A
= 0 si y solo si
A
n

k=1
x
2M
k
=
n

k=1
x
M
k
y
k
,
es decir,
A =
n

k=1
x
M
k
y
k
_
n

k=1
x
2M
k
,
Ejemplo 69 Consideremos la siguiente tabla de datos
x
k
y
k
1 10
0 9
1 7
2 5
3 4
4 3
5 0
6 1
y el exponente M = 2 . Es dejado al lector realizar los c alculos numericos.
7.4 Ajuste con curvas del tipo y = Ce
Ax
, con C > 0
En este caso, tenemos que y = Ce
Ax
. Tomando logartmo natural nos queda ln(y) = Ax +
ln(C) , lo cual puede ser escrito en la forma Y = AX +B, donde
_
_
_
X = x
B = ln(C)
Y = ln(y)
y el problema se transforma en
Y = Ax +B.
Este es llamado metodos de linealizacion de datos.
Dados (x
k
, y
k
) , tenemos
Sergio Plaza 201
(X
k
, Y
k
) = (x
k
, ln(y
k
))
y las ecuaciones normales de Gauss son
_
n

k=1
X
2
k
_
A +
_
n

k=1
X
k
_
B =
n

k=1
X
k
Y
k
_
n

k=1
X
k
_
A +nB =
n

k=1
Y
k
.
Una vez calculados A y B, se obtiene C = e
B
.
Ejemplo 70 Encontrar la curva de ajuste de la forma y = Ce
Ax
, para los datos (0, 1.5) ,
(1, 1.25) , (2, 3.5) , (3.5) , (4, 7.5) .
7.5 Metodo no lineal de los mnimos cuadrados para y =
Ce
Ax
Este consiste en encontrar el mnimo de la funci on
E(A, C) =
n

k=1
(Ce
Ax
k
y
k
)
2
.
Tenemos
E
A
=
n

k=1
2(Ce
Ax
k
y
k
)Cx
k
e
Ax
k
= 0
E
C
=
n

k=1
2(Ce
Ax
k
y
k
)e
Ax
k
= 0
de donde,
_

_
C
n

k=1
x
k
e
2Ax
k

k=1
x
k
y
k
e
Ax
k
= 0
C
n

k=1
e
2Ax
k

k=1
y
k
e
Ax
k
= 0 .
Estas son ecuaciones no lineales en A y C , y se pueden resolver, por ejemplo, usando Newton
en varias variables.
Sergio Plaza 202
7.6 Combinaciones lineales en mnimos cuadrados
En este caso, nos son dados los datos f
j
(x)
m
j=1
.
Problema. Encontrar los coecientes c
j

m
j=1
tal que la funci on f(x) denida por
f(x) =
m

j=1
c
j
f
j
(x)
minimice la suma de los cuadrados de los errores.
Tenemos
E(c
1
, c
2
, . . . , c
m
) =
n

k=1
(f(x
k
) y
k
)
2
=
n

k=1
_
_
_
_
m

j=1
c
j
f
j
(x
k
)
_
_
y
k
_
_
2
.
Para minimizar, debemos resolver las ecuaciones
E
c
i
= 0 , i = 1, . . . , m.
Tenemos
E
c
i
=
n

k=1
2
_
_
_
_
m

j=1
c
j
f
j
(x
k
)
_
_
y
k
_
_
f
i
(x
k
) = 0 , i = 1, . . . , m
lo cual nos da el siguiente sistema de ecuaciones lineales
m

j=1
_
n

k=1
f
i
(x
k
)f
j
(x
k
)
_
c
j
=
n

k=1
f
i
(x
k
)y
k
, i = 1, 2, . . . , m.
Esto lo podemos escribir de otra forma, introduciendo notacion matricial, para ello denimos
F =
_

_
f
1
(x
1
) f
2
(x
1
) f
m
(x
1
)
f
1
(x
2
) f
2
(x
2
) f
m
(x
2
)
.
.
.
.
.
.
.
.
.
.
.
.
f
1
(x
n
) f
2
(x
n
) f
m
(x
n
)
_

_
nm
F
T
=
_

_
f
1
(x
1
) f
1
(x
2
) f
1
(x
n
)
f
2
(x
1
) f
2
(x
2
) f
2
(x
n
)
.
.
.
.
.
.
.
.
.
.
.
.
f
m
(x
1
) f
m
(x
2
) f
m
(x
n
)
_

_
mn
Sergio Plaza 203
Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
.
El elemento de la iesima la del producto F
T
Y coincide con el iesimo elemento de la
matriz columna que contiene los terminos independientes en el sistema, esto es,
n

k=1
f
i
(x
k
)y
k
= la
i
_
_
_F
T
_
_
_
y
1
.
.
.
y
n
_
_
_
_
_
_ .
Ahora, el producto F
T
F es una mariz mm. El elemento (i, j) de F
T
F coincide con el
coeciente c
j
en la iesima ecuacion del sistema, esto es,
n

k=1
f
i
(x
k
)f
j
(x
k
) = f
i
(x
1
)f
j
(x
1
) +f
i
(x
2
)f
j
(x
2
) + +f
i
(x
n
)f
j
(x
n
) .
Luego el problema se reduce a resolver el sistema de ecuaciones lineales
F
T
FC = FTY
cuya inc ognita es C .
7.7 Ajuste polonomial
Este es un caso particular del anterior, pues si
f(x) = c
1
+c
2
x + +c
n+1
x
n
entonces f se obtiene como combinacion lineal de las funciones linealmente independiente
f
j
(x)
n+1
j=1
= x
j1

n+1
j=1
.
Ejemplo 71 Parabola optima para mnimos cuadrados.
En este caso, nos son dados los datos (x
k
, y
k
)
n
k=1
y buscamos una curva de asjuste de la
forma y = f(x) = Ax
2
+B +C .
Problema. Determinar los coecientes A, B y C .
Sea
E(A, B, C) =
n

k=1
(Ax
2
k
+Bx
k
+C y
k
)
2
.
Sergio Plaza 204
Para minimizar, debemos resolver las ecuaciones
0 =
E
A
= 2
n

k=1
(Ax
2
k
+Bx
k
+C y
k
)x
2
k
0 =
E
B
= 2
n

k=1
(Ax
2
k
+Bx
k
+C y
k
)x
k
0 =
E
C
= 2
n

k=1
(Ax
2
k
+Bx
k
+C y
k
)
_

_
esto es,
_
n

k=1
x
4
k
_
A +
_
n

k=1
x
3
k
_
B +
_
n

k=1
x
2
k
_
C =
n

k=1
y
k
x
2
k
_
n

k=1
x
3
k
_
A +
_
n

k=1
x
2
k
_
B +
_
n

k=1
x
k
_
C =
n

k=1
x
k
y
k
_
n

k=1
x
2
k
_
A +
_
n

k=1
x
k
_
B +nC =
n

k=1
y
k
.
Captulo 8
Integraci on Numerica
En el Captulo sobre Interpolaci on hemos deducidos las formulas de la regla de los Trapecios y
la de Simpson.
Sean x
0
< x
1
< < x
n
puntos dados y sea f : [x
0
, x
n
] R una funci on sucientemente
diferenciable. Una f ormula del tipo
_
xn
x0
f(x) = Q[f] +E[f] , (8.1)
donde
Q[f] =
n

k=0

k
f(x
k
) (8.2)
es llamada una f ormula de cuadratura o de integracion numerica, Q[f] es llamada cuadratura y
E[f] es el error de truncamiento de la f ormula. Los puntos x
i
( i = 0, . . . , n) son llamados los
nodo de la cuadratura y los n umeros
i
son llamados los pesos de la cuadratura. Por ejemplo,
las f ormulas de los trapecios, de Simpsons, de Simpson
_
3
8
_
, las de NewtonCote, y muchas
otras f ormulas de cuadratura pueden ser encontradas en textos de metodos numericos.
El grado de presici on de una f ormula de cuadratura como (8.1) es el menor n umero natural
n, tal que E(P
i
) = 0 para todo polinomio de grado menor o igual que n y existe un polinomio
P
n+1
de grado n + 1 tal que E[P
n+1
] ,= 0 .
Ejemplos.
1. F ormula de los trapecios simple. Esta es dada por
_
x1
x0
f(x)dx =
h
2
[f(x
0
) +f(x
1
)]
h
3
12
f

(c) ,
donde h = x
1
x
0
y c ]x
0
, x
1
[ . En este caso, tenemos los pesos
0
=
1
=
h
2
, los
nodos son x
0
y x
1
, luego Q[f] =
h
2
f(x
0
) +
h
2
f(x
1
) y E[f] =
h
3
12
f

(c) .
Esta f ormula de cuadratura tiene grado de precisi on igual a 1 si f

es continua.
2. Regla de Simpson simple. Esta f ormula de cuadratura es dada por
_
x2
x0
f(x) =
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)]
h
5
90
f
(4)
(c)
205
Sergio Plaza 206
donde c ]x
0
, x
2
[ y h = x
2
x
1
= x
1
x
0
(paso constante). En este caso, los nodos son
x
0
< x
1
< x
2
, y los pesos son
0
=
2
=
h
3
y
1
=
4h
3
, luego Q[f] =
h
3
f(x
0
)+
4h
3
f(x
1
)+
h
3
f(x
2
) y E[f] =
h
5
90
f
(4)
(c) . Esta f ormula de cuadratura tiene grado de presici on 3 si
f
(4)
es continua.
3. Regla de Simpson
_
3
8
_
simple. En esta f ormula de cuadratura tomamos los nodos x
0
<
x
1
< x
2
< x
3
, considerando paso constante h = x
i+1
x
i
y los pesos
0
=
3
=
3h
8
,

1
=
2
=
9h
8
, se tiene la formula de cuadratura
_
x3
x0
f(x)dx =
3
8
h [f(x
0
) + 3f(x
1
) + 3f(x
2
) +f(x
3
)]
. .
Q[f]

3
80
h
5
f
(4)
(c)
. .
E[f]
donde c ]x
0
, x
3
[ , la cual tiene grado de presicion 3 si f
(4)
es continua.
4. Regla de Boole simple. Esta formula de cuadratura es dada como sigue. Tomamos los
nodos x
0
< x
1
< x
2
< x
3
< x
4
, con paso constante h = x
i+1
x
i
, y los pesos

0
=
4
=
14
45
h,
1
=
3
=
64
45
h y
2
=
24
45
h. La regla de Boole es dada entonces por
_
x4
x0
f(x)dx =
2
45
h [7f(x
0
) + 32f(x
1
) + 12f(x
2
) + 32f(x
3
) + 7f(x
4
)]
. .
Q[f]

8
945
h
7
f
(6)
(c)
. .
E[f]
,
con c ]x
0
, x
4
[ . Esta f ormula de cuadratura tiene grado de presici on5 si f
(6)
es continua.
8.1 Regla de los trapecios
Ya vimos que la regla de los Trapecios simple viene dada por
_
xj+1
xj
f(x) =
h
j
2
(f(x
j
) +f(x
j+1
))
h
3
j
12
f

(
j
) , (8.3)
donde h
j
= x
j+1
x
j
y
j
]x
j
, x
j+1
[ .
y = f(x)
3 2 1 0
3 3
2 2 1 1
0 0
x x x x
(x ,y )
(x ,y ) (x ,y )
(x ,y )
x
Ahora, si tenemos los nodos x
0
< x
1
< < x
n
, con paso h
j
= x
j+1
x
j
y queremos
aproximar el valor de
_
xn
x0
f(x)dx
usando el hecho que
_
c
a
f(x)dx =
_
b
a
f(x)dx +
_
c
b
f(x)dx, integramos sobre los subintervalos
[x
j
, x
j+1
] , para j = 0, 1, . . . , n 1 y aplicando la formula de los trapecios simples, obtenemos
Sergio Plaza 207
_
xn
x0
f(x) =
n1

j=0
_
xj+1
xj
f(x) =
n1

j=0
h
j
2
(f(x
j
) + f(x
j+1
))
. .
Q[f]

n1

j=0
h
3
j
12
f

(
j
)
. .
E
total
error total
, (8.4)
donde
j
]x
j
, x
j+1
[ .
Analicemos el error total E
total
=
n1

j=0
h
3
j
12
f

(
j
) . Si consideramos paso constante h = h
j
para j = 0, 1, . . . , n 1 , y f

(x) continua, entonces obtenemos


E
total
=
h
3
12
n1

j=0
f

(
j
) ,
j
]x
j
, x
j+1
[
=
h
3
12
nf

() , ]x
0
, x
n
[
=
h
2
12
nhf

() , como h =
x
n
x
0
n
=
h
2
12
(x
n
x
0
)f

() .
Luego, en el caso de paso constante h, tenemos la f ormula
_
xn
x
0
f(x) =
h
2
[f(x0) + 2f(x1) + 2f(x2) + + 2f(xn1) + f(xn)]
. .
Q[f]

h
2
12
(xn x0)f

()
. .
E[f]
, (8.5)
la cual es llamada Regla de los trapecios compuesta.
8.2 Regla de Simpson
Falta dibujos
Para obtener la regla de Simpson simple, suponemos por simplicidad, que tenemos los nodos
x
0
< x
1
< x
2
y el paso h = x
2
x
1
= x
1
x
0
es constante. Integrando el polinomio de
Lagrange de grado 2, que interpola a f en esos tres nodos, obtenemos
_
x2
x0
f(x) =
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)]
h
5
90
f
(4)
(c) (8.6)
donde c ]x
0
, x
4
[ .
Ahora si tenemos los nodos x
0
< x
1
< < x
n
, como antes suponemos que tenemos paso
constante h = x
k+1
x
k
, integrando en cada subintervalo de la forma [x
j
, x
j+2
] , tenemos
_
xj+2
xj
f(x) =
h
3
(f(x
j
) + 4f(x
j+1
) +f(x
j+2
))
h
5
90
f
(4)
(
j
) , (8.7)
Sergio Plaza 208
donde
j
]x
j
, x
j+2
[ . Ahora, como
_
xn
x0
f(x)dx =
_
x2
x0
f(x)dx +
_
x4
x2
f(x)dx + +
_
xn
xn2
f(x)dx,
note que n debe ser par y n 2 . De esto, tenemos
_
xn
x0
f(x)dx =
h
3
[(f(x
0
) + 4f(x
1
) +f(x
2
)) + (f(x
2
) + 4f(x
3
) +f(x
4
)) +
+(f(x
n2
) + 4f(x
n1
) +f(x
n
))]
h
5
90
n
2
f
(4)
() ,
con ]x
0
, x
n
[ . Reordenando, nos queda
_
xn
x0
f(x)dx =
h
3
_
_
f(x
0
) +f(x
n
) + 4
n2
2

j=1
f(x
2j1
) + 2
n2
2

j=1
f(x
2j
)
_
_
. .
E[f]
h
4
(x
n
x
0
)
180
f
(4)
()
. .
E[f]
.
(8.8)
Esta es la regla de Simpson compuesta.
8.3 Regla de Simpson (
3
8
)
Consideramos paso constante h = x
j+1
x
j
. Sea P
j
(x) el polinomio de interpolaci on de
Lagrange con nodos x
j
, x
j+1
, x
j+2
y x
j+3
, con paso h constante. Tenemos
_
xj+3
xj
f(x)dx
_
xj+3
xj
P
j
(x)dx
3
8
h[f(x
j
) + 3f(x
j+1
) + 3f(x
j+2
) +f(x
j+3
)] , (8.9)
esta es la regla de Simpson
_
3
8
_
simple.
Ahora, como
_
xn
x0
f(x)dx =
_
x3
x0
f(x)dx +
_
x6
x3
f(x)dx + +
_
xn
xn3
f(x)dx,
notemos que n = 3m y m 1 . Reordenando, obtenemos
_
xn
x
0
f(x)dx
3
8
h
_
_
f(x0) + f(xn) + 3
n3
3

j=0
f(x3j+1) + 3
n3
3

j=0
f(x3j+2) + 2
n3
3

j=0
f(x3j+3)
_
_
, (8.10)
esta es la regla de Simpson (
3
8
), cuyo error es dado por
E[f] =
(x
n
x
0
)
5
6480
f
(4)
() , (8.11)
donde ]x
0
, x
n
[ . Las reglas de los trapecios y la de Simpson pertenecen a una clase de
metodos para aproximar integrales, llamadas f ormulas de NewtonCotes.
Sergio Plaza 209
8.4 F ormulas de NewtonCotes cerradas de (n+1) puntos
Notemos que para obtener la formula de la regla de los trapecios integramos el polinomio de
interpolaci on de Lagrange de grado 1 entre los puntos x
j
y x
j+1
, para obtener la f ormula de
la regla ed Simpson integramos el polinomio de interpolaci on de Lagrange de grado 2 entre los
puntos x
j
, x
j+1
y x
j+2
, para la regla de Simpson
3
8
integramos el polinomio de interpolaci on
de Lagrange de grado 3 entre los puntos x
j
, x
j+1
, x
j+2
y x
j+3
. Para otras f ormulas podemos
continuar integrando el polinomio de interpolaci on de Lagrange, digamos de grado k , entre los
puntos x
j
, . . . , x
j+k
.
Las formulas de NewtonCotes cerradas de (n + 1) puntos utilizan nodos x
j
= x
0
+ jh,
j = 0, 1, . . . , n, h =
ba
n
, x
0
= a y x
n
= b . Son llamadas cerradas pues incluyen los extremos
x
0
y x
n
. Ellas tienen la forma
_
xn
x0
f(x)dx
n

j=0
A
n,j
f(x
j
) ,
donde
A
n,j
=
_
xn
x0
L
n,j
(x)dx =
_
xn
x0
n

k = 0
k = j
(x x
k
)
(x
j
x
k
)
,
son obtenidas integrando el polinomio de Lagrange de grado n, que recordemos es dado por
L
n
(x) =
n

j=0
f(x
j
)L
n,j
(x) ,
donde L
n,j
=
n

i = 0
i = j
x x
i
x
j
x
i
, que interpola a f en los nodos x
0
< x
1
< < x
n
Teorema 8.1 Denotemos por

n
j=0
A
j
f(x
j
) la f ormula de NewtonCotes cerrada de (n+1)
puntos, con x
0
= a , x
n
= b y h =
ba
n
. Entonces existe ]a, b[ , tal que
()
_
b
a
f(x)dx =
n

j=0
A
j
f(x
j
) +
h
n+3
(n + 2)!
f
(n+2)
()
_
n
0
t
2
(t 1) (t n)dt ,
si n es par y f es n + 2 veces derivable en [a, b] y f
(n+2)
(x) es continua.
()
_
b
a
f(x)dx =
n

j=0
A
j
f(x
j
) +
h
n+2
(n + 1)!
f
(n+1)
()
_
n
0
t(t 1) (t n)dt ,
si n es impar y f es n + 1 veces derivable en [a, b] y f
(n+1)
(x) es continua.
8.5 F ormulas abiertas de NewtonCotes
Estas usan nodos x
j
= x
0
+ jh, j = 0, 1, . . . , n, donde h =
ba
n+2
y x
0
= a + h. Luego
x
n
= b h. Marcamos los extremos x
1
= a y x
n+1
= b y tenemos
_
b
a
f(x)dx =
_
xn+1
x1
f(x)dx
n

j=0
A
j
f(x
j
) ,
Sergio Plaza 210
donde A
j
=
_
b
a
L
n,j
(x)dx.
Con las notaciones anteriores, tenemos que existe ]a, b[ tal que
(

)
_
b
a
f(x)dx =
n

j=0
A
j
f(x
j
) +
h
n+3
(n + 2)!
f
(n+2)
()
_
n
1
t
2
(t 1) (t n)dt ,
si n es par y f es n + 2 veces derivable en [a, b] y f
(n+2)
(x) es continua.
(

)
_
b
a
f(x)dx =
n

j=0
A
j
f(x
j
) +
h
n+2
(n + 1)!
f
(n+1)
()
_
n
1
t(t 1) (t n)dt ,
si n es impar y f es n + 1 veces derivable en [a, b] y f
(n+1)
(x) es continua.
Por ejemplo,
n = 0 ,
_
x1
x1
f(x) = 2hf(x
0
) +
h
3
3
f

() , x
1
< < x
1
,
n = 1 ,
_
x2
x1
f(x) =
3h
2
(f(x
0
) +f(x
1
)) +
3
4
h
3
f

() , x
1
< < x
2
,
8.6 Integraci on de Romberg
Comenzamos por obtener aproximaciones para
_
b
a
f(x) usando la regla de los trapecios con
m
j
nodos, m
1
= 1 , m
2
= 2 , . . . , m
j
= 2
j1
. Los valores del paso h
j
correspondiente a m
j
son dados por h
j
=
ba
mj
=
ba
2
j1
. Luego, tenemos
_
b
a
f(x) =
h
j
2
_
_
f(a) +f(b) + 2
2
j1
1

i=1
f(a +ih
j
)
_
_

(b a)
12
h
2
j
f

(
j
) , (8.12)
donde
j
]a, b[ .
Usando la notacion
R
1,1
=
h
1
2
(f(a) +f(b)) =
b a
2
(f(a) +f(b))
R
2,1
=
h
2
2
(f(a) +f(b) + 2f(a +h
2
))
=
b a
4
_
f(a) +f(b) + 2f
_
a +
b a
2
__
=
1
2
(R
1,1
+h
1
f(a +h
2
))
En general,
R
j,1
=
1
2
_
_
R
j1,1
+h
j1
2
j2

i=0
f(a + (2i 1)h
j
)
_
_
Sergio Plaza 211
j = 2, 3, . . . , n. Tenemos
_
b
a
f(x) R
j,1
= K
1
h
2
j
+

i=2
K
i
h
2i
j
,
donde K
i
para cada i es independiente de h
j
.
Tambien tenemos las relaciones
R
k,j
= R
k,j1
+
R
k,j1
R
k1,j1
4
j1
1
k = 2, . . . , n y j = 2, . . . , k .
Estos resultados pueden tabularse como
R
1,1
R
2,1
R
2,2
R
3,1
R
3,2
R
3,3
.
.
.
.
.
.
.
.
.
.
.
.
R
n,1
R
n,2
R
n,3
R
n,n

_
b
a
f(x)
8.7 Cuadratura gaussiana
Queremos aproximar el valor de
_
b
a
f(x) .
Haciendo el cambio de variable x =
1
2
((b a)t + (a +b)) tenemos que
_
b
a
f(x)dx =
_
1
1
f
_
(b a)t + (b +a)
2
_
b a
2
dt
por lo tanto buscamos un metodo para obtener aproximaciones a una integral del tipo
_
1
1
f(x)dx.
Aqu se trata de determinar constantes c
1
y c
2
y valores x
1
y x
2
de modo que
_
1
1
f(x) c
1
f(x
1
) +c
2
f(x
2
) , (8.13)
y el resultado sea exacto cuando f(x) es un polinomio de grado menor o igual que 3.
Escribamos f(x) = a
0
+a
1
x +a
2
x
2
+a
3
x
3
. Tenemos entonces
Sergio Plaza 212
_
f(x) = a
0
_
1 +a
1
_
x +a
2
_
x
2
+a
3
_
x
3
,
luego necesitamos c
1
, c
2
, x
1
y x
2
tales que
c
1
1 +c
2
1 =
_
1
1
1 = 2
c
1
x
1
+c
2
x
2
=
_
1
1
x = 0
c
1
x
2
1
+c
2
x
2
2
=
_
1
1
x
2
=
2
3
c
1
x
3
1
+c
2
x
3
2
=
_
1
1
x
3
= 0
resolviendo esas ecuaciones obtenemos c
1
= 1 , c
2
= 1 , x
1
=

3
3
y x
2
=

3
3
. Luego
_
1
1
f(x) f
_

3
3
_
+f
_

3
3
_
.
En general, el problema es resuelto considerando los polinomios de Legendre P
0
(x), P
1
(x), . . . .
Estos son polinomios que satisfacen
1. P
n
(x) es un polinomio de grado n, n = 0, 1, . . . .
2.
_
1
1
P(x)P
n
(x)dx = 0 cuando P(x) es un polinomio de grado menor que n.
Los primeros polinomios de Legendre son
P
0
(x) = 1
P
1
(x) = x
P
2
(x) = x
2

1
3
P
3
(x) = x
3

3
5
x
.
.
.
Tenemos el siguiente teorema
Teorema 8.2 Supongamos que x
1
, x
2
, . . . , x
n
son las races del polinomio de Legendre P
n
(x)
y que los n umeros c
i
son dados por
c
i
=
_
1
1
n

j = 1
j = i
x x
j
x
i
x
j
dx, i = 1, 2, . . . , n
Sergio Plaza 213
Si P(x) es un polinomio de grado menor que 2n. Entonces
_
1
1
P(x) =
n

i=1
c
i
P(x
i
) .
8.8 Ejemplos resueltos
Ejemplo 72 Considere la siguiente tabla de valores
x 0 1 2 3 4 5 6
f(x) 5 4 1 1 1 0 3
a) Encuentre la interpolaci on de Lagrange L
6
(x) de esos datos. Usando el metodo de New-
ton, encuentre una aproximaci on para la raz de L
6
(x) en el intervalo [2, 3].
b) Usando la integraci on numerica de Simpson, y tambien integrando L
6
(x) directamente,
obtenga aproximaciones para
_
6
0
f(x)dx.
Solucion.
a) Tenemos que L
6
(x) = L
6,0
(x)y
0
+L
6,1
(x)y
1
+L
6,2
(x)y
2
+L
6,3
(x)y
3
+L
6,4
(x)y
4
+L
6,5
(x)y
5
+
L
6,6
(x)y
6
, donde
L
6,0
(x) =
(x 1)(x 2)(x 3)(x 4)(x 5)(x 6)
720
=
1
720
x
6

7
240
x
5
+
35
144
x
4

49
48
x
3
+
203
90
x
2

49
20
x + 1
L
6,1
(x) =
x(x 2)(x 3)(x 4)(x 5)(x 6)
120
=
1
120
x
6
+
1
6
x
5

31
24
x
4
+
29
6
x
3

87
10
x
2
+ 6 x
L
6,2
(x) =
x(x 1)(x 3)(x 4)(x 5)(x 6)
48
=
1
48
x
6

19
48
x
5
+
137
48
x
4

461
48
x
3
+
117
8
x
2

15
2
x
Sergio Plaza 214
L
6,3
(x) =
x(x 1)(x 2)(x 4)(x 5)(x 6)
36
=
1
36
x
6
+
1
2
x
5

121
36
x
4
+
31
3
x
3

127
9
x
2
+
20
3
x
L
6,4
(x) =
x(x 1)(x 2)(x 3)(x 5)(x 6)
48
=
1
48
x
6

17
48
x
5
+
107
48
x
4

307
48
x
3
+
33
4
x
2

15
4
x
L
6,5
(x) =
x(x 1)(x 2)(x 3)(x 4)(x 6)
120
=
1
120
x
6
+
2
15
x
5

19
24
x
4
+
13
6
x
3

27
10
x
2
+
6
5
x
L
6,6
(x) =
x(x 1)(x 2)(x 3)(x 4)(x 5)
720
=
1
720
x
6

1
48
x
5
+
17
144
x
4

5
16
x
3
+
137
360
x
2

1
6
x
Ahora, es facil que ver el polinomio de Lagrange es dado por
L
6
(x) = 5 +
5
6
x
1
4
x
3
+
7
18
x
4

1
12
x
5
+
1
180
x
6

341
180
x
2
y de aqu tenemos que la transformaci on de Newton de L
6
(x) es dada por
N( x) = x
5 +
5
6
x
1
4
x
3
+
7
18
x
4

1
12
x
5
+
1
180
x
6

341
180
x
2
5
6

3
4
x
2
+
14
9
x
3

5
12
x
4
+
1
30
x
5

341
90
x
Comenzando la busqueda de la raz en x
0
= 2 la convergencia es rapida y la raz buscada
es aproximadamente igual a x = 2, 37 , y L
6
( x) = 0, 0096448 . (Obviamente podemos
obtener una mejor aproximacion, pero eso solo implica m as iteraciones).
b) La f ormula de integraci on de Simpson es
_
b
a
f(x)dx
h
3
(f
0
+ 4f
1
+ 2f
2
+ 4f
3
+ 2f
4
+
+ 2f
n2
+ 4f
n1
+ f
n
), donde f
i
= f(x
i
) = y
i
, y h =
ba
n
. En nuestro caso, h = 1 y
tenemos
_
6
0
f(x)dx (5 +4 4 +2 1 +4 1 +2 1 +4 0 +3)/3 = 20/3 = 6, 66666....
Por otra parte, tenemos que
L
6
(x) = 5 +
5
6
x
1
4
x
3
+
7
18
x
4

1
12
x
5
+
1
180
x
6

341
180
x
2
integrando, obtenemos
_
6
0
f(x)dx
_
6
0
L
6
(x)dx = 6, 571428571
Sergio Plaza 215
Ejemplo 73 Considere la siguiente tabla de valores
k x
k
f(x
k
) f

(x
k
)
0 1 5 2
1 2 1 1
2 3 3 4
a) Encuentre la aproximaci on de Hermite H
5
(x) de esos datos. Usando el metodo de Newton,
encuentre una raz de H
5
(x).
b) Usando la regla de los trapecios, y tambien integrando directamente
_
3
1
H
5
(x)dx, calcular
aproximaciones de
_
3
1
f(x)dx.
Solucion
a) Tenemos que
L
2,0
(x) =
(x 2)(x 3)
(1 2)(1 3)
=
x
2
2

5x
2
+ 3
L

2,0
(x) = x
5
2
L
2,1
(x) =
(x 1)(x 3)
(2 1)(2 3)
= x
2
+ 4x 3
L

2,1
(x) = 2x + 4
L
2,2
(x) =
(x 1)(x 2)
(3 1)(3 2)
=
x
2
2

3x
2
+ 1
L

2,2
(x) = x
3
2
Ahora, como H
n,j
(x) = (1 2(x x
j
)L

n,j
(x
j
))(L
n,j
(x))
2
tenemos
H
2,0
( x) = ( 3 x 2 )
_
1
2
x
2

5
2
x + 3
_
2
=
3
4
x
5
8 x
4
+
131
4
x
3

127
2
x
2
+ 57 x 18

H
2,0
(x) = ( x 1 )
_
1
2
x
2

5
2
x + 3
_
2
=
1
4
x
5

11
4
x
4
+
47
4
x
3

97
4
x
2
+ 24 x 9
Sergio Plaza 216
H
2,1
(x) = ( x
2
+ 4 x 3 )
2
= x
4
8x
3
+ 22x
2
24x + 9

H
2,1
( x) = ( x 2 ) ( x
2
+ 4 x 3 )
2
= x
5
10 x
4
+ 38 x
3
68 x
2
+ 57 x 18
H
2,2
( x) = ( x 8 )
_
1
2
x
2

3
2
x + 1
_
2
=
1
4
x
5

7
2
x
4
+
61
4
x
3
29 x
2
+ 25 x 8

H
2,2
( x) = ( 10 3x)
_
1
2
x
2

3
2
x + 1
_
2
=
1
4
x
5

9
4
x
4
+
31
4
x
3

51
4
x
2
+ 10 x 3
Luego el polinomio de Hermite aproximando los datos es
H
5
(x) = x
5

27x
4
2
+ 67x
3

299x
2
+ 145x 45
La transformada de Newton de H
5
(x) es
N( x) = x
45 + 145 x + x
5

299
2
x
2
+ 67 x
3

27
2
x
4
145 + 5 x
4
299 x + 201 x
2
54 x
3
Comenzando la busqueda de la raz con x
0
= 1.6 la convergencia es r apida y el valor
aproximado de la raz es x = 1.71, el correspondiente valor H
5
(1.71) = 0.0026091. Otra
alternativa es comenzar con x
0
= 2.4 obtenemos la raz x = 2.44 , el correspondiente valor
H
5
(2.44) = 0.002691.
b) Calculando
_
3
1
f(x)dx
_
3
1
H
2
(x)dx = 45 x+
145
2
x
2
+
1
6
x
6

299
6
x
3
+
67
4
x
4

27
10
x
5
[
3
1
= 2, 266666667
Por la regla de los trapecios nos queda
_
3
1
f(x)dx
5 1
2
+
1 + 3
2
= 3
Sergio Plaza 217
8.9 Ejercicios
Problema 8.1 Sea f(x) = 1+e
x
sen(4x) . Aproxime el valor de la integral
_
1
0
f(x)dx, usando
1. la regla de los trapecios simple,
2. Regla de Simpson simple,
3. Regla de Simpson (
3
8
) simple
4. Regla de Boole simple.
Compare los resultados obtenidos en cada aproximacion con el resultado exacto de la integral
_
1
0
f(x)dx =
21e 4 cos(4) sen(4)
17e
1.3082506046426 . . .
Problema 8.2 Deduzca la f ormula del punto medio simple para aproximar integrales, la cual
es dada por
_
b
a
f(x)dx (b a) f
_
a +b
2
_
(8.14)
Usando esta formula, deduzca la formula del punto medio compuesta para aproximar el
valor de la integral
_
xn
x0
f(x)dx, usando los nodos x
0
< x
1
< < x
n
, con paso constante
h = x
j+1
x
j
, la cual es dada por
_
xn
x0
f(x)dx = h
n

k=1
f( x
k
)
x
n
x
0
24
h
2
f

() (8.15)
donde x
k
=
x
k1
+x
k
2
y ]x
0
, x
n
[ .
Problema 8.3 Se desea calcular una aproximacion al valor de = 3.1415926535897932384626433832 . . . .
Sabemos que
= 4
_
1
0
1
1 +x
2
dx.
Use la regla de Simpson con n = 10 para obtener una aproximaci on al valor de dado
arriba.
Problema 8.4 Para calcular las integrales
E
n
=
_
1
0
x
n
e
x1
dx, n = 1, 2, . . . ,
podemos usar integraci on por partes
_
1
0
x
n
e
x1
dx = x
n
e
x1

1
0

_
1
0
nx
n1
e
x1
dx
con lo que obtenemos el siguiente algoritmo numerico
E
n
= 1 nE
n1
, n = 2, 3, . . . ,
donde E
1
= 1/e .
Sergio Plaza 218
1. Es este algoritmo convergente?
2. Es numericamente estable?
3. Usando cuadratura gaussiana de la forma
_
b
a
f(x)dx = Af(0) +Bf(1/2) +Cf(1) .
Calcule las constantes A, B y C y aplique la formula para estimar el valor de la integral
E
n
.
4. Cu al valor de la integral es m as exacto (cuadratura o iterativamente)?
Problema 8.5 Si ab > 0 , podemos hacer el cambio de variable y transformar la integral
_
b
a
f(x)dx =
_
1/a
1/b
1
t
2
f(1/t)dt .
Considere la evaluaci on de la integral impropia
N(x) =
_
x

1
2
e
x
2
/2
dx
1. Transforme N(x) usando la expresion anterior para que pueda utilizar la f ormula de
Simpson.
2. Aplique la formula de integraci on de Simpson compuesta con M puntos a cada una de
las integrales obtenidas en la parte (a).
Problema 8.6 Se sabe que
_
3
0
e
x
dx = 19.08553692... . Estime el valor de la integral usando
trapezoide, Simpson y Simpson
_
3
8
_
.
Problema 8.7 Sea f una funci on continua. Use cuadratura de Gauss sobre [1, 1] con 3
nodos para obtener la f ormula
_
1
1
f(x)
5
9
f
_

15
5
_
+
8
9
f(0) +
5
9
f
_

15
5
_
.
Problema 8.8 Deduzca la f ormula de cuadratura gaussiana con 3 modos reescalada al intervalo
[0, 1] , la cual es dada por
_
1
0
f(x)dx
5
18
f
_
5

15
10
_
+
4
9
f
_
1
2
_
+
5
18
f
_
5 +

15
10
_
y use esta para calcular un valor aproximado para
_
1
0
f(x)x
3
dx
Sergio Plaza 219
Problema 8.9 Determine a, b y c tal que la f ormula de cuadratura
Q(f) = af(0) +bf
_
1
2
_
+cf(1)
es exacta para la integral
_
1
0
f(x)x
3
dx
si f(x) es un polinomio de grado menor o igual que 2. Encuentre el error en Q(x
4
) , como una
aproximaci on de
_
1
0
x
7
dx .
Problema 8.10 Determine c
1
, c
2
, c
3
y c
4
tal que la f ormula de cuadratura
Q(f) = c
1
f(0) +c
2
f(1) +c
3
f(3) +c
4
f(4)
es exacta para la integral
_

0
f(x)e
x
dx
si f es un polinomio de grado menor o igual que 3.
Problema 8.11 Obtenga los valores de las constantes c
1
, c
2
, x
1
y x
2
tales que la siguiente
f ormula de integraci on numerica
1
_
1
F(x)dx = c
1
F(x
1
) +c
2
F(x
2
)
sea exacta para todos los polinomios de grado menor o igual a 3. Use dicha formula para
aproximar la integral de la funci on f(x) = (x 3)
5
en el intervalo [2, 4].
Problema 8.12 Queremos aproximar el valor de la integral I(f) =
_
c
0
f(x)dx, donde f(x) =
cos
2
(x)e
x
y c es una constante positiva. Esta integral puedes ser aproximada con error
absoluto menor que > 0 dado, para ellos usamos una f ormula de integraci on numerica.
Fijando = 10
3
, estime la cantidad de intervalos que son necesarios, en terminos de c , si
usamos la regla de los trapecios compuesta para aproximar I(f) .
Problema 8.13 Sea f : [x
0
, x
n
] R una funci on a la cual deseamos aproximar el valor de
_
xn
x0
f(x)dx. Denotemos por I
1
el valor obtenido usando al regla de los trapecios con un paso
constante h
1
e I
2
el valor obtenido usando la regla de los trapecios con paso constante h
2
,
con la condici on h
1
,= h
2
. Dena
I
k
= I
1
+
I
1
I
2
h
2
2
h
2
1
1
Muestre con varios ejemplos que el valor I
k
, llamado extrapolaci on de Richardson, es una
mejor aproximacion que I
1
y que I
2
para la integral.
Sergio Plaza 220
Problema 8.14
Problema 8.15
Problema 8.16
Captulo 9
Soluci on numerica de ecuaciones
diferenciales ordinarias
Problema 1. Encontrar una soluci on al problema de valor inicial (PVI)
_
x

= f(t, x)x(t
0
)
x(t
0
) = x
0
.
(9.1)
Por ejemplo,
_
x

= x tang(t + 3)
x(3) = 1 .
El problema 1 tiene dos partes
(i) Existencia de soluciones,
(ii) Unidad de soluciones.
Para esto se tienen los siguientes teoremas.
Teorema 9.1 Sea R R
2
un rect angulo centrado en (t
0
, x
0
) , digamos
R = (t, x) : [t t
0
[ , [x x
0
[ .
Si f : R R es continua en R, entonces el problema (9.8) tiene una soluci on x(t) para
[t t
0
[ < min, /M donde M = max[f(t, x)[ : (t, x) R
Teorema 9.2 Si f y
f
x
son continuas en
R = (t, x) : [t t
0
[ , [x x
0
[ ,
entonces el problema (9.8) tiene una unica soluci on x(t) para [t t
0
[ min, /M .
221
Sergio Plaza 222
Tambien tenemos el teorema siguiente
Teorema 9.3 Si f es continua en a t b y < x < y satisface
[f(t, x) f(t, x
2
)[ L[x
1
x
2
[
entonces el problema (9.8) tiene una unica soluci on en [a, b]
Observaci on. Si [g(x
1
) g(x
2
)[ L[x
1
x
2
[ , decimos que g es una funci on Lipschitz, y L
es llamada una constante de Lipschitz de g .
Por ejemplo, si g es derivable y g

es acotada en [a, b] entonces, por el teorema del valor


medio, g es Lipschitz.
En lo que sigue suponemos que el problema (9.8) tiene solucion unica. Tenemos entonces el
siguiente problema.
Problema 2. Encontrar una soluci on exacta o una aproximaci on a una soluci on exacta del
problema (9.8).
9.1 Metodo de Euler
DIBUJO
Tenemos la ecuacion diferencial
dx
dt
= f(t, x)
denimos los incrementos
x
i+1
= x
i
+f(t
i
, x
i
)h (metodo de Euler)
Ejemplo. Consideremos el problema de valores iniciales
_

_
dx
dt
= 2t
3
+ 12t
2
20t + 8.5 , 0 t 4
x(0) = 1 .
Sergio Plaza 223
Integrando directamente nos queda
x(t) = 0.5t
4
+ 4t
3
10t
2
+ 8 + 8.5t + 1 .
Tenemos
dx
dt
= f(t, x) = 2t
3
+ 12t
2
20t + 8.5
Luego, x(0.5) = x(0)+f(0, 1)0.5 , donde x(0) = 1 y la pendiente en t = 0 es f(0, 1) = 8.5 .
Luego x
A
= x(0.5) = 1 + 8.5 0.5 = 5.25 y la soluci on exacta en t = 0.5 es x
T
= x(0.5) =
3, 21875. Se deja al lector completar los calculos.
Recordemos que el error es
E(x
A
) = x
T
x
A
en nuestro caso E(x
A
) = 3.21875 5.25 = 2.03125 y el error relativo (porcentaje de error)
E
R
(x
A
) =
x
T
x
A
x
T
=
2.03125
3.21875
= 63.1%.
9.1.1 Analisis del error para el m odulo de Euler
Sea x

(t) =
dx
dt
= f(t, x) como en el problema 9.1.
Usando desarrollo de Taylor alrededor de (t
i
, x
i
) obtenemos
x
i+1
= x
i
+x

i
h +
x

i
2
h
2
+ +
x
(n)
i
n!
h
n
+R
n
donde h = t
i+1
t
i
y R
n
=
x
(n+1)
()
(n + 1)!
h
n+1
, con entre t
i
y t
i+1
. Escrito de otra forma
x
i+1
= x
i
+f(t
i
, x
i
)h +
f

(t
i
, x
i
)
2!
h
2
+ +
f
(n1)
(t
i
, x
i
)
n!
h
n
+O(h
n+1
)
Luego, Error =
f

(t
i
, x
i
)
2
h
2
+ y podemos considerar el error aproximado
E
a
=
f

(t
i
, x
i
)
2
h
2
( error de trancamiento local )
Observaci on. Vimos que
x
i+1
= x
i
+f(t
i
, x
i
)h
. .
metodo de Euler
+
f

(t
i
, x
i
)
2
h
2
+
f

(t
i
, x
i
)
3!
h
3
+
. .
error
Ahora, para estimar el error aproximado hasta el orden 3, tenemos que calcular f

(t
i
, x
i
) .
Sabemos del calculo diferencial que
Sergio Plaza 224
f

(t
i
, x
i
) =
f
t
+
f
x
dx
dt
luego,
f

(t
i
, x
i
) =

t
_
f
t
+
f
x

dx
dt
_
+

x
_
f
t
+
f
x
dx
dt
_
desarrollando esto, se obtiene una expresion larga y no muy c omoda para f

(t, x) .
9.2 Metodo de Heun
DIBUJO
Tenemos
x
i+1
= f(t
i
, x
i
) ,
una extrapolaci on lineal de x
i+1
es dada por
x
0
i+1
= x
i
+f(t
i
, x
i
)h ( ec. predictor)
y una mejora de x
i+1
que permite el calculo de una estimacion de la pendiente es
x
i+1
= f(t
i+1
, x
0
i+1
) .
Luego, podemos considerar la pendiente promedio
x

i
=
x

i
+x

i+1
2
=
f(t
i
, x
i
) +f(t
i+1
, x
0
i+1
)
2
y usaremos esta pendiente para extropolar linealmente desde x
i
a x
i+1
usando el metodo de
Euler, es decir,
x
i+1
= x
i
+
f(t
i
, x
i
) +f(t
i+1
, x
0
i+1
)
2
h ( (ec. corrector))
En resumen, el metodo de Heun nos queda como
Sergio Plaza 225
_

_
x
0
i+1
= x
i
+f(t
i
, x
i
)h (ec. Predictor)
x
i+1
= x
i
+
f(t
i
, x
i
) +f(t
i+1
, x
0
i+1
)
2
h (ec. Corrector)
Escrito de otra forma, nos queda
x
i+1
= x
i
+
f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))
2
h
9.3 Metodo del punto medio o metodo de Euler mejorado
En este caso consideramos
_

_
x
i+1/2
= x
i
+f(t
i
, x
i
)
h
2
t
i+1/2
= t
i
+
h
2
=
t
i
+t
i+1
2
.
DIBUJO
Usaremos ese valor promedio para calcular la pendiente en el punto medio (t
i+1/2
, x
i+1/2
) y
despues extrapolamos a x
i+1
, usando este valor intermedio, es decir, tenemos
x
i+1
= x
i
+ f(t
i+1/2
, x
i+1/2
)
h
2
(Euler mejorado)
esto es,
x
i+1
= x
i
+f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
h
2
.
9.4 Metodos de RungeKutta
Consideramos una forma generalizada para lo anterior, escribiendo
x
i+1
= x
i
+(t
i
, x
i
, h)h,
es decir, depende del incremento h. La funci on es llamada funci on incremento. En
general esta se escribe como
Sergio Plaza 226
= a
1
k
1
+a
2
k
2
+ +a
n
k
n
,
donde a
i
, i = 1, 2, . . . , n, son constantes y
_

_
k
1
= f(t
i
, x
i
)
k
2
= f(t
i
+p
1
h, x
i
+q
1,1
k
1
h)
k
3
= f(t
i
+p
2
h, x
i
+ (q
2,1
k
1
+q
2,2
k
2
)h)
.
.
.
k
n
= f(t
i
+p
n1
h, x
i
+ (q
n1,1
k
1
+q
n1,2
k
2
+ +q
n1,n1
k
n1
)h) .
Note que los k
j
son relaciones de recurrencias.
Problema. Hacer una eleccion razonable para tener relaciones manejables y una buena aprox-
imacion a la soluci on. En esto consiste una de las tecnicas m as conocidas, nos referimos a las
tecnicas de RungeKutta.
9.4.1 RungeKutta de orden 2
En este caso, tenemos
x
i+1
= x
i
+ (a
1
k
1
+a
2
k
2
)h (R-K2,1)
donde
_
k
1
= f(t
i
, x
i
)
k
2
= f(t
i
+p
1
h, x
i
+q
1,1
k
1
h) .
Problema. Encontrar a
1
, a
2
, p
1
y q
1,1
.
Estos se calculan igualando el termino de segundo orden de (R-K2,1) con la expansion de
Taylor de f alrededor del punto (t
i
, x
i
) . De esto se obtienen las ecuaciones
_
a
1
+a
2
= 1
a
2
q
1,1
=
1
2
= a
2
p
1
de donde
_
_
_
a
1
= 1 a
2
p
1
= q
1,1
=
1
2a
2
,
y a
2
lo podemos elegir libremente.
Por ejemplo, considerando a
2
=
1
2
obtenemos a
1
=
1
2
y p
1
= q
1,1
= 1 , y nos queda
x
i+1
= x
i
+ (k
1
+k
2
)
h
2
(metodo de Heun con un solo corrector)
Sergio Plaza 227
donde
_
k
1
= f(t
i
, x
i
)
k
2
= f(t
i
+h, x
i
+k
1
h) ,
es decir,
x
i+1
= x
i
+ (f(t
i
, x
i
) +f(t
i
+h, x
i
+hf(t
i
, x
i
))
h
2
.
Considerando a
2
= 1 nos queda a
1
= 0 y p
1
= q
1,1
= 1/2 , y obtenemos
x
i+1
= x
i
+k
2
h (metodo de punto medio)
= x
i
+f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
donde
_

_
k
1
= f(t
i
, x
i
)
k
2
= f
_
t
i
+
h
2
, x
i
+
1
2
k
1
h
_
.
9.4.2 Metodo de Ralston
Tomando a
2
=
2
3
, obtenemos a
1
=
1
3
, p
1
= q
1,1
=
3
4
, y
x
i+1
= x
i
+
_
1
3
k
1
+
2
3
k
2
_
h
donde
_

_
k
1
= f(t
i
, x
i
)
k
2
= f
_
t
i
+
3
4
h, x
i
+
3
4
k
1
h
_
.
9.4.3 Metodo de RungeKutta de orden 3
Esta vez, consideramos desarrollos de Taylor hasta orden 3. Obtenemos
x
i+1
= x
i
+
1
6
(k
1
+ 4k
2
+k
3
)h (R-K3)
donde
_
_
_
k
1
= f(t
i
, x
i
)
k
2
= f
_
t
i
+
1
2
h, x
i
+
1
2
k
1
h
_
k
3
= f (t
i
+h, x
i
k
1
h + 2k
2
h)
Sergio Plaza 228
9.4.4 Metodo de RungeKuta de orden 4
Esta vez, consideramos desarrollos de Taylor hasta orden 4. Obtenemos
x
i+1
= x
i
+
1
6
(k
1
+ 2k
2
+ 2k
3
+k
4
)h (R-K4)
donde
_

_
k
1
= f(t
i
, x
i
)
k
2
= f
_
t
i
+
h
2
, x
i
+
1
2
k
1
h
_
k
3
= f
_
t
i
+
h
2
, x
i
+
1
2
k
2
h
_
k
4
= f(t
i
+h, x
i
+k
3
h)
9.4.5 Metodo de RungeKuta de orden superior
Considerando dearrollos de Taylor hasta order 6, obtenemos
x
i+1
= x
i
+
1
90
(7k
1
+ 32k
3
+ 12k
4
+ 32k
5
+ 7k
6
)h (R-K6) (metodo de Butcher)
donde
_

_
k
1
= f(t
i
, x
i
)
k
2
= f(t
i
+
1
4
h, x
i
+
1
4
k
1
h)
k
3
= f(t
i
+
1
4
h, x
i
+
1
8
k
1
h +
1
8
k
2
h)
k
4
= f(t
i
+
h
2
, x
i

1
2
k
2
h +k
3
h)
k
5
= f(t
i
+
3
4
h, x
i
+
3
16
k
1
h +
9
16
k
4
h)
k
6
= f(t
i
+h, x
i

3
7
k
1
h +
2
7
k
2
h +
12
7
k
3
h
12
7
k
4
h +
8
7
k
5
h) .
9.5 Metodos multipaso
Consideremos el problema
_
x

= f(t, x) , a t b
x(a) = .
Un metodo multipaso de paso m para resolver este problema de valor inicial es uno cuya
ecuacion de diferencia para obtener x
i+1
en el punto t
i+1
puede representarse por la siguiente
Sergio Plaza 229
ecuacion, donde m es un entero mayor o igual que 1.
x
i+1
= a
m1
x
i
+a
m2
x
i1
+ +a
0
x
i(m1)
+h[b
m
f(t
i+1
, x
i+1
) +b
m1
f(t
i
, x
i
)
+ +b
0
f(t
i(m1)
, x
i(m1)
)] . (9.2)
para i = m1, m, . . . , N1 , donde h =
b a
N
, a
0
, a
1
, . . . , a
m1
y b
0
, b
1
, . . . , b
m
son constantes
y se especican los valores iniciales
x
0
= , x
1
=
1
, x
2
=
2
, . . . , x
m1
=
m1
. (9.3)
Cuando b
m
= 0 , el metodo es explcito, o abierto ya que (9.3) da entonces x
i+1
de manera
explcita en termino de los valores previamente determinados. Cuando b
m
,= 0 el metodo es
implcito o cerrado ya que x
i+1
se encuentra en ambos lados de la ecuaci on.
Por ejemplo, las ecuaciones
_
_
_
x
0
= , x
1
=
1
, x
2
=
2
, x
3
=
3
x
i+1
= x
i
+
h
24
[ 55f(t
i
, x
i
) 59f(t
i1
, x
i1
) + 37f(t
i2
, x
i2
) 9f(t
i3
, x
i3
) ]
(9.4)
donde i = 3, 4, . . . , N 1 denen un metodo explcito de 4 pasos, llamado metodo de Adam-
Bashforth de cuarto orden.
Las ecuaciones
_
_
_
x
0
= , x
1
=
1
, x
2
=
2
x
i+1
= x
i
+
h
24
[ 9f(t
i+1
, x
i+1
) 19f(t
i
, x
i
) 5f(t
i1
, x
i1
) +f(t
i2
, x
i2
) ]
(9.5)
donde i = 2, 3, . . . , N 1 , denen un metodo implcito de 3 pasos llamado metodo de Adam-
Moulton de cuarto orden.
Tanto en (9.4) o (9.5) deben especicarse los valores iniciales, generalmente suponemos que
x
0
= y se generan los valores residuales por un metodo de RungeKutta o por otro metodo
de 1 paso, por ejemplo, por el metodo de punto medio
_
_
_
x
0
=
x
i+1
= x
i
+ hf(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
donde i = 0, 1, . . . , m1 .
o por el metodo de Euler modicado
Sergio Plaza 230
_
_
_
x
0
=
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
x
i
))]
con i = 0, 1, . . . , m1 ,
o por el metodo de Heun
_
_
_
x
0
=
x
i+1
= x
i
+
h
4
[f(t
i
, x
i
) + 3f(t
i
+
2
3
h, x
i
+
2
3
hf(t
i
, x
i
))]
o por el metodo de RungeKutta de orden 4
_

_
x
0
=
k
1
= hf(t
i
+
h
2
, x
i
+
1
2
k
1
)
k
3
= hf(t
i
+
h
2
, x
i
+
1
2
k
2
)
k
4
= hf(t
i+1
, x
i
+k
3
)
x
i+1
= x
i
+
1
6
(k
1
+ 2k
2
+ 2k
3
+k
4
)
donde i = 0, 1 . . . , m1
En el problema (9.8)
_
x

= f(t, x) , a t b
x(a) = .
Si
x
i+1
= a
m1
x
i
+a
m2
x
i1
+ +a
0
x
i(m1)
+h[b
m
f(t
i+1
, x
i+1
) +b
m1
f(t
i
, x
i
) +
+b
0
f(t
i(m1)
, x
i(m1)
)]
es el (i + 1)paso en un metodo de multipaso, entonces el error local de truncamiento en este
paso es dado por

i+1
(h) =
x(t
i+1
) a
m1
x(t
i
) a
0
x(t
i(m1)
)
h
b
m
[f(t
i+1
, x(t
i+1
)) + +b
0
f(t
i(m1)
, x(t
i(m1)
))]
i = m1, m, . . . , N 1 .
Tenemos los siguientes casos particulares.
Sergio Plaza 231
9.5.1 Metodo de AdamsBashforth de dos pasos
x
0
= , x
1
=
1
x
i+1
= x
i
+
h
2
(3f(t
i
, x
i
) f(t
i1
, x
i1
))
i = 1, 2, . . . , N 1 . Su error de truncamiento local es

i+1
(h) =
5
12
x

(
i
)h
2
,
i
]t
i1
, t
i+1
[ .
9.5.2 Metodo de AdamsBashforth de 3 pasos
_
_
_
x
0
= , x
1
=
1
, x
2
=
2
x
i+1
= x
i
+
h
12
[ 23f(t
i
, x
i
) 16f(t
i1
, x
i1
) + 5f(t
i2
, x
i2
) ]
i = 2, 3, . . . , N 1 . Su error de truncamiento local es

i+1
(h) =
3
8
x
(4)
(
i
)h
3
,
i
]t
i2
, t
i+1
[ .
9.5.3 Metodo de AdamsBashforth de 4 pasos
_
_
_
x
0
= , x
1
=
1
, x
2
=
2
, x
3
=
3
x
i+1
= x
i
+
h
24
[ 55f(t
i
, x
i
) 59f(t
i1
, x
i1
) + 37f(t
i2
, x
i2
) 9f(t
i3
, x
i3
)]
i = 3, 4, . . . , N 1 . Su error local de truncamiento es dado por

i+1
(h) =
251
720
x
(5)
(
i
)h
4
,
i
]t
i3
, t
i+1
[ .
9.5.4 Metodo de AdamsBashforth de 5 pasos
_

_
x
0
= , x
1
=
1
, x
2
=
2
, x
3
=
3
, x
4
=
4
x
i+1
= x
i
+
h
720
[1901f(t
i
, x
i
) 2774f(t
i1
, x
i1
) + 2616f(t
i2
, x
i2
) 1274f(t
i3
, x
i3
)
+251f(t
i4
, x
i4
)]
i = 4, 5, . . . , N 1 . Su error local de truncamiento es

i+1
(h) =
95
288
x
(6)
(
i
)h
5
,
i
]t
i4
, t
i+1
[
Los metodos implcitos se derivan usando (t
i+1
, f(t
i+1
, x(t
i+1
))) como un nodo de interpo-
lacion adicional en el cual se usa una aproximaci on de la integral
Sergio Plaza 232
_
ti+1
ti
f(t, x(t))dt ,
la cual se puede aproximar por diferentes metodos, por ejemplo, regla de los trapecios, regla de
Simpson, o regla de Simpson
_
3
8
_
, ... .
9.5.5 Metodo de AdamsMoulton de dos pasos
_
_
_
x
0
= , x
1
=
1
x
i+1
= x
i
+
h
12
[ 5f(t
i+1
, x
i+1
) + 8f(t
i
, x
i
) f(t
i1
, x
i1
) ]
donde i = 1, 2, . . . , N 1 . Su error de truncamiento es dado por

i+1
(h) =
1
24
x
(4)
(
i
)h
3
,
i
]t
i1
, t
i+1
[ .
9.5.6 Metodo de AdamsMoulton de tres pasos
_
_
_
x
0
= , x
1
=
1
, x
2
=
2
x
i+1
= x
i
+
h
24
[9f(t
i+1
, x
i+1
) + 19f(t
i
, x
i
) 5f(t
i1
, x
i1
) +f(t
i2
, x
i2
)]
donde i = 2, 3, . . . , N 1 . Su error local de truncamiento es dado por

i+1
(h) =
19
720
x
(5)
(
i
)h
4
,
i
]t
i2
, t
i+1
[ .
9.6 Sistemas de ecuaciones diferenciales
Un sistema de ecuaciones diferenciales es un sistema del tipo
(S1)
_

_
du
1
dt
= f
1
(t, u
1
, . . . , u
m
)
du
2
dt
= f
2
(t, u
1
, . . . , u
m
)
.
.
.
du
m
dt
= f
m
(t, u
1
, . . . , u
m
)
(9.6)
con a t b y condiciones inicales
(CI1) u
1
(a) =
1
, u
2
(a) =
2
, . . . , u
m
(a) =
m
.
Problema. Encontrar las m funciones u
1
, . . . , u
m
que satisfacen el sistema (S1) .
Sergio Plaza 233
Para resolver este problema, introducimos algunas notaciones. Sea
D = (t, u
1
, . . . , u
m
) : a t b, < u
i
< , i = 1, . . . , m .
Decimos que una funci on f(t, u
1
, . . . , u
m
) satisface una condicion de Lipschtz en D en las
variables u
1
, . . . , u
m
si
[f(t, u
1
, . . . , u
m
) f(t, z
1
, . . . , z
m
)[ L
m

i=1
[u
i
z
i
[ ,
para alguna constante L 0 y (t, u
1
, . . . , u
m
), (t, z
1
, . . . , z
m
) D.
Observemos que si

f
u
i
(t, u
1
, . . . , u
m
)

L
para i = 1, . . . , m y todo (t, u
1
, . . . , u
m
) D. Entonces, por el teorema del valor medio, f
satisface una condici on de Lipschitz en D.
Tenemos el siguiente teorema.
Teorema 9.4 Sea D = (t, u
1
, . . . , u
m
) : a t b, < u
i
< , i = 1, . . . , m y
sean f
i
: D R, i = 1, . . . , m. Supongamos que para cada i = 1, . . . , m la funci on f
i
es
continua en D y satisface una condici on de Lipschitz en D o
f
ui
(t, u
1
, . . . , u
m
) es continua
para i = 1, . . . , m y a t b . Entonces el sistema (9.6) con las condiciones iniciales (9.6)
tiene soluci on unica u
1
(t), . . . , u
m
(t) , a t b .
Para encontrar aproximaciones a las soluciones del sistema (9.6) numericamente, podemos
utilizar, por ejemplo, el metodo de RungeKutta
_

_
x
0
=
k
1
= f(t
i
, x
i
)
k
2
= f
_
t
i
+
h
2
, x
i
+
1
2
k
1
_
k
3
= f
_
t
i
+
h
2
, x
i
+
1
2
k
2
_
k
4
= f(t
1
+h, x
i
+k
3
)
y entonces
x
i+1
= x
i
+
h
6
(k
1
+ 2k
2
+ 2k
3
+k
4
) , i = 0, 1, . . . , N 1
que resuelve numericamente el problema
_
x

(t) = f(t, x) , a t b
x(a) = .
Sergio Plaza 234
Este se generaliza como sigue. Sea N 1 y sea h =
b a
N
. La partici on de [a, b] en N
subintervalos con nodos
t
j
= a +jh, j = 0, 1, . . . , N
es dada.
Usaremos la notacion x
i,j
para denotar una aproximacion a u
i
(t
j
) , j = 0, 1, . . . , N , i =
1, . . . , m, es decir, x
i,j
aproxima la iesima solucion u
i
(t) de (9.6) en el punto t
j
de los
nodos. Usamos la notacion
x
1,0
=
1
, x
2,0
=
2
, . . . , x
m,0
=
m
para las condiciones iniciales.
Si hemos calculado los valores x
1,j
, x
1,j
, x
2,j
, . . . , x
m,j
. Obtenemos x
1,j+1
, x
2,j+1
, . . . , x
m,j+1
como sigue. Calculando primero, para i = 1, . . . , m
_

_
k
1,i
= hf(t
j
, x
1,j
, x
2,j
, . . . , x
m,j
)
k
2,i
= hf
_
t
j
+
h
2
, x
1,j
+
1
2
k
1,1
, x
2,j
+
1
2
k
1,2
, . . . , u
m,j
+
1
2
k
1,m
_
k
3,i
= hf
i
_
t
j
+
h
2
, x
1,j
+
1
2
k
2,1
, x
2,j
+
1
2
k
2,2
, . . . , x
m,j
+
1
2
k
2,m
_
k
4,i
= hf
i
_
t
j
+h, x
1,j
+k
3,1
, x
2,j
+k
3,2
, . . . , x
m,j
+k
3,m
_
hacemos entonces, para , i = 1, . . . , m
x
i,j+1
= x
i,j
+
1
6
(k
1,i
+ 2k
2,i
+ 2k
3,i
+k
4,i
.
Note que antes de determinar los terminos k
2,i
deben calcularse todos los valores k
,1
, k
,2
, . . . , k
,m
.
En general, estos deben calcularse antes que cualquiera de las expresiones k
+1,i
.
9.7 Ecuaciones diferenciales de orden superior
Un problema de valores iniciales
(OS1)
_
x
(m)
(t) = f(t, x, x

, . . . , x
(m1)
) , a t b
x(a) =
1
, x

(a) =
2
, . . . , x
(m1)
(a) =
m
Se transforma en un sistema de ecuaciones diferenciales, como el (9.6) mediante la intro-
duccion de nuevas variables. Sean
Sergio Plaza 235
_

_
u
1
(t) = x(t)
u
2
(t) = x

(t)
.
.
.
u
m
(t) = x
(m1)
(t)
El problema (9.7) se transforma entonces en el siguiente sistema de ecuaciones diferenciales.
_

_
du
1
dt
=
dx
dt
= u
2
du
2
dt
=
dx

dt
= x

= u
3
.
.
.
du
m1
dt
=
dx
dt
(m2)
= x
(m1)
= u
m
du
m
dt
=
dx
dt
(m1)
= x
(m)
= f(t, u
1
, u
2
, . . . , u
m
)
con condiciones iniciales
_

_
u
1
(a) = x(a) =
1
u
2
(a) = x

(a) =
2
.
.
.
u
m
(a) = x
(m1)
(a) =
m
y podemos aplicar lo anterior para resolver este sistema y as obtener la soluci on del problema
(9.7).
9.8 Problemas con valores en la frontera para ecuaciones
diferenciales ordinarias
Problema 1 Resolver el siguiente problema con valores en la frontera
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x(b) = .
(9.7)
Antes de continuar con el problema (9.7), recordemos algunos resultados de ecuaciones
diferenciales.
Teorema 9.5 Supongamos que f es continua en el conjunto D = (t, x, x

) : a t
b , < x < , < x

< y que
f
x
,
f
x

son continuas en D. Si
Sergio Plaza 236
(i)
f
x
(t, x, x

) > 0 para todo (t, x, x

) D, y
(ii) existe una constante M 0 tal que

f
x

(t, x, x

M
para todo (t, x, x

) D.
Entonces el problema (9.7) tiene soluci on unica en D.
Ejemplo. El problema con valores en la frontera
_
_
_
x

+e
tx
+ sen(x

) = 0 , 1 t 2
x(1) = 0
x(2) = 0
tiene solucion unica en D = (t, x, x

) : 1 t 2 , < x < , < x

< .
En efecto, tenemos que f(t, x, x

) = e
tx
sen(x

) es continua. Ahora,
f
x
(t, x, x

) =
te
tx
> 0 en D y

f
x

(t, x, x

= [cos(x

)[ 1 .
Notemos que en el caso particular en que f(t, x, x

) tiene la forma
f(t, x, x

) = p(t)x

+q(t)x +r(t) ,
la ecuacion x

= f(t, x, x

) es llamada lineal. Este tipo de ecuaciones ocurre frecuentemente


en problemas de la Fsica.
Corolario 9.1 Si el problema lineal con valores en la frontera
_
_
_
x

= p(t)x

+q(t)x +r(t) a t b
x(a) =
x(b) =
donde las funciones p(t) , q(t) y r(t) satisfacen
(i) p(t) , q(t) y r(t) son continuas en [a, b] ,
(ii) q(t) > 0 en [a, b] .
Entonces el problema tiene soluci on unica.
9.8.1 Metodo del disparo para el problema lineal
Para aproximar la soluci on unica garantizada bajo las hip otesis del corolario anterior, primero
consideramos los problemas de valores iniciales
Sergio Plaza 237
(PV I, 1)
_
_
_
x

= p(t)x

+q(t)x +r(t) , a t b
x(a) =
x

(a) = 0
y
(PV I, 2)
_
_
_
x

= p(t)x

+q(t)x, a t b
x(a) = 0
x

(a) = 1 .
Bajos las hip otesis del corolario, ambos problemas tienen soluci on unica. Si x
1
(t) denota la
solucon del (PV I, 1) y x
2
(t) denota la soluci on del (PV I, 2), entonces si x(t) = x
1
+ Cx
2
(t)
es una solucion de la ecuaci on x

= p(t)x

+q(t)x + r(t) , la vericaci on de esto es inmediata.


Usando las condiciones de frontera, x(q) = x
1
(a) + Cx
2
(a) = + 0 = y x(b) = x
1
(b) +
Cx
2
(b) = , por lo tanto C =
x1(b)
x2(b)
. En conclusi on, la soluci on buscada es
x(t) = x
1
(t) +
x
1
(b)
x
2
(b)
x
2
(t) , si x
2
(b) ,= 0,
es la soluci on del problema con valores en la frontera que estamos estudiando. En las hip otesis
del Corolario 9.1 no se da el caso problematico de tener x
2
(t) 0 ,
Ejemplo 74
_
_
_
x

=
2t
1+t
2
x

2
1+t
2
x + 1 0 t 4
x(0) = 1.25
x(4) = 0.95
Otra forma para aproximar la soluci on del problema con valores en la frontera
_
_
_
x

+p(t)x

+q(t)x +r(t) = 0 , a t b
x(a) =
x(b) =
es como sigue. Producimos un sistema de ecuaciones de primer orden en el que no gura
explicitamente t , para ello denimos
_
_
_
x
0
= t
x
3
= x

1
x
4
= x

2
,
donde x
1
es la soluci on del (PV I, 3) y x
2
es la soluci on del (PV I, 4) siguientes
(PV I, 3)
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x

(a) = 0
y
Sergio Plaza 238
(PV I, 4)
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x

(a) = 1 .
Obtenemos as el sistema de ecuaciones
_

_
x

0
= 1 x
0
(a) = a
x

1
= x
3
x
1
(a) =
x

2
= x
4
x
2
(a) =
x

3
= f(x
0
, x
1
, x
3
) x
3
(a) = 0
x

4
= f(x
0
, x
2
, x
4
) x
4
(a) = 1
el cual puede resolverse, usando por ejemplo, RungeKutta.
9.9 El metodo del disparo para el problema no lineal de
valores en la frontera
Consideremos el problema de valores en la frontera
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x(b) = .
donde f satisface las hip otesis del Teorema 9.5.
En este caso usamos las soluciones de una sucesion de problemas de valor inicial
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x

(a) = s
donde s es un par ametro. Elegimos s = s
k
de modo que lim
k
x(b, s
k
) = x(b) = , donde
x(t, s
k
) denota la soluci on del problema de valores iniciales asociado en este caso con s = s
k
y
x(t) denota la soluci on del problema de valores de frontera.
Comenzamos con un par ametro s
0
que determina la elevacion inicial con la cual se dispara
al objetivo desde el punto (a, ) a lo largo de la curva descrita por la solucion del problema de
valor inicial
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x

(a) = s
0
.
Si x(b, s
0
) no esta sucientemente cerca de corregimos la elevacion, tomando s
1
, s
2
, . . . , ,
hasta estar sucientemente proximo al blanco.
Sergio Plaza 239
9.9.1 Determinaci on de los parametros s
k
Problema. Determinar s tal que
g(b, s) = x(b, s) = 0
(ecuacion no lineal). Podemos usar, por ejemplo el metodo de la secante, con valores iniciales
s
0
y s
1
,
s
k
= s
k1

g(b, s
k1
)(s
k1
s
k2
)
g(b, s
k1
) g(b, s
k2
)
= s
k1

(x(b, s
k1
) )(s
k1
s
k2
)
x(b, s
k1
) x(b, s
k2
)
, k = 2, 3, . . .
o el metodo de Newton
s
k
= s
k1

x(b, s
k1
)
d
ds
x(b, s
k1
)
aqu el problema es obtener una expresion explicta para
d
ds
x(b, s) .
9.10 Metodo de diferencias nitas para problemas lineales
Consideremos primero el caso lineal
_
_
_
x

= p(t)x

+q(t)x +r(t) , a t b
x(a) =
x(b) =
Dividimos el intervalo [a, b] en N+1 puntos t
i
= a+ih, i = 0, 1, . . . , N+1 , donde h =
ba
N
.
Para i = 1, 2, . . . , N la ecuacion diferencial a aproximar es
x

(t
i
) = p(t
i
)x

(t
i
) +q(t
i
)x(t
i
) +r(t
i
) .
Usando las f ormulas para aproximar derivadas tenemos, por ejemplo,
x

(t
i
) =
1
h
2
(x(t
i+1
) 2x(t
i
) +x(t
i1
))
h
2
12
x
(4)
(
i
) ,
donde
i
]t
i1
, t
i+1
[ (f ormula de las diferencias centradas). Analogamente,
x

(t
i
) =
1
2h
(x(t
i+1
) x(t
i1
))
h
2
6
x

(
i
) ,
donde
i
]t
i1
, t
i+1
[ . Reemplazando, obtenemos
Sergio Plaza 240
x(t
i+1
) 2x(t
i
) +x(t
i1
)
h
2
= p(t
i
)
_
x(t
i+1
) x(t
i1
)
2h
_
+q(t
i
)x(t
i
) +r(t
i
)

h
2
12
(2p(t
i
)x

(
i
) x
(4)
(
i
)) .
Un metodo de diferencias nitas con error de truncamiento de orden O(h
2
) y usando la
notacion w
j
= x(t
j
) , junto con las condiciones de frontera x(a) = y x(b) = , se obtiene
w
0
=
2w
i
w
i+1
w
i1
h
2
+p(t
i
)
w
i+1
w
i1
2h
+q(t
i
)w
i
= r(t
i
)
w
N+1
=
i = 1, 2, . . . , N . Esto se escribe como

_
1 +
h
2
p(t
i
)
_
w
i1
+ (2 +h
2
q(t
i
))w
i

_
1
h
2
p(t
i
)
_
w
i+1
= h
2
r(t
i
)
y el sistema de ecuaciones lineales de orden N N tiene la forma tridiagonal
Aw = b
donde
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2 +h
2
q(t
1
) 1 +
h
2
p(t
1
) 0 0 0
1
h
2
p(t
2
) 2 +h
2
q(t
2
) 1 +
h
2
p(t
2
) 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 +
h
2
p(t
N1
)
0 0 0 1
h
2
p(t
N
)) 2 +h
2
q(t
N
)
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
w =
_
_
_
_
_
_
_
_
_
w
1
w
2
.
.
.
.
.
.
w
N
_
_
_
_
_
_
_
_
_
y b =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
h
2
r(t
1
) +
_
1 +
h
2
p(t
1
)
_
w
0
h
2
r(t
2
)
.
.
.
.
.
.
h
2
t(t
N1
)
h
2
r(t
N
) +
_
1
h
2
p(t
N
)
_
w
N+1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Sergio Plaza 241
El sistema tridiagonal anterior tiene soluci on unica si h <
2
L
, donde L = max[p(t)[ : a
t b .
9.10.1 Caso no lineal
Consideremos el problema no lineal de valores en la frontera
_
_
_
x

= f(t, x, x

) , a t b
x(a) =
x(b) = .
Para garantizar soluciones suponemos que
1.- f ,
f
x
y
f
x

son continuas en D = (t, x, x

) : a t b , < x < , <


x

< .
2.-
f
x
(t, x, x

) en D para alg un > 0 .


3.- Existen
k = max
_

f
x
(t, x, x

: (t, x, x

) D
_
,
L = max
_

f
x

(t, x, x

: (t, x, x

) D
_
.
Como antes, usando formulas para x

(t
i
) y x

(t
i
) , obtenemos
x(t
i+1
) 2x(t
i
) +x(t
i1
)
h
2
= f
_
t
i
, x(t
i
),
x(t
i+1
) x(t
i1
)
2h

h
2
6
x

(
i
)
_
+
h
2
12
x
(4)
(
i
)
donde
i
,
i
]t
i1
, t
i+1
[ .
Poniendo
w
0
=

w
i+1
2w
i
+w
i1
h
2
+f
_
t
i
, w
i
,
w
i+1
w
i1
2h
_
= 0
w
N+1
=
i = 1, 2, . . . , N , obtenemos un sistema de ecuaciones no lineales
Sergio Plaza 242
2w
1
w
2
+h
2
f(t
1
, w
1
,
w
2

2h
) = 0
w
1
+ 2w
2
w
3
+h
2
f(t
2
, w
2
,
w
3
w
1
2h
) = 0
.
.
.
.
.
.
.
.
.
w
N2
+ 2w
N1
w
N
+h
2
f(t
N1
, w
N1
,
w
N
w
N2
2h
) = 0
w
N1
+ 2w
N
+h
2
f(t
N
, w
N
,
w
N1
2h
) = 0
y tiene soluci on unica si y s olo si h < 2/L. Para resolver este sistema podemos usar, por
ejemplo, el metodo de Newton en varias variables.
9.11 Problemas resueltos
Ejemplo 75 Usando los metodos de aproximaci on de soluciones de ecuaciones diferenciales de
Euler, Euler Mejorado, y de RungeKutta, encuentre una soluci on aproximada del problema
_
x

= sen(tx)
x(0) = 3
con h = 0.1 y n = 10.
Solucion. Usando las f ormulas de aproximaci on de Euler, Euler Mejorado, y de RungeKutta,
tenemos la siguiente tabla para los valores de (t
n
, x
n
), los cuales unidos por segmentos de rectas
nos dan la aproximaci on poligonal deseada.
Euler Euler Mejorado RungeKutta
n t
n
x
n
x
n
x
n
0 0 3 3 3
1 0,1 3 3,01494 3,01492
2 0,2 3,02955 3,05884 3,05874
3 0,3 3,08050 3,12859 3,12829
4 0,4 3,16642 3,21812 3,21744
5 0,5 3,26183 3,31761 3,31637
6 0,6 3,36164 3,41368 3,41185
7 0,7 3,45185 3,49163 3,48947
8 0,8 3,51819 3,53946 3,53746
9 0.9 3,55031 3,5514 3,55003
10 1 3,54495 3,52867 3,52803
Sergio Plaza 243
9.12 Ejercicios
Problema 9.1 El metodo de AdamsBashforth de segundo orden para aproximar soluciones
de un problema de valor inicial
_
x

= f(t, x) , a t b
x(a) = x
0
es dado por
x
n+1
= x
n
+h
_
3
2
f(t
n
, x
n
)
1
2
f(t
n1
, x
n1
)
_
n 1 , donde para n = 1 , t
0
= a y t
1
= t
0
+h = a +h y x
1
puede calcularse con cualquier
metodo de 1 paso, por ejemplo, RungeKutta, de de orden 4. Conocidos (t
0
, x
0
) y t
1
, x
1
) ,
calculamos (t
2
, x
2
) , y as sucesivamente usando el metodo de AdamsBashforth. Use lo anterior
para aproximar la soluci on al problema de valor inicial
_
_
_
x

= 2tx +
1
10
2
_
t
0
x(s)ds
x(0) = 1 ,
donde para aproximar la integral del lado derecho se usa la regla de los trapecios.
Problema 9.2 Determine una soluci on aproximada del problema

d
2
x(t)
d
t
2
= e
x(t)
, t ]0, 1[ , x(0) = x(1) = 0
mediante el metodo de elementos nitos.
Problema 9.3 Considere la funci on
f(t) =
_
t
0
_
1 k sen
2
() d
donde k es un par ametro, con 0 k 1 . Usando un problema de valor inicial adecuado
y el metodo de RungeKutta de orden 4, con una subdivisi on del intervalo [0, /2] en 10
subintervalos, encuentre una aproximaci on al valor de la integral.
Problema 9.4 En un estudio de una poblaci on de ratones de campo se encuentra que ella
evoluciona de acuerdo a la siguiente ecuacion diferencial
dN(t)
dt
= AN(t) B(t)N(t)
1.1
N(t) indica la cantidad de inviduos en el tiempo t . Se determina experimentalmente que
A = 2 y se conocen las siguientes mediciones para B(t) (t medido en alguna unidad razonable
de tiempo)
t 0 4 8 12
B 0.70 0.04 0.56 0.70
Sergio Plaza 244
(a) Usando interpolaci on de Lagrange, encuentre una aproximaci on polinomial para B(t) .
(b) Usando la aproximaci on polinomial para B(t) encontrada en la parte (a), encuentre una
aproximaci on en el intervalo [0, 0.6] de la soluci on de la ecuaci on diferencial usando el
metodo de Euler con h = 0.2 y dada la poblaci on inicial de ratones N(0) = 100 .
Problema 9.5 Para resolver el siguiente problema con valor en la frontera:
x

(t) = 4(x(t) t) , 0 t 1
x(0) = 0 , x(1) = 2
se propone usar el metodo de diferencias nitas sobre la malla 0,
1
4
,
1
2
,
3
4
, 1, es decir, el tama no
de paso es h =
1
4
. Se les recuerda que las formulas de diferencias nitas centradas son:
x

(t
i
) =
x(t
i+1
) 2x(t
i
) +x(t
i1
)
h
2
y

(t
i
) =
x(t
i+1
) x(t
i1
)
2h
, x(t
i
) =
i
donde i = 1, 2, 3
(a) Escriba el sistema lineal que se obtiene al aplicar estas f ormulas en la ecuacion diferencial
con valor en la frontera dada anteriormente.
(b) Para resolver dicho sistema se propone usar el metodo iterativo de Gauss-Seidel, escriba
como quedara dicho metodo para el sistema obtenido en la parte (a) y diga si el metodo
converge o no. Justique su respuesta. Partiendo del punto
(0)
= (
(0)
1
,
(0)
2
,
(0)
3
) =
(0, 0, 0), obtenga los puntos
(1)
,
(2)
y
(3)
es decir, las tres primeras iteraciones del
metodo de Gauss-Seidel.
(c) Tomando
(3)
como la soluci on del sistema lineal obtenido en la parte (a), obtenga un
polinomio de interpolaci on de grado 3 que aproxime la soluci on de la ecuaci on diferencial
x(t) en el intervalo [
1
4
,
1
2
].

Indice Alfabetico
An alisis del error en el metodo de la secante,
38
An alisis del error en el metodo de Newton, 28
An alisis del error en el metodo de biseccion, 26
Condiciones de convergencia del metodo de New-
ton multivariable, 35
Condiciones de convergencia en el metodo de
Newton, 32
Error de representacion punto otante, 4
Error en sumas, 16
Error relativo de la representacion punto otante,
4
Error y fuentes de errores, 6
Estabilidad en metodos numericos, 16
Inestabilidad numerica de metodos, 18
Metodo de biseccion, 24
Metodo de la secante, 37
Metodo de Newton, 27
Metodo de Newton en varias variables, 33
Metodos iterativos de punto jo, 39
Metodo de la posici on falsa, 39
Mayor entero positivo representable en forma
exacta, 6
N umero punto otante por corte, 3
N umero punto otante por redondeo, 3
Perdida de dgitos signicativos, 9
Propagaci on de error, 11
Propagaci on de error en evaluaci on de funciones,
14
Punto jo de una funci on, 39
Representacion binaria, 2
Representacion decimal, 1
Representacion en una base > 1, 2
Representacion punto otante de n umeros, 1
Soluciones de ecuaciones no lineales, 24
UnderowOverow, 6
Unidad de redondeo de un computador, 5
245
Referencias
[1] Kendall Atkison, Elementary numerical analysis. John Willey & Sons, Inc. 1985.
[2] Richard L. Burden, J. Douglas Faires, Analisis numerico. (Septima edicion) International
Thomson Editores, 2002.
[3] Steven C. Chapra, Raymond P. Canale, Metodos numericos para ingenieros. McGrawHill,
1999.
[4] Lars Elden, Linde WittmeyerKoch, Hans Bruun Nielsen, Introduction to numerical
computationanalysis and matlab illustrations. Studentlitteratur AB, 2004.
[5] Curtis F. Gerald, Patrick O. Wheatley, Analisis numerico con aplicaciones. (Sexta edici on).
Pearson Educaci on, 2000.
[6] Desmond J. Higham, Nicholas J. Higham, Matlab guide. SIAM, 2000.
[7] David Kincaid, Ward Cheney, Analisis numericos: las matem aticas del calculo cientco.
AddisonWesley Iberoamericana, 1994.
[8] John Mathews, Kurtis D. Fink, Metodos Numericos con MatLab. Prentice Hall, 2003.
[9] Clever B. Moler, Numerical computing with matlab. SIAM, 2004.
[10] Shoichiro Nakamura, Analisis numerico y visualizaci on con Matlab. Pearson Educaci on,
1997.
[11] James M. Ortega, Numerical analysis: a second course. SIAM 1990.
[12] W. Allen Smith, Analisis numerico. PrenticeHall Hispanoamericana S.A., 1988.
[13] J. Stoer, R. Burlirshc, Introduction to numerical analysis. (Third edition). Text in Applied
Mathematics 12, Springer, 2002.
[14] G. W. Stewart, Afternotes on numerical analysis. SIAM, 1996.
[15] G. W. Stewart, Afternotes goes to graduate school: lectures on advanced numerical analysis.
SIAM, 1998.
246

También podría gustarte