Está en la página 1de 251

M

etodos Num
ericos
Sergio Plaza1

Segundo semestre de 2007. Versi on Preliminar en Revisi


on
Si el lector detecta errores, que ciertamente hay muchos,
le agradecere avisarme al e-mail: splaza@lauca.usach.cl

1
Depto. de Matem atica, Facultad de Ciencias, Universidad de Santiago de Chile, Casilla 307Correo
2. Santiago, Chile. email splaza@lauca.usach.cl, Homepage http://lauca2.usach.cl/splaza
Contenidos

1 Teora de Error 1
1.1 Representaci
on punto otante de n
umeros . . . . . . . . . . . . . . . . . . . . . 1
1.2 Corte y redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Precisi
on de la representacion punto otante . . . . . . . . . . . . . . . . 5
1.2.2 Unidad de redondeo de un computador . . . . . . . . . . . . . . . . . . . 5
1.2.3 Mayor entero positivo representable en forma exacta . . . . . . . . . . . . 6
1.2.4 Underowoverow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Denici
on y fuentes de errores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Fuentes de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Perdida de dgitos signicativos . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Propagaci
on de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Propagaci
on de error en evaluaci
on de funciones . . . . . . . . . . . . . . . . . . . 14
1.5 Errores en sumas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Estabilidad en metodos numericos . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Inestabilidad numerica de metodos . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Ecuaciones no Lineales 24
2.1 Metodo de biseccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 An
alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 An
alisis del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Metodo de Newton multivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Metodo de la secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 An
alisis del error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5 Metodo de la posici
on falsa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

i
ii

2.6 Metodos iterativos de punto jo . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.7 Metodos iterativos de punto jo en varias variables . . . . . . . . . . . . . . . . . 48
2.7.1 An
alisis de error para metodos iterativos de punto jo . . . . . . . . . . . 49
2.8 Races m
ultiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.9 Aceleracion de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.10 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.11 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.12 Uso de metodos de integracion para obtener f ormulas iterativas para resolver
ecuaciones no lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.13 Otras f
ormulas iterativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

3 Sistemas de Ecuaciones Lineales 96


3.1 Normas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.1.1 Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.2 N
umero de condici
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Soluci
on de sistemas de ecuaciones lineales: metodos directos . . . . . . . . . . . 104
3.3.1 Conceptos b
asicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.4 Factorizaci
on de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.5 Metodo de eliminaci
on gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.6 Eliminaci
on gaussiana con pivoteo . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.8 Soluci
on de sistemas de ecuaciones lineales: metodos iterativos . . . . . . . . . . 122
3.9 Metodo de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.10 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.11 Metodo de GaussSeidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.12 Metodo SOR (successive overrelaxation) . . . . . . . . . . . . . . . . . . . . . . . 128
3.13 Otra forma de expresar los metodos iterativos para sistemas lineales . . . . . . . 129
3.14 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.15 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

4 Interpolaci
on 153
4.1 Interpolaci
on de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
4.1.1 Aproximaci
on lineal por trozo o de grado 1 . . . . . . . . . . . . . . . . . 153
4.2 Polinomio de Lagrange de grado n . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.4 Metodo de las diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5 C
alculo de diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
iii

4.6 Interpolaci
on de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.7 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

5 Derivadas Num
ericas 183
5.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

6 Spline C
ubicos 189
6.1 Construcci
on de Spline c
ubicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6.2 Otra forma de construir spline c
ubicos naturales . . . . . . . . . . . . . . . . . . 193
6.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

7 Ajuste de Curvas 197


7.1 Ajuste de curvas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.2 Ajuste por rectas: recta de regresion . . . . . . . . . . . . . . . . . . . . . . . . . 198
7.3 Ajuste potencial y = AxM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.4 Ajuste con curvas del tipo y = CeAx , con C > 0 . . . . . . . . . . . . . . . . . . 200
7.5 Metodo no lineal de los mnimos cuadrados para y = CeAx . . . . . . . . . . . . 201
7.6 Combinaciones lineales en mnimos cuadrados . . . . . . . . . . . . . . . . . . . . 202
7.7 Ajuste polonomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

8 Integraci
on Num
erica 205
8.1 Regla de los trapecios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
8.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.3 Regla de Simpson ( 38 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.4 F
ormulas de NewtonCotes cerradas de (n + 1) puntos . . . . . . . . . . . . . . 209
8.5 F
ormulas abiertas de NewtonCotes . . . . . . . . . . . . . . . . . . . . . . . . . 209
8.6 Integraci
on de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.7 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.8 Ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
8.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217

9 Soluci
on num
erica de ecuaciones diferenciales ordinarias 221
9.1 Metodo de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.1.1 An
alisis del error para el m
odulo de Euler . . . . . . . . . . . . . . . . . . 223
9.2 Metodo de Heun . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
9.3 Metodo del punto medio o metodo de Euler mejorado . . . . . . . . . . . . . . . 225
9.4 Metodos de RungeKutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
iv

9.4.1 RungeKutta de orden 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226


9.4.2 Metodo de Ralston . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
9.4.3 Metodo de RungeKutta de orden 3 . . . . . . . . . . . . . . . . . . . . . 227
9.4.4 Metodo de RungeKuta de orden 4 . . . . . . . . . . . . . . . . . . . . . 228
9.4.5 Metodo de RungeKuta de orden superior . . . . . . . . . . . . . . . . . . 228
9.5 Metodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.5.1 Metodo de AdamsBashforth de dos pasos . . . . . . . . . . . . . . . . . 231
9.5.2 Metodo de AdamsBashforth de 3 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.3 Metodo de AdamsBashforth de 4 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.4 Metodo de AdamsBashforth de 5 pasos . . . . . . . . . . . . . . . . . . . 231
9.5.5 Metodo de AdamsMoulton de dos pasos . . . . . . . . . . . . . . . . . . 232
9.5.6 Metodo de AdamsMoulton de tres pasos . . . . . . . . . . . . . . . . . . 232
9.6 Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 232
9.7 Ecuaciones diferenciales de orden superior . . . . . . . . . . . . . . . . . . . . . 234
9.8 Problemas con valores en la frontera para ecuaciones diferenciales ordinarias . . . 235
9.8.1 Metodo del disparo para el problema lineal . . . . . . . . . . . . . . . . . 236
9.9 El metodo del disparo para el problema no lineal de valores en la frontera . . . . 238
9.9.1 Determinacion de los par
ametros sk . . . . . . . . . . . . . . . . . . . . . 239
9.10 Metodo de diferencias nitas para problemas lineales . . . . . . . . . . . . . . . . 239
9.10.1 Caso no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
9.11 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
9.12 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Captulo 1

Teora de Error

1.1 Representaci
on punto flotante de n
umeros
Cada x R , con x = 0 , puede ser representado de modo u
nico en su forma normalizada

x = x 10e (1.1)

donde = 1 es el signo, e Z es el exponente y 0.1  x < 1 es la mantisa de x , es decir,

x = 0.a1 a2 . . . = a1 101 + a2 102 + + ak 10k + .

con a1 = 0 . En lo que sigue, siempre consideramos los n


umeros en su forma normalizada,

Ejemplo 1 1. x = 12.462 = 0.12462 102

2. = 3.14159265 . . . = 0.314159265 . . . 101



3. 3 2 = 1.2599210 . . . = 0.12599210 . . . 101

4. e = 0.27182818 . . . 101

5. ln(2) = 0.6931471 . . . 100

6. x = 0.0000458 = 0.458 104

umero x R , con x = 0 , es basicamente


La representacion decimal punto otante de un n
aquella dada en (1.1), con limitaci
on del n
umero de dgitos en la mantisa x y el tamano del
exponente e .
umero de dgitos de x a 6 y e entre 99 y +99 , decimos que
Si limitamos, por ejemplo, el n
una computadora con tal representaci on tiene una aritmetica decimal de punto otante de 6
dgitos. Como consecuencia de la limitacion del n
umero de dgitos de x , ning
un n
umero puede
tener mas que sus seis primeros dgitos almacenados con precision.
Ahora consideremos un n
umero x en su forma binaria normalizada, podemos escribir

x = x 2e (1.2)

1
Sergio Plaza 2

donde = 1 es el signo, e Z es el exponente, y la mantisa x es un n umero en forma


binaria con (0.1)2  x < 1 , esto es equivalente, en la forma decimal, a 12  x < 1 , es decir,

x = (0.a1 a2 . . .)2 = a1 21 + a2 22 + + ak 2k +

con a1 = 1 y ai = 0 o 1 para i  2 .

Ejemplo 2 Sea x = (1101.10111)2 . Escribiendo este en la forma canonica, tenemos

x = 23 + 22 + 20 + 21 + 23 + 24 + 25
= (21 + 22 + 24 + 25 + 27 + 28 + 29 ) 24 ,

de donde tenemos que = +1, e = 4 = (100)2 y x = (0.110110111)2 .

La representacion punto otante de un n umero binario x consiste basicamente en aquella


dada en (1.2), con una restriccion en el n
umero de dgitos de x y en el tama
no del exponente
e.
Para no estar restrictos a n
umeros en forma decimal o binaria, trabajaremos representaciones
de numeros en una base > 1 , en general, solo consideramos el caso en que es un n umero
entero positivo mayor que 1. Lo que desarrollaremos es completamente analogo a los casos bien
conocidos cuando = 2 (representacion binaria) y = 10 (representacion decimal). Usar
una base > 1 arbitraria nos permite tratar en forma unicada conceptos y propiedades sin
referirnos cada vez a una base determinada.
umero entero > 1 , cada x R , con x = 0 , puede ser representado en la base
Dado un n
de modo u
nico en su forma normalizada como

x = (0.a1 a2 . . . ak . . .) e = (a1 1 + a2 2 + + ak k + ) e (1.3)

donde = 1 es el signo, e Z es el exponente, con a1 = 0 y 0  ai  1 , para todo


i = 1, 2, . . . . La notaci
on x = (0.a1 a2 . . . ak . . .) signica

x = (0.a1 a2 . . . ak . . .)
a1 a2 ak
= + 2 + + k +

= a1 1 + a2 2 + + ak k + .

Veremos en la pr oxima seccion como obtener el n


umero de m
aquina que representa a un
umero real x = 0 .
n

1.2 Corte y redondeo


La mayora de los numeros reales no pueden ser representados de forma exacta en la repre-
sentacion punto otante, y por lo tanto deben ser aproximados por un n
umero representable
en la maquina, de la mejor forma que nos sea posible.
Sergio Plaza 3

Dado x R , denotamos por f l (x) a la representacion de x en la maquina, llamada


comunmente representaci
on punto otante (oat point) de x . Existen principalmente dos
maneras de obtener f l (x) a partir de x , ellas son corte y redondeo, las cuales veremos a
seguir.
umero real x = 0 puede ser representado en forma
Como vimos en las seccion anterior, un n
exacta en una base entera > 1 de la forma siguiente

x = (0.a1 a2 . . . ak ak+1 . . .) e (1.4)

donde, = es el signo, a1 = 0 ( x esta normalizado), y e Z es el exponente.


El problema ahora es decidir c
omo obtener la representacion punto otante, digamos con k
dgitos para un n
umero real.
Supongamos que e Z esta acotado, digamos L  e  U .

Definicion 1.1 Sea x R , x = 0 , con representaci on en una base entera > 1 dada por
(1.4). La representaci
on punto foltante por corte en el dgito k de x es dada por

f l (x) = (0, a1 a2 . . . ak ) e (1.5)

donde L  e  U .

La razon para introducir corte, es que algunas m


aquinas usan corte despues de cada operacion
aritmetica.

Definicion 1.2 Sea x R , x = 0 , con representaci


on en una base entera > 1 dada por
(1.4). La representaci
on punto otante por redondeo en el dgito k de x es dada por



(0.a1 a2 . . . ak ) e , si 0  ak+1 < 2


f l (x) =    (1.6)



(0.a1 a2 . . . ak ) + 0.00 . . . posici
1 e , si
2  ak+1 <
on k

donde L  e  U .

Observaci on. Esta denicion formal no es otra que la que usamos comunmente al redondear
cantidades a diario, por ejemplo al calcular el promedio nal de las notas obtenidas en este
curso.

Ejemplo 3 Los siguiente n


umeros estan representados en forma decimal.

1. Tenemos que = 3.14159265 . . . = 0.314159265 . . .101 . Esta es la representacion exacta


normalizada de en forma decimal. Ahora usando corte en el dgito 4 la representacion
es dada por A = 0.3141 101 , y usando redondeo en el dgito 4 la represenatcion es
dada por A = 0.3142 101 , pues el dgito a5 = 5 .
Sergio Plaza 4

2. Usando corte y redondeo a 3 dgitos para x = 12.462 = 0.12462 102 , tenemos xA =


0.124 102 en su representacion por corte de x , y xA = 0.125 102 en su representacion
por redondeo de x .

3. Usando corte y redondeo a 5 dgitos para x = 22.4622 = 0.224622 102 , tenemos


xA = 0.22462 102 en la representacion por corte y en la representaci
on por redondeo.

umeros reales se tiene que f l (x) = x . Por esta razon introducimos


Para la mayora de los n
el error relativo o porcentaje de error

on 1.3 Sea x R , con x = 0 . El error relativo (o porcentaje de error) de x es dado


Definici
por
x f l (x)
ER (x) = = (1.7)
x

donde

a) k+1   0, (es decir, 0   k+1 ) cuando f l (x) es obtenido por corte


desde x , y

b) 21 k+1   12 k+1 cuando f l (x) es obtenido por redondeo desde x .

Lo anterior puede ser escrito en la forma



a) 0 
xfxl(x)
 k+1 cuando f l (x) es obtenido por corte desde x



k+1
b) 0 
xfxl(x)
 2 cuando f l (x) es obtenido por redondeo desde x .

ormula xfxl(x) = obtenemos que f l (x) = (1 + ) x , donde es dado por a) o por


De la f
b) anteriores, dependiendo del caso. Luego f l (x) puede ser considerado como una peque na
perturbacion relativa de x . La f
ormula (1.7) nos permite tratar los efectos de corte y redondeo
en las operaciones aritmeticas del computador.
Se dene el error de f l(x) respecto a x como

E(f l(x)) = x f l(x)

Notemos que desde la formula b), para redondeo a k dgitos, tenemos que

1 k+1
|E(f l(x))| = |x f l(x)|  |x| ,
2
ahora, como x = x e y |
x| < 1 , obtenemos

1 k+1 1 1
|x f l(x)|  |x| = k+1 |x| e  ek+1 , (1.8)
2 2 2
es decir,
Sergio Plaza 5

1 ek+1
|E(f l(x))| = |x f l(x)|  (1.9)
2

De modo an
alogo, para corte a k dgitos, obtenemos que

|E(f l(x))| = |x f l(x)|  ek+1 (1.10)

1.2.1 Precisi
on de la representaci
on punto flotante
Introduciremos ahora dos medidas que nos daran alguna idea de una posible precisi
on de la
representacion de punto otante en las m
aquinas.

1.2.2 Unidad de redondeo de un computador


La unidad de redondeo de un computador es un n
umero que satisface

1. es un n
umero punto otante positivo, y

2. es el menor n umero punto otante tal que f l (1 + ) > 1 , es decir, si 0 < entonces
f l (1 + 0 ) = 1 .

Luego, para cualquier otro n umero punto otante positivo < , se tiene que f l + 1 = 1 ,
as dentro de la aritmetica del computador 1 + y 1 son iguales. Note que mide el ancho
del cero en una m aquina.
Esto da una medida de cu
antos dgitos de precision son posibles en la representaci
on de un
n
umero. La unidad de redondeo para una m aquina con k dgitos en la mantisa, es dada por


k+1 denici
on por corte de f l (x)
= 1 k+1
2 denici
on por redondeo de f l (x)

Por ejemplo, para una m aquina con aritmetica binaria con k dgitos y redondeo para la
aritmetica tenemos que = 2k (y por corte se tiene que = 2k+1 ) . En efecto, tenemos que

   
1 + 2k = (0.100 . . .)2 + 0.00 . . . 0 1 0 21
on k + 1
posici
2
= (0.10 . . . 010)2 21 (1.11)

Tomando f l 1 + 2k notamos que en la posicion k + 1 de la mantisa existe un 1. Luego

f l 1 + 2k = (0.10...01)2 21

por lo tanto f l 1 + 2k > 1 , y tambien tenemos que f l 1 + 2k = 1 + 2k .
El hecho de que no puede ser menor que 2k se sigue de (1.11). Ahora, si < entonces
1 + tiene un cero en la posicion k + 1 de la mantisa, y por denicion se tiene entonces que

f l 1 + = 1.
Sergio Plaza 6

1.2.3 Mayor entero positivo representable en forma exacta


Una segunda medida de precision posible es dada por el mayor entero positivo M para el cual
se tiene que: para todo entero m con 0  m  M tenemos que f l(m) = m , esto signica que
f l (M + 1) = M + 1 , es decir, M es el mayor entero positivo que es posible de representar en
forma exacta en la aritmetica de maquina que estamos usando.
acil ver que M = k en un computador con aritmetica de k dgitos en la mantisa.
Es f
Observaci on. Los n
umeros M y varan de computador en computador. Todo usuario de
computador debera conocer los n
umeros y M de su maquina, pues ellos representan el ancho
del cero y el mayor entero representable en forma exacta en la maquina, respectivamente, lo
cual da las medidas de precisi
on del computador en uso.

1.2.4 Underflowoverflow
Si una m aquina trabaja con aritmatica de k dgitos. Dado un numero real x R , x = 0 ,
si al representar x en nuestra aritmatica, las cotas L o U para los exponentes son violados,
entonces el numero de maquina asociado a x

k ) e ,
f l (x) = (0.a1 a2 . . . a

k es dado por corte o redondeo, no puede ser representado en tal maquina.


donde el dgito a
Por ejemplo, el menor numero positivo punto otante es xL = (0.10 . . . 0) L = L1 , y
umero positivo punto otante es xU = (0. . . . ) U =
usando la notacion = 1 , el mayor n

1 k U . Luego todo n umero punto otante positivo x , representable en la maquina,
deben satisfacer xL  x  xU .
Si durante las operaciones aritmeticas obtenemos como resultado un valor de x tal que
|x| > |xU | entonces aparecera un error fatal, este error es denominado overow, y los calculos
se detienen. Por otra parte, si 0 < |x| < xL entonces f l (x) = 0 y los calculos continuaran.
Este error se denomina error de underow.

1.3 Definici
on y fuentes de errores
Ahora daremos una clasicacion de la principal manera en la cual el error es introducido en la
soluci
on de un problema, incluyendo algunos que caen fuera del ambito de la matematica.
Al resolver un problema, buscamos una soluci
on exacta o verdadera, la cual denotamos por
xT . Aproximaciones son usualmente hechas en la soluci
on de un problema y como resultado
obtenemos una solucion aproximada xA .

Definici
on 1.4 El error en xA respecto de xT es dado por

E (xA ) = xT xA (1.12)

El error absoluto en xA es dado por EA (xA ) = |E (xA )| .

Para muchos prop ositos es preferible estudiar el porcentaje o error relativo en xA respecto
de xT , el cual es dado por
Sergio Plaza 7

xT xA
ER (xA ) = , xT = 0 (1.13)
xT

Ejemplo. Sea xT = e = 2.7182818 . . . representado en forma exacta y sea xA = 19 7 =


2.71428587 una aproximacion. Tenemos E (xA ) = 0.003996 y el error relativo es ER (xA ) =
0.0147 . . .
Ejemplo. Sean x = 0.3721478693 e y = 0.3720230572 , si consideramos aritmetica de puntos
otantes con 5 dgitos y redondeo, obtenemos

f l (x) = 0.37215
f l (y) = 0.37202
E(f l(x) f l(y)) = f l (x)

f l (y) = 0.00013

|ER (f l(x) f l(y))| =


xy(f l(x)f l(y))
=
0.00012481210.00013
4% .
xy 0.0001248121

Algunas veces usamos el n umero de dgitos signicativos como una forma medir la precision
de la representacion, el cual es calculado como sigue. Dados xT y xA como antes, si


xT xA

|ER (xA )| =

 5 10m1 (1.14)
xT

con m N . Decimos que xA tiene al menos m dgitos signicativos respecto de xT .

1.3.1 Fuentes de error

Cuando resolvemos un problema cientcomatematico, el cual envuelve c alculos computa-


cionales, usualmente aparecen errores relacionados a este proceso, los cuales pueden ser clasi-
cados de la siguiente forma.

E1) Errores de Modelaci on. Ecuaciones matematicas son usadas para representar reali-
dades fsicas, este proceso se denomina modelacion. La modelaci
on introduce errores en
el problema real que se esta tratando de resolver, y caen fuera del alcance del analisis
numerico.
Ilustramos la noci
on anterior con algunos modelos.

1) Modelos poblacionales. Modelos predadorpresa, este es usado para el control de


poblaciones, por ejemplo colonia de bacterias, y son expresados por ecuaciones rela-
cionando el n umero de individuos existentes en cada especie, y se trata de mantener
el equilibrio de modo que no se llegue a la extinci
on de una de las especies, que puede
ser el alimento de la otra.
El crecimiento de la poblacionversus la cantidad de alimento existente y que se
puede producir, tambien entra en esta categora.
2) Modelos de la Fsica. Ecuaciones son usadas para representar realidades, por ejemplo
la velocidad es igual la raz
on de la distancia recorrida por el tiempo empleado para
hacerlo, las leyes de la gravitaci
on, las leyes de la electricidad, etc.
Sergio Plaza 8

3) Modelos de tr ansito en la ciudad. Nos podemos plantear el problema de tr


ansito en
Santiago y los problemas relacionados con este , y nos podemos preguntar si detr
as
de ellos existe un modelo que lo respalde.
4) Modelos de Aerodinamica. Problemas de este tipo son la fabricacion de aviones y
autos que sean aerodin
amicamente bueno.

E2) Desatinos o Equivocaciones. Estos son la segunda fuente de errores, muy familiar,
estan mas relacionados con problemas de programaci on. Para detectar tales errores es im-
portante tener alguna forma de chequear la precision de la salida despues de la ejecucion
del programa, los cuales son llamados programas test y estan basados en resultados cono-
cidos de antemano.
E3) Datos Fsicos. Estos contienen de modo natural errores observacionales. Como estos
contienen errores, calculos basados en ellos tambien los tendr
an. El An
alisis numerico, no
puede remover estos errores pero debe sugerir procedimientos de calculo que minimizan
la propagaci
on de ellos.
Por ejemplo, las ecuaciones de la Fsica solo consideran parte de las variables que inuyen
en un fenomenos, despreciando otras que tienen menor inuencia, por ejemplo las ecua-
ciones de la Fsica escolar, son simplicaciones brutales de la realidad, por otro lado, las
ecuaciones de la Teora de la Relatividad considera variables que a escala peque na no
tienen mayor importancia.
E4) Error de M aquina. Las maquinas naturalmente introducen errores principalmente por
corte y redondeo. Estos errores son inevitables cuando se usa la aritmetica de punto
otante y ellos forman la principal fuente de error en algunos problemas, por ejemplo
soluciones de sistemas de ecuaciones lineales, como veremos en el respectivo captulo,
mostrando que en ejemplos sencillos podemos obtener soluciones absurdas para ecuaciones
simples. Tambien estan los ejemplos de expresiones matematicamente equivalentes, pero
que al trabajar con aritmetica de computador producen resultados diferentes.
E5) Error de Aproximaciones Matem aticas. Estos forman la mayor parte de los errores,
estas provienen del hecho que el computador s olo puede trabajar con una cantidad nita de
numeros, as por ejemplo al calcular el area de un crculo debemos usar el n
umero , pero
la verdad es que usamos solo una aproximaci on de este n umero, por lo tanto el resultado
obtenido no puede ser exacto por esta razon. Otro ejemplo es que cuando trabajamos
con funciones, debemos usar aproximaciones, en general dadas por polinomios de Taylor,
por ejemplo las m aquina para calcular el valor de sen(x) para un dado valor de x usa
tales aproximaciones, lo mismo ocurre cuando eval ua funciones elementales tales como
1 2
cos(x) , ex , etc. Por ejemplo, si deseamos calcular el valor de 0 ex dx tenemos algunos
problemas, pues esta integral no es expresable en terminos de funciones elementales, pero
usando series de Taylor se tiene que
x4 x6
ex = 1 + x2 +
2
+ +
2! 3!
de donde, usando una aproximaci on por un polinomio de Taylor obtenemos una aproxi-
macion para el valor de integral dado por
 1  1 
x2 2 x4 x6 1 1 1
e dx 1+x + + dx = 1 + + + = 1.457142285 . . . .
0 0 2! 3! 3 10 42
1 2
Observaci
on. El valor de la integral 0 ex dx con 20 dgitos es 1.4626517459071816088
Sergio Plaza 9

1.3.2 P
erdida de dgitos significativos
Para comenzar consideremos el problema de la evaluacion de la funci on

f (x) = x x + 1 x

para
valores crecientes de x . Por ejemplo, tenemos f (100) = 100 101 100 , ahora
como
101 100 = 0.0498752 . . . , evaluando f (100) tiene que f (100) = 100 101 100 =
4.987562 . . . .Ahorasi trabajamos con aritmetica de 6 dgitos y redondeo, obtenemos
los siguien-

tes valores: 101 100 = 10.049910 = 0.049900 luego f (100) = 100 101 100 = 4.99
en nuestra aritmetica.

alculo de 101 100 = 0.049900 cuyo valor aproximado es 0.0498756
El c tiene perdida del

signicado del error. Note que tres dgitos de precisionen x + 1 = 101 fueron cancelados

en la resta con los correspondientes dgitos de x = 100 . La perdida de precision fue un
subproducto de la forma de f (x) y la precision de la aritmetica nita usada. Observe que
f (x) puede ser reescrita de la siguiente manera
x
f (x) = x x + 1 x = ,
x+1+ x
esta ultima forma no tiene perdida de signicado de error en su evaluacion, pues
100 100
f (100) = = = 4.98756.
10.0499 + 10 20.0499

Observaci on. Es importante notar que las expresiones x x + 1 x y x+1+ x
x
para
la misma funcion, son matematicamente equivalentes, pero numericamente no lo son, pues la
evaluaci
on de ellas en nuestra aritmetica nos arrojan resultados distintos.
Observaci on. Los programadores deben tener en cuenta esta posibilidad de este error y evitar
este fenomeno de perdida de dgitos signicativos.
La perdida de dgitos signicativos es un subproducto de la resta de n
umeros parecidos. Esto
redunda en inestabilidad en los c alculos numericos.

Ejemplo 4 La ecuacion de segundo grado

x2 18x + 1 = 0

tiene soluciones x1 = 9 + 80 y x2 = 9 80 . Si consideramos 80 con 4 dgitos decimales
correctos, obtenemos

x1 = 69 + 8.9443 0.5 104 = 17.9443 0.5 104

x2 = 9 8.9443 0.5 104 = 0.0557 0.5 104 .

Luego, la aproximacion de x1 tiene 6 dgitos signicativos y x2 tiene solo 3. La cancelaci


on
es evitada reescribiendo

(9 80)(9 + 80) 1 1
x2 = = =
9 + 80 9 + 80 17.9443 0.5 104
1
y entonces x
2 = 17.9443 = 0.055728002 . . . .
Sergio Plaza 10

1cos(x)
Ejemplo 5 Consideremos la funci
on f (x) = x2 . Si usamos desarrollos en series de
Taylor, obtenemos

  
1 x2 x4 x6
f (x) = 1 1 + + R6 (x)
x2 2! 4! 6!
2 4 6
1 x x x
= + cos (x) ,
2! 4! 6! 8!
1
de donde f (0) = 2 , y para |x| < 0.1 , tenemos que

6


x
6

cos (x)
< 10 = 2.5 1011 .

8!
8!
1 2 4
Luego la aproximaci
on f (x) = 2! x4! + x6! , para |x| < 0.1 posee la precision dada arriba.
Esto nos brinda una manera mucho m as facil para evaluar f (x) .

Teorema 1.1 (Perdida de Precision) Si x e y son n umeros representados en la base > 1


en su forma normalizada de punto otante, tales que x > y , con
y
q  1  p .
x
Entonces en la resta x y se pierden a lo m
as q y al menos p dgitos signicativos.

Ejemplo 6 Sea y = x sen(x) . Como sen(x) x para valores peque nos de x , este calculo
tendr
a una perdida de dgitos signicativos C
omo puede evitarse?
on y = x sen(x) resulta del desarrollo en serie de Taylor
Una forma alternativa para la funci
alrededor de x = 0 . Luego,
 
x3 x5 x7 x3 x5 x7
y = x sen(x) = x x + + = + +
3! 5! 7! 3! 5! 7!

como x es proximo de cero, podemos truncar la serie, obteniendo, por ejemplo


x3 x5 x7 x9
y + .
3! 5! 7! 9!
Consideremos el caso sen(x) > 0 , como x > sen(x) = y , utilizando el teorema de Perdida de
Precisi
on, obtenemos que la perdida de dgitos signicativos en la resta dada por y = x sen(x)
puede limitarse a un dgito signicativo si restringuimos x de tal modo que 1 sen(x)x
1
 10 ,
9 sen(x) sen(x) 9
esto es, 10  x , de donde tenemos que x  10 si |x|  1.9 . Para |x| < 1.9 usamos
x10 sen(x)
la representacion en serie de Taylor truncada tomando R10 (x) = 10! , luego
x10 |sen (x) | 1.910
|R10 (x)| = < 0.00017 1.7 104 .
10! 10!
on 1 cos(x) cuando
Ejemplo 7 Cuantos dgitos signicativos se pierden en la sustracci
x = 14 ?

Consideremos f (x) = 1 cos(x) , por lo tanto f 14 = 1 cos 14 = 0.0310875 . Como
on y tenemos que 2q  1
cos(x) < 1 , podemos utilizar el teorema de Perdida de Precisi
1 p
cos 4  2 , con q = 6 y p = 5 . Por lo tanto se pierden a lo m as 6 y a lo menos 5 dgitos
signicativos.
Sergio Plaza 11

Ejemplo 8 Cuantos dgitos signicativos se pierden en una computadora cuando efectuamos


la sustraccion x sen(x) para x = 12 ?

Consideremos f (x) = x sen(x) . Para x = 12 obtenemos f 12 = 12 sen 12 = 0.020574
como x > sen(x) para sen(x) > 0 , tenemos que 2q  1 sen(0.5) 0.5 = 0.020574  2p , de
donde podemos deducir que q = 5 y p = 4 , es decir, se peirden a lo mas 5 y al menos 4 dgitos
signicativos en la resta x sen(x) para x = 1/2 .

1.3.3 Propagaci
on de error

Sea una operaci on aritmetica + , , , / y sea la correspondiente version computa-


cional, la cual incluye, usualmente, redondeo o corte. Sean xA y yA n umeros usados en los
calculos y suponga que ellos ya tienen errores, siendo sus valores verdaderos xT = xA + y
yT = yA + , dicho de otra forma = E(xA ) = xT xA y = E(yA ) = yT yA . Entonces
xA yA es el numero calculado, para el cual el error es dado por

xT yT xA yA = xT yT xA yA + xA yA xA yA (1.15)
     
Error Propagado Error de redondeo o corte

La cantidad xT yT xA yA es llamada error propagado y la cantidad xA yA xA yA


es llamada error de redondeo o corte.
Usualmente para el error de redondeo o corte tenemos que

xA yA = f l (xA yA )

lo cual signica que xA yA es calculado correctamente y luego redondeado o cortado. Por lo


tanto tenemos que
1
| xA yA xA yA |  |xA yA | k+1
2
si usamos redondeo, y

| xA yA xA yA |  |xA yA | k+1

si usamos corte.
Lo anterior nos da el redondeo o corte verdadero usado.
Para el error propagado examinaremos algunos casos particulares.

Caso a. Multiplicaci on. Para el error en xA yA , tenemos xT = xA + y yT = yA + , es


decir, = E(xA ) = xT xA y = E(yA ) = yT yA , por lo tanto

E(xA yA ) = xT yT xA yA
= xT yT (xT ) (yT )
= xT + yT

de donde,
Sergio Plaza 12

E(xA yA ) = xT E(yA ) + yT E(xA ) E(xA )E(yA ) (1.16)

En particular, E(x2A ) = 2xT E(xA ) E(xA )2 .


Para el error relativo, tenemos

xT yT xA yA
ER (xA yA ) =
xT yT

= + ,
yT xT xT yT

es decir,

ER (xA yA ) = ER (xA ) + ER (yA ) ER (xA ) ER (xA ) (1.17)

Observemos que si |ER (yA )| , | ER (xA )| << 1 ( << signica mucho menor que) entonces
ER (xA yA ) ER (xA ) + ER (yA ) .

Caso b. Divisi
on.

 
xA ER (xA ) ER (yA )
ER = (1.18)
yA 1 ER (yA )

 
Si | ER (yA )| << 1 se tiene que ER xA
yA ER (xA ) ER (yA ) .
Observacion. Para las operaciones de multiplicaci
on y divisi
on, los errores relativos no se
propagan r
apidamente.

Caso c. Adici
on y sustracci
on.

E(xA yA ) = (xT yT ) (xA yA )


= (xT xA ) (yT yA ) = ,

por lo tanto

E (xA yA ) = E (xA ) E (yA ) (1.19)

Esto parece ser bastante bueno y razonable, pero puede ser enga
noso. El error relativo en
xA yA puede ser bastante pobre cuando es comparado con ER (xA ) y ER (yA ) .

22
Ejemplo 9 Consideremos xT = , xA = 3.1416 , yT = 7 , e yA = 3.1429 . Tenemos
Sergio Plaza 13

E(xA ) = xT xA 7.35 106 , ER (xA ) = 2.34 106

E(yA ) = yT yA 4.29 105 , ER (yA ) = 1.36 105

E(xA yA ) = (xT yT ) (xA yA ) 0.0012645 (0.0013) 3.55 105

Aunque el error en xA yA es peque


no, el error relativo en xA yA es mucho mayor que
en xA e yA .

Ejemplo 10 Sea xA = 3.0015 = 0.30015101 correctamente redondeado al n umero de dgitos


2
nalados. Considere las expresiones matematicamente equivalentes u(x) = (3 x) , v(x) =
se
(3 x) (3 x) y w(x) = (x 6) x + 9 .
Si utilizamos en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos que valores numericos se obtendran?
Es facil realizar los calculos numericos con una maquina, por lo tanto se dejan a cargo del
lector.
Estudiemos la propagaci
on del error absoluto en cada una de las expresiones correspondientes,
determinando cotas para los valores absolutos de cada uno de los errores respectivos.
k+1 k+1 k+1
Sabemos que 2  xTxx
T
A
 2 , de donde |xT xA |  2 |xT | . Ahora, si
escribimos xT en su forma normalizada, es decir, xT = xT 10e , donde 0.1  xT < 1 ,
k+1
obtenemos que E (xA ) = |xT xA |  10 2 | xT | 10e , aqu k = 5 y e = 1 , por lo tanto
3 3 3
E (xA ) = |xT xA |  102 , de donde 102 +xA  xT  102 +xA luego 3.001  xT  3.002 ,
por lo tanto



|E (uA )| =
E (3 xA )2
= |E ((3 xA ) (3 xA ))| =
2 (3 xT ) E (3 xA ) (E (3 xA ))2

 2 |3 xT | |E (3 xA )| +
E (3 xA )2
 2 0.002 |E (xA )| + |E (xA )|2

 2
103 103
 2 0.002 2 + 2 = 0.225 105 .

Observaci
on. Desde la denici
on del error se tiene que E (xA + c) = E (xA ) .
Falta analizar para vA . Este se deja a cargo del lector.
Tenemos nalmente que

|E (wA )| = |E ((xA 6) xA + 9)| = |E ((xA 6) xA )|

= |(xT 6) E (xA ) + xT E (xA 6) E (xA ) E (xA 6)|

2
 |xT 6| |E (xA )| + |xT | |E (xA )| + |E (xA )|

1
1 2
 2.999 2 103 + 3.002 21 103 + 2 103 = 0.00300075.
Sergio Plaza 14

1.4 Propagaci
on de error en evaluaci
on de funciones
Sea f (x) una funci
on, la cual suponemos derivable, con derivada continua. Sea xA un valor
aproximado de xT Como aproxima f (xA ) a f (xT ) ?
Usando el Teorema del Valor Medio, tenemos

f (xT ) f (xA ) = f  (c) (xT xA )

donde c entre xA y xT . Como en general, xA y xT son bastante pr


oximos, tenemos que

f (xT ) f (xA ) f  (xT ) (xT xA )


f  (xA ) (xT xA ) ,

luego,

E(f (xA )) f  (xA )E(xA ) (1.20)

Tenemos ademas que

|E(f (xA ))|  |E(xA )| max{ |f  (x)| : x entre xT y xA } (1.21)

Para el error relativo tenemos la f


ormula

f  (xT ) f  (xT )
ER (f (xA )) (xT xA ) xT ER (xA ) (1.22)
f (xT ) f (xT )


(x)
umero (x) = ff (x)
El n x es llamado el n on de f (x) . Si | limxxT (x)| =
umero de condici
+ , decimos que la evaluacion de f para x xT es numericamente inestable. Caso contrario,
decimos que la evaluacion de f para x xT es estable.
Notemos que si min{f (x) : x entre xT y xA } = 0 , entonces

max{ |f  (x)| : x entre xT y xA }


|ER (xA )|  max{|x| : x entre xT y xA } |ER (xA )| .
min{ |f (x)| : x entre xT y xA }

Como antes podemos escribir,

f (xT ) f(xA ) = (f (xT ) f (xA )) + (f (xA ) f(xA )),

donde f (xT ) f (xA ) es el error propagado y f (xA ) f(xA ) es el error de la evaluaci


on de
f (x) en el computador.

Ejemplo 11 Consideremos f (x) = tan(x) . Para x0 = /2 tomamos aproximaciones x1 =


2 0.00001 y x2 = 2 0.000001 . Evaluando, nos queda y1 = tan(x1 ) = 100.000 e y2 =

tan(x2 ) = 1.000.000 , luego y2 y1 = 900.000 mientras que x2 x1 = 9 106 .


Sergio Plaza 15

sen(
3 +x)sen( 3 x)
Ejemplo 12 Considere la funci
on f (x) = 2x .
on es numericamente estable la evaluacion de f (x) para x 0 .
Veamos si esta funci
Primero un argumento teorico de resta de numeros parecidos nos muestra que f (x) es
numericamente inestable en su evaluacion para x 0 . Vemos si hay perdida de dgitos
signicativos evaluando f (x) para x = 10n con n = 1, 2, . . . , 13 . Tenemos la siguiente
tabla

xn f (x)
1
x1 = 10 0.017450368
1
x2 = 102 0.017450377
1
x3 = 103 0.017450377
1
x4 = 104 0.017450377
1
x5 = 105 0.01745038
1
x6 = 106 0 0.0174504
1
x7 = 107 0.0174505
1
x8 = 108 0.01745
1
x9 = 109 0.0174

Observe que el error entre las cantidades x8 y x9 , lo cual denotamos por E (x8 , x9 ) , es
E (x8 , x9 ) = |0.01745 0.0174| = 0.00005 , como el error es un valor grande tenemos inestabili-
dad numerica. Recuerde que en n umeros de partida pr oximos se debe tener imagenes pr
oximas.
Determinemos ahora un polinomio de grado mayor o igual a uno, que aproxime a f (x) y
que sea numericamente estable para x 0 . Desarrollando, obtenemos la expresion siguiente
para f ,


sen( 3 ) cos(x) + sen(x) cos( 3 ) sen( 3 ) cos(x) + sen(x) cos 3 3 sen(x)
f (x) = = .
2x 2 x

3 5 7

 que sen(x) = x 3! + 5! 7! + ,
x x x
Ahora, desarrollando sen(x) en serie de Taylor tenemos

3 sen(x) 3 x2 x4 x6
luego f (x) = 2 = 2 1 3! + 5! 7! + . Consideramos la siguiente aproxi-
 
x

macion polinomial p(x) = 23 sen(x)
x 2
3
1 x2
6 para f , y vemos que en ella no existe
resta de n
umeros parecidos luego es estable. Por otra parte, si calculamos el n
umero condicion
obtenemos para nuestra aproximaci on polinomial, tenemos


p (x) x x3 2x2
(x) = x = =
p (x) 1 x6
2
6 x2


(x)
y para valores x 0 se tiene que x pp(x) 0 , de donde concluimos que nuestra aproximacion
es numericamente estable.
Sergio Plaza 16

1.5 Errores en sumas



n
Veamos como se propaga el error en sumas repetidas. Sea S = a1 + a2 + + an = aj ,
j=1
donde cada aj es un n
umero punto otante, para sumar estos valores en la maquina se necesitan
n 1 sumas, cada una de las cuales, envuelve errores de redondeo o corte. Mas precisamente,
denimos
S2 = f l (a1 + a2 )

on punto otante de a1 + a2 . Enseguida, denimos


la versi

S3 = f l (a3 + S2 )
S4 = f l (a4 + S3 )
..
.
Sn = f l (an + Sn1 )

Sn es la version punto otante de S . Tenemos

S2 = (a1 + a2 ) (1 + 2 )
S3 = (a3 + S2 ) (1 + 3 )
..
.
Sn = (an + Sn1 ) (1 + n ) .

Los termino en la expresion anterior pueden ser combinados, manipulados y estimados, obte-
niendo lo siguiente

S Sn = a1 (2 + + n )
a2 (2 + + n )
a3 (3 + + n )
..
.
an n

observando esta f ormula y tratando de minimizar el error total de S Sn , la siguiente puede


ser una estrategia razonable: ordenar los terminos a1 , a2 , . . . , an antes de sumarlos de tal
modo que 0  |a1 |  |a2 |  |a3 |   |an | . De esa manera los terminos del lado derecho
umero de j son multiplicados por los menores valores de
de la expresion arriba con el mayor n
aj . Luego esto minimiza S Sn sin costos adicionales en la mayora de los casos.

1.6 Estabilidad en m
etodos num
ericos
Muchos problemas matematicos tienen soluciones que son bastante sensitivas a peque nos errores
computacionales, por ejemplo errores de redondeo. Para tratar con este fen omeno, introducire-
mos los conceptos de estabilidad y n umero condici
on. El numero condici on de un problema
esta relacionado al maximo de precision que puede ser obtenido en su solucion cuando usamos
Sergio Plaza 17

n
umeros de longitud nita y aritmetica de computador. Estos conceptos son entonces exten-
didos a metodos numericos usados para calcular la solucion. En general, queremos que los
metodos numericos usados no tengan sensibilidad a peque
nos errores mas all
a de los originados
en el problema matematico mismo.
Para simplicar, supongamos que nuestro problema viene dado por

F (x, y) = 0. (1.23)

La variable x es la inc
ognita buscada y la variable y son los datos de los cuales depende
la soluci
on. Por ejemplo F puede ser una funci on real de dos variables, o x puede ser una
variable real e y puede ser un vector, puede ser una ecuacion diferencial o integral o funcional,
etc.
Diremos que el problema (1.23) es estable si la solucion x depende continuamente de la vari-
able y , esto signica que si (yn )nN es una sucesion de valores aproxim
andose a y , entonces
los valores solucion asociados (xn )nN deben aproximarse a x de la misma forma. Equivalen-
temente si hacemos peque nos cambios en y esos deben corresponder a peque nos cambios en
x . El sentido en el cual los cambios son peque nos depende de la norma que se este usando en
x e y , respectivamente, existen varias elecciones posibles, variando de problema en problema.
Problemas estables son tambien llamados well-posed problems. Si un problema no es estable,
este es llamado inestable o ill-posed problem.

Ejemplo 13 Considere el sistema de ecuaciones lineales

x + 2y = 3
0.5x + 1.000001y = 1.5

Multiplicando la primera ecuaci


on por 0.5 y restando las ecuaciones, obtenemos y = 0 , de
donde x = 3 .
Consideremos ahora el sistema proximo

x + 2y = 3
0.4999999x + 1.000001y = 1.5

Multiplicando la primera ecuacion por 0.4999999 y restando las ecuaciones, obtenemos


1.2 106 y = 3 107 , de donde y = 0.25 y x = 3 2y = 2.5 , soluciones que no
son pr
oximas, a
un cuando los coecientes de las ecuaciones en ambos problemas son proximos,
de hecho, 0.5 0.4999999 = 107 y las soluciones varian del orden de 0.25.

Ejemplo 14 Consideremos la soluci


on de

ax2 + bx + c = 0, a = 0

cualquier soluci
on es un n umero complejo, los datos de este caso son y = (a, b, c) vector de los
coecientes y la solucion esta dado por

b b2 4ac
x=
2a
Sergio Plaza 18

la cual vara continuamente con y = (a, b, c) .

Si el problema es inestable, entonces existen serias dicultades al tratar de resolverlo. Usual-


mente no es posible resolver tales problemas sin primero tratar de entender mas acerca de las
propiedades de la solucion, usualmente retornando al contexto en el cual el problema matematico
fue formulado. Esto nos lleva a otras areas de investigacion en Matematica Aplicada y An alisis
Numerico.
Para propositos pr
acticos existen muchos problemas que son estables en el sentido anterior,
pero que contin
uan fastidiosos con respecto de los c
alculos numericos. Para tratar esta dicultad
introducimos una medida de la estabilidad, llamada n umero condici on.
El n
umero condicion trata de medir los posibles malos efectos sobre la soluci
on x del problema
cuando la variable y es perturbada en una cantidad peque na. Sea y + y una perturbaci on de
y , y sea x + x la soluci
on de la ecuaci
on perturbada

F (x + x , y + y ) = 0.

Denimos

x 
x
(x) = sup y 
(1.24)
y
y

donde   es una norma en el espacio adecuado.


Problemas que son inestables nos llevan a lim (x) = . El n
umero (x) es llamado
x0
n
umero de condicion del problema F (x, y) = 0 . Este es una medida de la sensibilidad de la
soluci
on a peque
nos cambios de la data y .
Si (x) es bastante grande entonces existen cambios pequenos y relativos a y que llevan
a grandes cambios relativos a x . Pero si (x) es peque no, digamos (x)  C , con C
una constante razonable dependiendo del problema, por ejemplo, entonces cambios relativos
en y siempre llevan cambios peque nos relativos en x . Como calculos numericos casi siempre
envuelven una variedad de peque nos errores computacionales, no deseamos problemas con un
n
umero condicion grande. Tales problemas son llamados ill-condicioned problem.

Ejemplo 15 Considere el problema xay = 0 , donde a > 0 . Perturbando y por y tenemos


ay+y ay
x
x = ay = ay 1 . Por lo tanto




x

a y 1

(x) = sup

= sup
y
x
.
y
y
y y

no, obtenemos que (x) |y log (a)| .


Restringiendo y a valores peque

1.7 Inestabilidad num


erica de m
etodos
Definicion 1.5 Decimos que un proceso numerico es inestable si peque
nos errores que se pro-
ducen en alguna etapa se agrandan en etapas posteriores degradando seriamente la exactitud
del c
alculo en su conjunto.
Sergio Plaza 19

Ejemplo 16 Consideremos la siguiente sucesion





1

x0 = 1, x1 = 3



xn+1 = 13 xn 4 xn1 , n  1.
3 3
n+1
on xn+1 = 13
Observe que la sucesion es equivalente a la sucesi y que xn > 0 para todo
n N . Es claro de esta u ltima expresion que lim xn = 0 , mientras que en la evaluacion
n
numerica de xn aparecen valores negativos, (que los alumnos hagan la tabla para la primera
n+1
ormula dada inicialmente). La prueba de xn+1 = 13
expresion de xn , es decir, la f , es facil
y se hace por inducci on.

1.8 Ejemplos resueltos



1x2 3 1x2
Ejemplo 17 Considere la funci
on denida por f (x) = x2 .

1. Se produce inestabilidad numerica al evaluar f (x) en valores de x 0 ?

2. Determine una expresion algebraica, matem aticamente equivalente a f (x) , la cual sea
estable numericamente para valores de x 0 .

3. Determine una aproximaci on polinomial de grado mayor o igual a tres para f (x) en el
intervalo |x| < 0.5 , la cual sea numericamente estable.

Soluci
on. Para ver si existe inestabilidad numerica en la evaluacion de f (x) para x 0
puede usarse una tabla de valores o argumentar la existencia de resta de n
umeros parecidos.
Para la segunda parte, tenemos

1x2 3 1x2 3
f (x) = x 2 = 1 1x2
x2 + 1 1x2
x2


3

3
3 1+ 1x2 + (1x2 )2
1 x1x 1+1x2 1 1x2
2
= 2
1+ 1x2
+ x2
3 3
1+ 1x2 + (1x2 )2

= 1 +
1
1+ 1x2 1+ 3
1x2 + 3 (1x2 )2

Finalmente, para encontrar una paroximaci


on que sea numericamente estable para f (x) ,
sean  
F (x) = 1 x2 , G(x) = 1 x2
3

por lo tanto se tiene si desarrollamos va Taylor que


x2 x4 x6
F (x) 1 2 8 16

x2 x4 2x6
G (x) 1 3 9 9

por lo tanto
x2 x4 x6 x2 x4 2x6
1 1+ + + 1 1 49 4
f (x) 2 8 16 3 9 9
= x2 x
x2 6 72 1296
Sergio Plaza 20

Ejemplo 18 Considere xA = 1.00011 redondeado al n umero de dgitos que se se


nala. Considere
las expresiones matematicamente equivalentes u = (x 1) (x 2) y v = x (x 3) + 2.

1. Usando el Teorema del Valor Medio, estudie la propagacion del error para u y v.

2. Determine buenas cotas para ER (uA ) y para ER (vA ) .

Soluci
on. Sea xT el valor exacto y xA una aproximacion de xT .
Denamos f (x) = (x 1) (x 2), as f  (x) = 2x 3, luego
|f (xT ) f (xA )| = |f  (c)| |xT xA | , con c entre xT y xA . Si xA xT entonces

|f (xT ) f (xA )| |f  (xA )| |xT xA | = 0.099978 |E (xA )|  4.9989 105

a redondeado a 6 dgitos, entonces se tiene que |E (xA )|  0.5


ya que xA = 1.00011 est
6+1+1 4
10 = 0.5 10 .
Denamos g (x) = x (x 3) + 2, de donde se tiene que g  (x) = 2x 3. Luego

|g (xT ) g (xA )| |g  (xA )| |xT xA |

= 0.99978 |EA (xA )|  0.99978 0.5 104 = 4.9989 105

Para el error relativo, tenemos

|uT uA | 4.9989 105


ER (uA ) = 
|uT | |xT 1| |xT 2|

Por otro lado sabemos que |E (xA )|  0.5 106+1+1 = 0.5 104 por lo tanto

0.5 104 + 1.00011  xT  0.5 104 + 1.00011

0.00006  xT 1  0.00016 y 0.99994  xT 2  0.99984

de donde se deduce que

1 1 1 1
  16666.67 y   1.0001600256 .
|xT 1| 0.00006 |xT 2| 0.99984
por lo tanto

|uT uA |
ER (uA ) =  4.9989 105 (16666.67) (1.0001600256)  0.8323283325329
|uT |

1.9 Ejercicios
Problema 1.1 La ecuacion de segundo grado ax2 + bx + c = 0 se resuelve usualmente por
las f
ormulas
b + b2 4ac b b2 4ac
x1 = , x2 = .
2a 2a
Sergio Plaza 21

Pruebe que una soluci


on alternativa viene dada por

2c 2c
x1 = , x2 = .
2
b b 4ac b + b2 4ac
Escriba un programa en MatLab que resuelva las ecuaciones de segundo grado de las dos
maneras indicadas. Ejecute el programa cuando
(i) a = 1.0 , b = 5.0 , c = 6.0 , (ii) a = 1.0 , b = 12345678.03 , c = 0.92 .

Problema 1.2 Usando MatLab calcule x + y + z de las dos formas matematicamente equiva-
lentes, x+ (y + z) y (x+ y)+ z cuando (i) x = 1.0 , y = 5.0 , z = 6.0 , (ii) x = 1 1020 ,
y = 1 1020 , z = 1.0 . Explique los resultados obtenidos.

Problema 1.3 Con MatLab, usando el formato largo, calcule h = 1/3333 . Enseguida sume
3333 veces la cnatidad obtenida. Tambien multiplique dicha cantidad por 3333. Explique los
resultados obtenidos.

tan 4 + x tan 4 x
Problema 1.4 Considere la funci
on h (x) =
2x

1. Es numericamente estable la evaluacion de h(x) para x 0 ? Justique su respuesta.

2. Determine una expresion matematicamente equivalente a h(x) que sea numericamente


estable en su evaluacion para x 0 .

3. Usando desarrollos de Taylor, determine un polinomio de grado mayor o igual que 4, que
aproxime a h(x) y que sea numericamente estable en su evaluacion para x 0 .

Problema 1.5 Considere las expresiones matem aticamente equivalente u(x, y) = (x + y)2
(x y)2 y v(x, y) = 4xy . Sabiendo que xA = 1.214301 e yA = 0.24578 est an correctamente
redondeados al numero de dgitos se nalados, estudie la propagaci
on del error absoluto (valor
absoluto del error) en la evaluacion de u y de v , determinando una buena cota Cu al de ellas
tiene menor propagacion del error?

Problema 1.6 Considere la ecuacionc ubica x3 31x 31x


1 = 0(3)
. Al calcular las races de
(1) (2)
esta ecuacion obtenemos rT = 15 + 224 , rT = 15 168 , y rT = 1 . Suponga que usa
(1) (2) (3)
aritmetica de redondeo a 5 dgitos y denote por rA , rA , y rA las soluciones aproximadas
obtenidas para la ecuaci
on.

1. Calcule el error absoluto y el error relativo (en valor absoluto) en las soluciones apro-
ximadas.

2. Una de ellas tiene perdida del dgitos signicativos. Proponga una expresion algebraica
matematicamente equivalente para evitar la perdida de dgitos signicativos en ese caso.
Justique la respuesta calculando el nuevo error relativo (en valor absoluto).

Problema 1.7 Sea w(x, y) = (x y)(x2 + xy + y 2 ) , con xA = 1.2354 e yA = 3.001 , n


umero
redondeado correctamente al n
umero de dgitos se
nalados, determine una buena cota para
|E(xA , yA )| .
Sergio Plaza 22

sen(x) x
Problema 1.8 Sea f (x) = .
x

on de f (x) para x 0 .
1. Analice la estabilidad numerica en la evaluaci

2. Encuentre una aproximaci on polinomial de grado mayor o igual que 3 para f (x) y que
sea estable numericamente para la evaluacion cuando x 0 .

on denida por f (x) = 100x .


Problema 1.9 Considere la funci

1. Estudie la estabilidad numerica en la evaluaci


on de f (x) de acuerdo a los valores de
x R.

2. Si xA = 1000.01 es un n
umero redondeado correctamente al n
umero de dgitos se
nalados,
determine una buena cota para |E(f (xA ))|,.

aticamente equivalentes: u = (x 1)3 y


Problema 1.10 Considere las expresiones matem
v = 1 + x(3 + x(3 + x))

1. Estudie la propagaci
on del error absoluto en las expresiones u y v .

2. Que puede decir acerca de la presicion que se puede obtener para u y v , para un deter-
minado valor de x ?

Problema 1.11 Sea xA = 2.0015 , redondeado al n umero de dgitos se


nalados. Considere las
expresiones matematicamente equivalentes: u = (x4)2 , v = (x4)(x4) , w = (x8)x+16 .

1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos, que valores numericos se obtendran en cada
una de las expresiones?

2. Estudie la propagaci
on del error (absoluto) en cada una de las expresiones correspondientes,
determinando buenas cotas para los valores absolutos de cada uno de los errores respec-
tivos.

on de f (xA ) para xA 0 ,
Problema 1.12 Analice la estabilidad numerica en la evaluaci
donde
ex 1
f (x) = .
sen(x)

Problema 1.13 Sean xA = 1.0005 e yA = 0.999092 , redondeados correctamente al n umero


nalados. Considere las expresiones matematicamente equivalentes: u = x3 + y 3 y
de dgitos se
w = (x + y)(x2 xy + y 2 ) .

1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c
alculo, que valores numericos
se obtendran en cada una de las expresiones?

2. Estudie la propagacion del error (absoluto) en la expresi


on u , determinando una buena
cota para el valor absoluto del error (usando xA ).
Sergio Plaza 23

e2x 1
Problema 1.14 Considere la funci
on f (x) = .
2xex

i) Es numericamente estable la evaluacion de f (x) para x 0 ? Justique brevemente y


alternativamente evaluando f (x) , para x = 10n con n = 1, . . . , 13 .

ii) Determine un polinomio de grado mayor o igual que 3, que aproxime a f (x) y que sea
estable numericamente para x 0 .

Problema 1.15 Sea xA = 1.0015 , redondeado correctamente al n umero de dgitos se


nalados.
aticamente equivalentes: u = (x1)3 y w = ((x3)x+3)x1 .
Considere las expresiones matem

1. Si utiliza en la evaluaci
on de cada una de las expresiones anteriores un computador con
aritmetica decimal de redondeo a 4 dgitos en cada etapa del c
alculo, que valores numericos
se obtendran en cada una de las expresiones?

2. Estudie la propagacion del error (absoluto) en la expresi


on u , determinando una buena
cota para el valor absoluto del error (usando xA ).

cos(/3 + x) cos(/3 x)
Problema 1.16 Considere la funci
on f (x) = .
2x

i) Es numericamente estable la evaluacion de f (x) para x 0 ? Justique brevemente y


alternativamente evaluando f (x) , para x = 10n con n = 1, . . . , 13 .

ii) Determine un polinomio de grado 1, que aproxime a f (x) y que sea estable numericamente
para x 0 .
 
Problema 1.17 Considere la funci
on f (x) = x + 1/x x 1/x .

on de f (x) para x 0 . Justique.


i) Estudie la estabilidad numerica en la evaluaci

ii) Proponga una expresion algebraica, que sea matem aticamente equivalente a f (x) y que
sea numericamente estable en la evaluacion para x 0 .

iii) Determine un polinomio de grado mnimo mayor que 0, que aproxime a f (x) , y que sea
estable numericamente para la evalucion en x 0 . Ademas, obtenga una buena cota
para el error correspondiente con |x|  0.1 y x = 0 .

Problema 1.18 Considere las expresiones equivalentes, uA = (xA 2)(x2A 3xA + 1) y


vA = ((xA 5)xA + 7)xA 2 . Suponga que cada una de las operaciones aritmeticas en las
expresiones uA y vA deben ser redondeadas a 3 dgitos en la mantisa.

(a) Para xA = 2.01 , redondeado al n


umero de dgitos se
nalados, evalue las expresiones equiv-
alentes de acuerdo a lo expresado arriba, y compare las precisiones de ambos resultados.

(b) Estudie la propagaci


on del error absoluto en ambas expresiones, uA y vA , acotando los
errores correspondientes (en valor absoluto) Que puede decir acerca de lo concluido en
a)?
Captulo 2

Ecuaciones no Lineales

En este capitulo estudiaremos uno de los problemas b asicos de la aproximacion numerica: el


problema de la b usqueda de races. Este consiste en obtener una raz exacta o una buena aprox-
imacion a la raz exacta de una ecuacion de la forma f (x) = 0 , donde f es una funci on dada.
Este es uno de los problemas de aproximacion m as antiguos, y sin embargo, la investigaci on
correspondiente todava continua. El problema de encontrar una aproximaci on a una raz de
una ecuacion se remonta por lo menos al a no 1700 a.C. Una tabla cuneiforme que pertenece a
la Yale Banylonian Collection, y que data de este perodo, da la aproximaci on de 2 , la cual
puede calcularse con algunos de los metodo que veremos mas adelante

2.1 M
etodo de bisecci
on
Este metodo se basa en el Teorema del Valor Intermedio, el cual enunciamos a seguir.

Teorema 2.1 (del valor intermedio) Sea f : [a, b] R una funci on continua. Supongamos
que f (a) y f (b) tienen signos diferentes, entonces existe r (a, b) tal que f (r) = 0 .

Aunque el procedimiento se aplica en el caso en que f (a) y f (b) tengan signos diferentes y
exista mas de una raz en el intervalo (a, b) , por razones de simplicidad suponemos que la raz
de este intervalo es u nica. El metodo requiere dividir varias veces en la mitad los subintervalos
de [a, b] y en cada paso localizar aquella mitad que contenga a la raz r . Para comenzar
consideremos a0 = a y b0 = b , y sea c0 el punto medio de [a, b] , es decir, c0 = a0 +b 2
0
. Si
f (c0 ) = 0 , entonces r = c0 ; si no, entonces f (c0 ) posee el mismo signo que f (a0 ) o que
f (b0 ) . Si f (c0 ) y f (a0 ) tienen igual signo, entonces r (c0 , b0 ) y tomamos a1 = c0 y
b1 = b0 . Si f (c0 ) y f (a0 ) tienen signos opuestos, entonces r (a0 , c0 ) y tomamos a1 = a0
y b1 = c0 . Enseguida, volvemos a aplicar el proceso al intervalo [a1 , b1 ] , y as sucesivamente.

A continuaci on describiremos algunos procedimientos de parada que pueden aplicarse en


alg
un paso del algoritmo, o a cualquiera de las tecnicas iterativas que se estudian en este
capitulo. Se elige una tolerancia > 0 y generamos una sucesion de puntos p1 , p2 , . . . , pN ,
con pn r hasta que se cumplan una de las siguientes condiciones

|pN pN 1 |  (2.1)

24
Sergio Plaza 25

|pN pN 1 |
 , pN = 0 (2.2)
|pN |

|f (pN )|  (2.3)

Al usar cualquiera de estos criterios de parada pueden surgir problemas. Por ejemplo, existen
sucesiones (pn )nN con la propiedad de que las diferencias pn pn1 convergen a cero, mientras
que la sucesion diverge, esto se ilustra con la sucesi
on siguiente, sea (pn )nN la sucesion dada
n
1
por pn = k , es conocido que (pn )nN diverge a un cuando se tiene lim (pn pn1 ) = 0 .
k=1 n
Tambien es posible que f (pn ) este cercano a cero, mientras que pn diere signicativamente
10
de r , como lo ilustra la siguiente sucesion. Sea f (x) = (x 1) , tenemos que r = 1 , tomando
pn = 1 + n1 es facil ver que |f (pn )| < 103 para todo n > 1 , mientras que |r pn | < 103
solo si n > 1000 . En caso que no se conozca r , el criterio de parada (2.2) es el mejor al cual
puede recurrirse, ya que verica el error relativo.
Observe que para iniciar el algoritmo de bisecci on, tenemos que encontrar un intervalo [a, b] ,
de modo que f (a) f (b) < 0 . En cada paso, la longitud del intervalo que se sabe contiene
una raz de f se reduce en un factor de 12 ; por lo tanto, conviene escoger un intervalo inicial
[a, b] lo mas peque no posible. Por ejemplo, si f (x) = x2 1 , entonces f (0) f (2) < 0 y
tambien f (0.75) f (1.5) < 0 , de manera que el algoritmo de biseccion puede emplearse en
ambos intervalos [0, 2] o [0.75, 1.5] . Al comenzar el algoritmo de biseccion en [0, 2] o con
[0.75, 1.5] , la cantidad de iteraciones necesarias para alcanzar determinada exactitud varia.
El siguiente ejemplo ilustra el algoritmo de biseccion. La iteracion se termina cuando el error
relativo es menor que 0.0001 , es decir, cuando
|cn cn1 |
< 104 .
|cn |

Ejemplo 19 La ecuacion f (x) = x3 + 4x2 10 posee una raz en [1, 2] ya que f (1) = 5 y
f (2) = 14 . El algoritmo de biseccion puede ser resumido por la siguiente tabla

n an bn cn f (cn )
1 1.0 2.0 1.5 2.375
2 1.0 1.5 1.25 1.79687
3 1.25 1.5 1.375 0.16211
.. .. .. .. ..
. . . . .
13 1.36499024 1.3671875 1.365112305 0.00194

Despues de 13 iteraciones, c13 = 1.365112305 aproxima a la raz r con un error de |r c13 | <
|b13 a13 | = 0.000122070 , ya que |a13 | < |r| , obtenemos

|r c13 | |b13 a13 |


<  9 105 ,
|r| |c13 |
por lo tanto la aproximaci
on ser
a correcta por lo menos en cuatro dgitos signicativos. El valor
correcto de r con nueve cifras decimales correctas es r = 1.365230013 . Observe que r9 esta
mas cerca de r que c13 . Pero lamentablemente no podemos vericar esto si no conocemos la
respuesta correcta.
Sergio Plaza 26

El metodo de biseccion, aunque claro desde el punto de vista conceptual, ofrece inconvenientes
importantes, como el de converger lentamente, es decir, la cantidad de iteraciones puede ser
demasiado grande para poder obtener que cn este lo proximo a r , ademas, inadvertidamente
podemos desechar una aproximacion intermedia. Sin embargo, tiene la importante propiedad
de que siempre converge en una soluci on y por tal raz
on a menudo sirve para iniciar los metodos
mas ecientes que explicaremos m as adelante.

2.1.1 An
alisis del error
Denotemos los intervalos generados por el metodo de biseccion por [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] ,
. . . , de donde obtenemos que

a0  a1   b 0

luego la sucesion (an )nN es creciente y acotada superiormente. Tenemos tambien que

b 0  b 1   a0

luego la sucesion (bn )nN es decreciente y acotada inferiormente.


Por lo tanto existen los lmites limn an  b0 y limn bn  a0 . Ademas, como

1 1 1
b n an = (bn1 an1 ) = (bn2 an2 ) = = n (b0 a0 ) ,
2 4 2
se sigue que limn (bn an ) = 0 , luego limn bn = limn an = r . Ahora como
2
f (an ) f (bn )  0 , haciendo n se tiene que (f (r))  0 , pues f es continua, de donde
f (r) = 0 .
Si el proceso se detiene en la iteracion n , entonces f posee una raz en el intervalo [an , bn ]
y

|r an |  2n (b0 a0 ) y |r bn |  2n (b0 a0 ) .
an +bn
Por otra parte, vemos que una mejor aproximaci
on para la raz r de f (x) = 0 es cn = 2 ,
pues

1
|r cn |  (bn an ) = 2(n+1) (b0 a0 ) .
2
Resumiendo lo anterior, tenemos el siguiente resultado.

Teorema 2.2 Sean [a0 , b0 ] , [a1 , b1 ] , [a2 , b2 ] , . . . , [an , bn ] , . . . los intervalos obtenidos en el
metodo de bisecci
on, entonces limn bn = limn an = r y r es una raz de f (x) = 0 .
Adem as, se tiene que |r an |  2n (b0 a0 ) y |r bn |  2n (b0 a0 ) . Por otra parte, si
cn = an +b
2
n
entonces r = limn cn y |r cn |  2(n+1) (b0 a0 ) .

Es importante se
nalar que el teorema solo nos proporciona una cota del error de aproxima-
cion y que esta puede ser extremadamente conservadora. Por ejemplo, cuando la aplicamos al
problema del ejemplo anterior s olo garantiza que |p p9 |  21
29 2 10
3
pero el error real
6
es mucho menor |p p9 | 4.4 10 .
Sergio Plaza 27

Ejemplo 20 Para determinar el n umero de iteraciones necesarias para resolver la ecuacion


f (x) = 0 donde f (x) = x3 + 4x2 10 con una exactitud de 103 en el intervalo [1, 2] basta
determinar un entero N tal que

|cN r|  2(N +1) (b a) = 2(N +1)  103 .

Aplicando logaritmo a la desigualdad 2(N +1)  103 vemos que el valor del entero positivo
N debe ser mayor que 9.96 , por lo tanto para obtener una exactitud de 103 debemos iterar
al menos 10 veces.

2.2 M
etodo de Newton
El metodo Newton es uno de los metodos numericos mas populares para tratar un problema de
b
usqueda de races de una ecuacion f (x) = 0 . Una forma de introducir el metodo de Newton
se basa en los polinomios de Taylor. En esta ocasion introduciremos el metodo de Newton
geometricamente.
Consideremos una funci on derivable f : [a, b] R , que tiene un cero en [a, b] . Sea
x0 (a, b) un punto arbitrario.

x0
x1

x2

Para determinar la intersecci


on x1 de la recta tangente al gr
aco de f en el punto (x0 , f (x0 ))
con el eje x basta observar que dicha recta tiene por ecuacion

y f (x0 ) = f  (x0 ) (x x0 )

as la interseccion con eje x esta dada por f (x0 ) = f  (x0 ) (x1 x0 ) , despejando x1 obten-
emos

f (x0 )
x1 = x0 ,
f  (x0 )
si f  (x0 ) = 0 . Aplicamos ahora este procedimiento comenzando con x1 , para determinar la
interseccion x2 de la recta tangente al gr
aco de f en el punto (x1 , f (x1 )) con el eje x basta
observar que dicha recta tiene por ecuaci on
Sergio Plaza 28

y f (x1 ) = f  (x1 ) (x x1 )

as la interseccion con eje x esta dada por f (x1 ) = f  (x1 ) (x2 x1 ) , despejando x2 obten-
emos

f (x1 )
x2 = x1 ,
f  (x1 )

si f  (x1 ) = 0 . De modo an
alogo, si comenzamos con el punto x2 , obtenemos un punto x3
dado por

f (x2 )
x3 = x2
f  (x2 )

si f  (x2 ) = 0 , y as sucesivamente. Este procedimiento da lugar a un proceso iterativo llamado


metodo de Newton, dado por

f (xn )
xn+1 = xn (2.4)
f  (xn )

si f  (xn ) = 0 .

Ejemplo 21 Sea f (x) = x1 1 . La ecuacion f (x) = 0 tiene una raz r = 1 en el intervalo


[0.5, 1] Que ocurre al aplicar el metodo de Newton con x0 = 0.5 ? Realizando los calculos
numericamente, tenemos

k 0 1 2 3 4
xk 0.5 0.75 0.9374999998 0.9960937501 0.9999847417

Un buen ejercicio para el lector es esbozar una explicacion para lo que est
a ocurriendo en
este caso.

2.2.1 An
alisis del Error

El error en el paso n es denido como

en = xn r (2.5)

Supongamos ahora que f  es continua y que r es un cero simple de f , es decir, f (r) =


0 y f  (r) = 0 . Entonces tenemos que

f (xn ) f (xn ) f (xn ) en f  (xn ) f (xn )


en+1 = xn+1 r = xn r = (xn r) = e n =
f  (xn ) f  (xn ) f  (xn ) f  (xn )

por otro lado se tiene que


Sergio Plaza 29

1
0 = f (r) = f (xn en ) = f (xn ) en f  (xn ) + e2n f  (n )
Taylor

2
donde n esta entre xn y r . De esta u
ltima ecuacion obtenemos

e2n
en f  (xn ) f (xn ) = f  (n ) .
2
Luego

1 f  (n ) 2 1 f  (r) 2
en+1 = e e = Ce2n
2 f  (xn ) n
2 f  (r) n

f  (n )
Podemos formalizar lo anterior como sigue, si en es peque
no y f  (xn ) no es muy grande,
entonces en+1 ser
a mas peque
no que en .
Denamos

max |f  (x)|
1 |xr|<
C () = (2.6)
2 min |f  (x)|
|xr|<

donde > 0 es tal que |f  (x)| > 0 para |x r| < . Eligiendo > 0 mas peque no, si es
necesario, podemos


suponer que C () < 1 , podemos hacer esto pues cuando 0 se tiene

f (r)

que C ()
2f  (r)
, luego C () 0 si 0 . Denotemos = C () . Comenzando
las iteraciones del metodo de Newton con x0 tal que |x0
r|<
obtenemos que |e0 |  y

(0 )

|0 r| < luego por la denici on de C () , se tiene que


12 ff  (x 0)

 C () de donde

|x1 r| = |e1 |  e20 C () = |e0 | |e0 | C () = |e0 |  |e0 |  ,

repetimos el argumento con x1 , x1 , . . . , xn , . . . obteniendo

|e1 |  |e0 |
|e2 |  |e1 |  2 |e0 |
..
.
|en |  n |e0 | 0, cuando n

as hemos obtenido el siguiente resultado.

Teorema 2.3 Si f  es continua y r es un cero simple de f , es decir, f (r) = 0 y f  (r) = 0 ,


entonces existe un intervalo abierto J conteniendo a r y una constante C > 0 tal que si el
metodo de Newton se inicia con un punto en J , se tiene

2
|xn+1 r|  C (xn r) .

Teorema 2.4 Si f  es continua, y f es creciente, convexa y tiene un cero, entonces este


cero es unico y la iteraci
on del metodo de Newton converge a el a partir de cualquier punto
inicial.
Sergio Plaza 30

El siguiente teorema sobre la conducta local del metodo de Newton muestra que ella es muy
buena, pero como veremos despues, desde el punto de vista global no lo es tanto.

Teorema 2.5 Sea f : R R derivable. Si f  (x0 ) = 0 , denimos h0 = ff(x 0)


(x0 ) , x1 =


0 )M

x0 + h0 , J0 = [x1 |h0 |, x1 + |h0 |] y M = supxJ0 |f  (x)|. Si 2


(ff (x
 (x ))2
< 1 entonces la
0

ecuaci
on f (x) = 0 tiene una unica soluci
on en J0 y el metodo de Newton con condici on inicial
x0 converge a dicha solucion.

on. Sea h1 = ff(x


Demostraci 1) 
(x1 ) . Necesitamos estimar h1 , f (x1 ) y f (x1 ) . Tenemos
|f  (x0 )|
|f  (x1 )|  |f  (x0 )| |f  (x0 ) f  (x1 )|  |f  (x0 )| M |x1 x0 |  |f  (x0 )| 12 |f  (x0 )|  2 ,
es decir,
|f  (x0 )|
|f  (x1 )|  (desigualdad 1)
2
Ahora estimaremos f (x1 ).
 x1
f (x1 ) = f (x0 ) + f  (x)dx
x0


x1
= f (x0 ) [(x1 x)f  (x)]
xx10 + (x1 x)f  (x)dx
x0
 x1
= f (x0 ) + (x1 x0 )f  (x0 ) + (x1 x)f  (x)dx
x0

como h0 = x1 x0 y f  (x0 )h0 = f (x0 ), se tiene que


 x1
f (x1 ) = (x1 x)f  (x)dx .
x0

Haciendo el cambio de variables th0 = x1 x . Tenemos dx = h0 dt , y


 1 2
2 M |h0 |
|f (x1 )|  M |h0 | tdt = .
0 2

es decir,
2
M |h0 |
|f (x1 )|  (desigualdad 2)
2
De las desigualdades (1) y (2), obtenemos






f (x1 )
M |h0 |2
2

|h1 | =




= |h0 |2
M

f (x1 )
2
f  (x0 )

f  (x0 )


(x0 )

y de 2
(fMf
 (x ))2
< 1 , tenemos
0


M
1
f  (x0 )
1 1 1


<


f  (x0 )
2
f (x0 )
= 2

f (x0 )

= 2|h0 | ,

f  (x0 )

|h0 |
luego |h1 | < 2 ,y
Sergio Plaza 31


M f (x1 )
M

f (x1 )

M


= =  |h1 |

(f  (x1 ))2


|f (x1 )| f (x1 )
|f (x1 )|

M |h0 |

|f  (x1 )| 2

|h0 | 2
f (x0 )

 M = M

2 |f  (x0 )|
(f  (x0 ))2
.

Denamos x2 = x1 + h1 y J1 = [x2 |h1 |, x2 + |h1 |] . Tenemos que J1 J0 , y las condiciones


del teorema se verican para x1 , h1 , y J1 . Denimos, inductivamente hk = ff(x k) 
(xk ) , si f (xk ) =
0 y xk+1 = xk + hk . Tenemos as que xk J0 , y (xk )kN es una sucesion convergente, pues
la serie h0 + h1 + converge. Ademas, el lmite xf = limk xk es una raz de la ecuacion
f (x) = 0 , pues limk (f (xk ) + f  (xk )(xk+1 xk )) = 0 .

on. La desigualdad hk+1 


Observaci hk
2 , nos da la convergencia geometrica del metodo de
Newton.

Teorema 2.6 En las condiciones del teorema anterior, el metodo de Newton tiene convergen-
2
atica, esto es, |hk+1 |  |f M
cia cuadr (xk )| |hk | .

M|hk |2
on. Dividiendo la desigualdad |f (xk+1 )| 
Demostraci 2 por |f  (xk+1 )| , obtenemos
2 2
|f (xk+1 | M |hk | 2 M |hk |
|kk+1 | = 
 
=  .
|f (xk+1 )| 2 |f (xk )| |f (xk )|

Ejemplo 22 Sea f (x) = x3 2x 5 . Tomando x0 = 2 , tenemos f (x0 ) = 1 , f  (x0 ) = 10 ,



h

0 = 0.1
y J0 = [2 , 2.2] , puesto que f (x) = 6x sobre J0 el supremo M es 13.2. Como

Mf (x0 )

(f  (x0 ))2
= 0.132 < 0.5 < 1 , el teorema garantiza que existe una raz de la ecuacion f (x) = 0
en el intervalo [2 , 2.2], y en consecuencia el metodo de Newton con condici on inicial x0 = 2
converge a dicha raz.

Observaci on. Podemos usar como criterios de paradas unos de los siguientes. Seleccione
una tolerancia > 0 y construya p1 , p2 , . . . , pN hasta que se cumpla una de las siguientes
desigualdades

|pN pN 1 |  (2.7)


pN pN 1



 , pN = 0 (2.8)

pN

o bien

|f (xN )|  . (2.9)

El metodo de Newton es una tecnica de iteracion funcional de la forma xn+1 = g (xn ) , donde
Sergio Plaza 32

f (xn )
xn+1 = g (xn ) = Nf (xn ) = xn , n  0.
f  (xn )

En esta ecuacion se observa claramente que no podemos continuar aplicando el metodo de


Newton si f  (xn ) = 0 para alg
un n . Veremos que este metodo es mas ecaz cuando f  (r) > 0 .

Verificaci on de condiciones de convergencia. Cuando queremos aplicar en la pr actica


las condiciones de convergencia del metodo de Newton, tenemos el problema que no conocemos
exactamente la raz r de la ecuacion f (x) = 0 . Recordemos que las condiciones de convergencia
del metodo de Newton en un intervalo abierto J r son: f (r) = 0 ; f  (r) = 0 y f  continua.
Para vericar que estas condiciones se cumplen cuando tomamos aproximaciones xn para la
raz r , y procedemos como sigue. Vericamos

1. f  es continua (esta condicion depende s


olo de la funci
on f y no de las aproximaciones
a la raz).

2. Tomanos las aproximaciones xn dadas dadas por el metodo de Newton, y aplicando un


criterio de parada, obtenemos una aproximaci
on xN .

3. Para xN vericamos que f (xN ) 0 y f  (xN ) = 0 .

4. Usando la continuidad de f y de sus derivadas, concluimos que existe un intervalo J


que contiene a r tal que si x0 J , entonces la sucesion de aproximaciones dada por el
metodo de Newton convergen a la raz r buscada.

Ejemplo 23 Para aproximar la soluci on de la ecuaci


on x = cos(x) , consideremos f (x) =

cos(x)x . Tenemos f 2 = 2 < 0 < 1 = f (0) , luego y por el Teorema del Valor Intermedio,
 
existe un cero de f en el intervalo 0, 2 . Aplicando el metodo de Newton obtenemos

cos (xn ) xn
xn+1 = xn , n  0.
sen (xn ) 1

En algunos problemas es suciente escoger x0 arbitrariamente, mientras que en otros es


importante elegir una buena aproximacion inicial. En el problema en cuesti
on, basta analizar
acas de h (x) = x y k (x) = cos (x) por lo que es suciente considerar x0 = 4 , y as
las gr
obtenemos una excelente aproximacion con s
olo tres pasos, como muestra la siguiente tabla.

n xn
0 0.7853981635
1 0.7395361337
2 0.7390851781
3 0.7390851332
4 0.7390851332

Para asegurarnos que tenemos convergencia, veriquemos esas condiciones. Tenemos que
f (x) = cos(x) x , luego f  (x) = cos(x) , la cual es continua, ahora evaluando f  (x) en el
punto x = 0.7390851332 (en radianes) que es una aproximacion a la raz verdadera, se tiene el
valor no cero siguiente, f  (0.7390851332) = sen(0.7390851332) 1 = 1.012899111 . . . = 0 .
Sergio Plaza 33

Ejemplo 24 Para obtener una soluci on de x3 + 4x2 10 = 0 en el intervalo


on de la ecuaci
[1, 2] mediante el metodo de Newton, generamos la sucesion (xn )nN dada por

x3n + 4x2n 10
xn+1 = xn , n0
3x2n + 8xn1

Tomando x0 = 1.5 como condicion inicial se obtiene el resultado x3 = 1.36523001 este es


correcto en ocho cifras decimales.
Para asegurarnos que tenemos convergencia, veriquemos esas condiciones. Tenemos que
f (x) = x3 + 4x2 10 , luego f  (x) = 6x + 8 , la cual es continua. Ahora evaluando f  (x) en
el punto x3 = 1.36523001 , que es una aproximacion a la raz verdadera, se tiene el valor no
cero siguiente, f  (1.36523001) = 3(1.36523001)2 + 8 1.36523001 = 16.1339902 . . . = 0 .


Ejemplo 25 Si queremos resolver x3 x 22 = 0 utilizando el metodo de Newton y comen-
zamos lasiteraciones con x0 = 0.001 obtenemos una sucesi on que oscila entre valores cercanos
a 0 y a 22 , y de hecho, si comenzamos con la condici
o n inicial x0 = 0 obtenemos el ciclo

2 2 2
odico 0, 2 , es decir, Nf (0) = 2 y Nf 2 = 0 .
peri

Observaci on. La derivaci on del metodo de Newton por medio de las series de Taylor, subraya
la importancia de una aproximaci on inicial exacta. La suposici
on fundamental es que el termino
2
que contiene (x x) es, en comparacion, tan peque no que podemos suprimirlo. Esto eviden-
temente sera falso a menos que x sea una buena aproximacion a la raz r . En particular, si
x0 no es lo suciente proximo a la raz real, el metodo de Newton quiz a no sea convergente a
2
la raz. Pero no siempre es as. Por ejemplo considere la ecuaci on x + 1 = 0 que no tiene
soluciones reales, y cuando le aplicamos el metodo de Newton obtenemos, para cualesquiera que
sea la condicion inicial una sucesion que no converge a ningun valor determinado, como puede
comprobarse en la pr actica sin mayores esfuerzos, realizando las iteraciones correspondientes.

2.3 M
etodo de Newton multivariable
Consideremos el sistema de ecuaciones


f1 (x1 , x2 ) = 0
(2.10)
f2 (x1 , x2 ) = 0.

Si (x1 , x2 ) es una soluci


on aproximada y (x1 + h1 , x2 + h2 ) es la solucion exacta, aplicando
Taylor obtenemos

f1 f1

0 = f1 (x1 + h1 , x2 + h2 ) f1 (x1 , x2 ) + h1 + h2
x 1 x 2




0 = f2 (x1 + h1 , x2 + h2 ) f2 (x1 , x2 ) + h1 f2 + h2 f2 .
x1 x2

Denotemos el jacobiano de F (x1 , x2 ) = (f1 (x1 , x2 ) , f2 (x1 , x2 )) por J(f1 , f2 ) , es decir,


Sergio Plaza 34

f f1
1
x1 x2

J(f1 , f2 ) = , (2.11)
f f2
2
x1 x2

obtenemos    
h1 f1 (x1 , x2 )
J(f1 , f2 )(x1 , x2 ) = (2.12)
h2 f2 (x1 , x2 )

de donde, si det(J(f1 , f2 )(x1 , x2 ) = 0 , se tiene que

   
h1 f1 (x1 , x2 )
= J 1 (f1 , f2 ) (x1 , x2 )
h2 f2 (x1 , x2 )

con lo cual podemos denir el siguiente proceso iterativo


$ % $ %  
(k+1) (k)
x1 x1 h1
(k+1) = (k) + (2.13)
x2 x2 h2
 
h1
donde es la colucion de la ecuaci
onn lineal (2.12), esto puede ser escrito en forma m
as
h2
explcita como

    1  
(k+1) (k) f1 (k) (k) f1 (k) (k) (k) (k)
x1 x1 x1
x1 , x2 x2
x1 , x2 f1 x1 , x2

=
  






(k+1) (k) f2 (k) (k) f2 (k) (k) (k) (k)
x2 x2 x1
x1 , x2 x2
x1 , x2 f2 x1 , x2
(2.14)

Observe que esta formulaci on es, sin embargo, poco u


til para realizar los c
alculos, ya que es
poco pr actico calcular la inversa de la matriz jacobiana. Sin embargo para sistemas de 2 2
es facil obtener. Realizando las operaciones tenemos que

       
(n) (n) f2 (n) (n) (n) (n) f1 (n) (n)
f1 x1 , x2 x1 , x2 f2 x1 , x2 x1 , x2
(n+1) (n) x2 x2
x1 = x1 (n) (n)
det(J(f1 , f2 )(x1 , x2 ))
(2.15)
       
(n) (n) f1 (n) (n) (n) (n) f2 (n) (n)
f2 x1 , x2 x1 , x2 f1 x1 , x2 x1 , x2
(n+1) (n) x1 x1
x2 = x2 (n) (n)
det(J(f1 , f2 )(x1 , x2 ))

donde
  f   f   f   f  
(n) (n) 1 (n) (n) 2 (n) (n) 2 (n) (n) 1 (n) (n)
det J(f1 , f2 ) x1 , x2 = x1 , x2 x1 , x2 x1 , x2 x1 , x2 .
x1 x2 x1 x2
Sergio Plaza 35

Es claro que podemos generalizar el metodo de Newton a mas de dos variables, y de deja
a cargo del lector deducir las f
ormulas de iteracion para un sistema de 3 ecuaciones en tres
variables (x, y, z) .

Condiciones de convergencia del m etodo de Newton multivariable. Supongamos que


2 f1
f1 (r1 , r2 ) = f2 (r1 , r2 ) = 0 , det(J(f1 , f2 )(r1 , r2 )) = 0 y la derivadas parciales segundas ,
x21
2 f1 2 f1 2 f2 2 f2 2 f2
, 2 , 2 , , son continuas. Entonces existe un conjunto abierto
x1 x2 x2 x1 x1 x2 x22
0 0
U (r1 , r2 ) , tal que si (x1 , x2 ) U entonces el metodo de Newton comenzando con ese punto
converge a (r1 , r2 ) .

(0) (0)
Observaci actica, comenzamos con (x1 , x2 ) adecuados y generamos la sucesi
on. En la pr on
dada por el metodo de Newton hasta satisfacer alg un criterio de parada, obteniendo un punto
(N ) (N ) (N ) (N )
(x1 , x2 ) . Vericamos entonces las condiciones para ese punto, es decir, fi (x1 , x2 ) 0 ,
(N ) (N )
i = 1, 2 , det J(f1 , f2 )(x1 , x2 ) = 0 . La condicion de continuidad de las segundas derivadas
parciales de f1 y f2 no depende de la sucesion de puntos generada. Si las condiciones son
(N ) (N )
satisfechas para (x1 , x2 ) , entonces existe un conjunto abierto U R2 , con U (r1 , r2 ) ,
tal que si (x01 , x02 ) U , entonces la sucesion generada por el metodo de Newton converge a
(r1 , r2 ) .
Observaci on. En general, especialmente desde el punto de vista computacional, usar las ecua-
ciones (2.12) y (2.13) como una descompsici on del metodo de Newton, en vez de las ecuaciones
dadas en (2.14) o en su forma explcita (2.15). Mas genral si deseamaos resolver el sistema de
ecuaciones no lienales




f1 (x1 , x2 , . . . , xn ) = 0

f2 (x1 , x2 , . . . , xn ) = 0
.. (2.16)

.


fn (x1 , x2 , . . . , xn ) = 0
usamos el siguiente algoritmo:
(0) (0) (0)
Dado x(0) = (x1 , x2 , . . . , xn ) .
Primero: resolvemos el sistema de ecuaciones lineales
(k) (k) (k) (k)

h1 f1 (x1 , x2 , . . . , xn )
(k) (k) (k) (k)
h2 f2 (x1 , x2 , . . . , xn )

Jk (f1 , f2 , . . . , fn ) . = (2.17)
..
.. .
(k) (k) (k) (k)
hn fn (x1 , x2 , . . . , xn )

(k) (k) (k)


para H (k) = (h1 , h2 , . . . , hn )T , donde Jk (f1 , f2 , . . . , fn ) denota el jacobiano de F =
(k) (k) (k)
(f1 , f2 , . . . , fn ) evaluado en el punto (x1 , x2 , . . . , xn ) .
Segundo. Realizamos la iteraci
on

x(k+1) = x(k) + H (k) (2.18)


(k) (k) (k)
donde x(k) = (x1 , x2 , . . . , xn ) , y as sucesivamente hasta satisfacer alguna condicion de
parada.
Sergio Plaza 36

Ejemplo 26 Consideremos el siguiente sistema


2 2
f (x, y) = x y xy 0.8 = 0



x2 x2
g (x, y) = 1 =0
y2 2

y encontremos sus races.


Aplicando el metodo de Newton multivariable, primero calculamos las derivadas parciales de
cada funci
on obteniendo
f f
= 2xy y 2 = x2 2xy
x y

g 2x g 2x2
= 2 x = 3
x y y y

aplicando la formula anterior nos queda

2 3
3x2n yn + 2 (xn yn ) 0.5 (xn yn ) x2n yn4 1.6xn xn yn3 + 2yn2
xn+1 =
xn yn (6xn + 6yn + xn yn2 2yn3 )

2 3
6x3n yn + 5 (xn yn ) + (xn yn ) 1.5x2n yn4 + 2xn yn3 yn4 1.6xn + 8xn yn2
yn+1 =
x2n (6xn + 6yn + xn yn2 2yn3 )

La siguiente tabla muestra los resultados obtenidos con el metodo de Newton multivariable

Iter. x y f (x, y) g(x, y) |J|


0 1 1 0.8 0.5 1
1 2.1 1.3 1.384 0.59553 14.7304
2 1.68036 1.11139 0.26257 0.12583 9.33548
3 1.55237 1.04843 0.02019 0.01257 7.94105
4 1.54040 1.04178 0.00016 0.00011 7.82963
5 1.54030 1.04173 1.06 108 6.9 109 7.82874
6 1.54030 1.04173 2.22 1016 6.66 1016 7.82874

Se puede notar la rapidez a la cual converge el metodo, ya que en solamente 6 itera-


ciones se tiene un valor (x6 , y6 ) = (1.54030, 1.04173) para el cual f (1.54030, 1.04173) 0
y g (1.54030, 1.04173) 0 , por otra parte, es claro que las segundas derivadas parciales de f
y de g son continuas, pues ambas funciones son polinomios en las variables (x, y) . Tenemos
tambien que

f f
(x6 , y6 ) = 2x6 y6 y62 = 2.22631238 (x6 , y6 ) = x26 2x6 y6 = 0.85378829
x y

g 2x6 g 2x2
(x6 , y6 ) = 2 x6 = 1.1401168538 (x6 , y6 ) = 36 = 4.130734823
x y6 y y6
Sergio Plaza 37

luego
 
2.22631238 0.85378829
det J(f, g)(x6 , y6 ) = det = 4.486785689 ,
1.1401168538 4.130734823

por lo tanto el metodo iterativo de Newton es convergente en una vecindad de la solucion exacta
(xT , yT ) del sistema.

2.4 M
etodo de la secante
El metodo de Newton es una tecnica poderosa, pero presenta un problema, a saber, la necesidad
de conocer el valor de la derivada de f en cada paso de la aproximacion. Con frecuencia es m as

difcil calcular f (x) y se requieren mas operaciones aritmeticas para calcularla que para f (x) .
Si queremos evitar el problema de evaluar la derivada en el metodo de Newton, derivamos una
peque na variaci
on. Por denici
on

f (x) f (xn )
f  (xn ) = lim .
xxn x xn

Haciendo x = xn1 , tenemos

f (xn1 ) f (xn ) f (xn ) f (xn1 )


f  (xn ) = .
xn1 xn xn xn1

on para f  (xn ) en la formula de Newton, se obtiene el siguiente


Al aplicar esta aproximaci
metodo iterativo,

f (xn ) (xn xn1 )


xn+1 = xn , n1
f (xn ) f (xn1 )

el cual depende siempre de los valores de dos iteraciones anteriores, y como valores iniciales se
tienen x0 y x1 , los cuales deben ser elegidos con cierto criterio para tener la convergencia del
metodo. Este metodo iterativo en llamado metodo de la secante.
Comenzando con las dos aproximaciones iniciales x0 y x1 , la aproximaci on x2 es la inter-
seccion del eje x y la recta que une los puntos (x1 , f (x1 )) y (x0 , f (x0 )) . La aproximacion x3
es la interseccion con el eje x y la recta que une los puntos (x1 , f (x1 )) y (x2 , f (x2 )) , y as
sucesivamente.
Las condiciones para garantizar la convergencia del metodo de la secante en un intervalo
abierto J que contiene a la raz r de la ecuacion f (x) = 0 , son las misma que se usan en
el metodo de Newton, es decir, f  debe ser continua y f  (r) = 0 , pero como en general no
conocemos r en forma exacta vericamos si f (xn ) 0 y f  (xn ) = 0 , donde xn es nuestra
aproximacion a la raz.
El siguiente ejemplo incluye un problema que vimos en un ejemplo anterior.

Ejemplo 27 Usando el metodo de la secante determinemos una raz de f (x) = cos(x) x .


En el ejemplo desarrollado anteriormente, usamos la aproximacion inicial x0 = 4 . Ahora
Sergio Plaza 38

necesitamos dos aproximaciones iniciales. En la siguiente tabla aparecen los calculos con x0 =
0.5 y x1 = 4 , y la f
ormula

(xn xn1 ) (cos (xn ) xn )


xn+1 = xn , n  1.
(cos (xn ) xn ) (cos (xn1 ) xn1 )

n xn
0 0.5
1 0.7853981635
2 0.7363841388
3 0.7390581392
4 0.7390851493
5 0.7390851332

Observaci on. Al comparar los resultados de ahora con los del ejemplo anterior observamos
que x5 es exacto hasta la decima cifra decimal. Notese que la convergencia del metodo de la
secante es un poco mas lenta en este caso que en el metodo de Newton, en el cual obtuvimos
este grado de exactitud con x3 . Este resultado generalmente es verdadero.

El metodo de Newton o el metodo de la secante a menudo se usan para renar las respuestas
conseguidas con otra tecnica, como el metodo de biseccion. Dado que el metodo de Newton
requiere de una buena aproximacion inicial, pero por lo general da una convergencia m
as rapida,
sirve perfectamente para el proposito antes mencionado.

2.4.1 An
alisis del error
Recordemos que el error en el paso n es denido como en = xn r . Ahora como

(xn xn1 ) xn1 f (xn ) xn f (xn1 )


xn+1 = xn f (xn ) =
f (xn ) f (xn1 ) f (xn ) f (xn1 )

obtenemos

en+1 = xn+1 r
xn1 f (xn ) xn f (xn1 )
= r
f (xn ) f (xn1 )
f (xn )(xn1 r) f (xn1 )(xn r)
=
f (xn ) f (xn1 )
f (xn )en1 f (xn1 )en
=
f (xn ) f (xn1 )

podemos escribir ahora

f (xn ) f (xn1 )
xn xn1 en en1
en+1 = en en1 .
f (xn ) f (xn1 ) xn xn1
Sergio Plaza 39

Aplicando Taylor tenemos que

e2
f (xn ) = f (r + en ) = f (r) +en f  (r) + n f  (r) ,
   2
=0

f (xn ) f (xn1 )
luego en f  (r) + en 
2 f (r) y en1 f  (r) + en1 
2 f (r) de donde

f (xn ) f (xn1 ) 1
(en en1 ) f  (r) .
en en1 2
Observemos que xn xn1 = en en1 , por lo tanto

f (xn ) f (xn1 )
en en1 1 
f (r)
xn xn1 2

y como xn xn1
= 1
, nalmente tenemos
f (xn )f (xn1 ) f  (r)

1 f  (r)
en+1 en en1 = Cen en1 (2.19)
2 f  (r)

2.5 M
etodo de la posici
on falsa
Este metodo es conocido tambien como metodo de Regula Falsi, con el generamos aproxima-
ciones del mismo modo que el de la secante, pero mezclado con el metodo de biseccion, ofrece
por lo tanto una prueba para asegurarse de que la raz quede entre dos iteraciones sucesivas.
Primero elegimos las aproximaciones iniciales x0 y x1 con f (x0 ) f (x1 ) < 0 . La aprox-
imacion x2 se escoge de la misma manera que en el metodo de la secante. Para determinar
con cual secante calculamos x3 vericamos el signo de f (x2 ) f (x1 ) , si este valor es negativo
entonces [x1 , x2 ] contiene una raz y eligiremos x3 como la interseccion del eje x con la recta
que une (x1 , f (x1 )) y (x2 , f (x2 )) ; si no elegimos x3 como la interseccion del eje x con la
recta que une (x0 , f (x0 )) y (x2 , f (x2 )) .

Ejemplo 28 La siguiente tabla contiene los resultados del metodo de Regula Falsi aplicado a
on f (x) = cos(x) x con las mismas aproximaciones iniciales que utilizamos para el
la funci
metodo de la secante en el Ejemplo 27. Notese que las aproximaciones son iguales en x3 y que
en el metodo de Regula Falsi requiere una iteracion m
as para alcanzar la misma exactitud que
la de la Secante.

2.6 M
etodos iterativos de punto fijo
Describimos ahora otro tipo de metodos para encontrar races de ecuaciones, nos referimos a
algunos metodos iterativos de punto jo.
Un punto jo de una funci on g es un punto p para el cual g (p) = p . En esta seccion
estudiaremos el problema de encontrar las soluciones a los problemas de punto jo y la conexi
on
entre estos y la b
usqueda de la raz que deseamos resolver.
Sergio Plaza 40

n xn
0 0.5
1 0.7353981635
2 0.7363841388
3 0.7390581392
4 0.7390848638
5 0.7390851305
6 0.7390851332

El problemas de b
usqueda de races y el problema de punto jo son clases equivalentes en el
siguiente sentido

Dado un problema de buscar una raz de f (x) = 0 , podemos denir una funci on g con
un punto jo en p de diversas formas; por ejemplo, como g (x) = x f (x) o como g (x) =
x + 3f (x) . Si la funci
on g tiene un punto jo en p , es decir, g(p) = p , entonces la funci
on
denida, por ejemplo, como g (x) = x+f (x) o m as general g(x) = x+(x)f (x) , con (p) = 0 ,
tiene un cero en p .

Aunque los problemas que deseamos resolver vienen en forma de b usqueda de races, la forma
de metodo iterativo de punto jo puede ser m as facil de analizar; algunas opciones de punto
jo dan origen a tecnicas poderosas de b
usqueda de races.
Lo primero que debemos de hacer es acostumbrarnos a este tipo de problema, y decidir cuando
una funci
on tiene un punto jo y c
omo podemos aproximar los puntos jos con determinado
grado de precision.

Ejemplo 29 Resolver la ecuacion 3x2 ex = 0 es equivalente a 3x2 = ex . Gracamente,


vemos que existe una solucion x > 0 , la cual es la interseccion de los gr
acos de las funciones
2 x
f (x) = 3x y g(x) = e .

10

6
y
4

0 0.5 1 1.5 2 2.5 3


x

aco de f (x) = 3x2 y g(x) = ex


gr

ex
Despejando, obtenemos las funciones x = 1 (x) = log(3x2 ) , x = 2 (x) = 3x , x = 3 (x) =

3 x/2
3 e , etc.
Sergio Plaza 41

4
3.5

3 3

2.5
2
2

1 1.5

0 1 1.5 2 2.5 3 3.5 4 0.5


x
0.5 1 1.5 2 2.5 3
x
x
aco de 1 (x) = log(3x2 )
gr gr
aco de 2 (x) = e
3x

2.5

1.5

0.5

0.5 1 1.5 2 2.5 3


x

3 x/2
gr
aco de 3 (x) = 3 e

Ejemplo 30 La funci on g (x) = x2 2 para 2 < x < 3 , posee puntos jos en x = 1 y


x = 2 , como se puede ver facilmente resolviendo la ecuacion cuadr
atica g(x) = x .

4
y
2

2 1 0 1 2 3
x
2

aco de g(x) = x2 2
gr

Para el problema de existencia de punto jo, tenemos el siguiente resultado.

Teorema 2.7 Sea g : [a, b] [a, b] una funci


on continua, entonces g posee un punto jo
en [a, b] .

Demostraci on. Usamos el Teorema del Valor Intermedio, para lo cual denimos la funci
on
h(x) = g(x) x . Tenemos, h(a) = g(a) a  0 y h(b) = g(b) b  0 , y siendo h continua,
se sigue existe c [a, b] tal que h(c) = 0 , es decir, g(c) = c .
Sergio Plaza 42

El siguiente teorema contiene condiciones sucientes para la existencia y unicidad del punto
jo.

Corolario 2.1 Supongamos que g : [a, b] [a, b] es continua en [a, b] y derivable en (a, b) .
Supongamos tambien que existe una constante positiva 0  < 1 con |g  (x)|  , para todo
x (a, b) ( = max{|g  (x)| : x [a, b] } ), entonces el punto jo xg de g en [a, b] es u
nico.
Adem as, si elegimos x0 (a, b) arbitrario, entonces la sucesi on (xn )nN denida por

xn+1 = g(xn ), n  0

nico punto jo xg de g .
converge al u
Mas general, si g : [a, b] [a, b] es tal que |g(x) g(y()|  |x y| para todo x, y [a, b] ,
con 0  < 1 , entonces g tiene un u nico punto jo xg [a, b] . Ademas, dado x0 [a, b] , la
sucesi
on
xn+1 = g(xn ), n  0

converge a xg .

Demostraci on. Por el teorema anterior sabemos que g tiene un punto jo. Ahora como
|g  (x)|  < 1 , por el Teorema del Valor Medio, tenemos

|g(x) g(y)| = |g  (c)| |x y|  |x y|

para todo x, y [a, b] , donde c esta entre x e y . Ahora bien, supongamos que existen dos
puntos jos xg y xg para g . Tenemos entonces que

|xg xg | = |g(xg ) g(xg )|  |xg xg |

y como 0  < 1 , se debe tener que xg = xg .


Ahora, tenemos

|xn xg | = |g(xn1 ) g(xg )|  |xn1 xg |

|xn1 xg | = |g(xn2 ) g(xg )|  |xn2 xg |

|xn2 xg | = |g(xn3 ) g(xg )|  |xn3 xg |

..
.
|x1 xg | = |g(x0 ) g(xg )|  |x0 xg | ,

de donde obtenemos que |xn xg |  n |x0 xg | y como n 0 cuando n , el


resultado se sigue.

Observaci on. El teorema anterior no s olo nos dice que bajo sus condiciones existe un punto
jo u
nico, ademas nos dice como podemos encontrarlo, usando la sucesion generada a partir de
la funci
on g con una condici on inicial arbitraria.
Sergio Plaza 43

Corolario 2.2 Si g satisface las hip


otesis del Teorema anterior, cotas para el error que supone
utilizar xn para aproximar xg son dadas por

|xn xg |  n max {x0 a, b x0 }

y
n
|xn xg |  |x1 x0 | .
1

Demostraci olo basta observar que |xn xg | 


on. Para tener la primera de las cotas, s
n |x0 xg | y como xg y x0 estan entre a y b se tiene que |xn x0 |  n |xg x0 | 
n max {x0 a, b x0 } , como queramos probar.
Para obtener la segunda cota observemos que si n > m , digamos n = m + k , con k  1 ,
entonces

|xn xm | = |xm+k xm |  |xm+k xm+k1 | + |xm+k1 xm+k2 | + + |xm+1 xm | (2.20)

Por otra parte tenemos que

|xn+1 xn | = |g(xn ) g(xn1 )|


 |xn xn1 |
 |g(xn1 ) g(xn2 )|
 2 |xn1 xn2 |
 2 |g(xn2 ) g(xn3 )|
 3 |xn2 xn3 |
..
.
 n |x1 x0 | ,

es decir, |xn+1 xn |  n |x1 x0 | para todo n  0 . Aplicando esto a la desigualdad en (2.20)


obtenemos

|xn xm | = |xm+k xm |  m+k1 |x1 x0 | + m+k2 |x1 x0 | + + m |x1 x0 |


= m |x1 x0 | (k1 + k2 + + 1)
 m |x1 x0 | (1 + 2 + + j + )
m
= |x1 x0 |
1

como deseabamos probar.


Observaci on Ambas desigualdades del Corolario relacionan la razon con la que (xn )nN
converge en la cota de la primera derivada. La raz on de convergencia depende del factor
n . Cuando mas peque
no sea el valor de , mas rapida ser
a la convergencia, la cual puede ser
Sergio Plaza 44

muy lenta s es proxima de 1. En el siguiente ejemplo, consideraremos los metodos de punto


jo para algunos de los ejemplos vistos anteriormente.

Observaci on. Podemos usar como criterio de parada de un metodo iterativo de punto
jo como los anteriores los siguientes. Sea > 0 una tolerancia dada, entonces paramos las
iteraciones si

1. n max {x0 a, b x0 }  ,
n
2. 1 |x1 x0 |  ,

3. |xn+1 xn | 

4. otros que sean razonables de aplicar.

Ejemplo 31 Sea g (x) = x 31 en [1, 1] . El mnimo absoluto de g se alcanza en x = 0 y se


2

tiene que g (0) = 31 . De manera an aloga el maximo




absoluto de g se alcanza en x = 1 y
g (1) = 0 . Adem as, g es derivable y |g  (x)| =
2x
3

 2 para todo x (1, 1) , luego g (x)
3
satisface las hipotesis del Teorema 2.1, en consecuencia g (x) posee un u nico punto jo xg
en [1, 1] , y si elegimos x0 ] 1, 1[ arbitrario, la sucesi on de puntos xn+1 = g(xn ) xg
cuando n .

0.4

y
0.2

1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1


x
0.2

0.4

x2 1
gr
aco de g(x) = 3

En este ejemplo el punto jo p puede ser determinado algebraicamente por medio de la


g (p) = p 31 , de donde p2
2
f
ormula para resolver ecuaciones cuadraticas, obteniendose p =


3p 1 = 0 y resolviendo
la ecuacion obtenemos que p = 12 3 13 0.3027756377 , la otra
1
raz es q = 2 (3 + 13) 3.302775638 que esta fuera del intervalo [1, 1] . El lector puede
vericar esto usando x0 = 0 y = 105 .


Observaci on. Note que g (x) tambien posee un punto jo u nico q = 12 3 + 13 en el
intervalo [3, 4] . Sin embargo, g  (q) > 1 , as que g no satisface las hip
otesis del Teorema en
[3, 4] . Esto demuestra que esas hip otesis son sucientes pero no necesarias.

Ejemplo 32 Sea g(x) = 3x . Puesto que g  (x) = 3x ln 3 < 0 en [0, 1] , la funcion es


decreciente en ese intervalo. Por lo tanto g (1) = 13  g (x)  1 = g (0) para todo x [0, 1] ,
por lo cual g posee un punto jo. No podemos garantizar la unicidad del punto jo usando el
Teorema 2.1, sin embargo como g es estrictamente decreciente dicho punto jo debe ser u nico.
Sergio Plaza 45

0.9

0.8

0.7

0.6

0.5

0.4

0.3
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
x
gr
aco de g(x) = 3

Ejemplo 33 La ecuacion x3 + 4x2 10 = 0 posee una u nica raz en [1, 2] . Hay muchas
formas para convertir dicha ecuacion en la forma x = g (x) mediante simple manejo algebraico.
Por ejemplo, para obtener la funci on que se describe en (c), podemos manipular ecuaci on

x3 + 4x2 10 = 0 , por ejemplo, podemos escribir 4x2 = 10 x3 , por lo tanto x2 = 14 10 x3
1/2
, luego x = g3 (x) = 21 10 x3 .
Para obtener una solucion positiva, elegimos g3 (x) con el signo positivo. Se deja al lector
deducir las funciones que se indica a continuaci
on, pero debemos vericar que el punto jo de
cada una sea realmente una soluci on original x3 + 4x2 10 = 0 .
on de la ecuaci

(a) x = g1 (x) = x x3 4x2 + 10.


1/2
(b) x = g2 (x) = 10x 4x .
1/2
(c) x = g3 (x) = 12 10 x3 .
 1/2
10
(d) x = g4 (x) = 4+x

x3 +4x2 10
(e) x = g5 (x) = x 3x2 +8x .

Con p0 = 1.5 la siguiente tabla proporciona los resultados del metodo de iteraciones de punto
jo para las cinco opciones de g .
La raz exacta es r = 1.365230013 . . . , segun se senalo anteriormente. Al comparar los
resultados del algoritmo de biseccion aplicado para resolver la misma ecuaci on, observamos
que se obtuvieron excelentes resultados con las opciones (3), (4) y (5), ya que el metodo de
biseccion requiere 27 iteraciones para garantizar la exactitud. Conviene se
nalar que la opci
on
(1) ocasiona divergencia y que la opcion (2) se torna indenida en R ya que contiene la raz
cuadrada de un n umero negativo.

A
un cuando las funciones de este ejemplo son problemas de punto jo para el mismo pro-
blema de busqueda de raz, dieren como metodos para aproximar la soluci on a este tipo de
problemas. Su proposito es ilustrar la pregunta que es preciso responder a la siguiente pregunta
Como podemos encontrar un problema de punto jo capaz de producir una sucesion convergente
r
apidamente a una solucion de un problema de b usqueda de raz?
Los siguientes ejemplos nos dan algunas pistas sobre los procedimientos que deberamos seguir
y quiz
a lo m
as importante, algunos que debemos excluir.
Sergio Plaza 46

n g1 g2 g3 g4 g5
0 1.5 1.5 1.5 1.5 1.5
1 -0.875 0.8165 1.286953768 1.348399725 1.373333333
2 6.732 2.9969 1.402540804 1.367376372 1.365230015
3 -469.7 (8.65)1/2 1.345458374 1.364957015 1.365230014
4 1.03 108 1.375170253 1.365264748 1.365230013
5 1.360094193 1.365225594
6 1.367846968 1.36523.576
7 1.363887004 1.365229942
8 1.365916734 1.365230022
9 1.364878217 1.365230012
10 1.365410062 1.365230014
15 1.365223680 1.365230013
20 1.365230236
25 1.365230006
30 1.365230013

Ejemplo 34 Cuando g1 (x) = x x3 4x2 + 10 , tenemos que g1 (x) = 1 3x2 8x . No


existe un intervalo [a, b] que contenga a la raz r para el cual se tenga |g1 (x)| < 1 . Aunque el
Teorema 2.1 no garantiza que el metodo deba fallar para esta elecci on, tampoco tenemos razon
para esperar que el metodo sea convergente.

10

5
x
4 3 2 1 1 2

10

aco de g1 (x) = x x3 4x2 + 10


gr

1/2
Ejemplo 35 Con x = g2 (x) = 10 x 4x , podemos ver que g2 no aplica [1, 2] en [1, 2] y
que la sucesion (xn )nN no esta denida para x0 > 1.58113883 . . . . Ademas, tampoco existe
un intervalo que contenga a r para el cual |g2 (x)| < 1 , pues |g2 (r)| 3.4 .
Sergio Plaza 47

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
10 1/2
gr
aco de g2 (x) = x 4x

1/2 1/2
Ejemplo 36 Para x = g3 (x) = 12 10 x3 , tenemos que g3 (x) = 34 x2 10 x3 <0
en [1, 2] , as que g3 es estrictamente decreciente en [1, 2] . Sin embargo |g3 (2)| 2.12 por
lo cual la condici on |g3 (x)|  < 1 falla en [1, 2] . Un an
alisis mas minucioso de la sucesi
on
(xn )nN con p0 = 1.5 revela que basta considerar el intervalo [1, 1.5] en vez de [1, 2] . En este
intervalo la funci on sigue siendo estrictamente decreciente, pero ademas 1 < 1.28 g3 (1.5) 
g3 (x)  g3 (1) = 1.5 para todo x [1, 1.5] en vez de [1, 2] . Esto demuestra que g3 aplica
el intervalo [1, 1.5] en si mismo. Ademas |g3 (x)|  0.66 < 1 , por lo cual el Teorema 2.1 nos
garantiza la unicidad del punto jo y la convergencia del metodo iterativo.

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
1/2
aco de g3 (x) = 12 10 x3
gr

 1/2

10
5
5
Ejemplo 37 Para x = g4 (x) = 4+x , tenemos |g4 (x)| =
10(4+x) 3/2

10(5)3/2
< 0.15
para todo x [1, 2] . La cota en la magnitud de g4 es mucho menor que magnitud de g3 lo


cual explica la convergencia mas rapida que se obtiene con g4 .


Sergio Plaza 48

1.8

1.6
y
1.4

1.2

1 1.2 1.4 1.6 1.8 2


x
 1/2
10
gr
aco de g4 (x) = 4+x

2.7 M
etodos iterativos de punto fijo en varias variables
Extendemos ahora el resultado de convergencia metodos iterativos de punto jo a funciones de
varias variables. Para ellos tenemos el siguiente teorema.

Teorema 2.8 Sea C Rn un conjunto cerrado y acotado, y sea F : C Rn una


on continua. Supongamos que F (C) C , entonces F posee un punto jo. Adem
funci as,
si JF (x)  < 1 para todo x C entonces el punto jo es u
nico, y el proceso iterativo

xn+1 = F (xn ) , n  0.

con x0 C arbitrario, converge al u


nico punto jo.

Demostraci
on. Basta demostrar el siguiente resultado mas debil .
Introducimos el siguiente concepto, que nos ayudara en los siguientes teoremas.

Definicion 2.1 Sea A Rn . Decimos que una funci on F : A Rn es una contracci


on si
existe una constante 0  < 1 tal que para cada x, y A se tiene que

F (x) F (y)  x y.

La menor constante que satisface la desigualdad anterior es llamada la constante de Lip-


schitz de F .

Teorema 2.9 Sea A Rn un conjunto cerrado y acotado, y sea F : A Rn una con-


on, tal que F (A) A , entonces F tiene un u
tracci nico punto jo en A . Adem as, dado
x0 A arbitrario, la sucesi
on (xn )nN denida por xn+1 = F (xn ) , con n  0 , converge al
nico punto jo xF de F . Adem
u as, si elegimos xN como una aproximacion a xF , entonces
se tiene
N
||xN xF ||  ||x0 x1 || (2.21)
1

Demostraci on. Tenemos que F (x) F (y)  x y para todo x, y A . Vamos a


demostrar que dado x0 A arbitrario se tiene que la sucesion (xn )nN denida por xn+1 =
Sergio Plaza 49

F (xn ), n  0 , es una sucesion de Cauchy, y siendo A cerrado y acotado ella es una sucesion
convergente, cuyo lmite es un punto jo de F . Tenemos

xn+1 xn  = F (xn ) F (xn1 )


 xn xn1 
 F (xn1 ) F (xn2 )
 2 xn1 xn2 
= 2 F (xn2 ) F (xn3 )
 3 xn2 xn3 
..
.
 n x1 x0  ,

es decir, xn+1 xn   n x1 x0  y como 0  < 1 se sigue que xn+1 xn  0


cuando n . Ahora sean m > n , digamos m = n + k , con k  1 . Tenemos

xn+k xn   xn+k xn+k1  + xn+k1 xn+k2  + + xn+1 xn 


 (n+k1 + n+k2 + + n )x1 x0 
= n (k1 + k2 + + 1)x1 x0 
 n (1 + + k2 + k1 + )x1 x0 
n
= x1 x0 
1
esto es,
n
xn+k xn   x1 x0 
1
y como limn n = 0 se sigue que (xn )nN es una sucesion de Cauchy, por lo tanto es una
sucesion convergente. Sea xF = limn xn . Ahora como F es una contraccion es continua,
y xF = limn xn+1 = limn F (xn ) = F (limn xn ) = F (xF ) . Finalmente, supongamos
que existen dos puntos jos para F , digamos, xF y xF , entonces

xF xF  = F (xF ) F (xF )  xF xF 

y siendo 0  < 1 , se tiene que xF = xF .

2.7.1 An
alisis de error para m
etodos iterativos de punto fijo

En esta seccion estudiaremos el orden de convergencia de los esquemas de iteracion funcional


y con el proposito de obtener una r
apida convergencia, redescubriremos el metodo de Newton.
Tambien estudiaremos los metodos para acelerar la convergencia de Newton en casos especiales.
Para poder realizar lo antes mencionado necesitamos un procedimiento para medir la rapidez
con la que converge una sucesion dada.
Sergio Plaza 50

Definici
on 2.2 Supongamos que (pn )nN es una sucesi on que converge a p , con pn = p para
todo n sucientemente grande. Si existen constantes positivas y tales que
|pn+1 p|
lim = (2.22)
n |pn p|

decimos que la convergencia a p de la sucesi


on (pn )nN es de orden con constante de error
asint
otica .

Observaci
on. De la dencion de orden de convergencia (2.22), si n es sucientemente grande,
entonces
|pn+1 p|
|pn+1 p| |pn p| .
|pn p|

Definici
on 2.3 Decimos que un metodo iterativo de punto jo xn+1 = g(xn ) es de orden
con constante de error asint on (xn )nN , donde xn+1 = g(xn ) , con n  0 ,
otica si, la sucesi
es orden con constante de error asint otica .

Observaci on. En general una sucesi on con un orden de convergencia alto, converge mas
r
apidamente que una con un orden de convergencia mas bajo. La constante asint otica inuye
en la rapidez de la convergencia, pero no es tan importante como el orden de convergencia.

Respecto al orden de convergencia, hay dos que son de interes.

1. Si = 1 , la sucesion ser
a linealmente convergente.

2. Si = 2 , la sucesion ser
a cuadr
aticamente convergente.

En el siguiente ejemplo se compara una sucesion linealmente convergente con una de orden
cuadr
atico.

Ejemplo 38 Supongamos que (pn )nN y ( pn )nN convergen a cero, siendo la convergencia
|pn+1 |
de (pn )nN lineal con limn |pn | = 0.5 y la convergencia de (
pn )nN es cuadr
atica con
limn || pn+1 |
pn |2
= 0.5 . Por razones de simplicidad supongamos que |
pn+1 |
|
pn |2
0.5 y que |pn+1 |
|pn |
0.5 . As en la convergencia lineal obtenemos que

2 3 n
|pn 0| = |pn | 0.5 |pn1 | (0.5) |pn2 | (0.5) |pn3 | (0.5) |p0 | ,

mientras que en la convergencia cuadr


atica se tiene que
n n
pn1 |2 0.5 (0.5|
pn2|2 )2 = (0.5)3 |
pn2 |2 (0.5)2 1
p0 |2 .
2
|
pn 0| = |
pn | 0.5 | |

Claramente esta u
ltima converge mas rapido que la primera.
atica cuando |p0 | =
La siguiente tabla muestra la rapidez de la convergencia lineal y cuadr
|
p0 | = 1 .
La sucesion con convergencia cuadr atica es del orden de 1038 en el septimo termino. Por
otra parte, se necesitan 126 terminos por lo menos para poder garantizar esta precision en la
sucesion con convergencia lineal.
Sergio Plaza 51

n Lineal Cuadratica
1 5.0000 101 5.0000 101
2 2.5000 101 1.2500 101
3 1.2500 101 7.8125 103
4 6.2500 102 3.0518 105
5 3.1250 102 4.6566 1010
6 1.5625 102 1.0842 1019
7 7.8125 103 5.8775 1039

Teorema 2.10 (orden de convergencia de punto jo) Sea g : [a, b] [a, b] continua.
Supongamos que g  es continua en ]a, b[ y que existe una constante positiva 0  < 1 tal que
|g  (x)|  para todo x ]a, b[ . Si g  (p) = 0 , entonces para cualquier punto p0 [a, b] la
sucesi on
pn = g (pn1 ) , n  1
nico punto jo p [a, b] .
converge linealmente al u

Observaci on. El teorema anterior establece que en el caso de los metodos de punto jo, la
olo puede ocurrir si g  (p) = 0 . El siguiente resultado describe
convergencia de orden superior s
otras condiciones que garantizan la convergencia cuadratica que deseamos.

Teorema 2.11 Sea p un punto jo de g (x) . Supongamos que g  (p) = 0 y que g  es


continua y acotada por M en un intervalo abierto que contiene a p . Entonces existe > 0 tal
que para p0 [p , p + ] la sucesi
on denida por pn = g (pn1 ) , con n  1 , converge al
menos cuadraticamente a p . Adem as, para valores sucientemente grandes de n se tiene que
M 2
|pn+1 p| < |pn p| .
2

Los teoremas anteriores nos indican que nuestra investigacion de los metodos de punto jo
cuadraticamente convergentes deberan conducirnos a funciones cuyas derivadas son anulan en
el punto jo.
La manera mas facil de plantear un problema de punto jo relacionado con la b usqueda de
races de f (x) = 0 consiste en restar un m
ultiplo de f (x) (que desaparecera en la raz). Por
lo tanto, a continuaci
on consideraremos un metodo iterativo de punto jo de la forma

pn = g (pn1 ) , n  1,

con g es de la forma

g (x) = x (x) f (x) ,

donde (x) es una funci


on derivable, y sobre la cual imponemos condiciones m
as adelante.
Para que el procedimiento iterativo dado por g sea cuadraticamente convergente, es necesario
tener que g  (p) = 0 . Dado que

g  (x) = 1  (x) f (x) f  (x) (x)


Sergio Plaza 52

y como f (p) = 0 tenemos que

g  (p) = 1 f  (p) (p)


1
entonces g  (p) = 0 si y solo si (p) = f  (p) .
Es razonable suponer que (x) = f 1(x) , lo cual garantizar
a que (p) = 1
f  (p) . En este caso,
el procedimiento natural para producir la convergencia cuadr atica ser
a
f (pn )
pn+1 = g (pn ) = pn
f  (pn )

que es el metodo de Newton.


En el procedimiento anterior, impusimos la restricci on de que f  (p) = 0 , donde p es la
solucion de f (x) = 0 . Conforme a la denici on del metodo de Newton, es evidente que
pueden surgir dicultades si f  (pn ) tiene un cero simultaneamente con f (pn ) . En particular,
el metodo de Newton y el de la secante ocasionaran problemas si f  (p) = 0 cuando f (p) = 0 .
Para examinar mas a fondo estas dicultades, damos la siguiente denici on.

Definicion 2.4 Un cero p de f (x) = 0 es de multiplicidad m si para x = p podemos escribir


m
f (x) = (x p) q (x) , con limxp q (x) = 0 .

Teorema 2.12 Una funci on f : [a, b] R , derivable m veces, tiene un cero de multiplici-
dad m en p si f (p) = f  (p) = f  (p) = = f (m1) (p) = 0 y f (m) (p) = 0 .

El siguiente ejemplo muestra como la convergencia cuadr


atica posiblemente no ocurra si el
cero no es simple.

Ejemplo 39 La funci on f (x) = ex x 1 posee un cero de multiplicidad 2 en p = 0 , pues


 
f (0) = f (0) = 0 y f (0) = 1 . De hecho podemos expresar f (x) de la siguiente forma

2 ex x 1
f (x) = (x 0)
x2
empleando la regla de LHospital, obtenemos que

ex x 1 ex 1 ex 1
lim = lim = lim =
x0 x2 x0 2x x0 2 2
la siguiente tabla muestra los terminos que se generaron con el metodo de Newton aplicado a
f con p0 = 1 .

Teorema 2.13 Supongamos que F dene un metodo iterativo de punto jo y que F (p) = p ,
F  (p) = F  (p) = = F (m1) (p) = 0 y F (m) (p) = 0 , entonces el metodo iterativo de punto
jo denido por F tiene orden de convergencia m .

Demostraci on. Sea p0 un punto arbitrario y denamos la sucesion (pn )nN por pn+1 =
F (pn ), n  0 . Recordemos que el error es denido por

en = pn p.
Sergio Plaza 53

n pn n pn
0 1.0 9 2.7750 103
1 0.58198 10 1.3881 103
2 0.31906 11 6.9411 104
3 0.16800 12 3.4703 104
4 0.08635 13 1.7416 104
5 0.04380 14 8.8041 105
6 0.02206 15 4.2610 105
7 0.01107 16 1.9142 106
8 0.005545

Tenemos entonces que

en+1 = pn+1 p
= F (pn ) F (p)
= F (p + en ) F (p)
e2n em1 em
F (p) + F  (p)en + F  (p) + + F (m1) (p) n + F (m) (&
p) n F (p)
Taylor
=
2! (m 1)! m!

em
otesis nos queda en+1 = F (m) (&
con p& entre p y p + en . Usando la hip n
p) m! , de donde

en+1  F (m) (p)


lim =
n en  m m!

pues p& p cuando pn p .

2.8 Races m
ultiples
Un metodo para tratar el problema de races m
ultiples consiste en denir la funci
on (x) por
medio de

f (x)
(x) = .
f  (x)
m
Si p es un cero de multiplicidad m entonces podemos escribir f (x) = (x p) q (x) , con
q(p) = 0 . Reemplazando, nos queda

(x p)m q (x) q (x)


(x) = = (x p)
m (x p)
m1
q (x) + (x
m
p) q  (x) mq (x) + (x p) q  (x)

posee un cero en x = p . Pero como q (p) = 0 , derivando y evaluando en x = p , obtenemos

1
 (p) = = 0,
m
Sergio Plaza 54

por lo tanto p es un cero simple de (x) . As podemos aplicar el metodo de Newton a la


funci
on (x) obteniendo

f (x)
(x) f  (x)
g (x) = x =x
 (x) (f  (x))2 f (x) f  (x)
(f  (x))2

desarrollando, nos queda la f


ormula iterativa
f (x) f  (x)
g (x) = x 2 , (2.23)
(f  (x)) f (x) f  (x)

esta es conocida como metodo iterativo de Schr


oder.
Si g satisface las condiciones de diferenciablidad necesarias, la iteracion funcional aplicada a
g sera cuadr aticamente convergente sin importar la multiplicidad de la raz de f . En teora,
nico inconveniente de este metodo es el calculo adicional de f  (x) y el procedimiento m
el u as
laborioso con que se calculan las iteraciones. Sin embargo, en la pr actica la presencia de un
cero m ultiple puede ocasionar serios problemas de redondeo porque el denominador del metodo
arriba consta de la diferencia de dos n umeros que est an cercanos a la raz, es decir, diferencia
de numeros parecidos.

Ejemplo 40 La siguiente tabla contiene las aproximaciones de la raz doble en x = 0 de la


on f (x) = ex x 1 , utilizando el metodo de Schr
funci oder y una m aquina con diez dgitos
de precision. Elegimos la aproximaci on inicial p0 = 1 de manera que las entradas pueden
compararse con las de la tabla del anterior. Lamentablemente no aparece en la tabla es que no
se produce mejoramiento alguno en la aproximaci on de la raz 2.8085217 107 en los calculos
subsecuentes cuando se usa Schroder y esta maquina, ya que el numerador y el numerador se
acercan a cero.

n pn
1 2.3421061 101
2 8.4582788 103
3 1.1889524 105
4 6.8638230 103
5 2.8085217 103

Ejemplo 41 En la secci on f (x) = x3 + 4x2 10 = 0 para la


on anterior resolvimos la ecuaci
raz p = 1.36523001 . Para comparar la convergencia para una raz simple por el metodo de
Newton y el metodo de Schroder, sea
p3n1 + 4p2n1 10
i. pn = pn1 (metodo de Newton)
3p2n1 + 8pn1
y seg
un la f
ormula del metodo de Schr
oder
3
pn1 + pn1 10 3p2n1 + 8pn1
2
ii. pn = pn1 2 .
3p2n1 + 8pn1 p3n1 + p2n1 10 (6pn1 + 8)
Cuando p0 = 1.5 , las tres primeras iteraciones para (i) y (ii) se incluyen en la siguiente tabla.
Los resultados muestran la convergencia rapida en ambos casos.
Sergio Plaza 55

(i) (ii)
p1 1.37333333 1.35689898
p2 1.36526201 1.36519585
p3 1.36523001 1.36523001

Otra manera de acelerar la convergencia del metodo de Newton para races m


ultiples es el
siguiente. Sea p una raz m
ultiple de multiplicidad m de f (x) = 0 . Denamos el siguiente
metodo iterativo

f (x)
Nm (x) = x m .
f  (x)

este metodo tiene convergencia cuadr atica en un intervalo abierto que contiene a p y tiene
convergencia lineal cerca de la races simples de f (x) = 0 .

2.9 Aceleraci
on de convergencia
Existen casos en los que no tenemos convergencia cuadratica, considerando esto a continuaci
on
2
estudiaremos una tecnica denominada metodo de Aitken, la cual sirve para acelerar la
convergencia de una sucesion que sea linealmente convergente.

Supongamos que (pn )n=0 es una sucesion linealmente convergente con limite p . Vamos a

pn )
construir una sucesion ( n=0 convergente a p m
as rapidamente que (pn )n=0 . Supongamos
primero que los signos de pn p, pn+1 p y pn+2 p son iguales y que n es sucientemente
grande para que
pn+1 p pn+2 p
.
pn p pn+1 p

Entonces

2
(pn+1 p) (pn p) (pn+2 p) ,

por lo tanto

(pn+1 )2 2pn+1 p + p2 pn+2 pn (pn + 2pn ) p + p2 ,

al despejar p obtenemos

2
pn+2 pn (pn+1 )
p .
pn+2 2pn+1 + pn

Si sumamos y restamos los terminos p2n y 2pn pn+1 en el numerador podemos escribir esta
u
ltima expresion de la siguiente manera

2
(pn+1 pn )
p pn .
pn+2 2pn+1 + pn
Sergio Plaza 56


El metodo 2 de Aitken se basa en la suposici
on de que la sucesion (
pn )n=0 denida por

2
(pn+1 pn )
pn = pn ,
pn+2 2pn+1 + pn
conocido como metodo de acelaraci
on de Aitken, converge mas rapido a p que la sucesion
original (pn )nN .

Ejemplo 42 La sucesion (pn )nN denida por pn = cos n1 , converge linealmente a p = 1 .
En la siguiente tabla se incluyen los primeros terminos de las sucesiones (pn )nN y (
pn )nN .
Observe que ( pn )nN converge mas rapidamente a p = 1 que (pn )nN . Esto queda claro en la
tabla siguiente

n pn pn
1 0.54030 0.96178
2 0.87758 0.98213
3 0.94496 0.98979
4 0.96891 0.99342
5 0.98007 0.99541
6 0.98614
7 0.98981

La notaci
on asociada a esta tecnica tiene su origen en la siguiente denici
on.

Definici on (pn )nN la diferencia pn es denida por


on 2.5 Dada la sucesi

pn = pn+1 pn .

Las potencias mayores se denotan por k pn y se denen recursivamente por


k pn = k1 pn , k  2.

Tomando en cuenta la denici


on anterior obtenemos que

2 pn = (pn+1 pn ) = pn+1 pn = pn+2 2pn+1 + pn ,

as la f
ormula de aceleracion de convergencia de Aitken se puede escribir como

2
 (pn )
p n = pn . (2.24)
2 pn

Teorema 2.14 Supongamos que la sucesi on (pn )nN converge linealmente a p y que para
todos los valores de n sucientemente grandes se tiene que (pn p) (pn+1 p) > 0 . Entonces
la sucesi pn )nN construida por el metodo de aceleraci
on ( on de convergencia de Aitken converge
con mayor rapidez a p que la sucesi on (pn )nN en el sentido que
pn p
lim = 0.
n pn p
Sergio Plaza 57

Al aplicar un metodo 2 modicado de Aitken a una sucesion linealmente convergente


obtenida mediante iteracion de punto jo podemos acelerar la convergencia. A este proced-
imiento se le conoce con el nombre de metodo de Steensen, y diere un poco de la aplicaci
on
2
del metodo de Aitken directamente a la sucesion de iteraciones de punto jo que convergen
linealmente. El metodo 2 de Aitken deber a construir los terminos en el orden:

' ( ' (
p0 , p1 = g (p1 ) , p2 = g (p1 ) , p0 = 2 p0 , p3 = g (p2 ) , p1 = 2 p1
' 2(
donde indica que se usa le metodo 2 de Aitken.
El metodo de Steensen construye los mismos primeros cuatro terminos p0 , p1 , p2 y p0 .
No obstante, en este paso supone que p0 es una mejor aproximacion de p que p2 y aplica la
on de punto jo a p0 en vez de a p2 . Al aplicar esta notacion, la secuencia generada sera
iteraci

   
(0) (0) (0) (0) (0)
p0 , p1 = g p0 , p2 = g p1 ,

' ( (0)    
(1) (1) (1) (1) (1)
p0 = 2 p0 , p1 = g p0 , p2 = g p1 ,

' ( (1)  
(2) (2) (2)
p0 = 2 p0 , p1 = g p0 , . . .

Ejemplo 43 Para resolver x3 + 4x2 10 = 0 mediante el metodo de Steensen, sea x3 + 4x2 =


10 y resolvamos para x dividiendo entre x + 4 . Con este procedimiento se produce el metodo
de punto jo

 1/2
10
g (x) = ,
x+4

y x = g (x) implica que x3 + 4x2 10 = 0 .


En la siguiente tabla se muestran los valores obtenidos con el metodo de Steensen con
p0 = 1.5 .

k pk0 pk1 pk2


0 1.5 1.348399725 1.367376372
1 1.365265224 1.365225534 1.365230583
2 1.365230013

on p20 = 1.365230013 es de nueve cifras decimales. En este ejemplo,


La exactitud de la iteraci
con el metodo de Steensen se obtuvo casi la misma rapidez de convergencia que con el metodo
de Newton.

Teorema 2.15 Supongamos p que es un punto jo de g (x) , con g  (p) = 1 . Si existe > 0
tal que g es 3 veces derivable y que g  es continua en [a , p + ] , entonces con el metodo
de Steensen obtendremos convergencia cuadr atica para cualquier x [a , p + ] .
Sergio Plaza 58

2.10 Problemas resueltos


Problema 2.1 Sea g(x) = 0.1 + 0.6 cos(2x) .

(a) Pruebe que g(x) dene un metodo iterativo convergente, encontrando explcitamente un
intervalo cerrado y acotado I = [a, b] tal que g(I) I y una constante 0  < 1 tal
que |g  (x)|  para todo x I .

(b) Estime el n
umero de iteraciones que debe hacerse con este metodo de modo que se tengan
4 decimales de precision para el punto jo de g en I si tomamos como condicion inicial
el punto x0 = 0.4 .

(c) Use el metodo de Newton para encontrar una aproximaci on al punto jo de g(x) en I .
Use como condicion inicial x0 = 0.4 y como criterio de parada |xn g(xn )|  105 .

(d) Considere una pequena variaci


on g(x) de g(x) , donde g(x) = 0.2 + 0.6 cos(2x) . Denote
por y
los puntos jos de g y g respectivamente. Demuestre que
0.1
|
| 
1L
donde L es la constante de Lipschitz de la funci
on g Que ocurre con las iteraciones
xn+1 = g(xn ) , donde x0 = 0.45 ? Explique

Soluci
on

(a) Tenemos que g(x) = 0.1 + 0.6 cos(2x) . Para probar que esta funci
on dene un metodo
iterativo convergente, debemos mostrar que

(i) Existe un intervalo cerrado y acotado I que es aplicado en si mismo por g .


(ii) Existe una constante 0  < 1 tal que |g  (x)|  para todo x I .

Es f
acil ver que podemos satisfacer ambas condiciones por separado. Por ejemplo, como

1  cos(2x)  1

para todo x , se sigue que

0.5  g(x)  0.7 ,

0.7

0.6

0.5

0.4

0.3

0.2
0.2 0.3 0.4 0.5 0.6 0.7
x

gr
aco de g en [0.2, 0.7]
Sergio Plaza 59

y como g(x) tiene un maximo en x = 0 , se tiene que

0.2 < g(0.7)  g(g(x))  g(0)  0.7 .

Tambien, g  (x) = 1.2 sen(2x) , luego (b) se satistace si

|x|  0.5 arcsen(1/1.2) 0.49255539 .

Sin embargo ninguno de esos intervalos mencionados satisface ambas condiciones. Debe-
mos encontrar un intervalo adecuado donde se satisfacen ambas condiciones.
No se gana mucho considerando un intervalo que no este contenido en [0.2, 0.7] , pues
todo los valores de g(g(x)) estan en este intervalo. Notemos que g(x) es decreciente
sobre este intervalo (considere la derivada) y como g(0.2) = 0.6526365964... y g(0.7) =
0.2019802857... se tiene que g([0.2, 0.7]) = [0.2019802857..., 0.6526365964...] [0.2, 0.7] =
I . Luego, como puntos extremos de I son llevados en I por g , (a) se satisfecha, pero (b)
requiere que el extremo derecho no sea mayor que 0.5 arcsen(1/1.2) 0.49255539 , luego
el punto extremo izquierdo no puede ser menor que la preimagen de este valor bajo g , la
cual es aproximadamente 0.4288 . Ahora, tomando x0 = 0.45 se tiene que x1 = g(x0 )
0.4729659810 < 0.473 = x1 , y podemos tomar el intervalo J = [0.45, 0.473] I , y se tiene
que g(0.45) 0.4729659810 y g(0.473) 0.4509592536 , y siendo g decreciente en ese
intervalo, se tiene que g(J) = [0.4509592536..., 0.4729659810...] [0.45, 0.473] , es decir,
g(J) J . En este intervalo J se tiene que max{|g  (x)| : x J} = 0.9732987256... =
< 1 . Luego, el metodo propuesto converge para cada x0 J .

0.8

0.6
y
0.4

0.2

0 0.45 0.455 0.46 0.465 0.47


x

aco de |g  (x)| en J
gr
n
(b) Usaremos la formula |xn xg |  1

|x0 x1 | , donde = max{|g  (x)| : x J} =
0.9732987256... y xg es el punto jo de g que andamos buscando. Para simplicar,
tomamos un = 0.98 > en el numerador, pues tenemos que 1/(1 ) 37.45139595
y 1/(1 0.98) 50.00 . Luego

n 1 n n |x0 x1 |
|xn xg |  |x0 x1 |  |x0 x1 | = 50
1
1

tomando un valor x 1 < x1 | , agrandamos la diferencia |x0 x1 , por ejemplo, tomamos


x1 = 0.473 , y tememos 0.72965981 101 |x0 x1 |  |x0 x1 | = |0.4 0.473| = 0.073 .
Reemplazando esos valores en la u ltima parte de la desigualdad anteior, obtenemos
Sergio Plaza 60

50 (0.98)n 0.073  104


es decir,
3.65 (0.98)n  104
de donde
(0.98)n  0.27397 104
ahora, tomando logartmo natural, nos queda

n ln(0.98)  ln(0.27397 104 ) 10.50507704


de donde, n  ln(0.8695652174104)/ ln(0.98) 519.9836,. Luego, debemos tomar n 
520 como el n
umero de iteraciones para asegurar que tenemos 4 decimales de precisi
on.

(c) Para encontrar el punto jo de g debemos resolver la ecuacion g(x) = x , es decir,


0.1 + 0.6 cos(2x) = x , de donde debemos encontrar una raz de la ecuacion f (x) =
0.1 + 0.6 cos(2x) x = 0 . Usando el metodo de Newton, tenemos

f (x)
Nf (x) = x
f  (x)
0.1 + 0.6 cos(2 x) x
= x
1.2 sin(2 x) 1
0.5 (12 x sin(2 x) + 1 + 6 cos(2 x))
=
6 sin(2 x) + 5

Comenzando con las iteraciones, y usando que xn+1 = g(xn ) , y trabajando con 12 dgitos
se tiene que
x1 = Nf (0.4) = 0.463425566162 , e1 = |x1 x0 | = 0.13425566162 101
x2 = Nf (x1 ) = 0.461786298387 , e2 = |x2 x1 | = 0.1639267775 102
x3 = Nf (x2 ) = 0.461785307874 , e3 = |x3 x2 | = 0.990513 106
x4 = Nf (x3 ) = 0.461785307873 , e4 = |x4 x3 | = 0.1 1011 .
Ademas, g(x4 ) = 0.461785307873 = x4 , por lo tanto, salvo errores de orden mayor que
1011 se tiene que el punto jo es xg = 0.461785307873

(d) Es f
acil ver gracamente que g tiene un punto jo
.

0.8

0.6

0.4

0.2

0 0.2 0.4 0.6 0.8 1


x

gr
aco de g en [0, 1]
Sergio Plaza 61

Soluci on Num erica. Podemos usar el metodo de Newton para aproximar . Para
ello debemos resolver la ecuacion g(x) = x , es decir, si denimos la funci
on r(x) =
0.2 + 0.6 cos(2x) x , dedemos encontrar una raz de r . Ahora, como r(x) = 0.2 +
0.6 cos(2 x) x , se tiene que r (x) = 1.2 sin(2 x) 1 y
r(x)
Nr (x) = x
r (x)
viene dada por
0.2 + 0.6 cos(2 x) x 6 x sin(2 x) + 1 + 3 cos(2 x)
Nr (x) = x =
1.2 sin(2 x) 1 6 sin(2 x) + 5
Tomando y0 = 0.4 , tenemos
y1 = Nr (y0 ) = 0.5171651042 , E1 = 0.1171651042
y2 = Nr (y1 ) = 0.5119943202 , E2 = 0.0051707840
y3 = Nr (y2 ) = 0.5119861755 , E3 = 0.81447 105
y4 = Nr (y3 ) = 0.5119861754 , E4 = 0.1 109
y podemos considerar que salvo un error, = y4 = 0.5119861754 , pues g(y4 ) =
0.5119861753 y g(y4 ) y4 = 0.1 109 , es decir, consideremos
= y4 = 0.5119861753
Ahora, calculemos la constante de Lipschitz de g(x) = 0.1 + 0.6 cos(2x) . Tenemos,

|g(x) g(y)| = |0.6 cos(2x) 0.6 cos(2y)|


= 0.6| cos(2x) cos(2y)|
= 0.6|2sen(2)| |x y|
donde esta entre x e y , y x, y [0.45, 0.473] . Debemos maximizar la expresion
sen(2) para [0.45, 0.473] . Se tiene que max{|sen(2)| : [0.45, 0.473]}
0.8110822713 , luego

|g(x) g(y)|  1.2 0.8110822713 |x y|


es decir,
|g(x) g(y)|  0.9732987256 |x y| .
y tomamos L = 0.973298726 . Tememos = xg = 0.461785307873 y = 0.5119861753 ,
luego
0.1 0.1
|
| = 0.050200867  = = 3.745139651 .
1L 1 0.973298726
Soluci
on Te
orica.
Tenemos
| |
= | ) g()|
g (
= |0.2 + 0.6 cos(2
) 0.1 0.6 cos(2)|
= |0.1 + 0.6 cos(
) 0.6 cos()|
 0.1 + |0.1 + 0.6 cos(2
) (0.1 + 0.6 cos())|
= 0.1 + |g(
) g()|
 0.1 + L|
| .
Sergio Plaza 62

Es decir, hemos probado que |


|  0.1 + L|
| , de donde, |
|(1 L)  0.1 ,
1
y de aqu, |
|  1L como se peda.

Problema 2.2 Sea f (x) = (x 1) ln(x) .

(a) Determine la formula de Newton xn+1 = g(xn ) . Tomando como valor inicial x0 = e ,
calcule las primeras dos iteraciones x1 y x2 del metodo.

(b) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1.

(c) De un metodo alternativo de iteracion que garantice un orden de convergencia p = 2 y


demuestre que efectivamente este es su orden de convergencia.

Soluci
on.

(a) La frmula del metodo de Newton para encontrar la raz de f (x) = (x 1) ln x = 0 es:
(xn 1) ln xn xn (xn ln xn + (xn 1) (xn 1) ln xn )
xn+1 = g(xn ) = xn xn 1 =
ln xn + xn xn ln xn + (xn 1)
xn 1 + ln xn
= xn .
xn 1 + xn ln xn

Tomando x0 = e y simplicando al m
aximo, obtenemos
e2 e2 (e + 1)2 2 ln(2e 1)
x1 = y x2 = 2
2e 1 2e 1 e (2 ln(2e 1)) + (e 1)2

(b) La raz de f (x) = 0 es evidentemente x = 1 y es una raz doble, es decir, f (1) = 0,


f  (1) = 0, y f  (1) = 0. En efecto, es claro que f (1) = 0. Ademas, f  (x) = ln x + 1 x1 .
As, f  (1) = 0. Por u ltimo, f  (x) = x1 + x12 y por lo tanto f  (1) = 2 = 0. Esto muestra
que x = 1 es una raz doble de f (x) = 0. Como se vi en clases, esto implica que la funcin
de iteracin del metodo de Newton g(x) satisface que
1 1
g  (1) = 1 = .
2 2
Luego, como |g  (1)| < 1, el metodo de Newton es convergente, partiendo de un punto x0
sucientemente cercano a 1, pero su orden de convergencia es slo 1, pues g  (1) = 0.

(c) Como es sabido de lo visto en clases, la forma de reparar el orden de convergencia


cuadratico del metodo de Newton es mediante el metodo de Newton modicado, el cual
se obtiene multiplicando el cuociente ff(x)
(x) (en la frmula de Newton) por la multiplicidad
de la raz (que en este caso es 2), es decir,
(xn 1) ln xn xn 1 + (2 xn ) ln xn
xn+1 = g&(xn ) = xn 2 = xn .
ln xn + xnx1
n
xn ln xn + xn 1

Con esto, por lo que se vi en clases, obtenemos que


1
g& (1) = 1 2 = 0,
2
lo cual implica que el metodo de Newton modicado converge cuadr
aticamente, partiendo
de un punto x0 sucientemente cercano a 1.
Sergio Plaza 63

Problema 2.3 Considere la ecuacion

cos(x) = tan(x),
de la cual se sabe que tiene una soluci = 0.6662394321 , con un error de 0.9 109 .
on x

(a) Dena un metodo de punto jo (diferente a Newton) y demuestre su convergencia (sin


hacer iteraciones) en el intervalo que usted dena.

(b) Cuantas iteraciones necesitara para obtener el error de 0.9 109 comenzando con
x0 = 0.6 ?

(c) Use el metodo de Newton con el punto inicial x0 = 0.6 y obtenga x1 y x2 Cu al es la


velocidad de convergencia del metodo de punto jo propuesto por usted en la parte (a)?

Soluci
on.
(a) Propuesta del metodo.
Despejando de la ecuaci
on tenemos

x = arctan(cos(x)) = g(x) ,

es decir,

xk+1 = g(xk ) = arctan(cos(xk )) .

Elegimos el intervalo [0, 1] , tenemos que g(x) = arctan(cos(x)) es decreciente en ese inter-
d sen(x)
valo, pues g  (x) = arctan(cos(x)) = y como g(0) = arctan(cos(0)) = y
dx 1 + cos2 (x) 4
g(1) = arctan(cos(1)) 0.4953672892 , vemos que g([0, 1]) [0, 1] . Por lo tanto, g tiene un
u
nico punto jo xg en [0, 1] .

0.75

0.7

0.65

0.6

0.55

0.5
0 0.2 0.4 0.6 0.8 1
x

d sen(x)
Ahora, g  (x) = arctan(cos(x)) = . Luego,
dx 1 + cos2 (x)

x)| = |g  (0.6662394321)| 0.381964618 < 1


|g(

y el metodo iterativo propuesto es convergente.


Sergio Plaza 64

(b) Para estimar el n


umero de iteraciones podemos usar la formula para cotas del error

n
|xn x
|  |x0 x1 | ,
1

donde 0  < 1 es tal que |g  (x)|  para todo x ] a, b [ . Ahora como |g  (x)| =
|sen(x)| sen(x)
= 1+cos
1+cos2 (x) 2 (x) , para x [0, 1] , es una funci
on creciente, se sigue que

sen(1)
|g  (x)|  0.5463024898  0.55
1 + cos2 (1)

y podemos usar = 0.55 .


Tenemos que x0 = 0.6 , luego x1 = 0.6899997083 y |x0 x1 | = 0.0899997083 . Luego

0.55n
0.0899997083  0.9 109
1 0.55
0.55n  4.50001458 109
n ln(0.55)  ln(4.50001458 109 )
n(0.5978370008)  19.2191852

de donde n  32.14786836 , por lo tanto basta tomar n = 33 iteraciones para tener lo pedido.

(c) Tenemos que Nf (x) = x ff(x)(x) , donde en este caso, f (x) = tan(x) cos(x) . Como
 2
f (x) = 1 + tan (x) + sen(x) , se tiene que

tan(x) cos(x)
Nf (x) = x
1 + tan2 (x) + sen(x)

luego, calculando obtenemos x1 = 0.6694641628 y x2 = 0.6660244822 . Ahora, como f  ( x)


2.236067976 = 0 el metodo de Newton tiene convergencia cuadratica, es decir, orden p = 2 .
Para analizar la convergencia del metodo propuesto en (a) tenemos que buscar la primera
derivada no nula en el punto jo, y por los calculos ya realizados se tiene que g  (
x) = 0 , por
tanto el metodo tiene orden de convergencia p = 1 . Por lo tanto, el metodo de Newton converge
mucho mas r apido, en este caso.

Problema 2.4 Se desea resolver la ecuacion x3 ln(1 + 2x) = 0.

1. Compruebe que esta ecuacion tiene exactamente una solucion en el intervalo [1, 2] .

2. Proponga un metodo iterativo de punto jo (diferente de Newton) que converja a la


soluci
on de la ecuaci
on en el intervalo [1, 2]. Justique.

3. Partiendo de x0 = 1, determine el numero mnimo de iteraciones que se necesitaran para


4
alcanzar una precision de 10 , utilizando el metodo iterativo propuesto anteriormente.

Soluci
on.
Sergio Plaza 65

1. Tenemos la ecuacion

f (x) = x3 ln(1 + 2x) = 0 .

Es claro que el dominio de f es {x R : x > 1/2} , en el cual f es continua y


diferenciable.
Ahora,
2 3x2 (1 + 2x) 2 6x3 + 3x2 2
f  (x) = 3x2 = = .
1 + 2x 2x + 1 2x + 1
El denominador de f es positivo en el intervalo [1,2] y su numerador h(x) = 6x3 + 3x2 2
tambien es positivo en dicho intervalo, pues h (x) = 18x2 + 6x = 0 si y solo si x = 0 o
18x + 6 = 0 , es decir, x = 1/3. Con esto, es claro que h (x) > 0 en el intervalo [1, 2],
luego h es estrictamente creciente en [1, 2] . Adem as, como h(1) = 6 + 3 2 = 7 , se sigue
que h(x) > 0 en todo [1, 2] . Por lo tanto f  (x) > 0 en [1, 2] , en consecuencia si tiene un
nico. Ahora, como f (1) = 1ln(3) 0.09861 . . . < 0
cero en dicho intervalo, este sera u
y f (2) = 8 ln(5) 6.39056 . . . > 0 , por el Teorema del Valor Intermedio, f tiene un
cero en [1, 2] , y como vimos, este es u nico.

2. Despejando x desde la igualdad

x3 ln(1 + 2x) = 0

tenemos 
3
x= ln(1 + 2x) .

Proponemos entonces el metodo iterativo de punto jo


3
xn+1 = g(xn ) = ln(1 + 2xn ) .

Tenemos

2 1 1
g  (x) = >0
3 (ln(1 + 2x))2/3 2x + 1

en [1, 2] . Por lo tanto, g es creciente en [1, 2] .


Ahora, para ver que g([1, 2]) [1, 2] , basta ver que 1  g(1)  g(2)  2 . Tenemos

1 < 1.03184584
 . ..  1.171902307
  . ..  2
g(1) g(2)

de donde g([1, 2]) [1, 2] y como g es estrictamente creciente, en ese intervalo, g tiene
nico punto jo xg g([1, 2]) [1, 2] .
un u
Para ver la convergencia del metodo propuesto, debemos probar que |g  (x)|  < 1 para
todo x [1, 2] .
Ahora, g  (x) es decreciente en [1, 2] y g  (1) = 0.208717132 > g  (x) > g  (2) = 0.0970858457 .
Por lo tanto = max{|g  (x)| : x [1, 2]} = 0.2087170132 y es claro que < 1 .
Por lo tanto el metodo propuesto es convergente al u
nico punto jo de g en [1, 2] .
Sergio Plaza 66


3. Tomando x0 = 1 , tenemos que x1 = g(1) = 3
ln(3) = 1.03184584 . . .Usando la formula

n
|xg xn |  |x1 x0 |,
1
on de 104 , imponemos entonces que
si queremos precisi

n
|x1 x0 |  104 .
1
Como |x1 x0 | = |0.0318458398 . . .| < 0.032 (para evitar el calculo con tantos decimales)
y = 0.2087170132 , se tiene 1 = 0.7912829868 . . . > 0.79 (misma razon anterior)
1 1
As < , y como < 0.21 nos queda
1 0.79
n (0.21)n
 .
1 0.79
Luego

n (0.21)n
|x1 x0 |  0.032 = (0.21)n 0.0405063 . . .  (0.21)n 0.041
1 0.79
104
y hacemos 0.041 (0.21)n < 104 , de donde (0.21)n < , y entonces
 4  0.041
10
n ln(0.21)  ln y como ln(0.21) < 0 , se sigue que
0.041

 
104
ln
0.041
n  3.8549104 . . .
ln(0.21)

Por lo tanto, con al menos 4 iteraciones tenemos garantizado lo pedido.

Problema 2.5 Considere el siguiente sistema de ecuaciones no lineales


x21 + x2 37 = 0
x1 x22 5 = 0

x1 + x2 + x3 3 = 0

(a) Utilizando el metodo de Newton para sistemas no lineales y tomando como punto inicial
x0 = (0, 0, 0)T , obtenga el punto x1 .

(b) Cuando se utiliza el metodo de Newton para sistemas no lineales, una alternativa para
no calcular la inversa de una matriz en cada iteraci on es resolver un sistema auxiliar de
ecuaciones linwales en cada iteracion, lo cual es desde el punto de vista numerico siempre
resulta mas conveniente.
Describa el sistema de ecuaciones lineales que debera resolver para obtener el punto x1
de la parte (a) y calcule el n
umero de condicionamiento de la matriz del sistema con
respecto al redio espectral puede inferir algo sobre la estabilidad de las soluciones del
sistema?
Sergio Plaza 67

Soluci
on. Tenemos el sistema de ecuaciones no lineales siguiente


x21 + x2 37 = 0
x1 x22 5 = 0

x1 + x2 + x3 3 = 0

a) Metodo de Newton. Llamemos

f1 (x1 , x2 , x3 ) = x21 + x2 37
f2 (x1 , x2 , x3 ) = x1 x22 5
f3 (x1 , x2 , x3 ) = x1 + x2 x3 3

y F (x1 , x2 , x3 ) = (f1 (x1 , x2 , x3 ), f2 (x1 , x2 , x3 ), f3 (x1 , x2 , x3 )) .


El metodo de Newton es dado por

(k+1) (k) (k) (k) (k)


x1 x1 f1 (x1 , x2 , x3 )


(k+1) (k) (k) (k) (k) 1
x2 = x2 JF (x1 , x2 , x3 ) f2 (x(k) (k) (k)
1 , x2 , x3 )


(k+1) (k) (k) (k) (k)
x3 x3 f3 (x1 , x2 , x3 )

Ahora,
f1 f1 f1
x1 x2 x3


f2 f2 f2
JF = .
x1 x2 x3

f3 f3 f3
x1 x2 x3

Derivando, tenemos

 
F f1 f2 f3
= , , = (2x1 , 1, 1)
x1 x1 x1 x1
 
F f1 f2 f3
= , , = (1, 2x1 , 1)
x2 x2 x2 x2
 
F f1 f2 f3
= , , = (0, 0, 1)
x3 x3 x3 x3

Luego,


2x1 1 0
JF (x1 , x2 , x3 ) = 1 2x2 0 .
1 1 1

Evaluando en x(0) = (0, 0, 0)T nos queda la matriz


Sergio Plaza 68


0 1 0
JF (0, 0, 0) = 1 0 0 .
1 1 1

Para calcular (JF (0, 0, 0))1 , lo podemos hacer en forma simple, escribiendo


0 1 0 a11 a12 a13 1 0 0
1 0 0 a21 a22 a23 = 0 1 0
1 1 1 a31 a32 a33 0 0 1
de donde a21 = 1 , a22 = 0 , a23 = 0 , a11 = 0 , a13 = 0 , a11 + a21 + a31 = 0 , de donde,
a31 = 1 ; a12 + a22 + a32 = 0 , de donde, a32 = 1 ; a13 + a23 + a33 = 1 , de donde, a33 = 1 .
Por lo tanto,

1
0 1 0 0 1 0
1 0 0 = 1 0 0
1 1 1 1 1 1

Tenemos, F (0, 0, 0) = (37, 5, 5) . Por lo tanto,


(1)

x1 0 0 1 0 37 5
(1)
x2 = 0 1 0 0 5 = 37
(1) 0 1 1 1 3 39
x3

b) Para obtener la formula pedida, recordemos lo hecho en clases para sistemas de ecuaciones
no lineales, en este caso de 3 3 . Sean (x1 , x2 , x3 ) una solucion aproximada del sistema de
ecuaciones no lineales, y sea (x1 + h1 , x2 + h2 , x3 + h3 ) la soluci
on exacta. Aplicando Taylor,
obtenemos

f1 f1 f1
0 = f1 (x1 + h1 , x2 + h2 , x3 + h3 ) f1 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3

f2 f2 f2
0 = f2 (x1 + h1 , x2 + h2 , x3 + h3 ) f2 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3

f3 f3 f3
0 = f3 (x1 + h1 , x2 + h2 , x3 + h3 ) f3 (x1 , x2 , x3 ) + h1 + h2 + h3
x1 x2 x3
donde las derivadas parciales est
an evaluadas en (x1 , x2 , x3 ) . De lo anterior, tenemos que


h1
JF (x1 , x2 , x3 ) h2 = F (x1 , x2 , x3 ) .
h3
Ahora, usando los datos, tenemos


37
(0) (0) (0)
F (x1 , x2 , x3 ) = 5 ,
3
Sergio Plaza 69


0 1 0
(0) (0) (0)
JF (x1 , x2 , x3 ) = JF (0, 0, 0) = 1 0 0 .
1 1 1

Por lo tanto el sistema de ecuaciones lineales es dado por


0 1 0 h1 37
1 0 0 h2 = 5
1 1 1 h3 3

De aqu, h2 = 37 , h1 = 5 y h1 + h2 + h3 = 3 , de donde h3 = 39 .
Ahora, como

(1)
(0)
x1 x1 h1
(1) (0)
x2 = x2 + h2 ,
(1) (0) h3
x3 x3

se tiene que
(1)

x1 5
(1)
x2 = 37
(1) 39
x3

el cual coincide, obviamente, con el c


alculo hecho en la parte (a) .
El n
umero de condici on con respecto al radio espectral, signica que usando la norma sub-
ordinada || ||2 , se tiene que

)
max{|| : valor propio de AAT }
k(A) = .
min{|| : valor propio de AAT }

LLamando


0 1 0
A= 1 0 0 ,
1 1 1

Se tiene que

0 1 1
AT = 1 0 1 .
0 0 1

Luego


0 1 0 0 1 1 1 0 1
AAT = 1 0 0 1 0 1 = 0 1 1
1 1 1 0 0 1 1 1 3
Sergio Plaza 70


1 0 1
AA I = 0
T
1 1
1 1 3
y

det(AAT ) = (1 )2 (3 ) (1 ) (1 ) = (1 )((1 )(3 ) 2)

luego, det(AAt I) = 0 si 1 = 1 o 2 4 + 3 = 0 , de donde 2 = 3 y 3 = 1 . Luego,


max{|| : valor
* propio de AAT } = 3 y min{|| : valor propio de AAT } = 1 . Por lo

tanto, k(A) = 31 = 3 . Como el n umero de condici
on de A es relativamente peque
no, esl
sistema esta bien condicionado y es estable.

Problema 2.6 Resuelva usando el metodo de Newton para varias variables, el siguiente sistema
no lineal:
3x21 x22 = 0
3x1 x22 x31 = 1

Para esto, tome como punto inicial x(0) = (1, 1)T y realice dos iteraciones, es decir, calcule x(1)
y x(2) .

Soluci
on. Tenemos el sistema de ecuaciones no lineales


f (x, y) = 3x2 y 2 = 0
g(x, y) = 3xy 2 x3 1 = 0 .

Sea F (x, y) = (f (x, y), g(x, y)) . El metodo de Newton aplicado a F es dado por

NF (x, y) = (x, y) (JF (x, y))1 F (x, y) .

Ahora,

f f
(x, y) (x, y)
x y  
6x 2y
JF (x, y) = = .
g g 3y 3x2
2
6xy
(x, y) (x, y)
x y

Luego, det JF (x, y) = 36x2 y + 2y(3y 2 3x2 ) = 36x2 y + 6y 3 6x2 y = 30x2 y + 6y 3 =


6y(5x2 + y 2 ) . Por lo tanto det JF (x, y) = 0 si y = 0 y (x, y) = (0, 0) .
Como x(0) = (1, 1)

   
x1 x0
= (JF (x0 , y0 ))1 F (x0 , y0 )
y1 y0
y  
6 2
JF (x0 , y0 ) = JF (1, 1) =
0 6
Sergio Plaza 71

se tiene que det JF (x0 , y0 ) = 36 y

1 1
6 2 6 18 2
1 =
(JF (1, 1))1 =
36 1
0 6 0 6 1
 
2 1 1
= + ,
6 18 6
 
7 1
= ,
18 6

   
(1) 7 1 11 5
x = (x1 , y1 ) = (1, 1) , = ,
18 6 18 6

Para x(2) , tenemos


11 5
 
11 5 3 3

JF (x1 , y1 ) = JF , =
18 6 26 55
27 18
2075
luego det JF (x1 , y1 ) = .
162
Ahora,


55 5 99 54
18
3 415 415
162
(JF (x1 , y1 ))1 = =
2075 26 11 156 594

27 3 2075 2075

As


99 54 23
415
415 54

(JF (x1 , y1 ))1 F (x1 , y1 ) =
156 594 131

2075 2075 2916
 
1204 2147
= ,
11205 112050

= (0.1074520303 , 0.01916108880) .

Luego,
Sergio Plaza 72

   
11 5
1204 2147
x(2) = (x2 , y2 ) = , ,
18 5
11205 112050
 
11287 47761
= ,
22410 56025

= (0.5036590808 , 0.8524944221)

Una forma alternativa y mas simple es resolver en cada paso un sistema de ecuaciones lineales,
para ello recordemos que el metodo de Newton es dado
     
xn+1 xn hn
= + ,
yn+1 yn kn

 
hn
donde es la soluci
on del sistema de ecuaciones lineales
kn
 
hn
JF (xn , yn ) = F (xn , yn )
kn

Tenemos, F (x, y) = (3x2 y 2 , 3xy 2 x3 1)

 
6x 2y
JF (x, y) =
3y 2 3x2 6xy
 
6 2
Como (x0 , y0 ) = (1, 1) nos queda JF (x0 , y0 ) = y F (x0 , y0 ) = (2, 1) , obtenemos
0 6
as el sistema de ecuaciones lineales

    
6 2 h0 2
=
0 6 k0 1
1
de donde 6k0 = 1 , es decir, k0 = ; la otra ecuacion es 6h0 2k0 = 2 , y de aqu
6
7
h0 = . Luego
18

7 11
x1 1 18 18
= +


=


1 5
y1 1
6 6
 
x2
Para debemos resolver el sistema
y2
 
h1
JF (x1 , y1 ) = F (x1 , y1 )
k1

Este sistema es
Sergio Plaza 73


11 5 23
3  
3
h1

54

=
26 55 k1 131
27 18 2916
cuya soluci
on es
 
1024 2147
(h1 , k1 ) = , = (0.10745203030 , 0.01916108880) .
11205 112050

Luego,
 
11 1024 5 2147
(x2 , y2 ) = (x1 , y1 ) + (h1 , k1 ) = , + = (0.5036590808 , 0.8524944221)
18 11205 6 112050

2.11 Ejercicios
Problema 2.1 Use el manejo algebraico para demostrar que las siguientes funciones tienen un
punto jo en p exactamente cuando f (p) = 0 , donde f (x) = x4 + 2x2 x 3 .

1/4
1. g1 (x) = 3 + x 2x2
 1/2
x+3x4
2. g2 (x) = 2

 1/2
x+3
3. g3 (x) = x2 +2

3x4 +2x2 +3
4. g4 (x) = 4x3 +x1

Problema 2.2 1. Efect


ue cuatro iteraciones, si es posible hacerlo, en las funciones denidas
en el problema anterior, considerando p0 = 1 y pn+1 = g (pn ) , n = 0, 1, 2, 3 .

2. Cu
al funci
on, a su juicio, dar
a la mejor aproximaci
on a la soluci
on?

Problema 2.3 Se proponen los siguientes metodos para calcular 211/3 . Clasique por orden,
andose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
bas

20pn1 + 21
p2
n1
1. pn = 21

p3n1 21
2. pn = pn1 3p2n1

p4n1 21pn1
3. pn = pn1 p2n1 21

 1/2
21
4. pn = pn1


Problema 2.4 Aplique el metodo de biseccion para determinar c3 , para f (x) = x cos(x)
en [0, 1] .
Sergio Plaza 74


Problema 2.5 Sea f (x) = 3 (x + 1) x 12 (x 1) . Aplique el metodo de biseccion para
determinar c3 en los siguientes intervalos
 
1. 2, 32
 
2. 54 , 52

Problema 2.6 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproxiamciones a las soluciones de x3 7x2 + 14x 6 = 0 con una exactitud de 102 .

1. [0, 1]
 
2. 1, 165
 
3. 165 ,4

Problema 2.7 Aplique en los siguientes intervalos el metodo de biseccion para determinar las
aproximaciones a las soluciones de x4 2x3 4x2 + 4x + 4 = 0 con una exactitud de 102 .

1. [2, 1]

2. [0, 2]

3. [2, 3]

4. [1, 0]

Problema 2.8 Aplique el metodo de biseccion para determinar una aproximaci


on a la soluci
on
 
de tan(x) = x con una exactitud de 103 en el intervalo 4, 92 .

Problema 2.9 Aplique el metodo de biseccion para determinar una aproximaci on a la soluci
on
 
de 2 + cos (ex 2) ex = 0 con una exactitud de 103 en el intervalo 12 , 32

Problema 2.10 En cada caso aplique el metodo de biseccion para determinar una aproxi-
on con una exactitud de 105 .
macion a la soluci

1. x 2x = 0 para x [0, 1] .

2. ex x2 + 3x 2 = 0 para x [0, 1] .
2
3. 2x cos (2x) (x + 1) = 0 para x [3, 2] y para x [1, 0] .
 3  
4. x cos (x) 2x2 + 3x 1 = 0 para x 15 , 10 y para x 65 , 13
10 .


Problema 2.11 Determine una aproximaci
on de 3 con una exactitud de 104 usando el
metodo de biseccion.

Problema 2.12 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 103 de la soluci
on de x3 + x 4 = 0 en el intervalo
[1, 4] .
Sergio Plaza 75

Problema 2.13 Determine una cota del numero de iteraciones que se requiere para alcanzar
una aproximacion con una exactitud de 103 de la soluci
on de x3 x 1 = 0 en el intervalo
[1, 2] .

10
Problema 2.14 Sea f (x) = (x 1) , p = 1 y pn = 1 + n1 . Demuestre que |f (pn )| < 103
para todo n > 1 , mientras que |p pn | < 103 solo si n > 1000 .
n 1
Problema 2.15 Sea (pn )nN la sucesion dada por pn = k=1 k . Demuestre que (pn )nN
un cuando limn (pn pn1 ) = 0 .
diverge a

Problema 2.16 Los cuatro siguientes metodos tienen por objeto calcular 71/5 . Clasique por
andose para ello la rapidez de convergencia y suponiendo que p0 = 1 en cada caso.
orden, bas

 1/2
7p3n1
1. pn = 1 + p2n1

p5n1 7
2. pn = pn1 p2n1

p5n1 7
3. pn = pn1 5p4n1

p5n1 7
4. pn = pn1 12

5. Aplique el metodo de iteraci


on de punto jo para determinar una soluci
on con una exac-
titud de 102 para x4 3x2 3 = 0 en [1, 2] . Utilice p0 = 1 .

Problema 2.17 La ecuacion x2 x 1 = 0 tiene una raz positiva 1.61803398 .


Proponga un metodo iterativo convergente, no Newton, para aproximar dicha raz.
x2 + 1
on. Tenemos x2 x = 0 2x2 x = x2 + 1 x(2x 1) = x2 + 1 x =
Indicaci .
2x 1
x2 + 1
Proponemos g(x) = como metodo iterativo.
2x 1
   
3 3
Afirmaci
on 1 g : ,2 ,2
2 2
Afirmaci
on 2 g es una contraccion.

Problema 2.18 Considere la ecuacion ex x2 + 3x 2 = 0 .

1. Proponga un metodo de punto jo, explicitando un intervalo [a, b] contenido en [0, 1]


que contenga dicha raz, para resolver esta ecuacion. Justique porque el metodo por Ud.
propuesto es convergente.

2. Suponga que realizamos iteraciones con el metodo propuesto en el item anterior hasta
obtener un error absoluto no mayor que 105 respecto de la raz exacta. Sin utilizar
calculadora, encuentre este n
umero de iteraciones, para ellos use el intervalo [a, b] explic-
itado.

Problema 2.19 Sean f (x) = x2 6 y x0 = 1 . Aplique el metodo de Newton para determinar


x4 .
Sergio Plaza 76

Problema 2.20 Sean f (x) = x3 cos(x) y x0 = 1 . Aplique el metodo de Newton para


determinar x4 Podramos utilizar x0 = 0 ?

Problema 2.21 Considere la ecuacion no lineal


 2 
x +5
cos =0
x4 + 1

se sabe que esta ecuacion tiene una u


nica raz en el intervalos [0, 1] . Use los metodos de Newton
y secante para aproximar la raz. Para Newton use x0 = 0 y para secante use x0 = 0 y x1 = 1 .

Problema 2.22 Sean f (x) = x2 6 , x0 = 3 y x1 = 2 determine x3 .

1. Aplique el metodo de la secante.

2. Aplique el metodo de Regula Falsi.



3. Que metodo da una mejor aproximaci
on de 6?

Problema 2.23 Aplique el metodo de Newton para obtener soluciones con una exactitud de
105 para los siguiente problemas.

1. x3 2x2 5 = 0 , x [1, 4] .
 
2. x cos x = 0 , x 0, 2 .

3. x3 + 3x2 1 = 0 , x [3, 2] .
 
4. x 0.8 0.2sen(x) = 0 , x 0, 2 .

5. ex + 2x + 2 cos(x) 6 = 0 , x [1, 2] .

6. ln (x 1) + cos (x 1) = 0 , x [1.3, 2] .
2
7. 2x cos(x) (x 2) = 0 , x [2, 3] .

8. sen(x) ex = 0 , x [0, 1] .

Problema 2.24 Utilice el metodo de Newton para aproximar con exactitud de 105 el valor
de x en la graca de y = x2 mas cercano del punto (1, 0) .

Problema 2.25 Utilice el metodo de Newton para aproximar con exactitud de 105 el valor
de x en la graca de y = x1 mas cercano del punto (2, 1) .

Problema 2.26 Con una exactitud de 105 y utilizando el metodo de Newton resuelva la
ecuacion 12 + 14 x2 xsen(x) 12 cos (2x) = 0 , con condici
on inicial x0 = 2 . Explique por que
el resultado parece poco usual para el metodo de Newton. Tambien resuelva la ecuacion con
x0 = 5 y x0 = 10 .

on f : R R denida por f (x) = 3x5 10x3 + 23x


Problema 2.27 Considere la funci

a) Pruebe que f (x) = 0 tiene una soluci


on en el intervalo [2, 2] .
Sergio Plaza 77

b) Usando el metodo de Newton con la condici on inicial x0 = 1.07 y el criterio de parada


|f (x)|  106 , encuentre una aproximacion a una raz de f (x) .

c) Usando el metodo de Newton con la condici


on inicial x0 = 1.06 realice iteraciones Que
ocurre en este caso? Explique.

d) Demuestre la convergencia de los iterados del metodo de Newton cerca de la raz que
encontr
o b).

e) Considere el siguiente metodo iterativo

f (x)f  (x)
Sf (x) = x .
(f (x))2 f (x)f  (x))

Considere las dos condiciones iniciales x0 = 1.07 y x0 = 1.06 y realice las iteraciones en
ambos caso Que ocurre?

Problema 2.28 Se sabe que la ecuacion 2x4 + 24x3 + 61x2 16x + 1 = 0 tiene dos raices
cerca de 0.

1. Usando el metodo de Newton encuentre estas dos raices, con un error absoluto de 106 .

2. Considere el metodo iterativo siguiente

2f (xn )f  (xn )
xn+1 = xn
2(f  (xn ))2 f (xn )f  (xn )

encuentre las races, con un error absoluto de 106 .

3. Analizando el error absoluto, compare la rapidez de convergencia de ambos metodos.

4. Pruebe que este nuevo metodo iterativo tiene orden de convergencia 3 alrededor de cada
raz simple de una ecuacion f (x) = 0 , donde f (x) es al menos 3 veces derivable, con
f  (x) continua.

Problema 2.29 Considere la ecuacion ex 4x2 = 0 .

(a) Usando el metodo de regula falsi encuentre una raz positiva de la ecuacion.

(b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
la raz encontrada en (a) de la ecuacion.

(c) Usando el metodo de punto jo propuesto en (b), encuentre la soluci


on buscada con una
3
precision de = 10 , considerando como criterio de parada |f (xn )|  .

Problema 2.30 Considere la ecuacion x3 x2 x1 = 0 , la cual posee una soluci


on [1, 2] .
1 1
Se propone el metodo iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuacion.

1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.
Sergio Plaza 78

2. Si elige x0 [a, b] [1, 2] arbitrario para comenzar las iteraciones, estime el n


umero de
iteraciones que debe realizar para obtener xk que satisface la condicion |xk+1 xk | 
5 105 .

Problema 2.31 Considere al ecuacion x3 + 2x2 + 10x 20 = 0 .

(a) Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la
on = 10 . La demostracion de la convergencia debe hacerse sin iteraciones.
soluci

(b) Usando el metodo que propuso en a), encuentre una soluci


on aproximada a con un
2
error de no m
as de 10

Problema 2.32 Considere la ecuacion x3 x2 x1 = 0 , la cual posee una soluci


on [1, 2] .
1 1
Se propone el metodo iterativo xn+1 = g(xn ) , donde g(x) = 1 + + 2 , para resolver la
x x
ecuacion.

1. Verique las condiciones para que el metodo iterativo propuesto sea convergente.

2. Si elige x0 [a, b] [1, 2] arbitrario para comenzar las iteraciones, estime el n


umero de
iteraciones que debe realizar para obtener xk que satisface la condicion |xk+1 xk | 
5 105 .

Problema 2.33 Utilice el metodo de Newton para encontrar las soluciones de los siguientes
problemas con una exactitud de 105 , usando uno de los criterios de paradas especicados
arriba.

1. x2 2xex + e2x = 0, x [0, 1] .


  x 
2. cos x + 2 + x + 2 = 0, x [2, 1] .
2
3. x3 3x2 2x + 2x4x 8x = 0, x [0, 1] .
2 3
4. e6x + 3 (ln 2) e2x e4x ln 8 (ln 2) , x [1, 0] .

Problema 2.34 Repita el ejercicio anterior, aplicando el metodo de Newton modicado Mejora
la rapidez o la exactitud en comparaci
on con el ejercicio 1.?

Problema 2.35 Demuestre que las siguientes sucesiones convergen linealmente a p = 0 Que
tan grande debe ser n para que |pn p|  5 102 ?
1 1
a.) pn = n, n  1, b. ) pn = n2 , n1

n
Problema 2.36 Demuestre que la sucesion pn = 102 converge cuadr
aticamente a cero.

c
Problema 2.37 Demuestre que la sucesion pn = 10n no converge cuadr
aticamente a cero,
sin importar el tama
no del exponente c > 1 .

Problema 2.38 Demuestre que el algoritmo de biseccion determina una sucesion con una cota
de error que converge linealmente a cero.
Sergio Plaza 79

Problema 2.39 El metodo iterativo para resolver f (x) = 0 , dado por el metodo de punto
jo g (x) = x , donde
 2
f (pn ) f  (pn ) f (pn )
pn+1 = g (pn ) = pn  ,
f (pn ) 2f  (pn ) f  (pn )

para n = 1, 2, 3, . . . . Puebe que es una raz simple de f , entonces se tiene g() = ,


g  () = g  () = 0 , esto generalmente, producira una convergencia c
ubica ( = 3) .

Problema 2.40 Considere el siguiente sistema de ecuaciones

x2 + y 2 9 = 0
2 2
x + y 8x + 12 = 0

1. Explicite por componentes y simplique al m


aximo, el esquema iterativo denido por el
metodo de Newton.

2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.

3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime el error del resultado de la tercera iteraci
on respecto a la soluci
on exacta (, ) =
( 21
8 , 135
8 ) .

Problema 2.41 Considere el siguiente sistema de ecuaciones



x2 + y 2 16 = 0
x2 + y 2 8x = 0 .

1. Explicite por componentes y simplique al m


aximo, el esquema iterativo denido por el
metodo de Newton.

2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.

3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime
el error del resultado de la tercera iteracion respecto a la soluci
on exacta (, ) =
(3, 12 ) .

Problema 2.42 Considere el sistema de ecuaciones no lineales



x21 + 8x1 x22 6 = 0
x21 x2 x1 + 8x2 6 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 80

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?

4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)

Problema 2.43 Considere al ecuacion x3 + 2x2 + 10x 20 = 0 .

1. Proponga unmetodo iterativo de punto jo, no Newton, el cual sea convergente a la


soluci
on = 10 . La demostracion de la convergencia debe hacerse sin iteraciones.

2. Usando el metodo que propuso en 1), encuentre una soluci


on aproximada a con un
as de 102
error de no m

on f (x) = e1/x x , denida para x > 0 .


Problema 2.44 Considere la funci

1. Proponga un metodo iterativo convergente, no Newton, para encontrar una soluci on de


la ecuacion f (x) = 0 . Use el metodo propuesto por usted para encontrar una solucion
3
de f (x) = 0 , con una precision = 10 , con el criterio de parada |xn+1 xn |  , y
comenzando con x0 = 1.76. La demostracion de la convergencia debe hacerla en forma
teorica.

2. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
soluci
on de f (x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.

xn e1/xn
xn+1 = g1 (xn ) = xn x2n
x2n + e1/xn
1 xn ln(xn )
xn+1 = g2 (xn ) = xn + .
1 + ln(xn )

Use el metodos que demostro ser convergente para encontrar una solucion de f (x) = 0 ,
con una precision = 103 , con el criterio de parada |xn+1 xn |  , y comenzando
con x0 = 1.76 .

3. Use el metodo de la secante para encontrar una soluci


on de f (x) = 0 , con una precision
3
= 10 , con el criterio de parada |xn+1 xn |  , comenzando con x0 = 1.76 y
x1 = 1.763 .

4. En los casos anteriores Cual de los metodos converge m


as rapido?

Problema 2.45 Considere el sistema de ecuaciones no lineales


2
x1 10x1 + x22 + 8 = 0
x1 x22 + x1 10x2 + 8 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 81

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton en este caso particular?

4. Realice 2 iteraciones con el metodo propuesto, comenzando con (0, 0) (especique cual
de los metodos esta usando)

Problema 2.46 Considere el sistema de ecuaciones no lineales u(x, y) = 0 , donde



u1 (x, y) = x2 + xy 10
u2 (x, y) = y + 3xy 2 57

1. Proponga un metodo iterativo de punto jo convergente, no Newton, para encontrar una


soluci
on al sistema, comenzando con (x0 , y0 ) = (1.5, 3.5)

2. Aplique el metodo de Newton con las mismas condiciones iniciales. Obtenga dos itera-
ciones hay convergencia en este caso?

3. Si ambos metodos (1) y (2) son convergentes Cu


al de ellos converge m
as rapido a la
soluci
on buscada del sistema?

Problema 2.47 Dado el sistema de ecuaciones no lineales



5 cos(x2 y) 5 cos(x3 y) = x
sen2 (xy) + 2 cos(x3 y) = y

1. Determine un dominio en el plano que contenga una u


nica soluci
on (, ) del sistema.
Justique te
oricamente.

2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci


on (, ) del
sistema. La demostraci
on de la convergencia debe hacerse sin iterar.

3. Si considera una precision = 103 . Cu al es la solucion aproximada que se obtiene?


(use el criterio de parada ||(xn , yn ) (xn1 , yn1 )||  .)

Problema 2.48 Dado el sistema de ecuaciones no lineales



sen(3x2 y) = x
cos(x) 3 cos(x3 y 3 ) = y

1. Determine un dominio en el plano que contenga una u


nica soluci
on (, ) del sistema.
Justique te
oricamente.

2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci on (, ) del


sistema. La demostraci
on de la convergencia debe hacerse teoricamente.

on = 102 y la norma ||(x, y)||M = max{|x|, |y|} Obtenga la


3. Si considera una precisi
soluci
on aproximada al sistema en este caso.

Problema 2.49 el sistema de ecuaciones no lineales


3
x + x + 4x2 y + 4xy 2 = 0.7
4x3 + 3x 4x2 y + xy 2 = 0.3
Sergio Plaza 82

1. Determine un dominio en el plano que contenga una u


nica soluci
on (, ) del sistema.
Justique te
oricamente.

2. Proponga un metodo de punto jo (no Newton) para encontrar la soluci


on (, ) del
sistema. La demostraci
on de la convergencia debe hacerse sin iterar.

on = 103 Cu
3. Si considera una precisi al es la soluci
on aproximada que se obtiene?

Problema 2.50 Dado el sistema de ecuaciones no lineales


4/3
x + y 4/3 = b4/3
y ax = 0
 4/3 3/4
donde a = 1/4 y b = 1 + 14

1. Proponga un metodo de punto jo, no Newton, y demuestre teoricamente que converge a


la raz = (1, 1/4) ,

2. Proponga un metodo casi-Newton y demuestre teoricamente que converge a la raz =


(1, 1/4) .

3. Partiendo del punto inicial (x0 , y0 ) = (0.95, 0.23) realice 2 iteraciones con ambos metodos.
Compare los resultados. Cu al es su conclusi on?

Problema 2.51 Considere el sistema de ecuaciones no lineales



ex
2

x = 1+h
1 + y2
y = 0.5 + h arctan(x2 + y 2 ) .

Muestre que si h es elegido sucientemente peque no y no cero, entonces el sistema tiene una
u
nica soluci
on = (1 , 2 ) en alguna regi on rectangular. Adem as, muestre que el metodo
iterativo de punto jo denido por el sistema es convergente a la solucion para cualquier
eleccion (x0 , y0 ) elegida en la region que determin
o. (La demostracion de la convergencia debe
hacerse sin iterar.)

Problema 2.52 Considere el sistema de ecuaciones no lineales


2
x + y 2 2x 2y + 1 = 0
x + y 2xy = 0 .

1. Proponga un metodo de punto jo, no Newton, convergente para encontrar una soluci
on
del sistema. La demostracion de la convergencia debe hacerse sin iterar.

2. Demuestre sin iterar que el metodo de Newton es convergente en un region que contiene
una soluci
on del sistema, y encuentre una soluci on de 103 usando
on con una aproximaci
la norma || || .

Problema 2.53 Suponga que p es una raz de multiplicidad m  2 de la ecuacion f (x) = 0 ,


donde f  (x) es continua en un intervalo abierto que contiene a p .
Sergio Plaza 83

f (x)
(a) Demuestre que el metodo iterativo de punto jo g(x) = x m tiene orden de
f  (x)
convergencia la menos 2.
(b) Use la parte a) para calcular la raz positiva de x4 1 = 0 , redondeando cada operaci
on
a 4 dgitos y con una precision de 103 , comenzando con x0 = 0.8 .

Problema 2.54 Considere la ecuacion e1x 1 = 0 .

(a) Demuestre que ella tiene una u


nica raz, la cual es positiva.
(b) Demuestre que el metodo de Newton asociado a esta ecuacion es convergente para cualquier
on inicial x0 [0, 10]
condici
(c) Comenzando con la condicion inicial x0 = 10 . Realice algunas iteraciones con el metodo
de Newton Cual es su conclusi
on?
(d) Considere el intervalo [0, 10] , use el metodo de biseccion para encontrar una aproximaci
on
a la raz, con una precision de 103 . Compare su resultado con lo obtenido en el item
c). Cual es su conclusi
on?

Problema 2.55 Considere el polinomio f (x) = 230x4 + 18x3 + 9x2 221x 9 . Se sabe que
este polinomio tiene una raz en el intervalo [0, 1] .

a) Use el metodo de biseccion para aproximar la raz de f (x) con una presicion de 103 .
b) Use el metodo de Newton para aproximar la raz de f (x) con una presicion de 105 ,
comenzando con x0 = 0.3 .
c) Proponga un metodo iterativo de punto jo convergente para aproximar la raz de f (x) .
La convergencia debe demostrarla sin iterar.

Problema 2.56 Considere el sistema de ecuaciones no lineales



3x cos(yz) 12 = 0
2 2
x 81(y + 0.1) + sen(z) + 1.06 = 0

exy + 20z + 103
3 = 0

a) Proponga un metodo iterativo de punto jo convergente para encontrar la soluci


on del
sistema. La demostraci
on de la convergencia debe hacerse sin iterar.
b) Explcite las componentes del metodo iterativo de Newton para este sistema, y demuestre
la convergencia del metodo para este caso (teoricamente).
c) Usando el metodo iterativo convergente que propuso en a), comenzando con el punto
(0.1, 0.1, 0.1) realice iteraciones hasta obtener una aproximaci on (xk , yk , zk ) de la soluci
on,
la cual satisface la siguiente condicion: ||(xk , yk , zk ) (xk1 , yk1 , zk1 )||  103 .

Problema 2.57 Dado el sistema de ecuaciones no lineales


x2 + xy 3 = 9
3x2 y y 3 = 4
Estudie la convergencia del metodo de Newton para el sistema, suponiendo que su condicions
iniciales son:
Sergio Plaza 84

(a) (x0 , y0 ) = (1.3, 1.7) ,

(b) (x0 , y0 ) = (1, 2) ,

(c) (x0 , y0 ) = (3, 0.2)

(d) Realizando 4 iteraciones encuentre una aproximaci


on a la soluci
on en el caso (b)

Problema 2.58 Considere el sistema



x2 + y 2 = 1
2x2 y = 0

1. Demuestre, sin iterar, que el metodo iterativo de Newton es convergente para este caso.

2. Usando el metodo iterativo de Newton, encuentre la soluci


on del sistema ubicada en el
primer cuadrante.

Problema 2.59 Dado el sistema de ecuaciones no lineales

2
x + x(x + y) 0.5 = 0

y + y(y x)2 0.5 = 0

a) Determine un dominio en el plano que contenga una u


nica soluci
on (, ) del sistema.
Justique te
oricamente.

b) Proponga un metodo de punto jo, no Newton, y demuestre, sin iterar, que converge a
(, ) .

Problema 2.60 Dado el sistema de ecuaciones no lineales


sen(3x2 y) = x
cos(x) 3 cos(x3 y 2 ) = y

1. Determine un dominio en el plano que contenga una u


nica soluci
on (, ) del sistema.
Justique te
oricamente.

2. Proponga un metodo de punto jo convergente (no Newton) para encontrar la soluci on


(, ) del sistema. La demostraci
on de la convergencia debe hacerse teoricamente.

on = 102 y la norma ||(x, y)||M = max{|x|, |y|} . Obtenga la


3. Considere una precisi
soluci
on aproximada al sistema en este caso.

Problema 2.61 Dado el sistema no lineal



x21 + x22 + x1 x2 1 = 0
x21 + 2x22 + x1 + x2 1 = 0

y considere la raz = (1 , 2 )T , tal que 1 > 0 .


Sergio Plaza 85

1. Demuestre sin iterar, que el metodo de Newton converge a , si la condici


on inicial
(0) (0)
x(0) = (x1 , x2 ) se elige sucientemente cerca de .

2. Partiendo de x(0) = (0.6, 0.1)T y utilizando la m axima capacidad de su calculadora,


resuelva el sistema dado, para la raz mediante el metodo de Newton con una presici
on
2 (k+1) (k)
de 10 (utilizando el criterio de parada ||x x ||  )

Problema 2.62 Considere la ecuacion x4 3x3 + 4x2 3x + 1 = 0 . Esta tiene una raz = 1

1. Use el metodo de Newton para determinar dicha raz , partiendo desde x0 = 0.8 y
realizando 5 iteraciones.

2. Use el siguiente metodo iterativo


f (xn )
xn+1 = xn 2 .
f  (xn )
para determinar en forma aproximada la raz , comenzando con x0 = 0.8 .

3. Utilizando los resultados de las iteraciones en a) y en b), compare la rapidez de convergen-


cia de ambos metodos, estimando el error relativo de la aproximacion x5 , correspondiente.

Problema 2.63 Considere la ecuacion

cos(3x) + cos3 (61x) = 0 .


1. Proponga un metodo de punto jo (no del tipo Newton) convergente a la raz = 2 . La
demostracion de convergencia debe hacerse sin iterar.

2. Sin iterar, demuestre que el metodo de la secante converge a dicha raz .

on f (x) = 2x2 x + 6ex 8 .


Problema 2.64 Considere la funci

1. Usando el metodo iterativo de Newton, comenzando con x0 = 0.3 . Encuentre una raz
on de 104 , utilizando la m
negativa de f (x) = 0 con precisi axima capacidad de dgitos
de su calculadora.

2. Usando el metodo iterativo de la Secante, comenzando con x0 = 0.3 y x1 = 0 . Encuentre


una raz negativa de f (x) = 0 con precisi on de 104 , utilizando la m
axima capacidad
de dgitos de su calculadora.

3. Considerando los resultados obtenidos en 1) y 2) Que puede decir acerca de la conver-


gencia de ambos metodos en este caso particular? Compare con los resultados teoricos
relacionados.

Problema 2.65 Considere la ecuacion 230x4 + 18x3 + 9x2 221x 9 = 0 .

1. Demuestre (te
oricamente) que la ecuacion tiene una raz en el intervalo [0, 1] .

2. Usando el metodo de biseccion encuentre la raz , con una precision de 103 . Cu antos
iteraciones seran necesarias para obtener una aproximaci on de la raz, con precisi
on de
103 , en el peor de los casos? (Use la formula de la cota del error).
Sergio Plaza 86

3. Use el metodo de Newton para determinar dicha raz , partiendo desde x0 = 0.8 con
una precision de 103 .

Problema 2.66 Considere el sistema de ecuaciones no lineales



4x2 40x + 14 y + 8 = 0
1 2
2 xy + 2x 10y + 8 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

2. Proponga un metodo de punto jo convergente para determinar la solucion = (1 , 2 )


D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x0 , y0 ) = (0, 0) y utilizando la m axima capacidad desu calculadora, obtenga la
on con una precision de = 0.05 , usando como criterio (xn xn+1 )2 + (yn yn+1 )2 
soluci
.

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?

Problema 2.67 Considere el sistema de ecuaciones no lineales



4x2 20x + 14 y + 8 = 0
1 2
2 xy + 2x 5y + 8 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

2. Proponga un metodo de punto jo convergente para determinar la solucion = (1 , 2 )


D del sistema. Demuestre la convergencia sin iterar. Realizando iteraciones comenzando
con (x0 , y0 ) = (0, 0) y utilizando la m axima capacidad desu calculadora, obtenga la
on con una precision de = 0.05 , usando como criterio (xn xn+1 )2 + (yn yn+1 )2 
soluci
.

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?

Problema 2.68 Considere la ecuacion f (x) = x3 5x2 +3x7 = 0 . Se sabe que esta ecuacion
tiene una raz cerca de 4.6783 .

1. Use el metodo de Newton para obtener una aproximaci on para con una presicion =
108 , utilizando como criterio de parada |f (xn )| < , y como punto inicial a x0 = 4.67 .
Justique teoricamente la convergencia del metodo de Newton en este caso.

2. Considere el metodo iterativo siguiente


2f (xn )f  (xn )
xn+1 = xn .
2(f  (xn ))2 f (xn )f  (xn )
Use este metodo para obtener una aproximaci on a la raz de la ecuacion anterior con
una presicion = 108 , utilizando como criterio de parada |f (xn )| < , y como punto
inicial a x0 = 4.67 .
Sergio Plaza 87

3. Cu
al de ellos converge m
as rapido?

on f (x) = e1/x x , denida para x > 0 .


Problema 2.69 Considere la funci

1. Demuestre que al menos uno de los metodos iterativos propuestos abajo para encontrar la
soluci
on de f (x) = 0 es convergente (ambos podran ser convergentes). La demostracion
de la convergencia debe hacerse en forma teorica.

xn e1/xn 1 xn ln(xn )
xn+1 = g1 (xn ) = xn x2n y xn+1 = g2 (xn ) = xn +
x2n + e1/xn 1 + ln(xn )

Use el metodos que demostr


o que es convergente para encontrar una solucion de f (x) = 0 ,
con una precision = 103 , con el criterio de parada |xn+1 xn |  , y comenzando
con x0 = 1.76 .

2. Proponga un metodo iterativo convergente, no Newton, para encontrar una soluci on de


la ecuacion f (x) = 0 . Use el metodo propuesto por usted para encontrar una soluci on
de f (x) = 0 , con una precision = 103 , con el criterio de parada |xn+1 xn |  , y
comenzando con x0 = 1.76. La demostracion de la convergencia debe hacerla en forma
teorica.

3. Use el metodo de la secante para encontrar una soluci


on de f (x) = 0 , con una precision
3
= 10 , con el criterio de parada |xn+1 xn |  , comenzando con x0 = 1.76 y
x1 = 1.763 .

4. En los casos anteriores Cual de los metodos converge m


as rapido?

Problema 2.70 Considere el sistema de ecuaciones no lineales



x21 + 8x1 x22 6 = 0
x21 x2 x1 + 8x2 6 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
. Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto
en 2) y Newton) en este caso particular?

4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)

Problema 2.71 Considere el siguiente sistema de ecuaciones



x2 + y 2 9 = 0
2 2
x + y 8x + 12 = 0

1. Explicite por componentes y simplique al m


aximo, el esquema iterativo denido por el
metodo de Newton.
Sergio Plaza 88

2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.

3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.6, 0.7) y
estime
el error del resultado de la tercera iteraci
on respecto a la soluci
on exacta (, ) =
21 135
( 8 , 8 ).

Problema 2.72 Considere al ecuacion x3 + 2x2 + 10x 20 = 0 .

1. Proponga unmetodo iterativo de punto jo, no Newton, el cual sea convergente a la


on = 10 . La demostracion de la convergencia debe hacerse sin iteraciones.
soluci

2. Usando el metodo que propuso en a), encuentre una soluci


on aproximada a con un
as de 102
error de no m

Problema 2.73 Considere al ecuacion x3 + 2x2 + 10x 20 = 0 .

1. Proponga un metodo iterativo de punto jo, no Newton, el cual sea convergente a la


on = 10 . La demostracion de la convergencia debe hacerse sin iteraciones.
soluci

2. Usando el metodo que propuso en a), encuentre una soluci


on aproximada a con un
as de 102
error de no m

Problema 2.74 Considere el siguiente sistema de ecuaciones



x2 + y 2 16 = 0
x2 + y 2 8x = 0

1. Explicite por componentes y simplique al m


aximo, el esquema iterativo denido por el
metodo de Newton.

2. Se sabe que el sistema tiene una solucion (, ) en el primer cuadrante. Demuestre que
el metodo iterativo de Newton es convergente en una vecindad de la solucion (, ) . La
demostracion debe hacerse sin iterar y sin usar argumentos teoricos de punto jo.

3. Realice 3 iteraciones con el metodo de Newton, comenzando con el punto (2.2, 3.4) y
estime
el error del resultado de la tercera iteracion respecto a la soluci
on exacta (, ) =
(3, 12 ) .

Problema 2.75 Considere el sistema de ecuaciones no lineales


2
x1 10x1 + x22 + 8 = 0
x1 x22 + x1 10x2 + 8 = 0 .

on D R2 que contiene una u


1. Determinar una regi nica soluci
on = (1 , 2 ) del sistema.

on = (1 , 2 )
2. Proponga un metodo de punto jo convergente para determinar la soluci
D del sistema. Demuestre la convergencia sin iterar.
Sergio Plaza 89

3. Demuestre (sin iterar) que que el metodo de Newton converge a alguna soluci
on del sistema
Que puede decir acerca de la rapidez de convergencia de ambos metodos (el propuesto en
2) y Newton) en este caso particular?

4. Realice 2 iteraciones con el metodo propuesto en 2) o 3), comenzando con (0, 0) (especi-
que cual de los metodos esta usando)

Problema 2.76 Sea f (x) = (x 3)5 .

(a) Determine la formula de Newton xn+1 = g(xn ) para calcular el cero de la funcion f .
Tomando como valor inicial x0 = 1, calcule seg un la f
ormula de iteraci
on de Newton
encontrada en la parte (a) los valores de x1 , x2 y x3 .

(b) Calcule usando como valores iniciales x0 y x1 obtenidos en (a), los valores de x2 y x3
usando el metodo de la secante. Podra usted usar el metodo de Regula-falsi?. Explique
su respuesta en el caso negativo o partiendo de dos puntos iniciales apropiados x0 y x1 ,
obtenga los valores de x2 y x3 en caso armativo.

(c) Demuestre que el metodo de Newton usado en la parte (a) tiene un orden de convergencia
p = 1. De un metodo alternativo de iteracion que garantice un orden de convergencia
p = 2 y demuestre que efectvamente este es su orden de convergencia.

Problema 2.77 Aplique el metodo de la biseccion y regula falsi para encontrar una aproxi-
macion a soluci on x = tan(x) en [4,4.5]. Use una tolerancia de 103 .
on de ecuaci

Problema
2.78 Use el metodo de la biseccion y regula falsi para encontrar una aproximaci
on
a 5 correcta en 5 cifras signicativas. Sugerencia: considere f (x) = x2 5 .

Problema 2.79 Calcule el n umero de iteraciones que se requieren usando el metodo de biseccion
para alcanzar una aproximacion con una exactitud de 103 a la soluci on de x3 + x 4 = 0 que
se encuentra en el intervalo [1, 4] . Obtenga una aproximaci on de la raz con este grado de
exactitud.

Problema 2.80 Sean f (x) = (x 1)10 , = 1 y xn = 1 + 1/n . Pruebe que |f (xn )| < 103
siempre que n > 1 pero que |xn | < 103 requiere que n > 1000 . Este ejercicio muestra una
on f (x) tal que |f (xn )| se aproxima a cero, mientras que la sucesi
funci on de aproximaciones
(xn )nN lo hace mucho mas lento.

k=1
Problema 2.81 Sea (xn )nN la sucesion denida por xn = 1/k . Pruebe que (xn )nN
un cuando limn (xn xn1 ) = 0 . Este ejercicio muestra una sucesion (xn )nN con
diverge a
la propiedad de que las diferencias xn xn1 (en referencia al error relativo) convergen a cero,
on (xn )nN diverge.
mientras que la sucesi

Problema 2.82 El metodo dede biseccion se puede aplicar siempre que f (a)f (b) < 0 . Si f (x)
tiene mas de un cero en (a, b) se podr a saber de antemano cual cero es el que se encuentra al
aplicar el metodo de la biseccion? ilustre su respuesta con ejemplos.
Sergio Plaza 90

Problema 2.83 Las siguientes funciones cumplen con la condici on f (a) f (b) < 0 , donde
a = 0 y b = 1 . Si se aplica el metodo de biseccion en el intervalo [a, b] a cada una de esas
funciones Que punto se encuentra en cada caso? Es este punto un cero de f ?

1 1, para x > 0
a. f (x) = (3x 1) b. f (x) = cos(10x) c. f (x) =
1, para x  0 .

Problema 2.84 Verique que se puede aplicar el metodo de biseccion para aproximar el u nico
3
cero de la funcion f (x) = x x 1 en el intervalo [1, 2] Cu antas iteraciones seran necesarias
para que al aplicar el metodo de biseccion en el intervalo [1,2] se logre una aproximacion de por
lo menos 3 cifras decimales exactas? Calcule tal aproximacion.

Problema 2.85 Estudie la funci on g(x) = 1 + x2 como una posible funci on de iteraci
on de
punto jo Por que no es convegente la iteracion xn = g(xn1 ) , n = 1, 2, . . .? .

Problema 2.86 Verique que cada una de las siguientes funciones gi (x) , i = 1, 2, 3, 4 es una
funci
on de iteraci on de punto jo para la ecuaci on x4 + 2x2 x 3 = 0 , es decir, = gi () ,
i = 1, 2, 3, 4 implica que f () = 0 , siendo f (x) = x4 + 2x2 x 3

a) g1 (x) = (3 + x 2x2 )1/4


 1/2
3 + x x4
b) g2 (x) =
2
 1/2
3+x
c) g3 (x) =
x2 + 2

3x4 + 2x2 + 3
d) g4 (x) = .
4x3 + 4x 1

Efectue 4 iteraciones, si es posible, con cada una de las funciones de iteracion denidas
arriba, tomando x0 = 1 y xn = gi (xn1 ), i = 1, 2, 3, 4 Cu
al funci
on cree usted que da la mejor
aproximacion? Explique.

Problema 2.87 Demuestre que la ecuacion 2 sin (x) + x = 0 tiene una u nica raz
[1/2, 3/2] . Use un metodo de iteraci
on de punto jo para encontrar una aproximaion de con
una precision de por lo menos tres cifras signicativas.

Problema 2.88 Pruebe que la funci on g(x) = 2 + x tan1 (x) tiene la propiedad |g  (x)| < 1
para toda x . Pruebe que g no tiene un punto jo. Explique porque esto no contradice los
teoremas sobre existencia de punto jo.

Problema 2.89 Use un metodo iterativo de punto jo para demostrar que la sucesi
on (xn )nN
denida por  
1 2
xn+1 = xn + , n = 0, 1, 2, . . .
2 xn

converge a 2 para x0 > 0 escogido adecuadamente.
En general, si R > 0 , entonces la sucesion (xn )nN denida por
Sergio Plaza 91

 
1 R
xn+1 = xn + , n = 0, 1, 2,
2 xn

converge a R para x0 > 0 escogido adecuadamente. Esta sucesi
on se usa con frecuencia
en subrutinas para calcular races cuadradas.

Problema 2.90 Cu
al es el valor de la siguiente expresion?

+ *

x= 2+ 2 + 2+

Note
que esta on puede ser interpretada como signicado x = limn xn , donde
 expresi
x0 = 2, x1 = 2 + 2 = 2 + x0 y as sucesivamente. USe un metodo de punto jo con una
funci
on de iteraci
on g(x) apropiada.

Problema 2.91 Resuelva la ecuacion 4 cos(x) = ex con una precision de 5 105 , es decir,
calcular las iteraciones xn hasta que |xn xn1 | < 5 105 usando

a) El metodo de Newton con x0 = 1

b) El metodo de la secante con x0 = /4 y x1 = /2 .

Problema 2.92 Use el metodo de Newton para resolver la ecuacion

 x 2
sen(x) = 0, con x0 = .
2 2

Itere hasta obtener una precision de 5 105 para la raz aproximada con f (x) = (sen(x)
x 2
2) e parecen los resultados fuera de lo comun para el metodo de Newton? Resuelva tambien
la ecuacion con x0 = 5 y x0 = 10 .

Problema 2.93 se el metodo de Newton modicado para encontrar una aproximaci


on de la
raz de la ecuacion

f (x) = x2 + 2xex + e2x = 0

empezando con x0 = 0 y efectuando 10 iteraciones C


ual es la multiplicidad de la raz buscada?

Problema 2.94 Se desea resolver la ecuacion no lineal f (x) = 0 , donde f : R R tiene


tantas derivadas cuantas sean necesarias Es posible elegir una funcion h de modo que la formula
iterativa siguiente

 2
f (xn ) f (xn )
xn+1 = xn + h(xn )
f  (xn ) f  (xn )

tenga orden de convergencia 3 a una raz simple de f (x) = 0 ?


Sergio Plaza 92

Problema 2.95 Considere una rma que desea maximizar sus ganancias, eligiendo el precio
de venta de su producto, denotado por y y la cantidad gastada en publicidad, denotada por
z . Para esto, se supone que la funci
on de benecio B viene dada por

B = yx (z + g2 (x)),

con x = g1 (y, z) = a1 + a2 y + a3 z + a4 yz + a5 z 2 , g2 (x) = e1 + e2 x , y donde

B = Benecio
x = n
umero de unidades vendidas
y = precio de venta por unidad
z = dinero gastado en publicidad
g1 (y, z) representa una prediccion de unidades vendidas
cuando el precio es y y el gasto en publicidad es z
g2 (x) es el costo de producir unidades

ametros ai y ei son
y los par

a1 = 50000, a2 = 5000, a3 = 40, a4 = 1, a5 = 0.002


e1 = 100000, e2 = 2.

Se pide encontrar los valores de y y de z que maximicen el Benecio B . Para esto, resuelva
el sistema no lineal
B(y, z) = 0.

Problema 2.96 Sea f (x) = ex 1 cos(x) . Muestre que la ecuacion f (x) = 0 tiene
una u
nica raz en [0, 1] . Estudie que ocurre con el metodo de Newton comenzando con las
condiciones iniciales x0 = y x0 = 1 + , x0 = 0 y x0 = 1 .

8x1
Problema 2.97 Dena f : ]0, [ R denida como f (x) = x ex . Considere los
metodos iterativos
 
1 8xn 1
xn+1 = f1 (xn ) = (1 + xn exn ) y xn+1 = f2 (xn ) = ln
8 xn
Cual de ellos es convergente a la raz de f (x) = 0 mas pr
oxima de cero? Cual de ellos es
convergente a la raz de f (x) = 0 mas pr
oxima de 2?

Problema 2.98

Problema 2.99

2.12 Uso de m etodos de integraci


on para obtener f
ormulas
iterativas para resolver ecuaciones no lineales
1

1 En una primera lectura, puede obviarse esta secci


on
Sergio Plaza 93

Es com
un obtener la f
ormula de iteraci
on de Newton

f (x)
Nf (x) = x
f  (x)

mediante un argumento geometrico. En esta nota veremos que podemos obtener esa f
ormula a
partir del Teorema Fundamental del C
alculo.
Del teorema Fundamental del C
alculo tenemos que

 x
f (x) = f (xn ) + f  (t)dt (2.25)
xn

aproximando el valor de la integral por el area del rectangulo de base xn , x y altura f  (xn ) ,
obtenemos
 x
f  (t)dt f  (xn )(x xn ) (2.26)
xn

luego, reemplazando esto en (4.18) obtenemos

f (x) f (xn ) + f  (xn )(x xn ) (2.27)

si xn es tal que f (xn+1 ) = 0 , tenemos

f (xn ) + f  (xn )(xn+1 xn ) 0 , (2.28)

de donde

f (xn )
xn+1 = xn (2.29)
f  (xn )

que no es otra que la f


ormula iterativa de Newton.

2.13 Otras f
ormulas iterativas
Ahora si usamos la regla de Simpson para aproximar las integral (que estudiaremos en forma
detallada en un captulo mas adelante)

 x
f  (t)dt ,
xn

obtenemos
 x
x xn  x + xn
f  (t)dt [f (x) + 4f  ( ) + f  (xn )] (2.30)
xn 6 2

y tenemos la ecuacion
Sergio Plaza 94

(x) = f (xn ) + x xn [f  (x) + 4f  ( x + xn ) + f  (xn )] .


M (2.31)
6 2

Sea xn+1 la soluci


on de la ecuaci (x) = 0 , entonces obtenemos
on M

x xn  x + xn
f (xn ) + [f (x) + 4f  ( ) + f  (xn )] = 0 (2.32)
6 2
de donde

6f (xn )
xn+1 = xn (2.33)
f  (xn+1 ) + 4f  ( xn +x
2
n+1
) + f  (xn )
f (xn )
si reemplazamos xn+1 por xn+1 = xn f  (xn ) en el lado derecho de la igualdad anterior,
obtenemos la f
ormula iterativa

6f (xn )
xn+1 = xn     (2.34)
f (xn ) 1 f (xn )
f xn f  (xn ) + 4f  xn 2 f  (xn ) + f  (xn )

Este es un metodo de tercer orden de convergencia en las races simples de f (x) .


Tenemos tambien el metodo iterativo

2f (xn )
xn+1 = xn   (2.35)
f (xn )
f  (xn ) + f  xn f  (xn )

que tambien es de orden de convergencia 3 en las races simples de f (x) . Para obtener esta
f
ormula iterativa, aproximamos la integral
 x
f  (t)dt
xn

por la regla de los trapecios, es decir,


 x
x xn
f  (t)dt (f ( (x) + f  (xn )) . (2.36)
xn 2

Resolviendo la ecuacion

(x xn ) 
Mf (x) = f (xn ) + (f (x) + f  (xn )) = 0 , (2.37)
2
si xn+1 es su soluci
on, obtenemos

(xn+1 xn ) 
f (xn ) + (f (xn ) + f  (xn+1 )) = 0 , (2.38)
2
de donde

2f (xn )
xn+1 = xn (2.39)
f  (xn ) + f  (xn+1 )
Sergio Plaza 95

reemplazando xn+1 por xn+1 = xn ff(x n)


(xn ) en el lado derecho de esta u
ltima igualdad, tenemos

2f (xn )
xn+1 = xn  . (2.40)
f (xn )
f  (xn ) + f  xn f  (xn )
Captulo 3

Sistemas de Ecuaciones Lineales

Sistemas de ecuaciones lineales se utilizan en muchos problemas de ingeniera y de las ciencias,


as como en aplicaciones de las matematicas a las ciencias sociales y al estudio cuantitativo de
problemas de administracion y economa.
En este captulo se examinan metodos iterativos y metodos directos para resolver sistemas
de ecuaciones lineales

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
.. (3.1)

.


an1 x1 + an2 x2 + + ann xn = bn .

Este sistema puede ser expresado en la forma matricial como

Ax = b, (3.2)
T T
donde A = (aij )nn M (n n, R) , b = (b1 , b2 , . . . , bn ) Rn y x = (x1 , x2 , . . . , xn )
Rn es la inc
ognita.
En la siguiente seccion estudiaremos algunos metodos directos para resolver sistemas de
ecuaciones lineales, posteriormente abordaremos algunos metodos iterativos .

3.1 Normas matriciales


Para estudiar algunos metodos iterativos que nos permitan resolver sistemas de ecuaciones
lineales, necesitamos de algunos conceptos b
asicos de Algebra Lineal.

3.1.1 Normas vectoriales


Sea V un espacio vectorial de dimension nita.

Definici on || || : V R que satisface


on 3.1 Una norma en V es una funci

N1) x  0 para todo x V ,

96
Sergio Plaza 97

N2) ax = |a| x para todo x V y todo a R ,

N3) x + y  x + y para todo x, y V (desigualdad triangular).

Ejemplo 44 En Rn podemos denir las siguientes normas


n
1.  (x1 , x2 , . . . , xn ) 2 = ( i=1 x2i )1/2 (norma euclideana)

2.  (x1 , x2 , . . . , xn )  = max { |xi | : 1  i  n }



n
3.  (x1 , x2 , . . . , xn ) 1 = |xi |
i=1
n
4. ||(x1 , x2 , . . . , xn )||p = ( i=1 |xi |p )1/p (norma p ).

Ejemplo 45 Denotemos por V = M (n n, R) el espacio vectorial real de las matrices de


orden n n con entradas reales. Denimos las siguientes normas en V

1. ||A||2 = traza(AAT )
 1/2  n 1/2
n 2 n 2
2. ||A||F = i,j=1 aij = i=1 j=1 aij (norma de Fr
obenius)

3. ||A||, = sup{||Ax|| : x Rn , con x = 1} , donde || || y || || , denotan


normas cualesquiera norma sobre Rn . Esta norma es llamada norma subordinada a las
norma en Rn .
Notemos que tambien se tiene
,
Ax
A, = sup : x R , x = 0
n
.
x

La vericacion que lo anterior dene una norma sobre el espacio vectorial M (n n, R)


no es difcil, por ejemplo N1 es inmediata, para vericar N2, usamos la propiedad sigu-
iente del supremo de conjuntos en R , sup (A) = sup(A) , para todo  0 , donde
A = {x : x A} . Finalmente, para vericar N3, usamos la propiedad sup (A + B) 
sup(A) + sup(B) , donde A + B = { x + y : x A, y B } .

Observaci
on.

1. Si A M (n n, R) es no singular, esto es, det(A) = 0 , entonces


1
inf{||Ax|| : ||x|| = 1} = .
||A1 ||

2. ||A||2 = max , donde max es el mayor valor propio de AAT .

3. Si A M (n n, R) es no singular, entonces
1 1
||A1 ||2 = = ,
inf{||Ax||2 : ||x||2 = 1} min

donde min es el menor valor propio de AAT .


Sergio Plaza 98

4. ||A||2 = ||AT ||2 .

5.

 

A 0

0 B

= max{||A||2 , ||B||2 } .
2

Teorema 3.1 Para A M (n n, R) y x Rn , se tiene que Ax  A x .

Demostraci on. Desde la denicion de norma matricial se tiene que ||A||  ||Ax||
||x|| , para
todo x R , con x = 0 , de donde ||Ax||  ||A|| ||x|| , y como esta u
n
ltima desigualdad vale
trivialmente para x = 0 , el resultado se sigue.

Ejemplo 46 Si en Rn elegimos la || || , entonces la norma matricial subordinada viene dada


por

||A|| = sup {Ax : x = 1}



-n -
n -
n -
n
= max |a1j |, |a2j |, . . . , |aij |, . . . , |anj | .

j=1 j=1 j=1 j=1

Ejemplo 47 Si en Rn elegimos la || ||1 , entonces la norma matricial subordinada viene dada


por

||A||1 = sup {Ax1 : x1 = 1}


1 n 2
- -
n -
n -
n
= max |ai1 |, |ai2 |, . . . , |aij |, . . . , |ain | .
i=1 i=1 i=1 i=1

Una de las normas mas usadas en Algebra Lineal es la norma de Frobenius la cual es dada
por
1/2
-n -m
||A||F = a2ij , A M (m n, R)
i=1 j=1

y tambien las p normas ( p  1 ), las cuales son dadas por


,
||Ax||p
||A||p = sup : x = 0 .
||x||p

Teorema 3.2 Para cualquier norma matricial subordinada se tiene

1.  I  = 1.

2. AB  A B .

on. Del teorema (3.1) para todo x Rn se tiene que


Demostraci

||ABx||  ||A|| ||Bx||  ||A|| ||B|| ||x|| ,

de donde el resultado se sigue.


Sergio Plaza 99

Ejemplo 48 No toda norma matricial es subordinada a alguna norma en Rn . Para verlo,


usamos la parte 2 del teorema anterior.
Denamos la norma matricial

||A|| = max |ai,j | .


i,j=1,...,n

Armamos que esta es una norma matricial (se deja al lector la vericaci
on) y no es subor-
dinada a ninguna norma en M (n n, R) .
En efecto, tomemos las matrices
 
1 1
A=B= .
0 1

Tenemos ||A|| = ||B|| = 1 y como


 
1 2
AB =
0 1

se tiene que ||AB|| = 2 > ||A|| ||B|| = 1 .

Teorema 3.3 Para las normas matriciales denidas anteriormente valen las siguientes rela-
ciones. Sea A M (n n, R) , entonces

1. ||A||2  ||A||F  n ||A||2

2. ||A||  ||A||2  n ||A||



3. 1n ||A||  ||A||2  n ||A||

4. 1 ||A||1  ||A||2  n ||A||1 .
n

Teorema 3.4 Sea A M (n n, R) , con  A  < 1 , entonces I A es una matriz que tiene

inversa, la cual viene dada por (I A)1 = Ak , donde A0 = I . Ademas, se tiene que
3 3 k=0
3 1 3 1
3(I A) 3  .
1 A

Demostraci
on. Es solo calculo y se deja a cargo del lector.

Teorema 3.5 Sean A, B M (n n, R) tales que I AB  < 1 entonces


 A y B tienen 
1
 k 1 k
inversas, las cuales son dadas por A = B k=0 (I AB) y B = k=0 (I AB) A,
respectivamente,.

Demostraci
on. Directa desde el teorema anterior.

on 3.2 Sea A M (n n, R) , decimos que C es un valor propio de A si la


Definici
matriz A I no es invertible, en otras palabras, es soluci
on de la ecuaci
on polinomial

pA () = det (A I) = 0,
Sergio Plaza 100

donde p () es el polinomio caracterstico de A . Se dene el espectro de A como el conjunto


de sus valores propios, es decir,

(A) = { C : valor propio de A} .

Observaci
on. El polinomio caracterstico de A , p() , tiene grado menor o igual a n .

on 3.3 Sea A M (n n, R) , denimos el radio espectral de A por


Definici

(A) = max { || : (A)} .

Observaci on. Geometricamente (A) es el menor radio tal que el crculo centrado en el origen
en el plano complejo con radio (A) contiene todos los valores propios de A .

Observaci on. Si = a + ib C , su valor absoluto o norma es dado por | | = a2 + b2 .

Teorema 3.6 Se tiene (A) = inf A , donde el nmo es tomado sobre todas las normas
matriciales denidas sobre el espacio vectorial M (n n, R) .

Observaci on. Desde la denicion de las norma matriciales || || y || ||1 vemos que calcularlas
para una matriz dada es facil. Para lo norma || ||2 el calculo no es tan sencillo, pero tenemos
el siguiente resultado.

Teorema 3.7 Sea A M (n n, R) . Entonces

' ( 1/2
||A||2 = max || : (AT A) ,

en otras palabras, ||A||2 es la raz cuadrada del mayor valor propio de la matriz AT A .

Corolario 3.1 Si A M (n n, R) es simetrica, entonces

||A||2 = max{|| : (A)} .

3.2 N
umero de condici
on
Consideremos el sistema Ax = b , donde A es una matriz invertible, por lo tanto tenemos que
xT = A1 b es la soluci
on exacta.

Caso 1: Se perturba A1 para obtener una nueva matriz B , la soluci on x = A1 b resulta


perturbada y se obtiene un vector xA = Bb que debera ser una solucion aproximada al sistema
original. Una pregunta natural es que ocurre con E(xA ) = xT xA  ? Tenemos

xT xA  = xT Bb = xT BAxT  = (I BA) xT   I BA xT 

de donde obtenemos que

E (xA ) = xT xA   I BA xT 


Sergio Plaza 101

y para el error relativo ER (xA ) , tenemos

xT xA 
ER (xA ) =  I BA .
xT 

Caso 2: Si perturbamos b para obtener un nuevo vector bA . Si xT satisface Ax = b y xA


satisface Ax = bA . Una pregunta natural es determinar cotas para E(xA ) = xT xA  y
ER (xA ) = xx
T xA 
T
. Tenemos que

3 3 3 3 3 3
xT xA  = 3A1 b A1 bA 3 = 3A1 (b bA )3  3A1 3 b bA  ,

por lo tanto

E (xA )  A1  b bA  = A1  E (bA ) ,

esto es,

3 3
E (xA )  b bA  = 3A1 3 E (bA ) , (3.3)

y por otro lado se tiene

3 3 3 3 b bA  3 3 b bA 
xT xA   3A1 3 b bA  = 3A1 3 AxT   3A1 3 A xT 
b b

luego

xT xA  3 3 b bA  3 3
ER (xT ) =  3A1 3 A = 3A1 3 A ER (bA ) .
xT  b
esto es,
ER (xA )  ||A1 || ||A||ER (bA . (3.4)

Definicion 3.4 Sea A M (n n, R) una matriz invertible, el n


umero condici
on de A es
dado por
3 3
(A) = A 3A1 3 . (3.5)

on. Note que (A)  1 , pues es evidente que (I) = 1 y que


Observaci

1 = ||I||  ||A|| ||A1 || = (A).

Ejemplo 49 Considere

 
1 1+
A= ,
1 1

con > 0, sucientemente pequeno. Tenemos que det(A) = 2 0 es muy peque


no, lo cual
signica que A es casi singular. Como
Sergio Plaza 102

 
1 2 1 1
A = ,
1 + 1
3 3
obtenemos que A = 2 + , 3A1 3 = 2 (2 + ) , por lo tanto

(2 + )2 4
(A) =  .
2
Observe que si < 0.0001 , entonces k (A)  40.000 .

Ejemplo 50 Consideremos la matriz


 
1 1
A=
1 1.00000001

Tenemos

 
1.0 108 1.0 108
A1 =
1.0 108 1.0 108

Luego, ||A||1 = ||A||2 ||A|| = 2 , ||A1 ||1 = ||A1 || ||A1 ||2 2 108 , luego
1 (A) = (A) 4 108 .

Observaci
on. Si (A) es demasiado grande diremos que A esta mal condicionada.

Ejemplo 51 Consideremos la matriz



1 1 1 1
1 1 1
0

A=

..
.
..
.
..
.
..
.
..
.
.


0 0 0 1
0 0 0 1

La matriz A tiene solo unos en su diagonal, y sobre ella tiene s


olo menos unos. Tenemos que
det(A) = 1 , pero (A) = n2n1 , esta matriz esta mal condicionada.

Si resolvemos Ax = b numericamente no obtenemos una solucion exacta, xT , si no una


soluci
on aproximada xA . Una pregunta natural al resolver numericamente el sistema es que
tan cerca esta AxA de b ?
Para responder dicha interrogante denamos r = b AxA como el vector residual y e =
xT xA como el vector de error.

Observaci
on. Tenemos que

1. Ae = r.

2. xA es solucion exacta de AxA = bA = b r .


Sergio Plaza 103

 xT xA   bbA   r
Que relacion existe entre  xT  y  b =  b ?

Teorema 3.8 Para toda matriz invertible A M (n n, R) , se tiene que

1  b bA   xT xA   b bA 
  (A) , (3.6)
(A)  b  xT   b

es decir,
1 r e r
  (A) . (3.7)
(A)  b   xT   b

Observaci
on. Si tenemos una matriz B escrita en la forma

B = A(I + E)

donde I denota la matriz identidad y E es una matriz de error, entonces se tienen las siguientes
cotas para el error relativo

||xT xA || (A) ||AE||


 (3.8)
||xT || 1 (A) ||A ||A||
||AE||

si ||AE|| < 1 y
||xT xA || ||E||
 (3.9)
||xT || 1 ||E||
si ||E|| < 1 .
on. Sea A M (n n, R) . Denotemos por max y min *
Observaci , respectivamente, el
max
maximo y el mnimo de los valores propios de AAT . Entonces 2 (A) = min .

Ejemplo 52 Determine ||A||2 , ||A1 ||2 y 2 (A) , donde



3 1

3 3

A=

8
0
3

Tenemos que
3
0
3

A =
T


1 8

3 3
Luego


10 8
3
3

AAT I = .

8 8

3 3
Sergio Plaza 104

Por lo tanto, det(AAT I) = 2 6 + 8 , de donde los valores propios de AAT son = 2


y = 4 , es decir, min = 2 y max = 4 . Luego

 1 1
||A||2 = max = 2 y ||A1 ||2 = = ,
min 2

y se tiene que 2 (A) = 2 = 2.
2

3.3 Soluci
on de sistemas de ecuaciones lineales: m
etodos
directos
En esta parte estudiaremos metodos directos, es decir, algebraicos, para resolver sistemas de

ecuaciones lineales. Herramienta fundamental aqu es el Algebra Lineal.

3.3.1 Conceptos b
asicos
La idea es reducir un sistema de ecuaciones lineales a otro que sea mas sencillo de resolver.

on 3.5 Sean A, B M (n n, R) . Decimos que dos sistemas de ecuaciones lineales


Definici
Ax = b y Bx = d son equivalentes si poseen exactamente las mismas soluciones.

Por lo tanto si podemos reducir un sistema de ecuaciones lineales Ax = b a un sistema


equivalente y mas simple Bx = d , podemos resolver este u
ltimo, y obtenemos de ese modo las
soluciones del sistema original.

on 3.6 Sea A M (n n, R) . Llamaremos operaciones elementales por las sobre A


Definici
a cada una de las siguientes operaciones

on por Fi Fj .
1. Intercambio de la la i con la la j , denotamos esta operaci

2. Reemplazar la la i, Fi , por un m
ultiplo no nulo Fi de la la i , denotamos esta
on por Fi  Fi
operaci

3. Reemplazar la la i , Fi , por la suma de la la i mas un m


ultiplo no nulo Fj de la la
on por Fi  Fi + Fj
j , i = j , denotamos esta operaci

Definici
on 3.7 Decimos que una matriz A es una matriz elemental si ella se obtiene a partir
de la matriz identidad a traves de una u
nica operaci
on elemental. Una matriz elemental ser
a
denotada por E .

1 0 0 1 0 0
Ejemplo 53 1. 0 1 0 F3 F2 0 0 1 .
0 0 1 0 1 0

1 0 0 1 0 0
2. 0 1 0 F2  rF2 0 r 0
0 0 1 0 0 1
Sergio Plaza 105


1 0 0 1 0 0
3. 0 1 0 F3  F3 + rF2 0 1 0
0 0 1 0 r 1

Observaci on. Si a una matriz A se le aplican una serie de operaciones elementales


E1 , E2 , . . . , Ek denotaremos el resultado por Ek Ek1 E2 E1 A .
Ademas, si Ek Ek1 E2 E1 A = I , se tiene que A posee inversa y Ek Ek1 E2 E1 = A1 .
El teorema siguiente resume las condiciones para que una matriz tenga inversa.

Teorema 3.9 Sea A M (n n, R) entonces son equivalentes

1. A tiene inversa.

2. det (A) = 0.

3. Las las de A forman una base de Rn .

4. Las columnas de A forman una base de Rn .

on lineal T : Rn Rn dada por T (x) = Ax , asociada a la matriz A ,


5. La transformaci
es inyectiva,

on T : Rn Rn dada por T (x) = Ax , asociada a la matriz A , es


6. La transformaci
sobreyectiva

7. El sistema Ax = 0 , donde x Rn posee soluci


on u
nica x = 0 .

8. Para cada b Rn existe un u


nico vector x Rn tal que Ax = b .

9. A es producto de matrices elementales.

10. Todos los valores propios de A son distinto de cero.

3.4 Factorizaci
on de matrices
En esta seccion estudiaremos las condiciones necesarias para que una matriz A M (n n, R)
tenga una factorizacion de la forma LU donde L, U M (nn, R) , con L una matriz triangular
inferior y U una matriz triangular superior.
Observe que si A M (nn, R) tiene una factorizacion de la forma LU como arriba, entonces
el sistema de ecuaciones lineales Ax = b , con x, b Rn , puede resolverse de una manera mas
sencilla, para ello consideramos el cambio de variable U x = z , y resolvemos primero el sistema
Lz = b primero y enseguida resolvemos el sistema U x = z , obteniendo as la soluci on del
sistema original, es decir,

Lz = b
Ax = b L 
U x = b
Ux = z .
z

Supongamos que A M (n n, R) tiene una descomposicion de la forma LU como arriba,


con
Sergio Plaza 106


l11 0 0 0 u11 u12 u1n1 u1n
l21 l22 0 0 0 u22 u2n1 u2n

L= .. .. .. .. .. y U = .. .. .. .. .. (3.10)
. . . . . . . . . .
ln1 ln2 lnn1 lnn 0 0 0 unn

De esta descomposici
on tenemos
$ %$ %
4
n 4
n
det(A) = det(L) det(U ) = lii uii (3.11)
i=1 i=1

as, det(A) = 0 si y solo si lii = 0 y uii = 0 para todo i = 1, . . . , n .


Para simplicar la notaci
on, escribamos

T
L = (F1 F2 . . . Fn ) y U = (C1 C2 Cn ) ,

donde Fi = (li1 li2 lii 0 0) y Ci = (u1i u2i uii 0 0)T , son las las de L y
las columnas de U , respectivamente.
Ahora, al desarrollar la multiplicaci
on A = LU ,


a11 a21 a1n F1 F1 C1 F1 C2 F1 Cn
a21 a22 a2n F2 F2 C1 F2 C2 F2 Cn

.. .. .. .. = .. (C1 C2 Cn ) = .. .. .. ..
. . . . . . . . .
an1 an2 ann Fn Fn C1 Fn C2 Fn Cn

donde Fi Cj es considerado como el producto de las matrices Fi = (li1 li2 lii 0 0) y


T
Ci = (u1i u2i uii 0 0) . Tenemos entonces




a11 = F1 C1 = l11 u11

a12 = F1 C2 = l11 u12
.. .. .. (3.12)

. . .


a1n = F1 Cn = l11 u1n

de aqu, vemos que si jamos l11 = 0 , podemos resolver las ecuaciones anteriores para u1i ,
i = 1, . . . , n . Enseguida, para la segunda la de A tenemos




a21 = F2 C1 = l21 u11

a22 = F2 C2 = l21 u12 + l22 u22
.. .. .. (3.13)

. . .


a2n = F2 Cn = l21 u1n + l22 u2n

como u11 ya lo conocemos desde las ecuaciones (3.12), podemos encontrar el valor l21 , conocido
este valor, jando un valor no cero para l22 , y dado que conocemos los valores u1i para
i = 2, . . . , n , podemos encontrar los valores de u2i para i = 2, . . . , n . Siguiendo este metodo
vemos que es posible obtener la descomposicion de A en la forma LU . Note que tambien
Sergio Plaza 107

podemos comparar las columnas de A con aquellas obtenidas desde el producto LU y proceder
a resolver las ecuaciones resultantes. El problema es ahora saber bajo que condiciones dada
una matriz A ella puede descomponerse en la forma LU , es decir, siempre y cuando podamos
hacer las elecciones anteriores.

10 3 6
Ejemplo 54 Sea A = 1 8 2 . Encontremos una descomposicion LU para A .
2 4 9
Escribamos
10 3 6 l11 0 0 u11 u12 u13
1 8 2 = l21 l22 0 0 u22 u23
2 4 9 l31 l32 l33 0 0 u33

desarrollando, obtenemos que


l11 u11 = 10
l u = 3
11 12
l11 u13 = 6

de aqu jando un valor no cero para l11 , digamos l11 = 2 , obtenemos que u11 = 5 , u12 = 32 ,
y u13 = 3 . Enseguida tenemos las ecuaciones


l21 u11 = 1
l u + l22 u22 = 8
21 12
l21 u13 + l22 u23 = 2

como u11 = 5 se tiene que l21 = 15 . Ahora jamos el valor de l22 = 1 y obtenemos los valores
u22 = 83 13
10 , y u23 = 5 . Finalmente, para la u
ltima la de A , nos queda


l31 u11 = 2
l31 u12 + l32 u22 = 4

l31 u13 + l32 u23 + l33 u33 = 2

como u11 = 5 de la primera ecuacion l31 = 25 , reemplazando los valores de l31 = 25 ,


u12 = 32 y u22 = 83
10 en la segunda ecuaci on encontramos que l32 = 34
83 . Ahora, reemplazando
los valores ya obtenidos en la tercera ecuacion obtenemos que l33 u33 = 1694
415 , para encontrar el
1
valor de u33 podemos jar el valor de l33 , digamos l33 = 415 , y obtenemos que u33 = 1604 .
Tenenmos as una descomposicion LU para la matriz A , es decir,

2 0 0 3
5 3


2

10 3 6 1
1 13
8 2 = 1 0 0 83
.
5 5
2 4 9 10
3 34 1
0 0 1604
5 83 415

No siempre es posible encontrar una descomposicion de la forma LU para una matriz A


dada, esto se muestra en el siguiente ejemplo.
Sergio Plaza 108

 
0 1
Ejemplo 55 La matriz A = no tiene descomposicion de la forma LU . Notemos
1 1
que det(A) = 0 .
Para verlo supongamos que podemos escribir A = LU , donde

   
l11 0 u11 u12
L= y U= .
l21 l22 0 u22

Tenemos entonces que

    
0 1 l11 0 u11 u12
=
1 1 l21 l22 0 u22

de donde l11 u11 = 0 , por lo tanto

l11 = 0 () o u11 = 0 ().

Como l11 u12 = 1 , no es posible que (*) sea verdadero, es decir, debemos tener que l11 = 0 ,
en consecuencia se debe tener que u11 = 0 , pero adem as se tiene que u12 = 0 . Ahoram, como
l21 u11 = 1 , llegamos a una contradicci
on. Luego tal descomposici on para A no puede existir.

En el algoritmo que vimos para buscar la descomposici on de una matriz A en la forma LU ,


en los sucesivos paso fue necesario jar valores no cero para los coecientes lii de L , de modo a
poder resolver las ecuaciones resultantes. Tambien, si procedemos con el algoritmo a comparar
las columnas de la matriz producto LU con las columnas de A , vemos que ser a necesario jar
en paso sucesivos valores no cero para los coecientes uii de U , de modo a poder resolver las
ecuaciones resultantes. Como es evidente existe una manera simple de hacer esto, por ejemplo
si en el primer algoritmo jamos los valores lii = 1 para i = 1, . . . , n , decimos que tenemos una
descomposici on LU de Doolitle para A , y si en el segundo algoritmo jamos los valores uii = 1
para i = 1, . . . , n , decimos que tenemos una descomposici on LU de Crout para A , nalmente
T
si jamos U = L (transpuesta de L) se tiene que lii = uii , y decimos que tenemos una
descomposici on LU de Cholesky para A . Note que para la existencia de descomposicion de
Cholesky es necesario que A sea simetrica, pues si A = LLT entonces AT = A , esto signica
que es una condici on necesario, pero una no es una condici
on suciente.
Sobre la existencia de descomposicion LU para una matriz A veremos a continuacion algunos
teoremas. Primero recordemos que si

a11 a21 a1n
a21 a22 a2n

A= .. .. .. ..
. . . .
an1 an2 ann nn

entonces los menores principales de A son las submatrices Ak , k = 1, . . . , n , denidas por


Sergio Plaza 109


a11 a21 a1k
  a21 a22 a2k
a11 a21
A1 = (a11 )11 , A2 = , . . . , Ak = .. .. .. .. ,
a21 a22 22
. . . .
ak1 ak2 akk kk
. . . , An = A .

Teorema 3.10 Si los n menores principales de una matriz A tienen determinante distinto
de cero, entonces A tiene una descomposici
on LU .

Para tener descomposicion de Cholesky, recordemos algunos conceptos y resultados.

Definicion 3.8 Sea A M (n n, R) . Decimos que A es denida positiva si Ax, x > 0


para todo x Rn , con x = 0 .

Ejemplo 56 La matriz


2 1 0
A = 1 2 1
0 1 2

T
es denida positiva. En efecto considere x = (x y z) , tenemos

2 1 0 x
x, Ax = (x, y, z) 1 2 1 y = 2x2 2xy + 2y 2 2yz + 2z 2 .
0 1 2 z

Luego,
x, Ax = 2x2 2xy + 2y 2 2yz + 2z 2
2 2
= x2 + (x y) + (y z) + z 2 > 0,
para todo (x, y, z) = (0, 0, 0) .

Teorema 3.11 Si A M (n n, R) es denida positiva entonces todos sus valores propios


son reales y positivos.

Observaci on. Si A M (n n, R) entonces podemos descomponer A de manera u nica



como la suma de una matriz simetrica, A0 = 12 A + AT , y una matriz antisimetrica, A1 =
1

2 AA . Desde la denicion de matriz positiva denida se tiene que Ax, x = A0 x, x ,
T

por lo cual solo necesitamos considerar matrices simetricas.

Teorema 3.12 Sea A M (n n, R) , entonces A es positiva denida si y s


olo si todos los
menores principales de A tiene determinante positivo.

Teorema 3.13 Sea A M (n n, R) , entonces A simetrica y positiva denida si y s


olo si
A tiene una descomposici
on de Cholesky.
Sergio Plaza 110

Ejemplo 57 La matriz


2 1 0
A = 1 2 1
0 1 2
 
2 1
es denida positiva, pues se tiene que det (A1 ) = 2 > 0 , det (A2 ) = det =3>0
1 2
y det (A3 ) = det (A) = 4 > 0 . Luego tiene descomposicion de Cholesky.
Ahora, para encontrar la descomposicion de Cholesky para esta matriz procedemos como
sigue.


2 1 0 l11 0 0 l11 l21 l31
1 2 1 = l21 l22 0 0 l22 l32
0 1 2 l31 l32 l33 0 0 l33

2
Luego, l11 = 2 , es decir, l11 = 2 ; 1 = l11 l21 , de donde l21 = 22 ; 0 = l11 l31 , de

2
donde l31 = 0 ; l21 2
+ l22 = 2 , de donde l22 = 52 ; l21 l31 + l22 l32 = 1 , de donde l32 = 25 ;

2 2 2 2 2
l31 + l32 + l33 = 2 , de donde l33 = 5
.
Por lo tanto

2 0 0

2 22

2 1 0
0
1 2 1 =
2
2 5 0 0
5 25
.
2 2
0 1 2 0 25 2 2
0 0 2 2
5 5

3.5 M
etodo de eliminaci
on gaussiana
En esta seccion estudiaremos el metodo de eliminaci
on gaussiana para resolver sistemas de
ecuaciones lineales


a11 a21 a1n x1 b1
a21 a22 a2n x2 b2

.. .. .. .. .. = .. .
. . . . . .
an1 an2 ann xn bn

Colocamos primero esta informaci


on en la forma

a11 a12 a1n b1 F1
a21 a22 a2n b2 F2

A b = .. .. .. .. .. .
. . . . . ..
an1 an2 ann bn Fn

esto es, consideramos la matriz aumentada del sistema. En la notacion anterior, los smbolos
Fi denotan las las de la nueva matriz.
Sergio Plaza 111

Si a11 = 0 , el primer paso de la eliminaci


on gaussiana consiste en realizar las operaciones
elementales

aj1
(Fj mj1 F1 ) Fj , donde mj1 = , j = 2, 3, ..., n . (3.14)
a11

Estas operaciones transforman el sistema en otro en el cual todos los componentes de la


primera columna situada bajo la diagonal son cero.
Podemos ver desde otro punto de vista el sistema de operaciones. Esto lo logramos si-
mult
aneamente al multiplicar por la izquierda la matriz original A por la matriz


1 0 0
m21 1 0

M (1) = .. .. . . .. (3.15)
. . . .
mn1 0 1

Esta matriz recibe el nombre de primera matriz gaussiana de transformaci on. El producto
(1) (1) (2) (1)
de M con la matriz A = A lo denotamos por A y el producto de M con la matriz
b(1) = b lo denotamos por b(2) , con lo cual obtenemos

A(2) x = M (1) Ax = M (1) b = b(2) (3.16)


(2)
De manera an aloga podemos construir la matriz M (2) , en la cual si a22 = 0 los elemen-
tos situados bajo de la diagonal en la segunda columna con los elementos negativos de los
multiplicadores

(2)
aj2
mj2 = (2)
, j = 3, 4, . . . , n (3.17)
a22

As obtenemos

A(3) x = M (2) A(2) x = M (2) M (1) Ax = M (2) M (1) b = b(3) (3.18)

En general, con A(k) x = b(k) ya formada, multiplicamos por la kesima matriz de transfor-
macion gaussiana


1 0 0
0 1

.. .. ..
.
. 1 .

M (k)
=
.
0
. .. ..

. mk+1 k . .

.. ..
. . 0 0
0 0 mn k 0 0 1

para obtener
Sergio Plaza 112

A(k+1) x = M (k) A(k) x = M (k) M (1) Ax = M (k) b(k) = b(k+1) = M (k) M (1) b (3.19)

Este proceso termina con la formacion de un sistema A(n) x = b(n) , donde A(n) es una matriz
triangular superior
(1) (1) (1)
a11 a12 a1n
(2) (2)
0 a22 . . . a2n

(n) .. .
A = . ..
. ..
.. . . an1 n
(n1)
. .
(n)
0 0 ann

dada por

A(n) = M (n1) M (n2) M (n3) M (1) A. (3.20)

El proceso que hemos realizado solo forma la mitad de la factorizaci


on matricial A = LU ,
donde con U denotamos la matriz triangular superior A(n) . Si queremos determinar la matriz
on de A(k) x = b(k) mediante la
triangular inferior L , primero debemos recordar la multiplicaci
transformacion gaussiana M (k) con que obtuvimos

A(k+1) x = M (k) A(k) x = M (k) b(k) = b(k+1)

para poder revertir los efectos de esta transformacion debemos considerar primero la matriz
1
L(k) = M (k) , la cual esta dada por


1 0 0
..
0 1 .

.. ..

 1 . 1 .
..
L(k) = M (k) =

..
. 0
..
.
. .

.. ..
. mk+1 k .

.. .. .. ..
. . . 0 . 0
0 0 mn k 0 0 1

Por lo tanto si denotamos

L = L(1) L(2) L(n1)

obtenemos

LU = L(1) L(2) L(n1) M (n1) M (n2) M (n3) M (1) = A.

Con lo cual obtenemos el siguiente resultado.


Sergio Plaza 113

Teorema 3.14 Si podemos efectuar la eliminaci on gaussiana en el sistema lineal Ax = b sin


intercambio de las, entonces podemos factorizar la matriz A como el producto de una matriz
triangular inferior L y una matriz triangular superior U , donde
(1) (1) (1)

a11 a12 a1n 1 0 0
.. .. ..
(2) .. .
0 a22 . . m21 1 .
U = y L=

.

.. .. ..
.. .. ..
0
(n1)
. . . an1 n . . .
(n)
0 0 ann mn1 mn n1 1

Ejemplo 58 Consideremos el siguiente sistema lineal

x + y + 3w = 4
2x + y z + w = 1
3x y z + w = 3
x + 2y + 3z w = 4

Si realizamos las siguientes operaciones elementales F2  (F E2 2F1 ) , F3  (F3 3F1 ) ,


F4  (F4 (1) F1 ) , F3  (F3 4F2 ) , F4  (F4 (3) F2 ) con lo que obtenemos el sis-
tema triangular

x + y + 3w = 4
y z 5w = 7
3z + 13w = 13
13w = 13
Por lo tanto la factorizaci
on LU esta dada por


1 1 0 3 1 0 0 0 1 1 0 3
2 1 2 0
A=
1 1 1 0 0 1 1 5 = LU.
3 1 1 2 = 3 4 1 0 0 0 3 13
1 2 3 1 1 3 0 1 0 0 0 13
    
L U

Esta factorizacion nos permite resolver facilmente todo sistema que posee como matriz aso-
ciada la matriz A . As, por ejemplo, para resolver el sistema


1 0 0 0 1 1 0 3 x 8
2 1 0
0 0
1 1 5 y 7
Ax = LU x =
3
=
4 1 0 0 0 3 13 z 14
1 3 0 1 0 0 0 13 w 7

primero realizaremos la sustituci


on y = U x . Luego resolvemos Ly = b , es decir,


1 0 0 0 y1 8
2 1 0 0 y2 7
LU x = Ly =
3
=
14 .
4 1 0 y3
1 3 0 1 y4 7
Sergio Plaza 114

Este sistema se resuelve para y mediante un simple proceso de susbtitucion hacia adelante,
con lo cual obtenemos


y1 8
y2 9
y=
y3 = 26
.

y4 26

Por ultimo resolvemos U x = y , es decir, resolvemos el sistema por un proceso de susbtitucion


hacia atras


1 1 0 3 x 8
0
1 1 5 y 9
Ux =
0
=
0 3 13 z 26
0 0 0 13 w 26

el cual tiene por soluci


on



x 3
y 1
x=
z = 0
.

w 2
que es la solucion buscada.

3.6 Eliminaci
on gaussiana con pivoteo
Al resolver un sistema lineal Ax = b , a veces es necesario intercambiar las ecuaciones, ya sea
porque la elimninacion gaussiana no puede efectuarse o porque las soluciones que se obtienen
no corresponden a as soluciones exactas del sistema. Este proceso es llamado pivoteo y nos
lleva a la descomposicion P A = LU del sistema. As el sistema se transforma en LU x = P b
y resolvemos entonces los sistemas


Ux = z
Lz = Pb

donde P es una matriz de permutaci on, es decir, es una matriz obtenida a partir de la matriz
identidad intercambiando algunas de sus las. M as precisamente.

Definicion 3.9 Una matriz de permutaci on P M (n n, R) es una matriz obtenida desde


la matriz identidad por permutaci
on de sus las.

Observaci on. Las matrices de permutacion poseen dos propiedades de gran utilidad que se
relacionan con la eliminaci
on gaussiana. La primera de ellas es que al multiplicar por la izquierda
una A por una matriz de permutaci on P , es decir, al realizar el producto P A se permutan las
las de A . La segunda propiedad establece que si P es una matriz de permutaci on, entonces
P 1 = P T .
Sergio Plaza 115

Si A M (n n, R) es una matriz invertible entonces podemos resolver el sistema lineal


Ax = b va eliminacion gaussiana, sin excluir el intercambio de las. Si conocieramos los inter-
cambios que se requieren para resolver el sistema mediante eliminacion gaussiana, podramos
arreglar las ecuaciones originales de manera que nos garantice que no se requieren intercambios
de las. Por lo tanto, existe un arreglo de ecuaciones en el sistema que nos permite resolver el
sistema con eliminacion gaussiana sin intercambio de las. Con lo que podemos concluir que
si A M (n n, R) es una matriz invertible entonces existe una matriz de permutacion P
para la cual podemos resolver el sistema P Ax = P b , sin hacer intercambios de las. Pero
podemos factorizar la matriz P A en P A = LU , donde L es una triangular inferior y U
triangular superior, y P es una matriz de permutaci on. Dado que P 1 = P T obtenemos que
T
A = P L U . Sin embargo, la matriz P T L no es triangular inferior, salvo que P = I .
Supongamos que tenemos el sistema


a11 a12 a1n x1 b1
a21 a22 a2n x2 b2

.. .. .. .. .. = .. (3.21)
. . . . . .
an1 an2 ann xn bn

Se dene la escala de cada la como

si = max{|ai1 |, |ai2 |, . . . , |ain |} , 1  i  n. (3.22)

Elecci
on de la fila pivote. Elegimos como la povote la la para la cual se tiene que

|ai0 1 |
(3.23)
si0

es el mayor.
Intercambiamos en A la la 1 con la la i0 , esto es, realizamos la operaci on elemental
F1 Fi0 . Esto nos produce la primera permutaci on. Procedemos ahora a producir ceros
bajo la primera columna de la matriz permutada, tal como se hizo en la eliminaci on gaussiana.
Denotamos el ndice que hemos elegido por p1 , este se convierte en la primera componente de
la permutaci
on.
M
as especicamente, comenzamos por jar

p = (p1 p2 . . . pn ) = (1 2 . . . n) (3.24)

como la permutaci
on antes de comenzar el pivoteo. As la primera permutaci
on que hemos
hecho es

 
1 2 . . . i0 ... n
.
i0 2 ... 1 ... n

Para jar las ideas, comenzamos con la permutaci


on (p1 p2 . . . pn ) = (1 2 . . . n) . Primero
seleccionamos un ndice j para el cual se tiene
Sergio Plaza 116

|apj j |
, 2jn (3.25)
spj

es el mayor, y se intercambia p1 con pj en la permutaci


on p . Procedemos a la elmincaci
on
gaussiana, restando

api 1
Fp1
ap1 1

a las las pi , 2  i  n .
En general, supongamos que tenemos que producir ceros en la columna k . Impeccionamos
los n
umeros

|api k |
, kin (3.26)
spi

y buscamos el mayor de ellos. Si j es el ndice del primer cuociente mas grande, intercambiamos
pk con pj en la permutaci on p y las las Fpk con la la Fpj en la matriz que tenemos en
esta etapa de la eliminacion gaussianapivoteo. Enseguida producimos ceros en la columna pk
bajo el elemento apk k , para ellos restamos

api k
Fpk
apk k

de la la Fpi , k + 1  i  n , y continuamos el proceso hasta obtener una matriz triangular


superior.
Veamos con un ejemplo especco como podemos ir guardando toda la informacion del proceso
que vamos realizando en cada etapa del proceso de eliminacion gaussianapivoteo

Ejemplo 59 Resolver el sistema de ecuaciones lineales



2 3 6 x 1
1 6 8 y = 1
3 2 1 z 1

Soluci
on. Primero calculemos la escala de las las. Tenemos

s1 = max{|2|, |3|, | 6|} = 6


s2 = max{|1|, | 6|, |8|} = 8
s3 = max{|3|, | 2|, |1|} = 3

permutacion inicial p = (1 2 3) . Denotemos por s el vector de la escala de las las, es decir,


s = (6 8 3) .
Eleccion de la primera la pivote:
Sergio Plaza 117

|a11 | 2 1
= =
s1 6 3
|a21 | 1
=
s2 8
|a31 |
= 1,
s3

luego j = 3 . Antes de proceder a intercambiar la la F1 con la la F3 guardamos la infor-


macion en la forma siguiente


2 3 6 1 6 1
1 6 8 1 8 2
3 2 1 1 3 3

donde la primera parte de esta matriz representa a la matriz A , la segunda al vector b , la


tercera al vector s y la u
ltima a la permutaci
on inicial p = (1 2 3) . Como j = 3 intercambianos
las las F1 F3 y obtenemos


3 2 1 1 3 3
1 6 8 1 8 2
2 3 6 1 6 1

en la parte (A|b) de la matriz arriba procedemos a hacer eliminacion gaussiana. Los multipli-
cadores son m21 = 13 y m31 = 23 , obtenemos as


3 2 1 1 3 3



0 16
3
23
3
2
3 8 2


13
0 3 20
3
1
3 6 1

Agregamos la informaci
on de los multiplicadores a esta estructura como sigue


3 2 1 1 3 3



0 16
3
23
3
2
3 8 2 1
3


13
0 3 20
3
1
3 6 1 2
3

Ahora determinamos la nueva la pivote. Recuerde que la primera la de esta nueva matriz
permanece inalterada, y solo debemos trabajar con las las restantes. Para determinar la nueva
la pivote, calculamos
Sergio Plaza 118

16
|ap2 2 | 3 16 2
= = =
sp2 8 24 3
13
|ap3 2 | 3 13
= =
sp3 6 18
13 2
como 18 > 3 la nueva la pivote es la la 3. Intercambiando F2 F3 nos queda


3 2 1 1 3 3


13
0 3 20
3
1
3 6 1 2
3


0 16
3
23
3
2
3 8 2 1
3

16
16
El multiplicador es m32 = 133 = 13 . Agregando la informaci
on del nuevo multiplicador y
3
aplicando eliminaci
on gaussiana, nos queda


3 2 1 1 3 3


13
0 3 20
3
1
3 6 1 2
3


7 94 1 16
0 0 13 117 8 2 3 13

De esto, el sistema a resolver es



3 2 1 1
x

13 20 1
0
3 y = 3
3

7 94
0 0 z
  13  117
U

La matriz L es

1 0 0


2
1 0
L= 3


1 16
1
3 13
y la matriz de permutaci
on P es


0 0 1
P = 1 0 0
0 1 0
Sergio Plaza 119

Ahora es f
acil vericar que P A = LU .

Ejemplo 60 Consideremos la matriz



0 0 1 1
1 1 1 2
A=
1

1 0 3
1 2 1 3

puesto que a11 = 0 la matriz no posee una factorizacion LU . Pero si realizamos el intercambio
de las F1 F2 , seguido de F3  (F3 F1 ) y de F4  (F4 F1 ) obtenemos


1 1 1 2
0 0 1 1
.
0 0 1 1
0 1 0 1

Realizando las operaciones elementales F2 F4 y F4  (F4 + F3 ) , obtenemos


1 1 1 2
0 1 0 1
U =
0
.
0 1 1
0 0 0 2

on asociada al cambio de las F1 F2 seguida del intercambio de


La matriz de permutaci
las F2 F4 es


0 1 0 0
0 0 0 1
P =
0
.
0 1 0
1 0 0 0

La eliminaci
on gaussiana en P A se puede realizar sin intercambio de las usando las opera-
ciones F2  (F2 F1 ) , F3  (F3 F1 ) y (F4 + F3 )  F4 , esto produce la factorizaci
on LU
de P A


1 1 1 2 1 0 0 0 1 1 1 2
1 2 1 3 1 1 0 0 0 1 0 1
PA =
1
= = LU.
1 0 3 1 0 1 0 0 0 1 1
0 0 1 2 0 0 1 1 0 0 0 2

Al multiplicar por P 1 = P T obtenemos la factorizaci


on


0 0 1 1 1 1 1 2
T 1 0 0
0 0 1 0 1
A= P L U =
1
.
0 1 0 0 0 1 1
1 1 0 0 0 0 0 2
Sergio Plaza 120

3.7 Matrices especiales


En esta seccion nos ocuparemos de clases de matrices en las cuales podemos realizar la elimi-
nacion gaussiana sin intercambio de las.
Decimos que una matriz A M (n n, R) es diagonal dominante si

-
n
|aii | > |aij |
j = 1
j = i

para todo i = 1, 2, . . . , n .

Ejemplo 61 Consideremos las matrices


7 2 0 6 4 3
A= 3 5 1 y B = 4 2 0 .
0 5 6 3 0 1

La matriz A es diagonal dominante y la matriz B no es diagonal dominante, pues por


ejemplo |6| < |4| + |3| = 7 .

Teorema 3.15 Toda matriz A M (n n, R) diagonal dominante tiene inversa, m as aun,


en este caso podemos realizar la eliminacion gaussiana de cualquier sistema lineal de la forma
Ax = b para obtener su soluci on unica sin intercambio de las, y los c
alculos son estables
respecto al crecimiento de los errores de redondeo.

Teorema 3.16 Si A M (n n, R) es una matriz denida positiva entonces

1. A tiene inversa.

2. aii > 0, para todo i = 1, 2, . . . , n .

3. max1 k, j n |akj |  max1 i n |aii | .

4. (aij )2 < aii ajj , para todo i = j

Teorema 3.17 Una matriz simetrica A es denida positiva si y s olo si la eliminaci


on gaus-
siana sin intercambio de las puede efectuarse en el sistema Ax = b con todos los elementos
pivotes positivos. Adem
as, en este caso los c
alculos son estables respecto al crecimiento de los
errores de redondeo.

Corolario 3.2 Una matriz simetrica A es denida positiva si y s olo si A puede factorizarse
T
en la forma LDL , donde L es una matriz triangular inferior con unos en su diagonal y D
es una matriz diagonal con elementos positivos a lo largo de la diagonal.

Corolario 3.3 Una matriz simetrica A es denida positiva si y s


olo si A puede factorizarse
de la forma LLT , donde L es una matriz triangular inferior con elementos distintos de cero
en su diagonal.
Sergio Plaza 121

Corolario 3.4 Sea A M (n n, R) una matriz simetrica a la cual puede aplicarse la elim-
on gaussiana sin intercambio de las. Entonces, A puede factorizarse en LDLT , donde
inaci
L es una matriz triangular inferior con unos en su diagonal y donde D es una matriz diagonal
(1) (n)
con a11 , . . . , ann en su diagonal.

Ejemplo 62 La matriz

4 1 1
A = 1 4.25 2.75
1 2.75 3.5
on LDLT de la matriz A es
es denida positiva. La factorizaci


1 0 0 4 0 0 1 0.25 0.25
A= 0.25 1 0 0 4 0 0 1 0.75
0.25 0.75 1 0 0 1 0 0 1

mientras que su descomposicion de Cholesky es


2 0 0 2 0.5 0.5
A = 0.5 2 0 0 2 1.5 .
0.5 1.5 1 0 0 1

on 3.10 Una matriz A M (n n, R) es llamada matriz banda si existen enteros


Definici
p y q con 1 < p, q < n , tales que aij = 0 siempre que i + p  j o j + q  i . El ancho de la
banda de este tipo de matrices esta dado por w = p + q 1 .


1 2 0
Ejemplo 63 La matriz A = 2 1 2 es una matriz de banda con p = q = 2 y con
0 1 1
ancho de banda 3.

on 3.11 Una matriz A M (n n, R) se denomina tridiagonal si es una matriz de


Definici
banda con p = q = 2 .

Observaci on. Los algoritmos de factorizaci


on pueden simplicarse considerablemente en el
caso de las matrices de banda.
Para ilustrar lo anterior, supongamos que podemos factorizar una matriz tridiagonal A en
las matrices triangulares L y U . Ya que A tiene solo 3n2 elementos distintos de cero, habra
apenas 3n 2 condiciones aplicables para determinar los elementos de L y U , naturalmente
a condicion de que tambien se obtengan los elementos cero de A . Supongamos que podemos
encontrar las matrices de la forma

l11 0 0 1 u12 0 0
. . .. .. . . .. ..
l 0 1
21 l22 . . . . . .
. .

L= 0 . . . . . . . . . . . . . .
. . . . y U = . . . . 0
.
. .. .. .. .. .. .. ..
. . . . 0 . . . . u
n1 n
0 0 ln n1 lnn 0 0 1
Sergio Plaza 122

De la multiplicacion que incluye A = LU , obtenemos

a11 = l11 ;
ai i1 = li i1 para cada i = 2, 3, . . . , n;
aii = li i1 ui1 i + lii para cada i = 2, 3, . . . , n;
ai i+1 = lii ui i+1 para cada i = 1, 2, 3, . . . , n 1;

3.8 Solucion de sistemas de ecuaciones lineales: m


etodos
iterativos
En general, puede resultar muy engorroso encontrar la soluci on exacta a un sistema de ecua-
ciones lineales, y por otra parte, a veces nos basta con tener buenas aproximaciones a dicha
soluci
on. Para obtener estas u ltimas usamos metodos iterativos de punto jo, que en este caso
particular resultan ser mas analizar su convergencia.

Teorema 3.18 Consideremos un metodo iterativo

x(k+1) = Gx(k) + c (3.27)

donde G M (nn, R) , x, c Rn . Entonces el metodo iterativo es convergente, para cualquier


on inicial x(0) elegida arbitrariamente si y s
condici olo si (G) < 1 . Adem as, si existe una
norma | || en M (n n, R) , en la cual se tiene ||G|| < 1 , entonces el metodo iterativo
on inicial x(0) Rn dada. Si tomamos x(k) como una
converge cualesquiera que sea la condici
aproximaci on al punto jo xT del metodo iterativo (3.27), entonces valen las desigualdades
siguientes,
3 3 (G)k 3 3
3 (k) 3 3 (1) 3
3x x3  3x x(0) 3 . (3.28)
1 (G)
y
3 3 k 3 3
3 (k) 3 3 (1) 3
3x x3  3x x(0) 3 , (3.29)
1
donde = ||G|| .

on. Si el metodo iterativo x(k+1) = Gx(k) + c es convergente y tiene por lmite a


Observaci
x R , entonces
n
 
x = lim x(k+1) = G lim x(k) + c = Gx + c,
k k

de donde x = (I G)1 c .

Regresemos al problema inicial de resolver el sistema de ecuaciones lineales

Ax = b,

donde A = (aij ) M (n n, R) , b = (b1 , b2 , . . . , bn )T Rn y x = (x1 , x2 , . . . , xn )T Rn


es la inc
ognita.
Sergio Plaza 123

Consideremos una matriz Q M (n n, R) , la cual suponemos tiene inversa. Tenemos que


Ax = b es equivalente a escribir 0 = Ax + b , sumando a ambos miembros de esta u ltima
igualdad el termino Qx , no queda la ecuacion Qx = Qx Ax + b , multiplicando esta ecuacion
por la izquierda por Q1 obtenemos x = (I Q1 A)x + Q1 b , lo que nos sugiere proponer
el siguiente metodo iterativo para resolver la ecuacion original Ax = b ,

x(k+1) = (I Q1 A)x(k) + Q1 b, (3.30)

donde x(0) Rn es arbitrario. Sobre la convergencia del metodo propuesto, tenemos el siguiente
corolario.

Corolario 3.5 La f on x(k+1) = I Q1 A x(k) + Q1 b dene una sucesi
ormula de iteraci on
que converge a la soluci
on de Ax = b , para cualquier condici on inicial x(0) Rn si y s olo

si I Q1 A < 1 . Adem as, si existe una norma | || en M (n n, R) , en la cual se
1
tiene ||I Q A|| < 1 , entonces el metodo iterativo converge cualesquiera que sea la condici
on
inicial x(0) Rn dada.

Observaci
on La f
ormula de iteraci
on

x(k+1) = I Q1 A x(k) + Q1 b

on F : Rn Rn
dene un metodo iterativo de punto jo. En efecto, consideremos la funci

denida por F (x) = I Q1 A x + Q1 b . Observemos que si x es un punto jo de F

on Ax = b . Ademas, si x = I Q1 A x + Q1 b
entonces x es una solucion de la ecuaci
entonces se tiene que
 
x(k) x = I Q1 A x(k1) x ,
por lo tanto 3 3 3
3 (k) 3 3 3
3
3
3
3x x3  3I Q1 A3 3x(k1) x3 ,
de donde, iterando esta desigualdad obtenemos
3 3 3 3k 3 3
3 (k) 3 3 3
3x x3  3I Q1 A3 3x(0) x3 ,
3 3 3 3
luego si 3I Q1 A3 < 1 , se tiene de inmediato que limk 3x(k) x3 = 0 para cualquier
x(0) Rn dado.
3 3
Observaci on 3I Q1 A3 < 1 implica que las matrices Q1 A y A tienen
on. La condici
inversas.
3 3
Teorema 3.19 Si 3I Q1 A3 < 1 para alguna norma matricial subordinada en M (n

n, R) , entonces el metodo iterativo x(k+1) = I Q1 A x(k) + Q1 b es convergente
3 a 3
una
soluci
on de Ax = b , para cualquier vector inicial x(0)
R n
. Adem
as, si = 3I Q1 A3 <
3 3
1 , podemos usar el criterio de parada 3x(k) x(k1) 3 < y se tiene que

3 3 3 3 k 3 3
3 (k) 3 3 (k) 3 3 (1) 3
3x x3  3x x(k1) 3   3x x(0) 3 .
1 1
, es decir,
3 3 k 3 3
3 (k) 3 3 (1) 3
3x x3  3x x(0) 3 . (3.31)
1
Sergio Plaza 124

Tambien vale la desigualdad siguiente


3 3 (I Q1 A)k 3 3
3 (k) 3 3 (1) (0) 3
3x x3  3x x 3. (3.32)
1 (I Q1 A)

Observaci on. Desde la denicion de radio espectral de una matriz, se tiene que (A) < 1
implica que existe una norma matricial || || en M (nn, R) , tal que ||A|| < 1 . Por otra parte, si
||A|| < 1 para alguna norma matricial en M (nn, R) entonces se tiene que (A) < 1 . Notemos
que si existe una norma matricial || || en M (n n, R) , tal que ||A||  1 no necesariamente se
tiene que (A)  1 .

Observaci on. Si M1 y M2 son dos metodos iterativos convergentes para resolver un sistema
de ecuaciones lineales Ax = b , digamos M1 : x(k+1) = G1 x(k) + c1 y M2 : x(k+1) =
G2 x(k) + c2 . Si (G1 ))  (G2 ) , entonces M1 converge mas rapido que M2 a la soluci on de la
ecuacion. Adem as, si existe una norma || || en M (n n, R) tal que ||G1 ||  ||G2 || , entonces
M1 converge mas r apido que M2 a la soluci on de la ecuaci
on.

3.9 M
etodo de Richardson

Para este metodo tomamos QR = I , luego el metodo iterativo x(k+1) = I Q1 A x(k) +
Q1 b se transforma en

x(k+1) = (I A) x(k) + b, (3.33)


  
TR

olo si (TR ) = (I A) < 1 .


el cual converge si y s

Si existe una norma matricial   para la cual se tiene que TR  = ||I A|| < 1 , entonces
el metodo iterativo de Richardson es convergente.

Ejemplo 64 Resolver el sistema de ecuaciones lineales usando el metodo de Richardson.

1 1
11

1
x
2 3 18



1
3 1 1
2 y = 11
18

z
1 1 11
2 3 1 18

Soluci
on. Tenemos
1 1

1 0 12 31
2 3

1 0 0
1
TR = I A = 0 1 0 1
3 1 2
= 1 0 21
3
0 0 1
1 1
2 3 1 21 13 0
Sergio Plaza 125

Llamando x(j) = (xj yj zj )T , nos queda



0 12 31 11
x
18

k

x(k+1) = TR x(k) + b = 13 0 21 yk + 11
18

zk
12 13 0 11
18

5
se tiene ||TR || = 6 < , luego el metodo iterativo de Richardson para este sistema converge.

3.10 M
etodo de Jacobi
En este caso tomamos


a11 0
.. .. ..
QJ = diag (A) = . . .
0 ann

donde los elementos fuera de la diagonal en QJ son todos iguales a 0. Notemos que det(QJ ) =
a11 a22 ann , luego det(QJ ) = 0 si y solo si aii = 0 para todo i = 1, . . . , n , es decir, QJ
tiene inversa si y s olo si aii = 0 para todo i = 1, . . . , n .
Como antes, colocando esta matriz QJ = diag(A) en la f
ormula iterativa denida por


x(k+1) = I diag(A)1 A x(k) + diag(A)1 b , (3.34)
  
TJ

obtenemos un metodo iterativo convergente si y s olo si (TJ ) = (I diag(A)1 A) < 1 . Si


existe una norma matricial   para la cual se tiene que TJ  = ||I diag(A)1 A|| < 1 ,
entonces el metodo iterativo de Jacobi es convergente.
Examinemos un poco m as la f
ormula iterativa del metodo de Jacobi. Tenemos, en este caso,
que un elemento generico de Q1 A es de la forma aij
a
ii
y todos los elementos de la diagonal de
1
Q A son iguales a 1. Luego, tomando la norma   en M (n n, R) tenemos que

3 3 -
n
|aij |
3I diag(A)1 A3 = max .
1in |aii |
j=1 ,j=i

Recordemos que una matriz A es diagonal dominante si

-
n
|aii | > |aij | , 1  i  n,
j=1 , j=i

n

aij

es decir,
aii
< 1 , por lo tanto tenemos el siguiente teorema.
j=1 , j=i

Teorema 3.20 Si A es una matriz diagonal dominante, entonces el metodo iterativo de Ja-
on inicial x(0) elegida.
cobi es convergente para cualquiera que sea la condici
Sergio Plaza 126

3.11 M
etodo de GaussSeidel
En esta caso, consideremos la matriz Q como la matriz triangular obtenida considerando la
parte triangular inferior de la matriz A incluyendo su diagonal, es decir,


a11 0 0
a21 a22 0

QG-S = .. .. .. ..
. . . .
an1 an2 ann

Se tiene que det(QG-S ) = a11 a22 ann . Luego, det(QG-S ) = 0 si y solo si aii = 0 ( i =
1, . . . , n ). Usando la matriz QG-S , obtenemos el metodo iterativo

x(k+1) = I Q1 A x(k) + Q1 b. (3.35)
  
G-S G-S

TG-S

Teorema 3.21 Sea A M (n n, R) . Entonces el metodo iterativo de GaussSeidel es


convergente si y solo si (TG-S ) = (I Q1
G-S
A) < 1 , donde QG-S es la matriz triangular
inferior denida arriba a partir de A .

Como en el caso del metodo iterativo de Jacobi, tenemos el siguiente teorema.

Teorema 3.22 Si A M (n n, R) es una matriz es diagonal dominante entonces el metodo


on inicial x(0) .
de GaussSeidel converge para cualquier elecci

Ejemplo 65 Considere el sistema de ecuaciones lineales


4 2 1 x 5
2 5 2 y = 4
1 2 6 z 7

Explicitaremos los metodos iterativos de Jacobi y GaussSeidel para este sistema. Estudi-
aremos la convergencia de ellos sin iterar. Finalmente, sabiendo que la soluci on exacta del
sistema es (xT , yT , zT ) = (1, 0, 1) y usando el punto de partida (1, 1, 1) nos podemos pregun-
tar Cual de ellos converge m as rapido?, para las comparaciones usaremos la norma   en
M (n n, R) .
Primero que nada tenemos que los metodos iterativos de Jacobi y GaussSeidel convergen,
pues la matriz asociada al sistema es diagonal dominante.
Explicitaremos el metodo de Jacobi. En este caso tenemos


4 0 0
QJ = 0 5 0
0 0 6

por lo tanto
Sergio Plaza 127

1
4 0 0
Q1
J = 0 1
5 0
1
0 0 6

luego

1 1 1
4 0 0 4 2 1 1 2 4
Q1
J A = 0 1
5 0 2 5 2 = 2
5 1 2
5

1 1 1
0 0 6 1 2 6 6 3 1

de donde
1
0 12 14 4 0 0 5 5
4
TJ I Q1 A = 2 25 y Q1 0 1
0 4 = 4 ,
J 5 0 J b = 5 5
61 13 0 0 0 1
6 7 7
6
por lo tanto

2yk zk + 5

xk+1 =

4




2xk 2zk + 4
yk+1 =

5





zk+1 = xk 2yk + 7

6
Como ||TJ || = max{| 21 | + | 1 2 2 1 1 3 4 1
4 |, | 5 | + | 5 |, | 6 | + | 3 |} = max{ 4 , 5 , 2 } = {0.75, 0.8, 0.5} =
0.8 < 1 , el metodo de Jacobi converge para cualquier condicion inicial x(0) Rn dada. Ahora
explicitemos el metodo de GaussSeidel. En este caso,

1
4 0 0 4 0 0
QG-S = 2 5 0 por lo tanto Q1
G-S
= 1
10 2
10 0
1 8 20
1 2 6 120 120 120

as obtenemos que
1 1 1
4 0 0 4 2 1 1 2 4
Q1
G-S
A= 1
10 2
10 0 2 5 2 = 0 8
10
3
10

1 8 20 2 103
120 120 120 1 2 6 0 120 120


0 21 41 5
4
1
luego I QG-S A = 0 2 3
10 y Q1 b= 3 , por lo tanto
10 G-S 10
2 17 103
0 120 120 120

2yk zk + 5

xk+1 =

4




2yk 3zk + 3
yk+1 =

10





2yk 17zk + 103
zk+1 =
120
Sergio Plaza 128

Como ||TG-S || = max{| 1 1 2 3 2 17 3 5 19


4 | + | 4 |, | 10 | + | 10 |, | 120 | + | 120 } = max{ 4 , 10 , 120 } = 0.75 < 1 .
(0)
Luego, el metodo de GaussSeidel converge para cualquier condici on inicial x Rn dada.

Notemos que como ||TG-S || < ||TJ || , vemos que el metodo de GaussSeidel converge mas
r
apido que el metodo de Jacobi.
Ejercicio. Realizar las iteraciones en ambos caso, Jacobi y Gauss-Seidel para este ejemplo.

3.12 M
etodo SOR (successive overrelaxation)

Este metodo, tambien llamado sobre-relajacion sucesiva.


Supongamos que escogemos la matriz Q como QSOR = 1 D C , donde R , = 0 , es
ametro, D es una matriz simetrica, positiva denida y C satisface C + C T = D A ,
un par
tenemos entonces el metodo iterativo
(k)
x(k+1) = I Q1
SOR A x + Q1
SOR b , (3.36)
  
TSOR

Teorema 3.23 Si A es simetrica y positiva denida, QSOR es no singular y 0 < < 2 ,


entonces el metodo iterativo SOR converge para todo valor inicial dado.

Recordemos que una matriz A M (n n, R) de la forma



a1 b1 0 0 0

c2 a2 b2 0 0

0 c3 a3 b3 0
A=
.. .. .. .. ..


. . . . . 0

0 0 cn1 an1 bn1
0 0 0 cn an

es llamada tridiagonal.

Teorema 3.24 Si A es simetirca, positiva denida y tridiagonal, entonces, en caso se tiene


(TG-S ) = (TJ )2 , donde TJ = D1 (CL + CU ) es la matriz de iteraci
on en el metodo de Jacobi
y TG-S = (D CL )1 CU es la matriz de iteracion en el metodo de GaussSeidel. Adem as, la
elecci
on optima de en el metodo SOR es

2 2
opt =  =  (3.37)
1 + 1 (TJ )2 1 + 1 (TG-S )

Por otra parte, tambien se tiene

(TSOR,opt ) = opt 1 . (3.38)


Sergio Plaza 129

3.13 Otra forma de expresar los m


etodos iterativos para
sistemas lineales
Sea
a11 a1n
.. .. ..
A= . . .
an1 ann

podemos escribir A en la forma


a11 a1n
.. .. ..
A = . . .
an1 ann

a11 0 0 0 0 0 0 a12 a1n
0 a22 0 a21 0 0 .. ..
0 0 . .
= . . . .. .. .. .. ..
.. .. .. . . . . . 0 0 an1n
0 0 ann an1 ann1 0 0 0 0
        
D CL CU

Notemos primero que Ax = b si y solo si (D CL CU )x = b si y solo si Dx = (CL +


CU )x + b .
Veamos como quedan los metodos anteriores con esta notacion.
etodo de Jacobi. Si det(D) = 0 , entonces como (D CL CU )x = b se sigue que
M

x = D1 (CL + CU ) x + D 1
  b (3.39)
  
Tj CJ

luego el metodo de Jacobi se puede escribir como

x(k+1) = D1 (CL + CU ) x(k) + D 1


  b
  
Tj CJ

M
etodo de GaussSeidel. Este se puede escribir como

(D CL )x(k+1) = CU x(k) + b (3.40)

de donde, si det(D CL ) = 0 nos queda

x(k+1) = (D CL )1 CU x(k) + (D CL )1 b
     
TG-S CG-S

Resumen. Supongamos que la matriz A se escribe en la forma A = D CL CU , donde


D = diag(A) , CL es el negativo de la parte triangular inferior estricta de A y CU es el
negativo de la parte triangular superior estricta de A . Entonces podemos rescribir los metodos
iterativos vistos antes como sigue:
Sergio Plaza 130

Richardson


Q=I
G=I A

x(k+1) = (I A)x(k) + b

Jacobi


Q=D
G = D1 (CL + CU )

Dx(k+1) = (CL + CU )x(k) + b


Gauss-Seidel
Q = D CL
G = (D CL )1 CU

(D CL )x(k+1) = CU x(k) + b
SOR
Q = 1 (D CL )
G = (D CL )1 (CU + (1 )D)

(D CL )x(k+1) = (CU x(k) + b) + (1 )Dx(k)

1
= , 0 < < 2.

3.14 Ejemplos resueltos


Problema 3.1 Considere el sistema de ecuaciones lineales

1 1 7
3
4 x1
= 12
.
1 1
x2 0.45
4 5
 
= 0.58
(a) Para realizar los calculos con decimales, se considera el vector b . Obtenga
0.45
una cota para el error relativo de la solucion del sistema con respecto a la solucion del
sistema Ax = b.

(b) Ahora considere la matriz perturbada


 
0.33 0.25
A = .
0.25 0.20

Obtenga una cota para el error relativo de la soluci


on del sistema original con respecto a
la soluci = b.
on del sistema Ax
Sergio Plaza 131

Soluci
on. Tenemos el sistema de ecuaciones lineales

1 1 7
3 4 x1
= 12
.
1 1
x2 0.45
4 5
7
 
= 0.58 12
a) El vector b on del vector b =
es una perturbaci . Sean xT la
0.45
0.45
on exacta del sistema Ax = b y xA la soluci
soluci on exacta del sistema Ax = b . Se tiene
entonces que xA es una aproximacion a xT . Para simplicar los c
alculos trabajaremos con la
es una perturbaci
norma subordinada || || . Como b on de b , tenemos la f
ormula

||xT xA ||
||b b||
ER (xA ) =  ||A|| ||A1 || .
||xT || ||b||

Ahora,  
3.33333333 103
=
bb .
0
 
a11 a12
Recordemos que si A = , entonces
a21 a22
 
1 a22 a12
A1 =
det(A) a21 a11
1 1
3 4
En nuestro caso, det = 1
240 . Luego,
1 1
4 5
1
5 14 1
5 41  
1 1 = 240 = 48 60
A = 1 .
60 80
240 41 1
3 41 1
3

De esto, tenemos

, ,
1 1 1 1 7 9 7
||A|| = max + , + = max , =
3 4 4 5 12 20 12

||A1 || = max{|48| + | 60|, | 60| + |80|} = 140

,
7 7
||b|| = max , 0.45 =
12 12


||b|| = max{0.58, 0.45} = 0.58


||b b|| = max{3.33333333 103 , 0} = 3.33333333 103 .
Sergio Plaza 132

Reemplazando nos queda

7 3.3333333 103
ER (xA )  140 7 = 0.4666666662 ,
12 12

esto es, ER (xA )  0.4666666662 .


b) Consideremos ahora la matriz perturbada

 
0.33 0.25
A = .
0.25 0.20

Podemos escribir A en la forma A = A(I + E) , donde I es la matriz identidad 2 2 y E


es la matriz de error, esto es, .E = A A . Como A = A(I + E) , se tiene que A A = AE .
Luego,

1 1
   
0.33 0.25 3 4 3.33333333 103 0
AE = A A = = ,
0.25 0.20 1 1 0 0
4 5

de donde ||AE|| = 3.33333333 103 .


Veamos si podemos usar la formula

||xT xA || k(A) ||AE||


 ,
||xT || ||AE||
1 k(A) ||A|| ||A||

para ello debemos vericar que

1
||AE|| < .
||A1 ||

Como ||A|| = 140 y ||AE|| = 3.33333333 103 , se cumple que

1
||AE|| < = 7.14285714 103 ,
140

y podemos aplicar la f
ormula anterior. Reemplazando nos queda

||xT xA || 81.66666667 3.3333333 103



||xT || 1 81.66666667 3.3333333310
0.5833333333
3
0.5833333333
81.66666667
= 5.7142857 103
1 81.66666667 5.7142857 103
0.466666667
= = 0.8749999945
0.5333333349

Luego ER (xA )  0.8749999945 .


Sergio Plaza 133

Problema 3.2 Dada la matriz



2 1 1 1 1 0
A = 1 1 1 se tiene que A1 = 1 5/2 1/2
1 1 3 0 1/2 1/2

(a) Obtenga la descomposicion de Cholesky de A . Utilice lo anterior para resolver el sistema


Ax = b para el vector b = (1, 1, 2)T .

(b) Estime a priori la magnitud del error relativo si la matriz A se perturba quedando
nalmente
2 0.99 0.98
A = 1 1 0.99
1 1.02 2.99

Soluci
on.

(a) Tenemos que


2 1 1
A = 1 1 1
1 1 3
 
2 1
es simetrica. Ahora, A1 = [2] , luego det(A1 ) = 2 > 0 , A2 = y det(A2 ) =
1 1

2 1 1
1 > 0 , A3 = A = 1 1 1 y det(A3 ) = 2 > 0 . Por lo tanto A es positiva
1 1 3
denida, y consecuentemente tiene descomposicion de Cholesky.
Para obtener la descompsici
on de Cholesky de A escribamos


2 1 1 11 0 0 11 21 31
1 1 1 = 21 22 0 0 22 32
1 1 3 31 32 33 0 0 33

De aqu, 211 = 2 , de donde 11 = 2 ; 11 21 = 1 , de donde 21 = 22 , 11 31 = 1 ;

31 = 22 ; 221 + 222 = 1 , de donde 22 = 22 ;
21 31 + 22 32 = 1 , de donde 32 = 22 ;
nalmente 231 + 232 + 233 = 3 , de donde 33 = 2 . Por lo tanto,


2 1 1 2 0 0 2 22 22
1 1 2
2
1 = 2 0 0 2 2
2 2 2
1 1 3 22 2
2
2 0 0 2

Ahora, resolver el sistema Ax = b , con bT = (1, 1, 2) es equivalente a resolver los


sistemas
Ly = b
LT x = y
Sergio Plaza 134

El sistema Ly = b
2 0 0 1
2


2 2
0 = 1
2
22 2
2
2 2

De aqu 2 = 1 , de donde = 22 ; 22 + 22 = 1 , reemplazando y despejando

nos da que = 32 2 ; nalmente 22 + 22 + 2 = 2 , reemplazando y despejando

nos da que = 22 . Debemos resolver ahora el sistema LT x = y , es decir,


2
2 22 22 x 2

2 2 y = 3 2
0
2 2 2
2
0 0 2 z
2

1 5
de donde z = 2 , y= 2 , x = 2.
= b , respectivamente,
(b) Sean xT y xA las soluciones exactas de los sistemas Ax = b y Ax
1
es decir, xT = A b . Entonces

E(xA = ||xA xT || = ||xA A1 b||


= ||xA A1 Ax
A || = ||(I A1 A)x
A ||
 ||I A1 A||
||xA ||

de donde
||xA xT ||
ER (xA ) =  ||I A1 A||
.
||xA ||

alculos usamos la norma subordinada || || . Ahora, tenemos


Para simplicar los c

1 1 0
5 1
1
A1 =
2 2

1 1
0
2 2

2 0.99 0.98
A = 1 1 0.99
1 1.02 2.99

luego,


1 0.01 0.01
A1 A = 0 1.0 0
0 0.01 1.0
Ademas, como

1 0 0
I= 0 1 0
0 0 1
Sergio Plaza 135

se tiene que

0 0.01 0.01
I A1 A = 0 0 0
0 0.01 0

= max{0.02, 0, 0.01} = 0.02 , de donde ||xA xT ||  ||IA1 A||


luego, ||IA1 A|| =
||xA ||
0.02 .
Otra solucion. Escribimos A de la forma A = A(I + E) . Entonces se tiene las f
ormulas

1.
||xT xA || ||E||
ER (xA ) = 
||xT || 1 ||E||

si ||E|| < 1 .
2.
||xT xA || k(A) ||AE||
ER (xA ) = 
||xT || 1 k(A) ||A|| ||A||
||AE||

1
si ||AE|| < ||A1 || .

Usemos por ejemplo la primera de ellas. Debemos calcular la matriz E . De la ecuacion


A = A(I + E) se tiene que A1 A = I + E , de donde, A1 A I = E . Realizando los
calculos, obtenemos que

0 0.01 0.01

E= 0 0 0
0 0.01 0

Por simplicidad de los calculos, usaremos la norma subordinada || || . Luego, ||E|| =


0.02 < 1 , por lo tanto, reemplazando nos queda,

||xT xA || ||E|| 0.02 0.02


 = = = 0.0204016...
||xT || 1 ||E|| 1 0.02 0.98

ormulas. Tenemos que calcular k(A) = ||A|| ||A1 || .


Ahora usamos la segunda de las f
Sabemos que

2 1 1
A = 1 1 1 luego ||A|| = 5
1 1 3
y

1 1 0
5 1
1
A 1
=
2 2
luego ||A1 || = 4 ,
1 1
0
2 2
Sergio Plaza 136

de donde k (A) = 5 4 = 20 . Para aplicar la f


ormula debemos vericar que ||AE|| <
1
1
||A || . Tenemos que

0 0.01 0.01
AE = 0 0.005 0.01
0 0.005 0

1 1
luego, ||AE|| = 0.02 y ||A1 || = 4 , de aqu se tiene que ||A1 || = 4 = 0.25 y
1
es claro entonces que se satisface la condicion ||AE|| < ||A1 || . Reemplazando los
valores obtenidos, nos queda

||xT xA || 20 0.02 20 0.004


 =
||xT || 1 20 0.02
5
5 1 20 0.004
0.08 0.08
= = = 0.08695652...
1 0.08 0.92

esto es,
||xT xA ||
 0.08695652...
||xT ||

Problema 3.3 Sean


1 1 1 1 5.00
0 1 1 1 1.02
A=
0
y b=
0 1 1 1.04
0 0 0 1 1.10

(a) Calcule una soluci


on aproximada xA del sistema Ax = b , primero aproximando cada
entrada del vector b al entero mas pr y luego resolviendo
oximo, obteniendo un vector b
el sistema Ax = b.

(b) Calcule ||r|| y k (A) , donde r es el vector residual, es decir r = b AxA y k (A)
el n
umero de condicionamiento de la matriz A.

(c) Estime una cota para el error relativo de la solucion aproximada, respecto a la soluci
on
exacta (no calcule esta u
ltima explcitamente).

Soluci
on.

(a) El vector perturbado es (5 1 1 1)T . Luego la soluci


on del sistema perturbado es


1 1 1 1 x 5
0 1 1 1 y 1
=
0 0 1 1 z 1
0 0 0 1 w 1

de donde (x, y, z, w) = (12, 4, 2, 1) = xA


Sergio Plaza 137

(b) Tenemos ||b|| = ||b|| = 5 . Por otra parte,


5.00 1 1 1 1 12
1.02 0 1 1 1 4
r = b AxA
= 1.04 0 0 1 1 2
1.10 0 0 0 1 1

5.00 5 0
1.02 1 0.02
=
= 1.04 1 0.04
1.10 1 0.10

Luego, ||r|| = 0.10 .


Para encontrar la inversa de la matriz A basta resolver el sistema


1 1 1 1 a11 a12 a13 a14 1 0 0 0
0 1 1 1 a21 a22 a23 a24 0 1 0 0
=
0 0 1 1 a31 a32 a33 a34 0 0 1 0
0 0 0 1 a41 a42 a43 a44 0 0 0 1

de donde


1 1 2 4
0 1 1 2
A1 =
0

0 1 1
0 0 0 1

Luego, ||A1 || = 8 . Tenemos que ||A|| = 4 , luego k (A) = ||A|| ||A1 || = 48 =


32 .

(c) Usamos la formula


1 ||r|| ||xT xA || ||r||
  k(A)
k(A) ||b|| ||xT || ||b||
Reemplazando los datos nos queda

1 0.10 ||xT xA || 0.10


  32
32 5 ||xT || 5
es decir,
||xT xA ||
0.625 103   0.64 .
||xT ||

Problema 3.4 Encuentre una descomposicion del tipo LU para la matriz A siguiente


4 3 2 1
3 4 3 2
A=
2

3 4 3
1 2 3 4

Use la descomposion anterior para solucionar el sistema Ax = (1 1 1 1)T .


Sergio Plaza 138

Soluci
on. La descomposicion de Doolittle de A es dada por

4 3 2 1
1 0 0 0
3 1 0 0
4 0 7 3 5
4 2 4

A = LU = 1 6
2 7 1 0 12 10
0 0
7 7
1 5 5

4 7 6 1 5
0 0 0 3

Ahora resolver el sistemas Ax = b es equivalente a resolver los sistemas Ly = b y U x = y.


Tenemos que b = (1 1 1 1)T . Llamando y = (y1 y2 y3 y4 )T , de la forma del sistema
Ly = b, obtenemos que y1 = 1 , y2 = 14 , y3 = 127 , y y4 = 0. Ahora al resolver el sistema
U x = b obtenemos x4 = 0 , x3 = 1 , x2 = 1 y x1 = 0 .

Problema 3.5 Considere el sistema de ecuaciones lineales Ax = b , donde


2 3 8 1 1
4 0 1 10 1
A=
16 4 2
y b=


1 1
0 7 1 5 1

a) Usando aritmetica exacta y el metodo de eliminaci


on gaussiana con pivoteo resuelva el
sistema de ecuaciones lineales Ax = b .
b) Denote por B a la matriz P A obtenida en el item anterior Demuestre que el metodo
iterativo de Jacobi aplicado a la matriz B es convergente. Usando como punto inicial
(0.0377,0.21819,0.20545,-0.06439) y la m axima capacidad de su calculadora, realice itera-
ciones con el metodo de Jacobi para obtener una soluci
on aproximada del sistema Bx = b .
Use como criterio de parada (xn+1 , yn+1 , zn+1 , wn+1 ) (xn , yn , zn , wn )  105 .

Soluci
on. a) Tenemos que


2 3 8 1 1
4 0 1 10 1
A=
16 4 2
y b=

.
1 1
0 7 1 5 1
Escribiendo la matrix ampliada del sistema, nos queda


2 3 8 1 1
4 0 1 10 1
A=
16 4 2
,
1 1
0 7 1 5 1
de donde


8 1
10 2
s=
16 y P = 3
.

7 4
Sergio Plaza 139

Luego
,
2 4 16
m1 = max , , , 0 = 1 = m31
8 10 16
por lo tanto debemos intercambiar la la 1 con la la 3. Realizando este intercambio de las y
la eliminaci
on gaussiana, nos queda


16 4 2 1 1 F2 14 F1 16 4 2 1 1
4 0 1 10 1 0 1 3/2 41/4 3/4

2 3 8 1 1 0 7/2 33/4 7/8 7/8
0 7 1 5 1 F3 18 F1 0 7 1 5 1

de donde
1 16 3
1/4 10 2
L1 =
1/8 , s1 =
8 , P1 = 1


0 7 4

Para la elecci
on del segundo pivote tenemos
,
1 7 7
m2 = max , , = 1 = m42
10 16 7
por lo tanto debemos intercambiar la la 2 con la la 4


16 4 2 1 1 F3 1
2 F2 16 4 2 1 1
0 7 1 5 1 0 7 1 5 1

0 7/2 33/4 7/8 7/8 0 0 31/4 27/8 11/8
0 1 3/2 41/4 3/4 F4 1
7 F2 0 0 19/14 227/28 25/28

luego,


1 0 3 16
0 4 7
L11 = 1 , P2 = , S2 =
1/8 , L2 = 1/2 1 8
1/4 1/7 2 10

Para la elecci
on del tercer pivote tenemos que
,
31 19 31
m3 = max , = = m33
32 140 32
y obtenemos


16 4 2 1 16 4 2 1 1
0 7 1 5 1 0 7 1 5 1

0 0 31/4 27/8 11/8 0 0 31/4 27/8 11/8
38
0 0 19/14 227/28 25/8 F4 217 F3 0 0 0 4395/434 283/434
Sergio Plaza 140

luego,


0
0
L3 =



1
38/217

Por lo tanto


1 0 0 0 16 4 2 1
0 1 0 0 0 7 1 5
P A = LU =
1/8 1/2
(3.41)
1 0 0 0 31/4 27/8
1/4 1/7 38/217 1 0 0 0 4395/434

donde


0 0 1 0
0 0 0 1
P =
1
.
0 0 0
0 1 0 0

Por lo tanto


16 4 2 1
0 7 1 5
PA =
2 3 8

1
4 0 1 10

Resolviendo la ecuacion se obtiene que

283 301 959


w= , z= , y= , x = 331/8790 (3.42)
4395 1465 4395

Ahora, como


16 4 2 1
0 7 1 5
B = PA =
2 3 8

1
4 0 1 10

tenemos que la matriz B es diagonal dominante, por lo tanto el metodo de Jacobi converge.
Por otra parte, la matriz de Jacobi es dada por
Sergio Plaza 141

J = I Q1 B

1/16 0 0 0 16 4 2 1
0 1/7 0 0 0 7 1 5
= I4
0



0 1/8 0 2 3 8 1
0 0 0 1/10 4 0 1 10

0 1/4 1/8 1/16
0 0 1/7 5/7
=
1/4 3/8 0 1/8
2/5 0 1/10 0

Para determinar si el metodo de Jacobi converge determinaremos los valores propios de J .


Tenemos


1/4 1/8 1/16
0 1/7 5/7
det(J I4 ) = det = 4 + 17 2 219 + 33 (3.43)
1/4 3/8 1/8 1120 4480 2240
2/5 0 1/10

de donde se tiene que los valores propios son

1,2 = 0.2483754458 0.3442140503i


(3.44)
3,4 = 0.2483754458 0.1416897424i

Por lo tanto, se tiene que el radio espectral es = 0.4244686967 < 1 y el metodo de Jacobi
es convergente.
Realizando las iteraciones, obtenemos la siguinete tabla

n xn yn zn wn E
0 0.000041875
1 0.037658125 0.2182 0.205445 -0.064375 0.00001725
2 0.0376540625 0.218188571428 0.20545734375 -0.064392640625 0.000014084822
3 0.0376595407368 0.21820265625 0.20545622991 -0.064392640625 0.3961078E-5
4 0.0376559047154 0.218202776148 0.205460190988 -0.0643905607143

Problema 3.6 Para cada n N , se denen


   
1 2 1
An = y b = .
4 + n12 2 n12
n
2

= (1, 0)T .
Se desea resolver el sistema An x = bn . Un estudiante obtiene como resultado x

1. Se dene el vector residual asociado a esta soluci


on como
bn
rn = An x

Calcule rn Podemos decir que para n grande, la soluci


on es razonablemente conable?
Justique
Sergio Plaza 142

2. Resolver An x = bn en forma exacta. Denote por x


n la soluci
on exacta y c
alcule el error
relativo de la aproximacion x = (1, 0)T .

3. Lo razonablemente esperado es que x n converja a x


cuando n tiende a innito. Para este
ejemplo, se tiene dicha armacion?. Calcule K (An ) y explique el resultado obtenido.

on. Para cada n N , un resultado para una soluci


Soluci on de An x = bn es x
= (1, 0) .

1. El vector residual asociado a esta solucion es

bn .
rn = An x

Tenemos

    
1 2 1 1
rn =
2 4 + n12 0 2 n12
     
1 1 0
= =
2 2 n12 1
n2

Ahora, la solucion exacta del sistema es

    
1 2 x 1
=
2 4 + n12 y 2 n12

esto del par de ecuaciones lineales

x + 2y = 1
 
1 1
2x + 4 + 2 y = 2 .
n n2

De la primera ecuacion obtenemos x = 1 2y , reemplazando en la segunda ecuacion nos


queda

1 1
2 4y + 4y + 2
y = 2 2 ,
n n

1 1
es decir, 2 y = 2 , de donde y = 1 , por lo tanto x = 3 . Note que la soluci on es
n n
exactamente la misma para cada n N , es decir, la soluci
on no depende de n N .
Por lo tanto la soluci
on dada no es razonablemente conable, pues no se aproxima en
on exacta xT = (3, 1) del sistema An x = bn .
nada a la soluci

on exacta xn de An x = bn , la cual es xn = (3, 1) = xT para


2. Ya calculamos la soluci
todo n N .
Sergio Plaza 143

Usando la norma || || para simplicar los c


alculos.

||xT x ||
ER (
x) =
||xT ||

||(3, 1) (1, 0)||


=
||(3, 1)||

||(2, 1)||
=
||(3, 1)||

max{|2|, | 1|}
=
max{|3|, | 1|}

2
= .
3

3. No, pues xn = (3, 1) = xT es un vector constante y no se aproxima (obviamente) a


x = (1, 0) .
Para calcular k (An ) , tenemos


1
1
||An || = max{|1| + |2|, |2| +
4 + 2
} = 6 + 2
n n
1 1
Ahora, det(An ) = 4 + 4 = 2 . Luego
n2 n
1
4+ 2
1 n2
A1
n = 1
n2
2 1
1
4+ 2
n2
= n2
2 1

4n2 + 1 2n2
=
2 2
2n n
y ||A1 2 2 2 2 2 2
n || = max{|14n + 1| + | 2n | + |n |} = max{6n + 1, 3n } = 6n + 1 . Por lo
tanto
 
1
k (An ) = 6 + 2 (6n2 + 1)
n

1
= 36n2 + 6 + 6 +
n2
1
= 36n2 + 12 + ,
n
n2
Sergio Plaza 144

lo cual signica que la matriz An esta muy mal condicionada para valores grandes de n (es
on x de xn para
numericamente no invertible para n grande), lo cual explica la mala aproximaci
n grande.

3.15 Ejercicios Propuestos


Problema 3.1 Para resolver un sistema de ecuaciones lineales Ax = b , donde x, b R2 , se
propone el siguiente metodo iterativo
x(k+1) = Bx(k) + b , k0
donde  
c
B= , , c R
0

1. Para que valores de y c el metodo iterativo propuesto es convergente?


x x(k) || y ||x(k+1) x(k) || cuando
on. Calcule ||
2. Sea x el punto jo de la iteraci
k Es la convergencia la punto jo independiente de c ? Justicque.

Problema 3.2 Dado un metodo iterativo para resolver un sistema de ecuaciones lineales
x(k+1) = Bx(k) + c ,
Si det(B) = 0 Puede el metodo propuesto ser convergente?

Problema 3.3 Si un metodo iterativo de punto jo xn+1 = Axn , donde A M(n n, R)


= 0 . Pruebe que ||A||  1 para cualquier norma ssubordinada en
tiene un punto jo x
M(n n, R) .

Problema 3.4 Dada una matriz



a11 a12 a13
A= a21 a22 a23
a31 a32 a33
y un vector b R3 , se quiere resolver el sistema Ax = b . Para ello, se propone el metodo
iterativo siguiente:
1 1
a11 a12 0 0 0 a13 a11 a12 0
x(k+1) = a21 a22 0 0 0 a23 x(k) + a21 a22 0 b
0 0 a33 a31 a32 0 0 0 a33

(a) Pruebe que el metodo propuesto resulta convergente cuando se aplica a las matriz A y
al vector b siguientes

8 2 3 20
A = 3 9 4 y b = 62 .
3 1 7 0
1
8 2 0 3/26 1/39 0
on: Use que 3 9 0 = 1/26 4/39
Indicaci 0 .
0 0 7 0 0 1/7
Sergio Plaza 145

(b) Considere el vector x(0) = (0 0 0)T . Encuentre el n


umero mnimo de iteraciones necesarias
k N , de modo de tener una precision ||x(k) x||  104 .

(c) Compare el metodo anterior con el metodo de Jacobi en cuanto a velocidad de conver-
gencia. Justique.

Problema 3.5 Encuentre la inversa A1 de la matriz A , las normas ||A||1 , ||A1 ||1 , ||A||2 ,
||A1 ||2 , ||A|| , ||A1 || y los n
umeros de condici
on 1 (A) , 2 (A) y (A) si


0 0 1
1. A = 0 1 0
1 1 1

3 0 0
2. A = 0 2 0
0 0 1

2 1 2 1
1 2 1 2
3. A =
2 1 2

1
0 2 0 1

Problema 3.6 Sean A, B M(nn, R) , matrices invertibles. Pruebe que (AB)  (A)(B) ,
donde el n on es calculado usando cualquier norma subordinada en M(nn, R) .
umero de condici

Problema 3.7 Sean A, B M(3 3, R) las matrices



a c 0 0 b 0
A= c a c , B= b 0 b
0 c a 0 b 0


1. Probar que limn B n = 0 si y solo si |b| < 2/2 .

2. Dar condiciones necesarias y sucientes sobre a, c R para la convergencia de los metodos


de Jacobi y de GaussSeidel aplicados a resolver el sistema de ecuacion es lineales Ax = b .

Problema 3.8 Considere el sistema de ecuaciones lineales siguiente



3x + y + z = 5
x + 3y z = 3

3x + y 5z = 1

1. Explicite el metodo iterativo de Jacobi para encontrar soluci on a la ecuaci


on. Justique
porque este metodo converge (sin usar calculadora). Comenzando con (0, 0, 0) , realice 10
iteraciones Cual es el error absoluto respecto de la soluci
on exacta?

2. Explicite el metodo iterativo de GaussSeidel y justique la convergencia o no de este


metodo para la ecuacion dada.
Sergio Plaza 146

Problema 3.9 Sean


1 1 1 1
A= 1 2 2 y b= 2
2 1 1 3

Proponga un metodo iterativo convergente para resolver Ax = b . La demostracion de con-


vergencia debe hacerse sin iterar. Resuelva la ecuacion utilizando el metodo iterativo propuesto.
Use como critero de parada ||(xn+1 , yn+1 , zn+1 ) (xn , yn , zn )||2  103 .

Problema 3.10 Considere el sistema de ecuaciones lineales



3x 2y + z = 1
x 23 y + 2z = 2

x + 2y z = 0

1. Resolver el sistema usando descomposicion LU y aritmetica exacta.

2. Resolver el sistema usando descomposicion LU y aritmetica decimal con 4 dgitos y


redondeo.

3. Resolver el sistema usando aritmetica exacta sin pivoteo.

4. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y sin pivoteo.

5. Resolver el sistema usando aritmetica exacta con pivoteo.

6. Resolver el sistema usando aritmetica decimal con 4 dgitos y redondeo, y con pivoteo.

7. cual es su conclusi
on?

Problema 3.11 1. Obtener la descomposicion LU para matrices tridiagonales.

2. Describir el proceso de eliminacion gaussiana sin pivoteo para resolver un sistema con
matriz tridiagonal.

3. Suponiendo que tenemos una matriz tridiagonal no singular. Explicitar los algoritmos
iterativos de Richardson, Jacobi, y GaussSeidel.

4. Ilustre todo lo anterior con el sistema



3 1 0 x 1
1 3 1 y = 4
0 1 3 z 10

Problema 3.12 Considere los siguientes sistemas de ecuaciones lineales



3 2 1 x 1
1 2 2 y = 2 (3.45)
3
1 2 1 z 0


0 1 0 x 8
0 2 1 y = 7 (3.46)
2 3 1 z 5
Sergio Plaza 147


3 1 1 x 5
1 3 1 y = 3 (3.47)
3 1 5 z 1

1. Estudie la convergencia de los metodos iterativos de Richardson, Jacobi, GaussSeidel y


de SOR para cada uno de ellos.

2. Caso algunos de los metodos anteriores sea convergente, encontrar la solucion del sis-
tema, con precisi on = 103 y usando como criterio de parada ||(xn+1 , yn+1 , zn+1 )
(xn , yn , zn )||  , comenzando con (x0 , y0 , z0 ) = (0, 0, 0) .

Problema 3.13 Considere el sistema de ecuaciones lineales


    
105 1 x 1
=
2 1 y 0

1. Resuelva el sistema usando eliminaci


on gaussiana sin pivoteo y con aritmetica de redondeo
a 4 dgitos.

2. Resuelva el sistema usando eliminaci


on gaussiana con pivoteo y con aritmetica de redondeo
a 4 dgitos.

3. Cu
al de las soluciones obtenidas en a) y b) es la m
as aceptable?

4. Calcule el n
umero de condici
on para la matriz en el sistema inicial y para la matriz del
sistema despues de hacer pivoteo Cual es su conclusi
on?

Problema 3.14 Dado el sistema lineal de ecuaciones estructurado



a11 a12 ... a1n1 a1 n

0 a22 ... a2n1 a2 n
.. .. .. x1 b1
..
0 0 . . . . x2 b2
.. ..
.. = ..
. . . .

0 ... 0 an2 n2 an2 n1 an2 n
xn bn
an1 1 an1 2 . . . an1 n2 an1 n1 an1 n
an 1 an 2 ... an n2 an n1 an n

a) Disene un algoritmo basado en el metodo de eliminaci on gaussiana que permita resolver


dicho sistema adaptado a la estructura particular de este, sin hacer ceros donde ya existen.

b) Realice un conteo de las operaciones (multiplicaci on, divisi


on, suma y resta) involucrados
solo en la triangulaci
on del sistema en el algoritmo de la parte a).
Sergio Plaza 148

Problema 3.15 Dado el sistema lineal Ax = h con



a1 c1 0 0 0 0 0 0 0
b2 a2 c2 0 0 0 0 0 0

0 b3 a3 c3 0 0 0 0 0

0
0 b4 a4 c4 0 0 0 0

A= .
,

. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .



0 0 0 0 bn1 an1 cn1
0 0 f3 f4 fn2 bn an

y h Rn un vector columna.
Disene un algoritmo en pseudo lenguaje basado en el metodo de eliminaci on gaussiana, sin
eleccion de pivote, que utilice el mnimo n
umero de localizaciones de memoria, realice el mnimo
n
umero de operaciones (es decir, que obve los elementos nulos de la matriz A (sin hacer ceros
donde ya existen)) para resolver el sistema Ax = h .

Problema 3.16 Resuelva mediante el metodo de eliminaci


on gaussiana con aritmetica exacta
el sistema

5x1 x2 = 4
x1 + 5x2 x3 = 2
x2 + 5x3 = 1

Problema 3.17 Dado el sistema lineal



x = 0.9x + y + 17
y = 0.9y 13

1. Proponga un metodo iterativo convergente (en R2 ). La demostracion de convergencia


debe hacerse sin iterar.

2. Resuelva el sistema por su metodo propuesto, con aritmetica decimal de redondeo a 3


dgitos y con una precision de 103 en la norma || || , eligiendo como punto de partida
(0, 0) . (el redondeo debe hacerse en cada operacion).

3. Analice la convergencia del metodo de Jacobi y del metodo de GaussSeidel. Sin iterar.

Problema 3.18 Dado el sistema lineal



3x + y + z = 5
3x + y 5z = 1

x + 3y z = 1

1. Resuelva el sistema usando eliminaci on gaussiana, con o sin pivoteo, con aritmetica deci-
mal de redondeo a 3 dgitos. (el redondeo debe hacerse en cada operacion).

2. Analice la convergencia del metodo de Jacobi, sin iterar.


Sergio Plaza 149

3. Analice la convergencia del metodo de GaussSeidel, sin iterar.

Problema 3.19 Considere el sistema de ecuaciones lineal


1 1
1
2 3

x 1
1
1
1 y = 2 .
2 6

z 3

1 1
1
3 6
1. Resuelva el sistema por el metodo de eliminacion de Gauss (sin elecci
on de pivote) re-
dondeando cada operacion a 4 dgitos en la mantisa.

2. Resuelva el sistema por el metodo de Jacobi redondeando cada operacion a 4 dgitos en


la mantisa, y con una presicion de 103 , comenzando con x0 = y0 = z0 = 0 .

3. En este caso particular Cual de los dos metodos es m


as conveniente? Justique.

Problema 3.20 Resuelva el sistema Ax = b , donde



3 2 3 1 1
6 2 6 0 2
A= 9 4
y b=
10 3 3
12 4 13 5 4

usando descomposicion LU con pivoteo.

Problema 3.21 Considere la matriz


 
0.0001 1
A=
1 1

1. Trabajando con aritmetica decimal de tres dgitos y redondeo Es posible encontrar una
descomposici
on LU para A ?

2. Considere ahora aritmetica decimal de cinco dgitos y redondeo. Encuentre una des-
composicion LU para A , y compare los numeros de condicion de A y de LU Cual es
su conclusi
on?

3. Ahora considere la matriz  


1 1
A=
0.0001 1
Es posible ahora encontrar una descomposici
on LU , con aritmetica decimal de redondeo
a tres dgitos para A ?

Problema 3.22 Considere el siguiente sistema de ecuaciones lineales



10 3 6 x 25
1 8 2 y = 9
2 4 9 z 50
Sergio Plaza 150

1. Resuelva el sistema usando descomposici


on LU de Doolittle.

2. Cu
ales de los metodos iterativos: Richardson, Jacobi, GaussSeidel convergen?

3. Use un metodo iterativo convergente para encontrar la soluci on del sistema con una pre-
cision de = 103 , con criterio de parada ||(xn , yn , zn ) (xT , yT , zT )||  , donde
(xT , yT , zT ) es la solucion exacta del sistema.

Problema 3.23 Considere la matriz



4 1 1
A = 1 4 1
1 1 4

a) Demuestre que existe la descomposion de Cholesky (sin calcularla) de A .

b) Determine la descompisici
on de Cholesky de A .

Problema 3.24 a) Demuestre que la matriz



0 1 0
A= 0 2 1
2 3 1

no tiene descomposicion LU .

b) Realice pivoteo en la matriz A y demuestre que la matriz resultante tiene descomposicion


LU .

Problema 3.25 Considere la matriz



2 1 0
A= 0 3 2
1 2 4

1. Usando aritmetica exacta, encuentre una descomposici


on A = LU , donde L es triangular
inferior con unos en la diagonal.

2. Usando la descomposicion LU obtenida en a), encuentre la soluci


on del sistema (usando
aritmetica exacta) Ax = b , con bT = (5, 3, 8) .

3. Proponga un metodo de punto jo y demuestre la convergencia (sin iterar) para resolver


on aproximada con una presicion de 103 .
el sistema dado en b), y encuentre una soluci

Problema 3.26 Consideremos el problema de calcular la temperatura de una barra met alica
de largo L , cuyos extremos se mantienen a temperaturas constantes T0 y TL conocidas. La
ecuacion diferencial que gobierna este fen omeno es conocida como ecuaci
on de conducci
on del
calor, la cual, en regimen estacionario esta dada por

kT  (x) = f (x) 0 < x < L, (3.48)


Sergio Plaza 151

donde f (x) es una funci on conocida, que representa una fuente de calor externa y k > 0 es
una constante que se denomina coeciente de difusi
on o conductividad termica. A esta ecuacion
se le agregan las condiciones de borde:

T (0) = T0 , T (L) = TL . (3.49)

Una de las tecnicas m


as usadas para resolver el problema 3.48-3.49 es el metodo de diferencias
nitas. En este metodo, el intervalo [0, L] se divide en N + 1 intervalos de largo h = NL+1 y
la soluci
on es buscada en los puntos internos denidos por esta division, es decir, en los puntos
xn = nh , con n = 1, . . . , N (los valores de la temperatura en los nodos del borde x0 = 0 y
xN +1 = L son conocidos). En este metodo, las derivadas de primer orden se aproximan por el
cuociente de diferencias nitas

f (x + h) f (x)
f  (x) ,
h
mientras que las derivadas de segundo orden, se aproximan por

f (x h) 2f (x) + f (x + h)
f  (x) . (3.50)
h2
Denotemos por Tn los valores aproximados de la evaluaciones de la temperatura exacta en los
puntos de la malla, T (xn ) . Reemplazando T  (x) en la ecuacion 3.48 por la expresi on 3.50,
on en los nodos internos de la malla {x1 , . . . , xN } , se obtiene el siguiente
y evaluando la ecuaci
sistema de ecuaciones lineales:

2T1 T2 = h2 f (x1 ) + T0 , (3.51)


2
Tj1 + 2Tj Tj+1 = h f (xj ), j = 2, . . . , N 1; (3.52)
2
2TN 1 + 2TN = h f (xN ) + TL , (3.53)

que matricialmente puede ser escrito como



2 1 0 0 T1 f (x1 ) T0
1 2 0
1 T2


f (x2 )
0

..
.. .. .. = h2 .. + ..
0 1 . . . . . . (3.54)
.
. .. .. T f (xN 1 ) 0
. . . 2 1 N 1

0 0 1 2 T N f (xN ) TL

Denotemos por A la matriz y por Fh el lado derecho de este sistema.


Tomando como par
ametros del problema los valores
2
k = 1, L = 1, f (x) = 37 2 sin( 2 x),
(3.55)
T0 = 0, TL = 37,

se pide resolver numericamente el sistema 3.54, usando los metodos iterativos de Jacobi, Gauss-
Seidel y SOR. Para el metodo SOR tome distintos valores del parametro de aceleracion
ametro de aceleracion optimo .
(1, 2) . Calcule ademas el par
Para ello, siga los siguientes pasos:

1. Compruebe que la matriz A es denida positiva.


Sergio Plaza 152

2. Implemente cada uno de los 3 metodos antes mencionados y haga un estudio comparativo
de estos para distintos valores de N . Por ejemplo, N = 50, 100, 200, 1000. Especique
el criterio de parada utilizado y el n
umero de iteraciones para cada uno de los metodos y
para los distintos valores de N . Presente sus resultados en una tabla.

3. Finalmente, determine la solucion analtica del problema 3.48-3.49, con los par
ametros
dados por 3.55 y graque el error absoluto en la solucion, para cada uno de los metodos
y para los distintos valores de N . A partir de estos gracos, comente cual de los tres
metodos aproxima mejor a la soluci
on .

Problema 3.27 Demuestre que la matriz no singular



0 0 1
A= 1 0 0
0 1 0

no tiene descomposicion LU , pero la matriz A I si tiene descomposicion LU . Dar una


matriz de permutaci
on P de modo que P A tiene descomposicion LU .

Problema 3.28 Sea a > 0 una constante. Se tiene la siguiente matriz


2 3
2a 0 a
3


2 3
A= 0 a 0
3


2 3 2 5
a 0 5 a
3

(a) Demuestre que A tiene descomposicion de Cholesky y usela para calcular A1 .

(b) calcule el n umero de condici


on de la matriz A , en terminos de A y determine cuando
ella esta bien condicionada.

(c) Si b = (0 1 1)T . Usando la descomposicion anterior resuelva el sistema de ecuaciones


lineales Ax = b .

Problema 3.29

Problema 3.30

Problema 3.31
Captulo 4

Interpolaci
on

Supongamos que tenemos una funci on f : [a, b] R y queremos aproximarla por funciones
mas simples. M as general, nos son dados los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) donde los
puntos xi ( i = 0, . . . , n ) son distintos y estan sobre el eje x , los cuales suponemos ordenados
por x0 < x1 < < xn , y los puntos yi (i = 0, 1, . . . , n) son tales que yi = f (xi ) para alguna
funci
on desconocida f (x) con la cual deseamos hacer algunos c alculos. Podemos aproximar
f (x) por funciones simples, y hacer los calculos con estas aproximaciones, por ejemplo, calculo
de integrales (areas) y de derivadas.

4.1 Interpolaci
on de Lagrange
Comenzamos aproximando los datos (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ) , con x0 < x1 < < xn ,
por funciones polinomiales a trozo o por funciones polinomiales.

4.1.1 Aproximaci
on lineal por trozo o de grado 1

Dados los puntos (x0 , y0 ) y (x1 , y1 ) , con x0 < x1 , tales que y0 = f (x0 ) y x1 = f (x1 ) ,
podemos aproximar f (x) en el intervalo [x0 , x1 ] por la m as simple de las funciones, es decir,
afn . Para ello consideramos el segmento de recta que une los puntos (x0 , y0 ) y (x1 , y1 ) .
Tenemos entonces que la aproximacion es dada por

x x1 x x0
L1 (x) = y0 + y1 . (4.1)
x0 x1 x1 x0

Ademas, el error viene expresado como

f  ((x))
Error = f (x) L1 (x) = (x x0 )(x x1 ) , (4.2)
2!

donde (x) [x0 , x1 ] .

153
Sergio Plaza 154
f (x)

y1

L1 (x)

y0


x0 x1

Para obtener la expresi


on de L1 (x) , escribimos

L1 (x) = a0 + a1 x . (4.3)

Usando las condiciones L1 (x0 ) = y0 y L1 (x1 ) = y1 , obtenemos el siguiente sistema de


ecuaciones lineales

L1 (x0 ) = a0 + a1 x0 = y0
L1 (x1 ) = a0 + a1 x1 = y1 (4.4)

o en forma matricial     
1 x0 a0 y0
=
1 x1 a1 y1
cuya soluci
on es
1 1
a0 = y0 + y1
x1 x0 x1 x0

1 1
a1 = y0 + y1
x1 x0 x1 x0

Reemplazando estos valores en la expresion para L1 (x) dada en (4.3), obtenemos la f


ormula
(4.1).

Si queremos aproximar f (x) en todo el intervalo [a, b] , consideramos una partici


on de [a, b] ,
digamos x0 = a < x1 < x2 < < xn = b , y en cada subintervalo [xi , xi+1 ] tomamos una
aproximaci
on como la anterior. Para el error total solo basta sumar los errores cometidos en
cada aproximaci
on. Esta es llamada aproximaci on lineal por trozos de f (x) .
Usando este tipo de aproximacion tenemos, por ejemplo,

 
x1 x1
x1 x0
f (x) L1 (x)dx = (y1 + y0 ) , (4.5)
x0 x0 2

es decir,

 
x1 x1
x1 x0
f (x)dx L1 (x)dx = (f (x0 ) + f (x1 )) , (4.6)
x0 x0 2

esta es llamada regla del trapecio para el c


alculo integral.
Sergio Plaza 155
f (x)

y1
Error
L1 (x)

y0 Area del trapecio


x0 x1

Para el error cometido en el calculo de la integral usando esta aproximaci


on, tenemos que

 
x1
f  ((x)) f  (c) x1
(x x0 )(x x1 )dx = (x x0 )(x x1 )
x0 2! 2 x0
 

f  (c) x3 x0 + x1 2
x1
= x + x0 x1 x

2 3 2 x0
 3
f (c) h
=
2 6
3
h 
= f (c)
12

un c en [x0 , x1 ] , donde h = x1 x0 . Por lo tanto,


para alg

 x1
h h3
f (x)dx = (f (x0 ) + f (x1 )) f  (c) . (4.7)
x0 2 12

De (4.7) tenemos una cota para el error cometido en el calculo de la integral, dado por




x1
h
h3

f (x)dx (f (x0 ) + f (x1 ))

 max{ |f  (x)| : x [x0 , x1 ]} . (4.8)



2 12
x0

on a = x0 < x1 < < xn = b del intervalo [a, b] , con paso


En general, usando la partici
constante h = xi+1 xi , tenemos la f
ormula de los trapecios compuesta
 b
h
f (x) (f (x0 ) + 2f (x1 ) + 2f (x2 ) + + 2f (xn1 ) + f (xn )) . (4.9)
a 2

El error de esta aproximaci


on lo estudiaremos en el Captulo 8

4.2 Polinomio de Lagrange de grado n


Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < < xn = b y
f : [a, b] R una funci on n + 1 veces derivable con f (n+1) (x) continua. Sean yi = f (xi ) ,
i = 0, 1, . . . , n . Entonces existe un u
nico polinomio Ln (x) de grado menor o igual que n tal
que
f (xk ) = Ln (xk ) , k = 0, 1, . . . , n . (4.10)
yn1

Sergio Plaza yn2 156

y1

y2 f (x)

y0 yn

x0 x1 x2 xn2 xn1 xn

Este polinomio es dado por

-
n
Ln (x) = f (xk )Ln,k (x) , (4.11)
k=0

donde

(x x0 ) (x xk1 )(x xk+1 ) (x xn )


Ln,k (x) =
(xk x0 ) (xk xk1 )(xk xk+1 ) (xk xn )

4
n
(x xi )
= . (4.12)
i =0
(xk xi )
i = k

Ademas, se tiene que

f (n+1) ((x))
Error = f (x) Ln (x) = (x x0 ) (x xn ) (4.13)
(n + 1)!

donde (x) [x0 , xn ] .


La siguiente gura ilustra L2 (x) ,

f (x)
y1

y2

L2 (x)

y0


x0 x1 x2

Para encontrar la f
ormula (4.11), escribimos

Ln (x) = a0 + a1 x + a2 x2 + + an xn (4.14)
Sergio Plaza 157

e imponemos las condiciones Ln (xj ) = yj para j = 0, 1, . . . , n . Esto da origen al siguiente


sistema de n + 1 ecuaciones con n + 1 incognitas

Ln (x0 ) = a0 + a1 x0 + a2 x20 + + an xn0 = y0


Ln (x1 ) = a0 + a1 x1 + a2 x21 + + an xn1 = y1
.. (4.15)

.


Ln (xn ) = a0 + a1 xn + a2 x2n + + an xnn = yn

o en forma matricial


1 x0 x20 xn0 a0 y0
1 x1 x21 xn1 a2 y1

.. .. .. .. .. .. = .. (4.16)
. . . . . . .
1 xn x2n xnn an yn

el cual se resuelve usando la regla de Cramer, y se obtiene la formula (4.12) para los coecientes
del polinomio de Lagrange.
Aplicando esta aproximaci
on para el c
alculo integral, tenemos

 xn  xn
f (x)dx Ln (x)dx
x0 x0

 xn  xn -
n
Ln (x)dx = f (xi )Ln,i (x)dx
x0 x0 i=0
-
n  xn
= f (xi ) Ln,i (x)dx
i=0 x0

luego,


 




xn xn

xn 4n


f (x)dx Ln (x)dx

=
f (n+1) ((x)) (x xi )dx

x0 x0 (n + 1)! x0

i=0
 xn



4 n

1
(n+1)


f ((x))

(x xi )
dx
(n + 1)! x0

i=0


|f (n+1) (c)| xn

=
(x xi )
dx
(n + 1)! x0
i=0

(n+1) ,  xn

4 n

|f (x)|

 max : x [x0 , xn ]
(x xi )
dx
(n + 1)! x0

i=0
nh
 K1 K2 ,
(n + 1)!
Sergio Plaza 158

'

( ;n
donde K1 = max
f (n+1) (x)
: x [x0 , xn ] y K2 = max {| i=0 (x xi )| : x [x0 , xn ]} ,
esto es,
 xn  xn


f (x)dx L (x)dx
 nh K1 K2 . (4.17)

n
(n + 1)!
x0 x0

4.3 Regla de Simpson


ba
Sean x0 = a , x2 = b y x1 = a + h , donde h = . Si usamos L2 (x) para aproximar f ,
2
tenemos

(x x1 )(x x2 ) (x x0 )(x x2 ) (x x0 )(x x1 )


L2 (x) = f (x0 ) + f (x1 ) + f (x2 ) ,
(x0 x1 )(x0 x2 ) (x1 x0 )(x1 x2 ) (x2 x0 )(x2 x1 )

donde el resto (error) viene dado por

(x x0 )(x x1 )(x x2 ) (3)


R(x) = f ((x)) ,
6
con (x) [a, b] .
Luego

   x2
b
(x x1 )(x x2 )
x2
(x x0 )(x x2 )
f (x)dx = f (x0 ) dx + f (x1 ) dx
a x0 (x0 x1 )(x0 x2 ) x0 (x1 x0 )(x1 x2 )
 x2  x2
(x x0 )(x x1 ) (x x0 )(x x1 )(x x2 ) (3)
+f (x2 ) dx + f ((x))dx
x0 (x2 x 0 )(x2 x1 ) x0 6

Tenemos h = x2 x1 = x1 x0 y x2 x0 = (x2 x1 ) + (x1 x0 ) = 2h .

Ejercicio. Desarrollar el c
alculo de las integrales y obtener la regla de Simpson.

Una forma alternativa para obtener la regla de Simpson es la siguiente. Desarrollamos f (x)
en serie de Taylor hasta orden 4 alrededor del punto x1 en el intervalo [x0 , x2 ] . Tenemos,
x1 = x0 + h , luego
f  (x1 ) f  (x1 ) f (4) ((x))
f (x) = f (x1 ) + f  (x1 )(x x1 ) + (x x1 )2 + (x x1 )3 + (x x1 )4 ,
2 6 24
con (x) [x0 , x2 ] .
Integrando, obtenemos

 
x2
f  (x1 )
f (x)dx = f (x1 )(x2 x0 ) + (x x1 )2
x0 2

x2
f  (x1 ) 3 f  (x1 ) 4

+ (x x1 ) + (x x1 )

6 24 x0
 x2
1
+ f (4) ((x))(x x1 )4 dx .
24 x0
Sergio Plaza 159

Como (x x1 )4  0 , podemos usar el teorema valor medio para integrales, y tenemos

 
1 x2
(4) 4 f (4) (c) x2
f ((x))(x x1 ) dx = (x x1 )4 dx
24 x0 24 x0

x2
1 (4)

= f (c)(x x1 )5

, c ]x0 , x2 [ .
120 x0

Ahora, usando que h = x1 x0 = x2 x1 , tenemos

(x2 x1 )2 (x0 x1 )2 = (x2 x1 )4 (x0 x1 )4 = 0


(x2 x1 )3 (x0 x1 )3 = 2h3
(x2 x1 )5 (x0 x1 )4 = 2h5 .

Luego
 x2
h3  f (4) (c) 5
f (x)dx = 2hf (x1 ) + f (x1 ) + h . (4.18)
x0 3 60

Usando desarrollos de Taylor, tenemos


1 1  1 (4)
f (x + h) = f (x) + f  (x)h + f  (x)h2 + f (x)h3 + f (1 )h4 (4.19)
2 6 24
1  1  1 (4)
f (x h) = f (x) f (x)h + f (x)h2

f (x)h3 + f (2 )h4 , (4.20)
2 6 24

donde x h < 2 < x < 1 < x + h . Sumando estas dos igualdades, obtenemos

1 (4)
f (x + h) + f (x h) = 2f (x) + f  (x)h2 + (f (1 ) + f (4) (2 ))h4 (4.21)
24

y resolviendo para f  (x) nos queda

1 h2 (4)
f  (x) = (f (x h) 2f (x) + f (x + h)) (f (1 ) + f (4) (1 )) . (4.22)
h2 24

Si f (4) (x) es continua en [x h, x + h] , usando el teorema del valor medio obtenemos

f (4) (1 ) + f (4) (2 )
= f (4) () , (4.23)
2

un [x h, x + h] .
para alg
Luego

1 h2 (4)
f  (x) = (f (x h) 2f (x) + f (x + h)) f () . (4.24)
h2 12
Sergio Plaza 160

Usando (4.24) en la formula (4.18) de la integral, tenemos

1 h2 (4)
f  (x1 ) = (f (x1 h) 2f (x1 ) + f (x1 + h)) f () . (4.25)
h2 12
Como x1 h = x0 y x1 + h = x2 , obtenemos que

1 h2 (4)
f  (x1 ) = (f (x0 ) 2f (x1 ) + f (x2 )) f ((x))
h2 12

y (4.18) se transforma en

  
x2
h3 1 h2 (4) f (4) (c) 5
f (x)dx = 2hf (x1 ) + (f (x0 ) 2f (x1 ) + f (x2 )) f () + h
x0 3 h2 12 60
h h5 f (4) (c) 5
= 2hf (x1 ) + (f (x0 ) 2f (x1 ) + f (x2 )) f (4) () + h
3  36  60
h h5 1 (4) 1
= (f (x0 ) + 4f (x1 ) + f (x2 )) f () f (4) (c)
3 12 3 5
h h5 f (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) 2 ()
3 12 15
h h5 (4)
= (f (x0 ) + 4f (x1 ) + f (x2 )) f () .
3 90
En resumen,
Regla de Simpson simple . Si x1 = x0 + h y x2 = x1 + h , entonces
 x2
h h5
f (x)dx = (f (x0 ) + 4f (x1 ) + f (x2 )) f (4) () , (4.26)
x0 3 90
de donde


x2
h
h5

f (x)dx (f (x0 ) + 4f (x1 ) + f (x2 ))

 max{|f (4) (x)| : x [x0 , x2 ] } . (4.27)



3 90
x0

esta formula es llamada regla de Simpson simple.


Mas general, si usamos puntos x0 < x1 < x2 < x3 < x4 < < x2n2 < x2n1 < x2n
c b c
y haciendo uso de la propiedad a f (x) = dx = a f (x)dx + b f (x)dx para a < b < c , se
obtenemos

 x2n  x2  x4  x2n
f (x)dx = f (x)dx + f (x)dx + + f (x)dx
x0 x0 x2 x2n2

h
= (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + + 2f (x2n2 ) + 4f (x2n1 ) + f (x2n )) ,
3
esto es,
 x2n
h
f (x)dx = (f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + + 2f (x2n2 ) + 4f (x2n1 ) + f (x2n ))
x0 3
(4.28)
Sergio Plaza 161

esta es formula de integraci


on numerica es llamada regla de Simpson compuesta. El error total
es obtenido sumando los errores en cada parcela del calculo. En el Captulo 8 analizarenos este
error.
La regla de los trapecios (simple y compuesta) y la regla de Simpson (simple y compuesta)
forma parte de una serie de formulas para el c
alculo aproximado de integrales, llamadas f
ormulas
de NewtonCote, que seran estudiadas en el Captulo 8.

4.4 M
etodo de las diferencias divididas
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < < xn = b y
f : [a, b] R una funci on n + 1 veces derivable con f (n+1) (x) continua. Sean yi = f (xi ) ,
i = 0, 1, . . . , n . Tenemos el polinomio de Lagrange Ln (x) interpolando esos puntos. Ahora,
queremos escribir Ln (x) en una forma m as sencilla, digamos como,

Ln (x) = a0 + a1 (x x0 ) + a2 (x x0 )(x x1 ) + + an (x x0 ) (x xn1 ) (4.29)

El problema que tenemos es determinar los coecientes a0 , . . . , an .


Evaluando, tenemos que

Ln (x0 ) = f (x0 ) = a0 ,

Ln (x1 ) = f (x1 ) = f (x0 ) + a1 (x1 x0 ) ,

de donde

f (x1 ) f (x0 )
a1 = .
x1 x0

Antes de continuar evaluando, introduzcamos la siguiente notaci


on

f [xi ] = f (xi ) (4.30)


f [xi+1 ] f [xi ]
f [xi , xi+1 ] = (4.31)
xi+1 xi

As, si tenemos denidas f [xi , xi+1 , . . . , xi+k1 ] y f [xi+1 , . . . , xi+k ] , podemos denir la
kesima diferencia dividida relativa a xi , xi+1 , . . . , xi+k por

f [xi+1 , . . . , xi+k ] f [xi , . . . , xi+k1 ]


f [xi , xi+1 , . . . , xi+k ] = . (4.32)
xi+k xi

Ahora un c
alculo directo, nos da que ak = f [x0 , x1 , . . . , xk ] , as podemos escribir
Sergio Plaza 162

-
n
Ln (x) = f [x0 ] + f [x0 , . . . , xk ](x x0 ) (x xk1 ) . (4.33)
k=1

La siguiente tabla muestra como se van generando las sucesivas diferencias divididas
x0 f [x0 ]

f [x1 ] f [x0 ]
f [x0 , x1 ] =
x1 x0


f [x1 , x2 ] f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ] =
x2 x0


f [x2 ] f [x1 ]
f [x1 , x2 ] =
x2 x1


x2 f [x2 ]
..
.

Veamos en forma mas detallada la denicion, el c


alculo y la interpretacion geometrica de de
las diferencias divididas.

Sea f : R R una funcion, la cual suponemos derivable tantas veces cuanto sea necesario.
Dados x0 y x1 , como vimos, el cuociente
f (x1 ) f (x0 )
f [x0 , x1 ] =
x1 x0
es la diferencia dividida de primer orden de f (x) . La diferencia dividida de primer orden
f [x0 , x1 ] es la pendiente de la linea secante al gr
aco de y = f (x) uniendo los puntos
(x0 , f (x0 )) y (x1 , f (x1 )) .

(x1, f(x1) )

(x0, f (x0) )
y = f(x)
Sergio Plaza 163

Por ejemplo, si f (x) = sen(x) , x0 = 1.2 y x1 = 1.3 entonces

sen(1.3) sen(1.2)
f [x0 , x1 ] = = 0.3151909944 .
1.3 1.2
Las diferencias divididas de primer orden pueden ser pensadas como siendo un an
alogo
numerico de la derivada de f (x) .
Si f (x) es una funci
on diferenciable y si x0 y x1 son pr oximos, entonces
 
x0 + x1
f f [x0 , x1 ] , (4.34)
2

esto es, la pendiente de la linea secante uniendo los puntos (x0 , f (x0 )) y (x1 , f (x1 )) sobre
el graco de y = f (x) es aproximadamente igual a la pendiente de la linea tangente en el
punto medio del intervalo desde x0 a x1 . Ademas, desde la denicion de f [x0 , x1 ] , haciendo
x1 x0 , obtenemos

f  (x0 ) = lim f [x0 , x1 ] = f [x0 , x0 ]


def
(4.35)
x1 x0

En el ejemplo anterior f (x) = sen(x) , x0 = 1.2 , x1 = 1.3 y f  (x) = cos(x) , luego



f  x0 +x
2
1
= cos 1.2+1.3
2 = 0.3153223624 , que es aproximadamente igual a f [x0 , x1 ] =
0.3153223624

Como vimos las diferencias divididas de orden superior son denidas recursivamente en
termino de las diferencias divididas de orden menor.
Dados x0 , x1 y x2 distintos (usualmente tomados en orden creciente), la diferencia dividida
de segundo orden de f (x) en esos tres puntos es

f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] = .
x2 x0

Si x0 , x1 , x2 y x3 son 4 n
umeros reales distintos (usualmente tomados en orden creciente),
la diferencia dividida de tercer orden de f (x) en esos cuatro puntos es

f [x1 , x2 , x3 ] f [x0 , x1 , x2 ]
f [x0 , x1 , x2 , x3 ] = .
x3 x0

En general, si x0 , x1 , . . . , xn son n + 1 n
umeros distintos (usualmente tomados en orden
creciente), la diferencia dividida de orden n de f (x) en esos puntos es
f [x1 , . . . , xn ] f [x0 , . . . , xn1 ]
f [x0 , x1 , x2 , . . . , xn ] = .
xn x0

Observaci
on. Existe una relacion entre una diferencia dividida de orden n y la derivada de
orden n de la funci
on.

Por ejemplo, si f (x) = sen(x) , x0 = 1.2 , x1 = 1.21 , y x2 = 1.22 , entonces

sen(1.21) sen(1.2)
f [x0 , x1 ] = = 0.315190994 .
1.21 1.2
Sergio Plaza 164

sen(1.22) sen(1.21)
f [x1 , x2 ] = = 0.34833547,
1.22 1.21

f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] = = 0.46780450.
1.22 1.2
Si miramos f [x0 , x1 ] y f [x1 , x2 ] como siendo una aproximacion numerica para la derivada
de f  (x) en los puntos medios x0 +x2
1
y x1 +x
2
2
, respectivamente, entonces

f [x1 , x2 ] f [x0 , x1 ]
= 2 f [x0 , x1 , x2 ]
( x1 +x
2
2
) ( x0 +x
2
1
)

puede ser pensado como siendo una aproximacion numerica para f  (x1 ) , pues x1 es el punto
medio del intervalo desde x0 a x2 . Luego la diferencia dividida de segundo orden f [x0 , x1 , x2 ]

es una aproximacion numerica para f (x 2
1)
, en otras palabras,
f  (x1 ) 2f [x0 , x1 , x2 ] (4.36)
 
Como f  (x) = sen(x) , tenemos f (x 2
1)
= f (1.21
2
)
= 0.46780800 , la cual puede ser
comparada con el valor f [x0 , x1 , x2 ] = 0.46780450 .

4.5 C
alculo de diferencias divididas
Una manera eciente de calcular polinomios de interpolacion es hacer uso de diferencias divi-
didas en conexion con la f
ormula de interpolaci
on de Newton.
on f (x) y una sucesion x0 , x1 , . . . , xn de valores dis-
Supongamos que son dada una funci
tintos de la variable x .
La diferencias divididas de primer orden asociadas son

f (x1 ) f (x0 )
f [x0 , x1 ] =
x1 x0
f (x2 ) f (x1 )
f [x1 , x2 ] =
x2 x1
..
.
f (xn ) f (xn1 )
f [xn1 , xn ] = .
xn xn1

Las segundas diferencias divididas asociadas son

f [x1 , x2 ] f [x0 , x1 ]
f [x0 , x1 , x2 ] =
x2 x0
f [x2 , x3 ] f [x1 , x2 ]
f [x1 , x2 , x3 ] =
x3 x1
..
.
f [xn1 , xn ] f [xn2 , xn1 ]
f [xn2 , xn1 , xn ] = .
xn xn2
Sergio Plaza 165

Note que el n umero de diferencias divididas decrece a cada etapa hasta que llegamos a la
u
nica diferencia dividida de orden n

f [x1 , . . . , xn ] f [x0 , . . . , xn1 ]


f [x0 , . . . , xn ] = .
xn x0
Dada una lista de valores de la variable x , digamos [x0 , x1 , . . . , xn ] y valores de y , digamos
[y0 , y1 , . . . , yn ] , donde yi = f (xi ) para i = 0, 1, . . . , n , podemos generar todas las diferencias
divididas asociadas.
Por ejemplo, dados x0 , x1 , x2 , x3 , x4 y y0 , y1 , y2 , y3 , y4 . Tenemos 4 diferencias divididas
de primer orden

y1 y0 y2 y1 y3 y2 y4 y3
, , ,
x1 x0 x2 x1 x3 x2 x4 x3

tres diferencias divididas de segundo orden

y2 y1 y1 y0 y3 y2 y2 y1 y4 y3 y3 y2

x2 x1 x1 x0 x3 x2 x2 x1 x4 x3 x3 x2
, ,
x2 x0 x3 x1 x4 x2

dos diferencias divididas de tercer orden

y3 y2 y2 y1 y2 y1 y1 y0

x3 x2 x2 x1 x2 x1 x1 x0

x3 x1 x2 x0
,
x3 x0
y4 y3 y3 y2 y3 y2 y2 y1

x4 x3 x3 x2 x3 x2 x2 x1

x4 x2 x3 x1
x4 x1

una diferencia dividida de cuarto orden

y4 y3 y3 y2 y3 y2 y2 y1 y3 y2 y2 y1 y2 y1 y1 y0

x4 x3 x3 x2 x3 x2 x2 x1 x3 x2 x2 x1 x2 x1 x1 x0

x4 x2 x3 x1 x3 x1 x2 x0

x4 x1 x3 x0
x4 x0

Por ejemplo, tomando un conjunto de puntos (nodos) equiespaciados calculemos un polinomio


de grado 6 que aproxima a sen(x) sobre el intervalo [0, 2 ] . Para ello tomamos h = /12 y
generamos los valores de xi y los correspondientes valores yi = sen(xi ) , para i = 0, . . . , 6 .
Tenemos entonces x0 = 0 , x1 = 0.2617993878 , x2 = 0.5235987756 , x3 = 0.7853981634 ,
x4 = 1.047197551 , x5 = 1.308996939 , x6 = 1.570796327 y y0 = 0 , y1 = 0.2588190451 ,
y2 = 0.5000000000 , y3 = 0.7071067812 , y4 = 0.8660254037 , y5 = 0.9659258263 , y6 = 1 ,
esto nos genera las siguiente lista de diferencias divididas
Sergio Plaza 166

diferencias divididas = [0, 0.9886159295, 0.1286720769, 0.1526656066, 0.02059656984,


0.006517494278, 0.0009653997733] .

Ejemplo 66 Si n = 1 , tenemos dos puntos (x0 , f (x0 )) y (x1 , f (x1 )) , luego

(f (x1 ) f (x0 )) (x x0 )
p(x) = f (x0 ) + ,
x1 x0
esta es la ecuacion de la linea recta pasando a traves de los puntos (x0 , f (x0 )) y (x1 , f (x1 )) .

4.6 Interpolaci
on de Hermite
Dados n + 1 puntos distintos en el intervalo [a, b] , digamos x0 = a < x1 < < xn = b y
on 2n + 2 veces derivable con f (2n+2) (x) continua, sean yi = f (xi ) ,
f : [a, b] R una funci
i = 0, 1, . . . , n .
Problema. Encontrar un polinomio P (x) tal que

P (xi ) = f (xi )
(4.37)
P  (xi ) = f  (xi )

para i = 0, 1, . . . , n .

Teorema 4.1 Dados n + 1 puntos distintos en el intervalo [a, b] , digamos a  x0 < x1 <
< xn  b y f : [a, b] R una funci on 2n + 2 veces derivable con f (2n+2) (x) continua,
sean yi = f (xi ) , i = 0, 1, . . . , n . Entonces existe un u
nico polinomio de grado a lo m
as 2n + 1 ,
H2n+1 (x) , tal que


H2n+1 (xi ) = f (xi )
 (4.38)
H2n+1 (xi ) = f  (xi )
para i = 0, 1, . . . , n donde H2n+1 (x) es dado por

-
n -
n
H2n+1 (x) = f (xj )Hn,j (x) + f  (xj )H
n,j (x) (4.39)
j=0 j=0

con

 
Hn,j (x) = 1 2(x xj )Ln,j (xj ) (Ln,j (x))2 (4.40)

n,j (x) = (x xj )(Ln,j (x))2 ,


H (4.41)
Sergio Plaza 167

donde

(x x0 ) (x xj1 )(x xj+1 ) (x xn )


Ln,j (x) =
(xj x0 ) (xj xj1 )(xj xj+1 ) (xj xn )

son los coecientes en la interpolaci


on de Lagrange de f (x) . Adem
as,

(x x0 )2 (x x1 )2 (x xn )2 (2n+2)
f (x) H2n+1 (x) = f ((x)) , (4.42)
(2n + 2)!

con x0 < (x) < xn .

Integrando, tenemos

  
xn xn xn
(x x0 )2 (x xn )2 (2n+2)
f (x)dx = H2n+1 (x) + f ((x))dx (4.43)
x0 x0 x0 (2n + 2)!

 xn  xn
f (x) H2n+1 (x) . (4.44)
x0 x0

4.7 Ejemplos resueltos

Problema 4.1 Encontrar el polinomio de interpolaci


on para los puntos (1, 5) , (2, 3) , (4, 2) ,
(5, 4) , (6, 3) .

Soluci
on. Tenenos

x valores = [1, 2, 4, 5, 6] , y valores = [5, 3, 2, 4, 3]

luego, calculando las diferencias divididas, obtenemos

(x 1) (x 2) (x 1) (x 2) (x 4) 2 (x 1) (x 2) (x 4) (x 5)
p(x ) := 7 2 x + +
2 12 15

La siguiente gura muestra el resultado obtenido


Sergio Plaza 168

4
y
3

0 1 2 3 4 5 6 7
x

Expandiendo los terminos del polinomio de interpolaci


on de Newton y ordenando, obtenemos

2 4 101 3 397 2 121


p(x) = x + x x + x+2
15 60 60 15
Problema 4.2 Encontrar el polinomio de interpolaci on de grado 6 para sen(x) en el intervalo
[0, 2 ] y que coincide de sen(x) en 7 puntos equiespaciados entre 0 y 2 inclusive.

Solucion. Tenemos entonces que h = /12 0.261799387799149 y generamos los valores de


x , obteniendo

x valores = [0., 0.261799387799149, 0.523598775598298, 0.785398163397447,


1.04719755119660, 1.30899693899574, 1.57079632679489]

y los valores de y ,

y valores = [0., 0.258819045102520, 0.499999999999999, 0.707106781186547,


0.866025403784440, 0.965925826289066, 1.00000000000000]

de donde, relizando el c
alculo de las diferencias divididas, otenemos el polinomio

p(x) = 0.988615929465368 x 0.128672076727087 x (x 0.261799387799149)


0.152665606983500 x (x 0.261799387799149) (x 0.523598775598298) +
0.0205965705401489 x (x 0.261799387799149) (x 0.523598775598298)
(x 0.785398163397447) + 0.00651749335845159 x (x 0.261799387799149)
(x 0.523598775598298) (x 0.785398163397447) (x 1.04719755119660)
0.000965398750105050 x (x 0.261799387799149) (x 0.523598775598298)
(x 0.785398163397447) (x 1.04719755119660) (x 1.30899693899574)

En los 7 puntos de los nodos el valor dado por la f ormula de interpolaci


on, esencialmente
coinciden con los valores de y dados por la funci
on, excepto por un peque
no error. Por ejemplo,
Sergio Plaza 169

p(1.047197551) = 0.8660254034 y sen(1.047197551) = 0.8660254037 , p(1) = 0.8414709003 y


sen(1) = 0.8414709848 . Tenemos los siguientes datos

p(xi ) f (xi ) = [[0, 0], [0.2617993878, 0.2588190451], [0.5235987756, 0.5000000000],


[0.7853981634, 0.7071067812], [1.047197551, 0.8660254038],
[1.308996939, 0.9659258263], [1.570796327, 1.000000000]]

Tenemos

0.8

0.6

0.4

0.2

0 0.2 0.4 0.6 0.8 1 1.2 1.4


x

Gr
aco del polinomio de interpolaci
on

Desarrollando y ordenando, nos queda

p(x) = 0.000965398750105050 x6 + 0.01030860538 x5 0.00209041508 x4 0.1654864753 x3


0.0003303719 x2 + 1.000034956 x

Podemos gracar el error absoluto para p(x) como una aproximaci


on para sen(x) en el

intervalo [0, 2 ] .

1e06

5e07

0 0.2 0.4 0.6 0.8 1 1.2 1.4


x
5e07

1e06

Gr
aco del error del polinomio de interpolaci
on
Sergio Plaza 170

Problema 4.3 De una funci on f (x) se conocen sus valores yi en los puntos xi , i = 0, 1, 2, 3, 4 .
Se desea concer un valor aproximado de f (2.5)

xi yi
x0 = 0.0 y0 = 1.90
x1 = 0.5 y1 = 2.39
x2 = 1.0 y2 = 2.71
x3 = 1.5 y3 = 2.98
x4 = 2.0 y4 = 3.20
x5 = 3.0 y5 = 3.20
x6 = 3.5 y6 = 2.98
x7 = 4.0 y7 = 2.74

La forma mas directa de calcular L7 (2.5) es escribir

(x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7,0 (x) =
(x0 x1 ) (x0 x2 ) (x0 x3 ) (x0 x4 ) (x0 x5 ) (x0 x6 ) (x0 x7 )

evaluando L7,0 (2.5) , tenemos A0 = L7,0 (2.5) = 0.0178571428572

(x x0 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,1 (x) =
(x1 x0 ) (x1 x2 ) (x1 x3 ) (x1 x4 ) (x1 x5 ) (x1 x6 ) (x1 x7 )
evaluando A1 = L7,1 (2.5) = 0.142857142857

(x x0 ) (x x1 ) (x x3 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,2 (x) =
(x2 x0 ) (x2 x1 ) (x2 x3 ) (x2 x4 ) (x2 x5 ) (x2 x6 ) (x2 x7 )
evaluando, tenemos A2 = L7,2 (2.5) = 0.500000000000 .

(x x0 ) (x x1 ) (x x2 ) (x x4 ) (x x5 ) (x x6 ) (x x7 )
L7 ,3 (x) =
(x3 x0 ) (x3 x1 ) (x3 x2 ) (x3 x4 ) (x3 x5 ) (x3 x6 ) (x3 x7 )

evaluando, tenemos A3 = L7,3 (2.5) = 1.00000000000

(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x5 ) (x x6 ) (x x7 )
L7 ,4 (x) =
(x4 x0 ) (x4 x1 ) (x4 x2 ) (x4 x3 ) (x4 x5 ) (x4 x6 ) (x4 x7 )

evaluando, tenemos A4 = L7,4 (2.5) = 1.25000000000

(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x6 ) (x x7 )
L7 ,5 (x) =
(x5 x0 ) (x5 x1 ) (x5 x2 ) (x5 x3 ) (x5 x4 ) (x5 x6 ) (x5 x7 )

evaluando, tenemos A5 = L7,5 (2.5) = 0.500000000000 ,

(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x7 )
L7 ,6 (x) =
(x6 x0 ) (x6 x1 ) (x6 x2 ) (x6 x3 ) (x6 x4 ) (x6 x5 ) (x6 x7 )

evaluando, tenemos A6 = L7,6 (2.5) = .142857142857


Sergio Plaza 171

(x x0 ) (x x1 ) (x x2 ) (x x3 ) (x x4 ) (x x5 ) (x x6 )
L7 ,7 (x)
(x7 x0 ) (x7 x1 ) (x7 x2 ) (x7 x3 ) (x7 x4 ) (x7 x5 ) (x7 x6 )

y tenemos A7 = L7,7 (2.5) = 0.0178571428572 .


Por lo tanto,

L7 (2.5) = A0 1.9 + A1 2.39 + A2 2.71 + A3 2.98 + A4 3.2


+A5 3.2 + A6 2.98 + A7 2.74
= 3.29071428572

Otra forma, indirecta, es escribir cada uno de los polinomios coecientes del polinomio de
Lagrange, calcular el polinomio de Lagrange en cuesti
on y despues evaluar.
Tenemos

L7 ,0 (x) = 0.0158730158730 x7 + 0.246031746032 x6 + 0.999999999999


1.55158730159 x5 5.03571428571 x + 5.12103174603 x4
+ 9.70436507936 x2 9.46825396824 x3

L7 ,1 (x) = 0.101587301588 x7 1.52380952382 x6 + 12.8000000001 x


+ 9.16825396832 x5 38.8571428574 x2 28.1904761907 x4
+46.5015873019 x3

L7 ,2 (x) = 0.266666666667 x7 + 3.86666666667 x6 16.8000000000 x


22.2000000000 x5 + 67.8000000001 x2 + 63.8333333334 x4
95.2333333335 x3

L7 ,3 (x) = 0.355555555554 x7 4.97777777776 x6 + 14.9333333333 x


+ 27.2888888888 x5 65.2444444442 x2 73.7777777775 x4
+101.422222222 x3

L7 ,4 (x) = 0.222222222222 x7 + 3.00000000000 x6 6.99999999999 x


15.7222222222 x5 + 31.7500000000 x2 + 40.2500000000 x4
52.0555555555 x3
Sergio Plaza 172

L7 ,5 (x) = 0.0888888888886 x7 1.11111111111 x6 + 1.86666666666 x


+ 5.35555555554 x5 8.77777777775 x2 12.6111111111 x4
+15.1888888888 x3

L7 ,6 (x) = 0.0507936507936 x7 + 0.609523809523 x6 0.914285714285 x


2.83174603174 x5 + 4.34285714285 x2 + 6.47619047618 x4
7.63174603174 x3

L7 ,7 (x) = 0.00952380952380 x7 0.109523809524 x6 + 0.150000000000 x


+ 0.492857142857 x5 0.717857142856 x2 1.10119047619 x4
+ 1.27619047619 x3

Luego,

L7 (x) = L7,0 (x) y0 + L7,1 (x) y1 + L7,2 (x) y2 + L7,3 (x) y3


+L7,4 (x) y4 + L7,5 (x) y5 + L7,6 (x) y6 + L7,7 (x) y7

por lo tanto,

L7 (x) = 0.0301587301587 (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)


+ 0.242793650795 x (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
0.722666666668 x (x 0.5) (x 1.5) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
+ 1.05955555555 x (x 0.5) (x 1.0) (x 2.0) (x 3.0) (x 3.5) (x 4.0)
0.711111111110 x (x 0.5) (x 1.0) (x 1.5) (x 3.0) (x 3.5) (x 4.0)
+ 0.284444444444 x (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.5) (x 4.0)
0.151365079365 x (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 4.0)
+ 0.0260952380952 x (x 0.5) (x 1.0) (x 1.5) (x 2.0) (x 3.0) (x 3.5)

desarrollando, nos queda

L7 (x) = 1.90000000000 0.0024126984178 x7 + 0.0311746033 x6 0.1385079373 x5


+ 0.211507937 x4 + 0.085825394 x3 0.634825396 x2 + 1.2572380950 x .

Luego, el valor pedido es

L7 (2.5) = 3.29071428572 .
Sergio Plaza 173

Ahora podemos calcular una aproximacion de la integral de f (x) usando el polinomio de


Lagrange esto es

 4  4
f (x) L7 (x) = 11.5714225246 .
0 0

Usando la regla de los trapecios con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 . Denimos los nuevos valores xi e yi = f (xi ) , i = 0, . . . , 8

xi 0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0


f (xi ) 1.90 2.39 2.71 2.98 3.20 3.29071428572 3.20 2.98 2.74

Tenemos, que

h
T rapf = (y0 + 2 y1 + 2 y2 + 2 y3 + 2 y4 + 2 y5 + 2 y6 + 2 y7 + y8 )
2

evaluando, obtenemos

Trap f := 11.5353571428 .

El error que hemos cometido en el calculo comparado con el valor dado por la interpolaci
on
de Lagrange

 4
Error(T rapf ) = |T rapf L(x)|
0

nos da

Error(T rapf ) = 0.0360653818 .

Usando la regla de Simpson con paso constante h = 0.5 , el valor de la integral es como
sigue. Como ya conocemos el valor que tiene L7 (x) en x = 2.5 , el cual representa un valor
aproximado para f (x) en x = 2.5 y hemos redenido los nuevos valores xi e yi = f (xi ) ,
i = 0, . . . , 8 . Tenemos que

h
Simpsonf = (y0 + 4 y1 + 2 y2 + 4 y3 + 2 y4 + 4 y5 + 2 y6 + 4 y7 + y8 )
3
evaluando, obtenemos
Simpsonf = 11.5704761905 .

El error que hemos cometido en el calculo de la integral usando el polinomio de Lagrange y


la aproximacion de Simpson es

 4
Error (Simpsonf ) = |Simpsonf L(x)| = 0.0009463341
0
Sergio Plaza 174

3.2

2.8

2.6

2.4

2.2

0 1 2 3 4
x

Gr
afico de L7 (x) en el intervalo [0, 4]
alculos, y tenemos simpson8 11.5704761904 , con error Error
Podemos continuar nuestros c
0.0009463342 , simpson16 11.5713597470 , con error Error 0.0000627776 y simpson32
11.5714185442 , con error Error 0.39804 105 , y para la regla de los trapecios, obtenemos
Trap 11.5704929653 .

Problema 4.4 Consideremos la funcion f (x) = x2 exp(x2 ) . Deseamos calcular un valor


apromixado para la integral de f (x) en el intervalo [2, 2] usando el polinomio de Lagrange
que interpola f (x) en los puntos x0 = 2 , x1 = 1 , x2 = 0 , x3 = 1 y x4 = 2 .
on. Tenemos que f (x) = x2 ex
2
Soluci

0.35

0.3

0.25

0.2

0.15

0.1

0.05

2 1 0 1 2
x

gr
aco de f en [2, 2]

Como la funci
on es simetrica respecto del origen, se tiene que f (1) = f (1) = 0.3678794412 ,
f (2) = f (2) = 0.07326255556 y f (0) = 0 .

x0 = 2.0
x1 = 1.0
x2 = 0.
x3 = 1.0
x4 = 2.0

L4 (x) = L4,0 (x) f (x0 ) + L4,1 (x) f (x1 ) + L4,2 (x) f (x2 ) + L4,3 (x) f (x3 ) + L4,4 (x) f (x4 )

Luego,

L4 (x) = 0.0732625555548 L4,0(x) + 0.367879441171 L4,1(x) +


0.367879441171 L4,3(x) + 0.0732625555548 L4,4(x)
Sergio Plaza 175

(x x1 ) (x x2 ) (x x3 ) (x x4 )
L4,0 (x) =
(x0 x1 ) (x0 x2 ) (x0 x3 ) (x0 x4 )
leugo, reemplazando nos queda

L4,0 (x) = 0.0416666666668 x4 0.0833333333336 x3 0.0416666666668 x2 + 0.0833333333336 x

(x x0 ) (x x2 ) (x x3 ) (x x4 )
L4,1 (x) =
(x1 x0 ) (x1 x2 ) (x1 x3 ) (x1 x4 )

L4,1 (x) = 0.166666666667 x4 + 0.166666666667 x3 0.666666666668 x + 0.666666666668 x2 .

Como f (x2 ) = 0 , no es necesario calcular L4,2 (x) , pero de todas maneras lo hacemos;

(x x0 ) (x x1 ) (x x3 ) (x x4 )
L4,2 (x) = .
(x2 x0 ) (x2 x1 ) (x2 x3 ) (x2 x4 )

Expandiendo L4,2 (x) nos queda

L4,2 (x) = 0.250000000000 x4 + 1.00000000000 1.25000000000 x2

(x x0 ) (x x1 ) (x x2 ) (x x4 )
L4,3 (x) = ,
(x3 x0 ) (x3 x1 ) (x3 x2 ) (x3 x4 )
de donde

L4,3 (x) = 0.166666666666 x4 0.166666666666 x3 + 0.666666666664 x + 0.666666666664 x2

(x x0 ) (x x1 ) (x x2 ) (x x3 )
L4,4 (x) =
(x4 x0 ) (x4 x1 ) (x4 x2 ) (x4 x3 )

L4,4 (x) = 0.0416666666666 x4 + 0.0833333333332 x3 0.0833333333332 x 0.0416666666666 x2

Luego,

L4 (x) = 0.116521267427 x4 + 0.4 1012 x3 + 0.484400708598 x2 0.1 1011 x

Calculo aproximado de la integral, usando un software, nos da

 2
f (x) = 0.845450112985 .
2
Sergio Plaza 176

Usando el polinomio de Lagrange L4 (x) , obtenenos la siguiente aproximacion para el valor


de la integral

 2  2
f (x) L4 (x) = 1.09199822279 .
2 .2

El error cometido al calcular la integral usando la interpolacion de Lagrange comparado con


el resultado de la integrla de f (x) es

Error Lagrange = 0.246548109805 ,

el cual es muy grande.


Usando la regla de los trapecios para aproximar la integral de f (x) , tenemos

h=1
y0 = 0.0732625555548
y1 = 0.367879441171
y2 = 0
y3 = 0.367879441171
y4 = 0.0732625555548
luego,

Trap f = 0.809021437895

El error cometido es entonces

Error Trapecio = 0.036428675090

0.5

0.4

0.3

0.2

0.1

2 1 0 1 2
x

simpson8 = 1.08811418054
Err = 0.00388404225
simpson32 = 1.09198305075

Err = 0.00001517204

trap = 1.04463387609
Sergio Plaza 177

Problema 4.5 Ejemplo del fen


omeno de Runge
Para un ejemplo numerico del fenomeno de Runge consideramos un polinomio de grado 10
1
interpolando la funci
on f (x) = 1+25 x2 en el intervalo [1, 1] , tomamos el conjunto de datos
equiespaciado. Este es un ejemplo clasico para ilustrar el problema asociado con el uso de
polinomios interpolantes para aproximar una funci on.
1
f (x) =
1 + 25 x2

1
Tomando h = , obtenemos
5
390625 10 109375 8 51875 6 54525 4 3725 2
p(x) = x + x x + x x +1
1768 221 136 442 221
Notemos que el polinomio interpolante oscila violentamente y no aproxima muy bien a la
funcion original.

1 2 2

0.8 1.5 1.5

0.6 1 1

0.4
0.5 0.5

0.2
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
x x
1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1
x

afico de f (x)
gr afico de p(x)
gr graficos de f (x) y de p(x)

4.8 Ejercicios
on f (x) = ex en el intervalo [1, 1] . Construya los poli-
2
Problema 4.1 Considere la funci
nomios de interpolaci
on de Newton, con puntos equiespaciados y h = 1/10 y h = 1/20 .

Problema 4.2 Encuentre el polinomio de interpolaci


on de Newton para los puntos dados a
seguir        
1 1 3 5
2, , 1, , (0, 1) , 1, , 2, .
4 2 2 4

Muestre la graca del polinomio de interpolaci


on.

Problema 4.3 Para la funci


on
1
f (x) =
1 + 25 x2
muestre explicitamente el polinomio de interpolacion de Newton

p(x) = f (x0 ) + (x x0 ) f [x0 , x1 ] + (x x0 ) (x x1 ) f [x0 , x1 , x2 ]


+(x x0 ) (x x1 ) (x x2 ) f [x0 , x1 , x2 , x3 ] +
+ (x x0 ) (x x1 ) (x xn1 ) f [x0 , . . . , xn ]
Sergio Plaza 178

considerando las siguientes listas de valores de x :


[0, 14 ] ; [0, 14 , 12 ] ; [0, 14 , 12 , 34 ] ; [0, 14 , 12 , 34 , 1] ; [0, 14 , 12 , 34 , 1, 54 ] ; [0, 14 , 12 , 34 , 1, 54 , 32 ] ;
[0, 14 , 12 , 34 , 1, 54 , 32 , 74 ] ; [0, 14 , 12 , 34 , 1, 54 , 32 , 74 , 2] .
Graque en cada caso el polinomio resultante y compare con el gr
aco de la funci
on original
Cu
al es su conclusi
on?

Problema 4.4 Para la funci on f (x) = ln(1 + x) , encuentre explicitamente el polinomio de


interpolaci
on de Newton en su forma
p(x) = f (x0 ) + (x x0 ) f [x0 , x1 ] + (x x0 ) (x x1 ) f [x0 , x1 , x2 ] + (x x0 ) (x x1 ) (x
x2 ) f [x0 , x1 , x2 , x3 ] + + (x x0 ) (x x1 ) (x xn1 ) f [x0 , . . . , xn ]
para las siguientes listas de valores de x
[0, 15 ] ; [0, 15 , 25 ] ; [0, 15 , 25 , 35 ] ; [0, 15 , 25 , 35 , 45 ] ; [0, 15 , 25 , 35 , 45 , 1] .
Graque en cada caso el polinomio obtenido y la funci
on original, y compare Cu
al es su
conlcusi
on?

Problema 4.5 Calcule el polinomio de interpolaci


on de Lagrange para f (x) , si se conocen los
los siguientes datos

x 3 8 5 1 7
f (x) 459 18864 3105 13 11263

Usando la aproximacion polinomial de f obtenida en (a), calcule un valor aproximado para


 8
f (x)dx .
1

2
on f (x) = ex .
Problema 4.6 Considere la funci

a) Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolaci
on de Lagrange para f (x) .

b) Exprese una cota para el error en la aproximaci


on de Lagrange obtenida en la parte a).
(Simplique al m
aximo la expresion obtenida para el error).

c) Usando el polinomio de interpolacion de Lagrange obtenido en la parte a), calcular una


 1
aproximaci
on para la integral f (x) dx , y obtener una buena cota para el error.
0

on f (x) = ex .
Problema 4.7 Considere la funci

1. Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolaci
on de Hermite para f (x) .

2. Exprese una cota para el error en la aproximacion de Hermite obtenida en la parte 1).
(Simplique al m
aximo la expresi
on obtenida para el error)

3. Usando el polinomio de interpolacion de Hermite obtenido en la parte 1), calcular una


 1
aproximaci
on para la integral f (x) dx , y obtener una buena cota para el error (com-
0
pare con el valor exacto de la integral).
Sergio Plaza 179

Problema 4.8 Sea f : [a, b] R una funci


on sucientemente derivable un n
umero suciente
de veces.

a) Si f es simetrica respecto al origen, es decir, f (x) = f (x) , y se consideran los puntos


x0 , . . . , x2n distribuidos simetricamente, con xn = 0 Son los polinomios

(x x0 ) (x xk1 )(x xk+1 ) (x x2n )


L2n,k (x) =
(x x0 ) (xk xk1 )(xk xk+1 ) (xk x2n )

simetricos respecto al origen? Es el polinomio de Lagrange L2n (x) simetrico respecto al


on f (x) = ex , con x [, 1] .
2
origen? Justique su respuesta. Ilustre usando la funci

b) Que puede decir de L2n,k (x) y de L2n (x) si f es antisimetrica, respecto al origen es
decir, f (x) = f (x) ? Justique su respuesta. Ilustre usando la funci
on f (x) = sen(x) ,
con x [1, 1] .

Problema 4.9 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = 1 , f (4) = 0 , y |f (5) (x)|  32 .

1. Determine el polinomio de Lagrange L4 (x) asociado a f .

2. Estime el error |f (x) L4 (x)| .


4
3. Usando L4 (x) , determine una aproximacion y el error cometido para el calculo de 0 f (x)dx .

on f (x) = sen(x) , con 2  x  2 .


Problema 4.10 Considere la funci

1. Calcule los desarrollos de Taylor de f (x) en torno a x = 0 , hasta los ordenes 3 , 5 ,


9 estimando en cada caso el error. Graque los polinomios de Taylor y compare con la
gr
aca de f (x) .

on 2 < < 0 < < 2 , y calcule el polinomio de Lagrange


2. Considere la partici
 2
para f (x) , estimando el error. Aproxime el valor de 2 f (x) usando el polinomio de
Lagrange, estimando el error.

3. Considerando la particion anterior, encuentre el polinomio de Hermite para f . Aproxime


 2
el valor de 2 f (x) , estimando el error.

4. Cu
al es su conclusi
on para los itemes 1), 2), y 3)?

on anterior, obtenemos una nueva particion, 2 < 3/2 < <


5. Renando la partici
/2 < 0 < /2 < < 3/2 < 2 . Usando esta nueva particion repita los ejercicios 2)
y 3) anteriores.

6. Calcule aprimadamente la derivada de dos maneras distintas para f (x) en x = usando


h = /2 . Calcule tambien la segunda derivada aproximadamente de f (x) en x = .
Como se conoce explicitamente las derivadas primeras y segundas de f (x) , estime el error
que cometio en sus aproximaciones.

Problema 4.11 Considere la funci


on f (x) = sen(2x) .
Sergio Plaza 180

a) Usando los puntos x0 = 0 , x1 = 0.25 , x2 = 0.5 , x3 = 0.75 , x4 = 1.0 . Calcule el


polinomio de interpolaci
on de Hermite para f (x) . Exprese una cota para el error en la
aproximaci
on obtenida en la parte. (Simplique al maximo la expresion obtenida para el
error)

b) Usando el polinomio de interpolacion de Hermite obtenido en la parte a), calcular una


 1
aproximaci
on para la integral f (x) dx , y obtener una buena cota para el error.
0

Problema 4.12 Sea f : [0, 1] R una funci on al menos tres veces derivable con continuidad,
que satisface f (0) = 0 , f  (0) = 1 , f (0.5) = 1 , f  (0.5) = 0 , f (1) = 0 y f  (1) = 1 .

1. Encuentre un polinomio P , de menor grado posible, que aproxime a f y que satisface


las mismas condiciones que f en los puntos jados x0 = 0 , x1 = 0.5 y x2 = 1 .

2. Determine una expresion para error y una buena cota para este (simplique al maximo).

Problema 4.13 Considere una funci on f : [0, 4] R , al menos cinco veces derivable, de la
cual se sabe que f (0) = 0 , f (1) = 1.7183 , f (2) = 6.3891 , f (3) = 19.0855 , f (4) = 53.5982 , y
tal que |f (k) (x)|  ex para todo x [0, 4]

1. Encuentre el polinomio de Lagrange L4 (x) correspondiente a f .


4
2. Calcule 0 f (x)dx aproximadamente y acote el valor absoluto del error cometido en la
aproximaci
on.

Problema 4.14 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 0 , f (0.25) = 1 , f (0.5) = 0 , f (0.75) = 1 ,
f (1) = 0 , y |f (n) (x)|  (2)n para todo x R y todo n  1 .

(a) Usando la informaci


on dada, encuentre el polinomio de interpolaci
on Lagrange para f (x) .
 1
(b) Calcule una aproximacion para f (x)dx usando el polinomio obtenido en a).
0

(c) Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en a) en el intervalo [0, 1] .
 0.5
(d) Encuentre el error para la aproximaci
on de f (x)dx por la integral del polinomio de
0
interpolaci
on de Lagrange obtenido en a)

Problema 4.15 a) Sea f (x) = a0 + a1 x + + an xn un polinomio de grado n . Dadas las


on, x0 < x1 < < xn y f (xj ) = yj , j = 0, 1, . . . , n . Pruebe
condiciones de interpolaci
on correspondiente, Pn (x) , coincide con f (x) .
que el polinomio de interpolaci

b) Dado f (x) = 1 + x x2 . Verique a) para este caso particular.

Problema 4.16 Sea f : [0, 4] R una funci on sucientemente derivable, la cual satisface
5
f (0) = 0 , f (1) = 1 , f (2) = 0 , f (3) = 1 , f (4) = 0 , y |f (5) (x)|  32 para todo x [0, 4] .
Sergio Plaza 181

(a) Determine el polinomio de Lagrange L4 (x) asociado a f .

(b) Estime el error |f (x) L4 (x)| .


4
(c) Usando L4 (x) , determine una aproximacion y el error cometido para el calculo de 0 f (x)dx .

Problema 4.17 Sea f : R R una funci on, al menos 5 veces derivable con continuidad,
para la cual conocemos lo siguiente: f (0) = 1 , f (0.25) = 0 , f (0.5) = 1 , f (0.75) = 0 ,
f (1) = 1 , y |f (n) (x)|  (2)n para todo x R y todo n  1 .

1. Usando la informaci
on dada, encuentre el polinomio de interpolaci
on Lagrange para f (x) .
 1
2. Calcule una aproximacion para f (x)dx usando el polinomio obtenido en 1).
0

3. Encuentre una cota para el error que tenemos al aproximar f (x) por el polinomio de
Lagrange obtenido en 1) en el intervalo [0, 1] .
 0.5
4. Encuentre el error para la aproximacion de f (x)dx por la integral del polinomio de
0
interpolaci
on de Lagrange obtenido en 1)

1
on f : [1, 1] R dada por f (x) =
Problema 4.18 Considere la funci . Usando
1 + 25x2
divisiones uniformes, calcule y graque Ln (n) , para n = 2, 3, 4, . . . , 10 para esas subdivisiones.
Graque f (x) y Ln (x) . Compare Cu al es su conclusi
on?

Problema 4.19 Una funci on f (x) satisface f (0) = 1 , f (1)


  = 1 , f (2) = 2 . Calcule la
3
interpolaci
on de Lagrange para f , y use esta para estimar f . Graque.
2

Problema 4.20 Una funci on f (x) satisface f (1) = 1, f (0) = 2 , f (2) = 1 . Encuentre
la aproximacion de f mediante interpolaci on de Lagrange. Estime f (1) . Si es sabido que
|f  (x)| , es acotada por 1.12 para x [1, 2] . Encuentre el error que se produce al aproximar
f (1) por la interpolaci on de Lagrange. Graque.

Problema 4.21 Dados los siguientes datos

x 0 1 2 3 4 5
y 2 2 3 5 6 7

Calcule el polinomio de interpolaci


on de Lagrange para esos datos. Graque el resultado.

Sean x0 = 0 , x1 = 1.5 , x2 = 2 . Suponga que f (x0 ) = 1 , f (x1 ) = 0 y f (x2 ) = 1 . Calcule


las diferencias divididas (todas) y escriba el poinomio de Lagrange. Graque.

Problema 4.22 Sea f (x) = x3 . Sean x0 , x1 , x2 tres puntos distintos, con x0 < x1 < x2 .
Calcule f [x0 , x1 , x2 ] .

Problema 4.23 Para una funci on f (x) se conocen f [1] = 2, f [1, 1] = 1, f [1, 1, 2] =
2, f [1, 1, 2, 4] = 2 . Escriba el polinomio de interpolaci
on de grado a lo m
as 3 con nodos en
1 , 1 , 2 , 4 . Usando ese polinomio, estime f (0) .
Sergio Plaza 182

Problema 4.24 Complete la siguiente tabla de diferencias divididas

k 0 1 2 3
xk -1 0 1 3
yk 1 0 -1 2
f [xk1 , xk ] ? -1 -1 ?
f [xk2 , xk1 , xk ] ? ? ? ?
f [xk3 , xk2 , xk1 , x2 ] ? ? ? ?

y calcule el polinomio de interpolaci


on de grado a lo m
as 3 para (xk , yk ) , k = 0, 1, 2, 3 .
1
Problema 4.25 Para aproximar I(f ) = 1
f (x) dx se propone la siguiente f
ormula:
Ia (f ) = Af (0) + Bf  (1) + Cf  (1).

(a) Calcular los valores de las constantes A , B y C de modo que la formula Ia sea exacta
en P2 (R) (el espacio vectorial de los polinomios de grado menor o igual que 2).
(b) Usando la f
ormula obtenida en la parte (a), aproxime la integral

exp(sin(x)) dx.
0

Problema 4.26 Se desea construir una funci on f : R R tal que f (x) = 0 para x  0
y f (x) = 1 para x  1. Para x [0, 1], necesitaremos denir una funci on s, polinomial por
pedazos, que conecte ambas ramas de f , esto es, s(0) = 0, s(1) = 1, y para tener continuidad
de las tangentes, s (0) = 0 y s (1) = 0. Se busca entonces s : [0, 1] R denida por dos
polinomios p, q P3 (R) de modo que


p(x) si x [0, 12 ],
s(x) =
q(x) si x ( 12 , 1],
que sea de clase C 2 ([0, 1]) (es decir, que tenga segunda derivada continua en [0, 1]), y que
interpole a los datos {0, 12 , 1} en la malla {0, 12 , 1} (ver gura).
1
(a) Sea m la derivada de s en 2 (o sea m = s ( 12 )). Encuentre las expresiones de p(x) y q(x)
en funci
on de m.
(b) Determine el valor de la constante m de modo que la funcion s(x) resultante sea de clase
C 2 ([0, 1]). En este caso, escriba explcitamente s(x) en el intervalo [0, 1].

Problema 4.27

Problema 4.28

Problema 4.29

Problema 4.30

Problema 4.31

Problema 4.32
Captulo 5

Derivadas Num
ericas

La primera f
ormula para calcular derivadas numericamente proviene del calculo diferencial, y
es dada por
f (x + h) f (x)
f  (x) = + R(h2 ) , (5.1)
h
donde limh0 R(h2 ) = 0 .
Para tener mejores aproximaciones podemos usar expansion de Taylor alrededor de x para
f (x + h) y f (x h)

h2  h3
f (x + h) = f (x) + hf  (x) + f (x) + f  (x) + (5.2)
2 6
f (x) = f (x) (5.3)
2 3
h  h
f (x h) = f (x) hf  (x) + f (x) f  (x) + (5.4)
2 6

y haciendo alguna combinaciones de esa expansiones.


Por ejemplo, considerando la expansion hasta orden 2, tenemos
h2 
f (x + h) = f (x) + hf  (x) + f (1 (x)) (5.5)
2
f (x) = f (x) (5.6)
2
h 
f (x h) = f (x) hf  (x) + f (2 (x)) (5.7)
2

con 1 (x) entre x y x + h y 2 (x) entre x h y x . Restando (5.6) de (5.5), nos queda

h2 
f (x + h) f (x) = hf  (x) + f (1 (x)) ,
2

de donde, despejando f  (x) obtenemos la f


ormula
f (x + h) f (x) h 
f  (x) = f (1 (x)) . (5.8)
 h
  2  
aproximaci
on error

183
Sergio Plaza 184

Considerando ahora el desarrollo hasta orden 3, tenemos

h2  h3
f (x + h) = f (x) + hf  (x) + f (x) + f  (1 (x)) (5.9)
2 6
f (x) = f (x) (5.10)
2 3
h  h
f (x h) = f (x) hf  (x) + f (x) f  (2 (x)) (5.11)
2 6
con 1 (x) entre x y x + h y 2 (x) entre x h y x .
Restando (5.11) de (5.9), nos queda

h3 f  (1 (x)) + f  (2 (x))


f (x + h) f (x h) = 2hf  (x) + .
3 2

Si f  (x) es continua, entonces

f  (1 (x)) + f  (2 (x))


= f  ((x))
2
un (x) entre x h y x + h . Luego,
para alg

f (x + h) f (x h) h2 
f  (x) = f ((x)) . (5.12)
 2h
  6  
arpoximaci
on error

esta es llamada f
ormula de las diferencias centradas para la primera derivada.
Para obtener f
ormulas para derivadas de orden 2, consideramos desarrollos hasta orden 4.

h2  h3 h4
f (x + h) = f (x) + hf  (x) + f (x) + f  (x) + f (4) (1 (x)) (5.13)
2 6 24
f (x) = f (x) (5.14)
h2 h3 h4
f (x h) = f (x) hf  (x) + f  (x) f  (x) + f (4) (2 (x)) (5.15)
2 6 24

con 1 (x) entre x y x + h y 2 (x) entre x h y x . Sumando (5.13) y (5.15) y restando


(5.14) multiplicada por 2, nos queda

h4 f (4) (1 (x)) + f (4) (2 (x))


f (x + h) 2f (x) + f (x h) = h2 f  (x) + .
12 2

Si f (4) (x) es continua, entonces

f (4) (1 (x)) + f (4) (2 (x))


= f (4) ((x))
2
con (x) entre x h y x + h . Luego,

h4 (4)
f (x + h) 2f (x) + f (x h) = h2 f  (x) + f ((x))
12
Sergio Plaza 185

con (x) entre x h y x + h . De donde

f (x + h) 2f (x) + f (x h) h2 (4)
f  (x) = 2
f ((x)) (5.16)
 h  12  
aproximaci
on error

esta es llamada f
ormula de las diferencias centradas para la segunda derivada.

Veamos ahora como obtener otras formulas para derivadas numerica usando interpolacion de
Lagrange.
Sea f : [a, b] R tal que f  (x) es continua. Sea x0 ]a, b[ y h = 0 peque
no. Denimos
x1 = x0 + h , h = 0 sucientemente peque no para que x1 [a, b] . Tenemos la aproximacion
de Lagrange de grado 1, L1 (x) para f (x) determinada por x0 y x1 , con su error. Esta es
dada por

(x x0 )(x x1 ) 
f (x) = L1 (x) + f ((x))
2!
x x1 x x0 (x x0 )(x x1 ) 
= f (x0 ) + f (x1 ) + f ((x))
x0 x1 x1 x0 2
(x x0 h) (x x0 ) (x x0 )(x x0 h) 
= f (x0 ) + f (x0 + h) + f ((x))
h h 2

donde (x) [a, b] .


Derivando la igualdad anterior, obtenemos

 
 f (x0 + h) f (x0 ) d (x x0 )(x x0 h) 
f (x) = + f ((x))
h dx 2
f (x0 + h) f (x0 ) 2(x x0 ) h 
= + f ((x))
h 2
(x x0 )(x x0 h) d 
+ (f ((x))) .
2 dx

Luego

f (x0 + h) f (x0 )
f  (x) .
h
d 
Ahora (f ((x))) = f  ((x))  (x) , y no tenemos informaci
on sobre esto, luego el error de
dx
d 
truncacion no lo podemos estimar. Cuando x = x0 , el coeciente que acompa na a f ((x))
dx
se anula, y entonces

f (x0 + h) f (x0 ) h 
f  (x0 ) = f () (5.17)
h 2

Ahora, si x0 , . . . , xn son n + 1 puntos distintos en el intervalo I = [a, b] y f (x) es n + 1


veces derivable, con f (n+1) (x) continua. Tenemos que
Sergio Plaza 186

-
n
(x x0 ) (x xn ) (n+1)
f (x) = f (xk )Ln,k (x) + f ((x))
(x + 1)!
k=0

con (x) [a, b] . Derivando, obtenemos

-
n  
 (x x0 ) (x xn ) (n+1)
d
f (x) = f (xk )Ln,k (x) + f ((x))
dx(n + 1)!
k=0
-n  
 d (x x0 ) (x xn )
= f (xk )Ln,k (x) + f (n+1) ((x))
dx (n + 1)!
k=0
(x x0 ) (x xn )) d (n+1)
+ f ((x))
(n + 1)! dx

ltimo sumando se anula en cuando x = xj , para j = 0, . . . , n.


el factor del u
Luego

-
n
f (n+1) ((x)) 4
n
f  (xj ) = f (xk )Ln,k (x) + (xj xi ) (5.18)
(n + 1)! i = 0
k=0
i = j

Ejemplo. F
ormula con tres modos.
on 3 veces derivable, con f  (x)
En este caso, son dados x0 , x1 y x2 , y f (x) una funci
continua. Entonces

(x x1 )(x x2 ) 2x x1 x2
L2,0 (x) = , L2,0 (x) =
(x0 x1 )(x0 x2 ) (x0 x1 )(x0 x2 )

(x x0 )(x x2 ) 2x x0 x2
L2,1 (x) = , L2,1 (x) =
(x1 x0 )(x1 x2 ) (x1 x0 )(x1 x2 )

(x x0 )(x x1 ) 2x x0 x1
L2,2 (x) = , L2,2 (x) =
(x2 x0 )(x2 x1 ) (x2 x0 )(x2 x1 )

Reemplazando en la formula (5.18), nos queda

2xj x1 x2 2xj x0 x2
f  (xj ) = f (x0 ) + f (x1 )
(x0 x1 )(x0 x2 ) (x1 x0 )(x1 x2 )

4 2
2xj x0 x1 1
+f (x2 ) + f (3) (j ) (xj xi )
(x2 x0 )(x2 x1 ) 6 i = 0
i = j

donde j = 0, 1, 2 y j depende de xj .
Sergio Plaza 187

Ahora, tomamos a1 = x0 + h , x2 = x1 + h = x0 + 2h ( h = 0 ). Para xj = x0 , tenemos que


x1 = x0 + h y x2 = x0 + 2h . Luego

 
 1 3 1 h2
f (x0 ) = f (x0 ) + 2f (x1 ) f (x2 ) + f (3) (0 ) ,
h 2 2 3

para xj = x1 , tenemos

 
1 1 1 h2
f  (x1 ) = f (x0 ) + f (x2 ) f (3) (1 )
h 2 2 6
y para xj = x2 ,

 
 1 1 3 h2
f (x2 ) = f (x0 ) 2f (x1 ) + f (x2 ) + f (3) (2 ) .
h 2 2 3

Como x1 = x0 + h y x2 = x0 + 2h , tenemos

 
1 3 1 h2 (3)
f  (x0 ) = f (x0 ) + 2f (x0 + h) f (x0 + 2h) + f (0 )
h 2 2 3
 
1 1 1 h2
f  (x0 + h) = f (x0 ) + f (x0 + 2h) f (3) (1 )
h 2 2 6
 
1 1 3 h2 (3)
f  (x0 + 2h) = f (x0 ) 2f (x0 + h) + f (x0 + +2h) + f (2 ) ,
h 2 2 6

es decir, reemplazamdo x0 para x0 + h en la segunda ecuacion y x0 para x0 + 2h en la tercera


ecuacion obtenemos

1 h2
a) f  (x0 ) = (3f (x0 ) + 4f (x0 + h) f (x0 + 2h) + f (3) (0 )
2h 3
1 h2
b) f  (x0 ) = (f (x0 h) + f (x0 + h)) f (3) (1 )
2h 6
1 h2
c) f  (x0 ) = (f (x0 2h) 4f (x0 h) + 3f (x0 )) + f (3) (2 )
2h 3

De modo an
alogo, puede deducirse las f
ormulas

1 h4
d) f  (x0 ) = (f (x0 2h) 8f (x0 h) + 8f (x0 + h) f (x0 + 2h)) + f (5) ()
12h 30
1
e) f  (x0 ) = (25f (x0 ) + 48f (x0 + h) 36f (x0 + 2h) + 16f (x0 + 3h) 3f (x0 + 4h)))+
12h
h4 (5)
f ()
5
Sergio Plaza 188

5.1 Ejercicios
Problema 5.1 Usando las f ormulas anteriores (todas) calcule f  (2.0) , donde f (x) = xex ,
primero con h = 0.1 y despues con h = 0.1 . Analice los resultados en comparacion con la
derivada f  (x) calculada en forma exacta y evaluada en x = 2.0 .

Problema 5.2 Para calcular numericamente la derivada de una funci


on f (x) , podemos usar
las siguiente aproximaciones

f (x0 + h) f (x0 )
(i) f  (x0 ) ,
h
f (x0 + h) f (x0 h)
(ii) f  (x0 ) .
2h

1
(a) Considerando f (x) = sen(x) , x0 = /4 , y hn = , con n = 1, . . . , 5 , estime f  (/4) ,
10n
usando (i) y (ii) anteriores.

(b) En ambas f ormulas (a) y (b) anteriores existe perdidad de dgitos signicativos (es decir,
son numericamente inestables) pues existe resta de n umeros parecidos Cual de ellas es
mas inestable? Justique su respuesta en forma te orica y numerica.

Problema 5.3 Obtenga los valores de a1 y a2 de modo que la formula de derivaci


on numerica
f  (1/2) a1 f (0) + a2 f (1/2) sea exacta para las funciones 1 , x .

Problema 5.4

Problema 5.5

Problema 5.6

Problema 5.7

Problema 5.8

Poner lista de f
ormulas para derivadas num
ericas
Captulo 6

Spline C
ubicos

Sea f : [a, b] R y sean a = x0 < x1 < < xn = b . Un spline c


ubico S(x) para f (x) es
una funcion que satisface

1. S(x) es un polinomio c on S
[xj ,xj+1 ] = Sj ,
ubico en cada intervalo [xj , xj+1 ] . Notaci
j = 0, 1, . . . , n 1 ,

2. S(xj ) = f (xj ) , j = 0, 1, . . . , n ,

3. Sj (xj+1 ) = Sj+1 (xj+1 ) , j = 0, 1, . . . , n 2 ,

4. Sj (xj+1 ) = Sj+1



(xj+1 ) , j = 0, 1, . . . , n 2 ,

5. Sj (xj+1 ) = Sj+1



(xj+1 ) , j = 0, 1, . . . , n 2 ,

6. una de las siguientes condiciones de frontera se cumple

(a) S  (x0 ) = S  (xn ) = 0 , frontera libre o natural.


(b) S  (x0 ) = f  (x0 ) y S  (xn ) = f  (xn ) , frontera sujeta.

6.1 Construcci
on de Spline c
ubicos
Consideremos los polinomios c
ubicos

Sj (x) = aj + bj (x xj ) + cj (x xj )2 + dj (x xj )3 , (6.1)
j = 0, 1, . . . , n 1 .
Ahora, aplicando la condici
on (3), tenemos

aj+1 = Sj+1 (xj+1 ) = Sj (xj+1 )


= aj + bj (xj+1 xj ) +cj (xj+1 xj )2 +dj (xj+1 xj )3 (6.2)
        
hj h2j h3j

189
Sergio Plaza 190

j = 0, 1, . . . , n 2 .
Usaremos la notacion hj = xj+1 xj , para j = 0, 1, . . . , n 1 , y

an = f (xn ) . (6.3)

La ecuacion (6.2) se escribe entonces como

aj+1 = aj + bj hj + cj h2j + dj h3j , j = 0, 1, . . . , n 1. (6.4)

Ahora denamos

bn = S  (xn ) . (6.5)

Tenemos entonces

Sj (x) = bj + 2cj (x xj ) + 3dj (x xj )2 , (6.6)

Luego, Sj (xj ) = bj , j = 0, 1, . . . , n 1 .


Aplicando la condici
on (4) obtenemos


bj+1 = Sj+1 (xj+1 ) = Sj (xj+1 ) = bj + 2cj hj + 3dj h2j (6.7)

j = 0, 1, . . . , n 1 .
Denamos

S  (xn )
cn = (6.8)
2
aplicando la condici
on (5), obtenemos

cj+1 = cj + 3dj hj , j = 0, 1, . . . , n 1 (6.9)

despejando dj de esta ecuacion obtenemos

cj+1 cj
dj = (6.10)
3hj

Reemplazando en la ecuacion para aj+1 (6.4) y para bj+1 (6.7), nos queda

h2j
aj+1 = aj + bj hj + (2cj + cj+1 ) (6.11)
3

bj+1 = bj + hj (cj + cj+1 ) (6.12)

De la ecuacion (6.11) despejamos bj , y nos queda

1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.13)
hj 3
Sergio Plaza 191

Para j 1 obtenemos

1 hj1
bj1 = (aj aj1 ) (2cj1 + cj ) . (6.14)
hj1 3

Reemplazando en la ecuacion para bj+1 , con el ndice reducido en 1, obtenemos el siguiente


sistema de ecuaciones lineales

3 3
hj1 cj1 + 2(hj1 + hj )cj + hj cj+1 = (aj+1 aj ) (aj aj1 ) (6.15)
hj hj1

j = 1, . . . , n 1 .
Notemos que hj y aj son conocidos. Los otros coecientes bj y dj , j = 0, 1, . . . , n 1 se
obtienen de

1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.16)
hj 3

cj+1 cj
dj = . (6.17)
3hj

Teorema 6.1 Sea f : [a, b] R y a = x0 < x1 < < xn = b . Entonces f tiene un u


nico
ubico natural en los nodos x0 , x1 , . . . , xn .
spline c

S  (xn )
Demostraci on. En este caso las condiciones de frontera signican que cn = 2 = 0 y que
0 = S  (x0 ) = 2c0 + 6d0 (x0 x0 ) , luego c0 = 0 .
De las dos ecuaciones c0 = 0 y cn = 0 junto con las ecuaciones lineales (6.15) se tiene el
sistema de ecuaciones lineales Ax = b , donde A es la matriz (n + 1) (n + 1) dada por


1 0 0 0 0 0 0

h0 2(h0 + h1 ) h1 0 0 0 0

0 h1 2(h1 + h2 ) h2 0 0 0
A=
.. .. .. .. .. .. .. ..

. . . . . . . .

0 0 0 0 hn2 2(hn2 + hn1 ) hn1
0 0 0 0 0 0 1

y los vectores b y x son dados por


0
3 3 c0
h1 (a 2 a 1 ) a0 )
h0 (a1
.. c1

. ..
b= y x= .
..
. ..
3 3 .
hn1 (a n a n1 ) hn2 (a n1 a n2 )
cn
0

nica c0 , c1 , . . . , cn del sistema.


La matriz A es diagonal dominante, luego existe solucion u
Sergio Plaza 192

Teorema 6.2 Si f : [a, b] R es derivable en a y b , y a = x0 < x1 < < xn = b .


Entonces existe un u ubico con las condiciones de frontera S  (a) = f  (a) y S  (b) =
nico spline c

f (b) .

on. Como f  (a) = S  (a) = S  (x0 ) = b0 . Tenemos,


Demostraci

1 hj
bj = (aj+1 aj ) (2cj + cj+1 ) (6.18)
hj 3

con j = 0 nos queda la ecuacion

1 h0
b0 = f  (a) = (a1 a0 ) (2c0 + c1 )
h0 3

y de aqu obtenemos que

3
2h0 c0 + h0 c1 = (a1 a0 ) 3f  (a) .
h0

De modo an
alogo

f  (b) = bn = bn1 + hn1 (cn1 + cn )

y con j 1 la ecuacion (6.18) nos da que

an an1 hn1
f  (b) = (2cn1 + cn ) + hn1 (cn1 + cn )
hn1 3

an an1 hn1
= + (cn1 + 2cn )
hn1 3

y que

3
hn1 cn1 + 2hn1 cn = 3f  (b) (an an1 ) .
hn1

El sistema de ecuaciones lineales (6.15) junto con las ecuaciones

3
2h0 c0 + h0 c1 = (a1 a0 ) 3f  (a)
h0
y

3
hn1 cn1 + 2hn1 cn = 3f  (b) (an an1 )
hn1

determinan un sistema de ecuaciones lineales Ax = b , donde


Sergio Plaza 193


2h0 h0 0 0 0 0 0

h0 2(h0 + h1 ) h1 0 0 0 0

0 h1 2(h1 + h2 ) h2 0 0 0
A=
.. .. .. .. .. .. .. ..

. . . . . . . .

0 0 0 0 hn2 2(hn2 + hn1 ) hn1
0 0 0 0 0 hn1 2hn1

3
h0 (a1 a0 ) 3f  (a)
3 3 c0
h1 (a2 a1 ) h0 (a1 a0 )
.. c1

. ..
b= .. y x= .
.
. .
3 3 .
hn1 (a n a n1 ) hn2 (a n1 a n2
)
3 cn
3f  (b) hn1 (an an1 )

La matriz A es diagonal dominante, luego existe solucion u


nica c0 , c1 , . . . , cn del sistema

6.2 Otra forma de construir spline c


ubicos naturales
Sean zi = S  (xi ) , para 0  i  n . Sobre [xi , xi+1 ] , debemos tener que Si (x) es una
on lineal y Si (xi ) = zi , Si (xi+1 ) = zi+1 . Luego podemos escribir
interpolaci
x xi+1 x xi
Si (x) = zi + zi+1 .
xi xi+1 xi+1 xi

Integrando S  (x) dos veces, obtenemos


zi zi+1
Si (x) = (xi+1 x)3 + (x xi )3 + cx + d (6.19)
6hi 6hi

donde hi = xi+1 xi y c, d son las constantes de integracion. Ahora, imponiendo las condi-
ciones

Si (xi ) = f (xi ) = yi
Si (xi+1 ) = yi+1 .

Obtenemos las ecuaciones

zi

h3i + cxi + d = yi
6hi


h3 zi + cxi+1 + d = yi+1
i
6hi
yi+1 yi (zi+1 zi ) yi xi+1 yi+1 xi xi zi+1 xi+1 zi
de donde c = hi y d = + hi .
hi 6 hi 6
Reemplazando en la ecuacion (6.19) nos queda
Sergio Plaza 194

 
zi (x xi )3 zi+1 (yi+1 yi ) (zi+1 zi )
Si (x) = (xi+1 x)3 + + hi x
6hi 6hi hi 6
yi xi+1 yi+1 xi xi zi+1 xi+1 zi
+ + hi (6.20)
hi 6

Para encontrar zi y zi+1 imponemos la condicion Si1 (xi ) = Si (xi ) .

Ahora, derivando (6.20) y reemplazando obtenemos

1 1
Si (xi ) = hi zi hi zi+1 + bi
3 6
y

 1 1
Si1 (xi ) = hi1 zi1 + hi1 zi + bi
6 3

imponiendo la condici
on Si1 (xi ) = Si (xi ) nos queda

hi1 zi1 + 2(hi1 + hi )zi + hi zi+1 = 6(bi bi1 ) , i = 1, . . . , n 1

Para encontrar zi , (1  i  n 1) , considerando que z0 = zn = 0 , se tiene un sistema de


ecuaciones, simetrico, tridiagonal, diagonal dominante, de la forma

u1 h1 0 0 0 0

h1 u2 h2 0 0 0 z1 v1

0 h2 u3 h3 0 0 z2 v2

.. .. .. .. .. .. .. .. = ..
. . . . . . . . .

.. .. .. .. .. .. .. z vn2
. . . . . . . n2

0 0 0 hn3 un2 hn2 zn1 vn1
0 0 0 0 hn2 un1

donde


hi = ti+1 ti







u = 2(hi + hi1 )

i

6

bi = (xi+1 xi ), Sj (tj ) = xj

hi





vi = bi bi1

6.3 Ejercicios
Problema 6.1 Sea f : [a, b] R un polinomio c ubico. Denote por S1 y S2 , los spline
ubicos libre y sujeto determinados por f S1 y S2 coinciden con f ? Justique su respuesta.
c
Sergio Plaza 195

Problema 6.2 Determine los valores de a , b y c de modo que la funcion


x3 , x [0, 1]
f (x) = 1 3 2
2 (x 1) + a(x 1) + b(x 1) + c , x [1, 3]

es un spline c
ubico.

Problema 6.3 Sea s(x) el spline c


ubico natural con nodos (0, 2) , (1, 0) , (2, 3) y (3, 1) .
Suponga que


11 5

2 x + x3 si 0x<1

3 3




56 10
s(x) = 7 x + 15x2 x3 si 1x<2

3 3






33 + 124 x + Ax2 + Bx3 si 2x3
3
Encuentre A y B .

Problema 6.4 Si s(x) = 0 para x < 2 y s(x) = (x 2)3 para x  2 es s(x) un spline c
ubico?
Justique.

Problema 6.5 Suponga que


x3 + ax2 4x + c 0x2
s(x) =
x3 + ax2 + bx + 34, 2x4

Encuentre las constantes a, b y c de modo que s(x) es dos veces continuamente derivable
en [0, 4] Es s(x) para esas constantes un spline c
ubico?

Problema 6.6 Sea


1 x + ax2 + x3 si 0x1
s(x) =
3 + bx + cx2 x3 si 1<x2

Determine a, b , y c de modo que s(x) sea un spline c


ubico natural sobre el intervalo [0, 2]

1
on f : [1, 1] R dada por f (x) =
Problema 6.7 Considere la funci . Usando
1 + 25x2
divisiones uniformes, calcule y graque Ln (x) , para n = 2, 3, 4, . . . , 10 . Calcule y graque
las interpolaciones por spline c
ubicos naturales y libres (imponga las condiciones adecuadas en
cada caso) para esas subdivisiones. Graque f (x) , Ln (x) y sn (x) . Compare Cu al es su
conclusion?

Problema 6.8

Problema 6.9
Sergio Plaza 196

Problema 6.10

Problema 6.11

Problema 6.12

Problema 6.13

Problema 6.14
Captulo 7

Ajuste de Curvas

7.1 Ajuste de curvas


Sean {x1 , x2 , . . . , xn } un conjunto de puntos, con x1 < x2 < < xn , y sean {y1 , y2 , . . . , yn }
un conjunto de datos, es decir, tenemos los puntos (x1 , y1 ) , (x2 , y2 ), . . . , (xn , yn ) .
Problema 1 Determinar una funci
on que relacione las variables.

En general esto no es posible hacer en forma exacta. Buscamos entonces una funci
on f (x)
tal que

f (xk ) = yk + ek , (7.1)

donde ek es el error de medicion.

Problema 2 Como encontramos la mejor aproximaci on, es decir, que pase lo m


as cerca posible
y no necesariamente sobre esos puntos? Para responder a esta pregunta, hay que considerar los
errores (los cuales son tambien llamados desviaciones o residuos).

Para ello debemos encontrar f (x) tal que

ek = f (xk ) yk , 1  k  n, (7.2)

donde ek son llamados errores o desviaciones o residuos, sean en alg


un sentido peque
nos.
Existen varias formas que pueden usarse en (7.2) para medir la distancia entre la curva
y = f (x) y los datos.

a) Error m
aximo
E (f ) = max{|f (xk ) yk | : 1  k  n} .

b) Error medio
1-
n
E1 (f ) = |f (xk ) yk | .
n
k=1

197
Sergio Plaza 198

c) Error medio cuadr


atico
$ %1/2
1-
n
E2 (f ) = |f (xk ) yk |2 .
n
k=1

on. Minimizar E2 (f ) equivale a minimizar


Observaci

1-
n
E2 (f )2 = |f (xk ) yk |2 ,
n
k=1

y esto equivale a minimizar

-
n
F (f ) = |f (xk ) yk |2 .
k=1

Ejemplo 67 consideremos la funci on y = f (x) = 8.6 1.6x y el conjunto de a ajustar datos


(1, 10), (0, 9), (1, 7), (2, 5), (3, 4), (4, 3), (5, 0), (6, 1). Tenemos ek = f (xk ) yk . Luego

E (f ) = max{0.2, 0.4, 0, 0.4, 0.2, 0.8, 0.6, 0} = 0.8

1
E1 (f ) = 2.6 0.325
8
 1/2
14
E2 (f ) = 0.4183300133 .
8

7.2 Ajuste por rectas: recta de regresi


on
En este caso, tenemos los datos

{(xk , yk )}nk=1 , con x1 < x2 < < xn .

La recta de regresi
on o recta
optima, en el sentido de los mnimos cuadrados es la recta de
ecuacion y = f (x) = Ax + B que minimiza el error cuadr atico medio E2 (f ) .
Problema 3 Determinar A y B .
Tenemos y = Ax + B y sea dk = distancia entre (xk , yk ) y (xk , Axk + B)
DIBUJO

Esta distancia es

dk = |Axk + B yk | .

-
n -
n
Sea E(A, B) = (Axk + B yk )2 = d2k .
k=1 k=1
Sergio Plaza 199

Problema 4 Determinar el valor mnimo de E(A, B) .


Para esto, debemos resolver las ecuaciones




E

A = 0




E = 0,
B
llamadas ecuaciones normales de Gauss. Tenemos

E -
n -
n
= 2(Axk + B yk )xk = 2(Ax2k + Bxk xk yk ) ,
A
k=1 k=1

E
luego = 0 si y solo si
A
$ % $ %
-
n -
n -
n
x2k A+ xk B= xk yk .
k=1 k=1 k=1

Ahora

E - n
= 2(Axk + B yk ) = 0
B
k=1

si y solo si

$ %
-
n -
n
xk A + nB = yk
k=1 k=1

Ejemplo 68 Hacer el que esta antes.

7.3 Ajuste potencial y = AxM


En este caso, buscamos una curva de ajuste de la forma y = AxM , donde M es una constante
conocida.
Como antes, sea

-
n
2
E(A) = k yk ) .
(AxM
k=1

E
Debemos resolver = 0 . Tenemos
A
Sergio Plaza 200

E -
n

k yk )xk
2(AxM M
=
A
k=1

-
n
= 2 Ax2M
k xM
2 yk .
k=1

E
Luego, = 0 si y solo si
A
-
n -
n
A x2M
k = xM
k yk ,
k=1 k=1

es decir,
-
n <-
n
A= xM
k yk x2M
k ,
k=1 k=1

Ejemplo 69 Consideremos la siguiente tabla de datos

xk yk
1 10
0 9
1 7
2 5
3 4
4 3
5 0
6 1

y el exponente M = 2 . Es dejado al lector realizar los c


alculos numericos.

7.4 Ajuste con curvas del tipo y = CeAx , con C > 0


En este caso, tenemos que y = CeAx . Tomando logartmo natural nos queda ln(y) = Ax +
ln(C) , lo cual puede ser escrito en la forma Y = AX + B , donde


X = x
B = ln(C)

Y = ln(y)

y el problema se transforma en

Y = Ax + B .

Este es llamado metodos de linealizaci


on de datos.
Dados (xk , yk ) , tenemos
Sergio Plaza 201

(Xk , Yk ) = (xk , ln(yk ))

y las ecuaciones normales de Gauss son

$ % $ %
-
n -
n -
n
Xk2 A+ Xk B = Xk Yk
k=1 k=1 k=1

$ %
-
n -
n
Xk A + nB = Yk .
k=1 k=1

Una vez calculados A y B , se obtiene C = eB .

Ejemplo 70 Encontrar la curva de ajuste de la forma y = CeAx , para los datos (0, 1.5) ,
(1, 1.25) , (2, 3.5) , (3.5) , (4, 7.5) .

7.5 Metodo no lineal de los mnimos cuadrados para y =


CeAx
Este consiste en encontrar el mnimo de la funci
on

-
n
E(A, C) = (CeAxk yk )2 .
k=1

Tenemos

E -
n
= 2(CeAxk yk )Cxk eAxk = 0
A
k=1

E -
n
= 2(CeAxk yk )eAxk = 0
C
k=1

de donde,


-
n -n

2Axk
xk yk eAxk

C xk e = 0

k=1 k=1


- -


n n

C e2Axk yk eAxk = 0.

k=1 k=1

Estas son ecuaciones no lineales en A y C , y se pueden resolver, por ejemplo, usando Newton
en varias variables.
Sergio Plaza 202

7.6 Combinaciones lineales en mnimos cuadrados


En este caso, nos son dados los datos {fj (x)}m
j=1 .

Problema. Encontrar los coecientes {cj }m


j=1 tal que la funci
on f (x) denida por

-
m
f (x) = cj fj (x)
j=1

minimice la suma de los cuadrados de los errores.


Tenemos

2
-
n -
n -
m
E(c1 , c2 , . . . , cm ) = (f (xk ) yk )2 = cj fj (xk ) yk .
k=1 k=1 j=1

Para minimizar, debemos resolver las ecuaciones

E
= 0 , i = 1, . . . , m .
ci

Tenemos


E -
n -m
= 2 cj fj (xk ) yk fi (xk ) = 0 , i = 1, . . . , m
ci j=1
k=1

lo cual nos da el siguiente sistema de ecuaciones lineales

$ n %
-
m - -
n
fi (xk )fj (xk ) cj = fi (xk )yk , i = 1, 2, . . . , m .
j=1 k=1 k=1

Esto lo podemos escribir de otra forma, introduciendo notacion matricial, para ello denimos


f1 (x1 ) f2 (x1 ) fm (x1 )
f1 (x2 ) f2 (x2 ) fm (x2 )

F = .. .. .. ..
. . . .
f1 (xn ) f2 (xn ) fm (xn ) nm


f1 (x1 ) f1 (x2 ) f1 (xn )
f2 (x1 ) f2 (x2 ) f2 (xn )

FT = .. .. .. ..
. . . .
fm (x1 ) fm (x2 ) fm (xn ) mn
Sergio Plaza 203


y1
y2

Y = .. .
.
yn

El elemento de la iesima la del producto F T Y coincide con el iesimo elemento de la


matriz columna que contiene los terminos independientes en el sistema, esto es,


y1
-
n

fi (xk )yk = lai F T ... .
k=1
yn

Ahora, el producto F T F es una mariz m m . El elemento (i, j) de F T F coincide con el


coeciente cj en la iesima ecuacion del sistema, esto es,

-
n
fi (xk )fj (xk ) = fi (x1 )fj (x1 ) + fi (x2 )fj (x2 ) + + fi (xn )fj (xn ) .
k=1

Luego el problema se reduce a resolver el sistema de ecuaciones lineales

FTFC = FTY

cuya inc
ognita es C .

7.7 Ajuste polonomial


Este es un caso particular del anterior, pues si

f (x) = c1 + c2 x + + cn+1 xn

entonces f se obtiene como combinacion lineal de las funciones linealmente independiente


j=1 = {x
{fj (x)}n+1 }j=1 .
j1 n+1

Ejemplo 71 Par
abola
optima para mnimos cuadrados.
En este caso, nos son dados los datos {(xk , yk )}nk=1 y buscamos una curva de asjuste de la
forma y = f (x) = Ax2 + B + C .

Problema. Determinar los coecientes A, B y C .

Sea

-
n
E(A, B, C) = (Ax2k + Bxk + C yk )2 .
k=1
Sergio Plaza 204

Para minimizar, debemos resolver las ecuaciones



E -
n

(Ax2k + Bxk + C yk )x2k

0 = = 2

A

k=1





E -
n
0 = = 2 (Ax2k + Bxk + C yk )xk
B

k=1





-
n

E

0 = = 2 (Ax2k + Bxk + C yk )

C
k=1

esto es,
$ % $ % $ %
-
n -
n -
n -
n
x4k A+ x3k B+ x2k C = yk x2k
k=1 k=1 k=1 k=1

$ % $ % $ %
-
n -
n -
n -
n
x3k A+ x2k B+ xk C = xk yk
k=1 k=1 k=1 k=1

$ % $ %
-
n -
n -
n
x2k A+ xk B + nC = yk .
k=1 k=1 k=1
Captulo 8

Integraci
on Num
erica

En el Captulo sobre Interpolaci


on hemos deducidos las formulas de la regla de los Trapecios y
la de Simpson.
Sean x0 < x1 < < xn puntos dados y sea f : [x0 , xn ] R una funci
on sucientemente
diferenciable. Una f
ormula del tipo
 xn
f (x) = Q[f ] + E[f ] , (8.1)
x0

donde
-
n
Q[f ] = k f (xk ) (8.2)
k=0

es llamada una f ormula de cuadratura o de integraci


on numerica, Q[f ] es llamada cuadratura y
ormula. Los puntos xi ( i = 0, . . . , n ) son llamados los
E[f ] es el error de truncamiento de la f
nodo de la cuadratura y los numeros i son llamados los pesos de la cuadratura. Por ejemplo,

ormulas de los trapecios, de Simpsons, de Simpson 38 , las de NewtonCote, y muchas
las f
otras f
ormulas de cuadratura pueden ser encontradas en textos de metodos numericos.
El grado de presici
on de una f
ormula de cuadratura como (8.1) es el menor numero natural
n , tal que E(Pi ) = 0 para todo polinomio de grado menor o igual que n y existe un polinomio
Pn+1 de grado n + 1 tal que E[Pn+1 ] = 0 .
Ejemplos.

1. F
ormula de los trapecios simple. Esta es dada por
 x1
h h3 
f (x)dx = [f (x0 ) + f (x1 )] f (c) ,
x0 2 12

donde h = x1 x0 y c ]x0 , x1 [ . En este caso, tenemos los pesos 0 = 1 = h


2 , los
3
nodos son x0 y x1 , luego Q[f ] = h2 f (x0 ) + h2 f (x1 ) y E[f ] = h12 f  (c) .
Esta f on igual a 1 si f  es continua.
ormula de cuadratura tiene grado de precisi

2. Regla de Simpson simple. Esta f


ormula de cuadratura es dada por
 x2
h h5 (4)
f (x) = [f (x0 ) + 4f (x1 ) + f (x2 )] f (c)
x0 3 90

205
Sergio Plaza 206

donde c ]x0 , x2 [ y h = x2 x1 = x1 x0 (paso constante). En este caso, los nodos son


x0 < x1 < x2 , y los pesos son 0 = 2 = h3 y 1 = 4h h 4h
3 , luego Q[f ] = 3 f (x0 )+ 3 f (x1 )+
5
(4)
3 f (x2 ) y E[f ] = 90 f
h h
(c) . Esta f
ormula de cuadratura tiene grado de presici on 3 si
(4)
f es continua.

3. Regla de Simpson 38 simple. En esta f ormula de cuadratura tomamos los nodos x0 <
x1 < x2 < x3 , considerando paso constante h = xi+1 xi y los pesos 0 = 3 = 3h 8 ,
9h
1 = 2 = 8 , se tiene la formula de cuadratura
 x3
3 3 5 (4)
f (x)dx = h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] h f (c)
x0 8    80  
Q[f ] E[f ]

donde c ]x0 , x3 [ , la cual tiene grado de presicion 3 si f (4) es continua.

4. Regla de Boole simple. Esta formula de cuadratura es dada como sigue. Tomamos los
nodos x0 < x1 < x2 < x3 < x4 , con paso constante h = xi+1 xi , y los pesos
0 = 4 = 14 64 24
45 h , 1 = 3 = 45 h y 2 = 45 h . La regla de Boole es dada entonces por
 x4
2 8 7 (6)
f (x)dx = h [7f (x0 ) + 32f (x1 ) + 12f (x2 ) + 32f (x3 ) + 7f (x4 )] h f (c) ,
x0 45
    945  
Q[f ] E[f ]

con c ]x0 , x4 [ . Esta f on5 si f (6) es continua.


ormula de cuadratura tiene grado de presici

8.1 Regla de los trapecios


Ya vimos que la regla de los Trapecios simple viene dada por
 xj+1
hj h3j
f (x) = (f (xj ) + f (xj+1 )) f  (j ) , (8.3)
xj 2 12

donde hj = xj+1 xj y j ]xj , xj+1 [ .

(x 1 ,y 1 ) (x 2 ,y 2 )
(x 0,y 0) (x 3 ,y 3 )

y = f(x)

x0 x1 x2 x3 x

Ahora, si tenemos los nodos x0 < x1 < < xn , con paso hj = xj+1 xj y queremos
aproximar el valor de  xn
f (x)dx
x0
c b c
usando el hecho que a f (x)dx = a f (x)dx + b f (x)dx , integramos sobre los subintervalos
[xj , xj+1 ] , para j = 0, 1, . . . , n 1 y aplicando la formula de los trapecios simples, obtenemos
Sergio Plaza 207

 xn -  xj+1
n1 -
n1 - h3j
n1
hj
f (x) = f (x) = (f (xj ) + f (xj+1 )) f  (j ) , (8.4)
x0 j=0 xj j=0
2 j=0
12
     
Q[f ] Etotal error total

donde j ]xj , xj+1 [ .


-
n1
h3j 
Analicemos el error total Etotal = f (j ) . Si consideramos paso constante h = hj
j=0
12
para j = 0, 1, . . . , n 1 , y f  (x) continua, entonces obtenemos

h3 - 
n1
Etotal = f (j ) , j ]xj , xj+1 [
12 j=0
h3
= n f  () , ]x0 , xn [
12
h2 xn x0
= nh f  () , como h =
12 n
h2
= (xn x0 )f  () .
12

Luego, en el caso de paso constante h , tenemos la f


ormula

 xn
h h2
f (x) = [f (x0 ) + 2f (x1 ) + 2f (x2 ) + + 2f (xn1 ) + f (xn )] (xn x0 )f  () , (8.5)
x0 2   12  
Q[f ] E[f ]

la cual es llamada Regla de los trapecios compuesta.

8.2 Regla de Simpson


Falta dibujos
Para obtener la regla de Simpson simple, suponemos por simplicidad, que tenemos los nodos
x0 < x1 < x2 y el paso h = x2 x1 = x1 x0 es constante. Integrando el polinomio de
Lagrange de grado 2, que interpola a f en esos tres nodos, obtenemos
 x2
h h5 (4)
f (x) = [f (x0 ) + 4f (x1 ) + f (x2 )] f (c) (8.6)
x0 3 90

donde c ]x0 , x4 [ .
Ahora si tenemos los nodos x0 < x1 < < xn , como antes suponemos que tenemos paso
constante h = xk+1 xk , integrando en cada subintervalo de la forma [xj , xj+2 ] , tenemos
 xj+2
h h5
f (x) = (f (xj ) + 4f (xj+1 ) + f (xj+2 )) f (4) (j ) , (8.7)
xj 3 90
Sergio Plaza 208

donde j ]xj , xj+2 [ . Ahora, como


 xn  x2  x4  xn
f (x)dx = f (x)dx + f (x)dx + + f (x)dx ,
x0 x0 x2 xn2

note que n debe ser par y n  2 . De esto, tenemos

 xn
h
f (x)dx = [(f (x0 ) + 4f (x1 ) + f (x2 )) + (f (x2 ) + 4f (x3 ) + f (x4 )) +
x0 3
h5 n (4)
+(f (xn2 ) + 4f (xn1 ) + f (xn ))] f () ,
90 2

con ]x0 , xn [ . Reordenando, nos queda


 n2
-
n2
-
xn
h 2 2
(xn x0 ) (4)
f (x)dx = f (x0 ) + f (xn ) + 4 f (x2j1 ) + 2 f (x2j ) h4 f () .
x0 3 j=1 j=1  180 
   E[f ]
E[f ]
(8.8)
Esta es la regla de Simpson compuesta.

8.3 Regla de Simpson ( 38 )


Consideramos paso constante h = xj+1 xj . Sea Pj (x) el polinomio de interpolaci on de
Lagrange con nodos xj , xj+1 , xj+2 y xj+3 , con paso h constante. Tenemos
 xj+3  xj+3
3
f (x)dx Pj (x)dx h [f (xj ) + 3f (xj+1 ) + 3f (xj+2 ) + f (xj+3 )] , (8.9)
xj xj 8

esta es la regla de Simpson 38 simple.
Ahora, como
 xn  x3  x6  xn
f (x)dx = f (x)dx + f (x)dx + + f (x)dx ,
x0 x0 x3 xn3

notemos que n = 3m y m  1 . Reordenando, obtenemos


 xn
n3
-3
n3
-3
n3
-3
3
f (x)dx h f (x0 ) + f (xn ) + 3 f (x3j+1 ) + 3 f (x3j+2 ) + 2 f (x3j+3 ) , (8.10)
x0 8 j=0 j=0 j=0

esta es la regla de Simpson ( 38 ), cuyo error es dado por

(xn x0 )5 (4)
E[f ] =
f () , (8.11)
6480
donde ]x0 , xn [ . Las reglas de los trapecios y la de Simpson pertenecen a una clase de
metodos para aproximar integrales, llamadas f ormulas de NewtonCotes.
Sergio Plaza 209

8.4 ormulas de NewtonCotes cerradas de (n+1) puntos


F
Notemos que para obtener la formula de la regla de los trapecios integramos el polinomio de
interpolaci
on de Lagrange de grado 1 entre los puntos xj y xj+1 , para obtener la formula de
la regla ed Simpson integramos el polinomio de interpolacion de Lagrange de grado 2 entre los
puntos xj , xj+1 y xj+2 , para la regla de Simpson 38 integramos el polinomio de interpolaci
on
de Lagrange de grado 3 entre los puntos xj , xj+1 , xj+2 y xj+3 . Para otras f
ormulas podemos
continuar integrando el polinomio de interpolaci
on de Lagrange, digamos de grado k , entre los
puntos xj , . . . , xj+k .
Las formulas de NewtonCotes cerradas de (n + 1) puntos utilizan nodos xj = x0 + jh ,
j = 0, 1, . . . , n , h = ba
n , x0 = a y xn = b . Son llamadas cerradas pues incluyen los extremos
x0 y xn . Ellas tienen la forma
 xn -
n
f (x)dx An,j f (xj ) ,
x0 j=0

donde  
xn xn 4
n
(x xk )
An,j = Ln,j (x)dx = ,
x0 x0 k =0
(xj xk )
k = j

son obtenidas integrando el polinomio de Lagrange de grado n , que recordemos es dado por
-
n
Ln (x) = f (xj )Ln,j (x) ,
j=0

4
n
x xi
donde Ln,j = , que interpola a f en los nodos x0 < x1 < < xn
i =0
xj xi
i = j

n
Teorema 8.1 Denotemos por j=0 Aj f (xj ) la f
ormula de NewtonCotes cerrada de (n + 1)
puntos, con x0 = a , xn = b y h = ba
n . Entonces existe ]a, b[ , tal que
 b -
n  n
hn+3 (n+2)
() f (x)dx = Aj f (xj ) + f () t2 (t 1) (t n)dt ,
a j=0
(n + 2)! 0

si n es par y f es n + 2 veces derivable en [a, b] y f (n+2) (x) es continua.


 b -n  n
hn+2 (n+1)
() f (x)dx = Aj f (xj ) + f () t(t 1) (t n)dt ,
a j=0
(n + 1)! 0

si n es impar y f es n + 1 veces derivable en [a, b] y f (n+1) (x) es continua.

8.5 F
ormulas abiertas de NewtonCotes
ba
Estas usan nodos xj = x0 + jh , j = 0, 1, . . . , n , donde h = n+2 y x0 = a + h . Luego
xn = b h . Marcamos los extremos x1 = a y xn+1 = b y tenemos

 b  xn+1 -
n
f (x)dx = f (x)dx Aj f (xj ) ,
a x1 j=0
Sergio Plaza 210

 b
donde Aj = Ln,j (x)dx .
a
Con las notaciones anteriores, tenemos que existe ]a, b[ tal que

 b -
n  n
hn+3 (n+2)
( ) f (x)dx = Aj f (xj ) + f () t2 (t 1) (t n)dt ,
a j=0
(n + 2)! 1

si n es par y f es n + 2 veces derivable en [a, b] y f (n+2) (x) es continua.


 b -
n  n
 hn+2 (n+1)
( ) f (x)dx = Aj f (xj ) + f () t(t 1) (t n)dt ,
a j=0
(n + 1)! 1

si n es impar y f es n + 1 veces derivable en [a, b] y f (n+1) (x) es continua.

Por ejemplo,
 x1 h3 
n = 0, x1
f (x) = 2hf (x0 ) + 3 f () , x1 < < x1 ,
 x2 3h
n = 1, x1
f (x) = 2 (f (x0 ) + f (x1 )) + 34 h3 f  () , x1 < < x2 ,

8.6 Integraci
on de Romberg
b
Comenzamos por obtener aproximaciones para a f (x) usando la regla de los trapecios con
mj nodos, m1 = 1 , m2 = 2 , . . . , mj = 2j1 . Los valores del paso hj correspondiente a mj
son dados por hj = ba ba
mj = 2j1 . Luego, tenemos


 2j1
-1
b
hj (b a) 2 
f (x) = f (a) + f (b) + 2 f (a + ihj ) hj f (j ) , (8.12)
a 2 i=1
12

donde j ]a, b[ .
Usando la notacion

h1 ba
R1,1 = (f (a) + f (b)) = (f (a) + f (b))
2 2

h2
R2,1 = (f (a) + f (b) + 2f (a + h2 ))
2   
ba ba
= f (a) + f (b) + 2f a +
4 2
1
= (R1,1 + h1 f (a + h2 ))
2

En general,
j2

2-
1
Rj,1 = Rj1,1 + hj1 f (a + (2i 1)hj )
2 i=0
Sergio Plaza 211

j = 2, 3, . . . , n . Tenemos

 b
-
f (x) Rj,1 = K1 h2j + Ki h2i
j ,
a i=2

donde Ki para cada i es independiente de hj .


Tambien tenemos las relaciones

Rk,j1 Rk1,j1
Rk,j = Rk,j1 +
4j1 1

k = 2, . . . , n y j = 2, . . . , k .
Estos resultados pueden tabularse como

R1,1
R2,1 R2,2
R3,1 R3,2 R3,3
.. .. .. ..
. . . .
Rn,1 Rn,2 Rn,3 Rn,n

b
a
f (x)

8.7 Cuadratura gaussiana


Queremos aproximar el valor de

 b
f (x) .
a

Haciendo el cambio de variable x = 12 ((b a)t + (a + b)) tenemos que

  1  
b
(b a)t + (b + a) ba
f (x)dx = f dt
a 1 2 2

por lo tanto buscamos un metodo para obtener aproximaciones a una integral del tipo

 1
f (x)dx .
1

Aqu se trata de determinar constantes c1 y c2 y valores x1 y x2 de modo que

 1
f (x) c1 f (x1 ) + c2 f (x2 ) , (8.13)
1

y el resultado sea exacto cuando f (x) es un polinomio de grado menor o igual que 3.
Escribamos f (x) = a0 + a1 x + a2 x2 + a3 x3 . Tenemos entonces
Sergio Plaza 212

    
f (x) = a0 1 + a1 x + a2 x2 + a3 x3 ,

luego necesitamos c1 , c2 , x1 y x2 tales que

 1
c1 1 + c2 1 = 1=2
1
 1
c1 x1 + c2 x2 = x=0
1
 1
2
c1 x21 + c2 x22 = x2 =
1 3
 1
c1 x31 + c2 x32 = x3 = 0
1

3 3
resolviendo esas ecuaciones obtenemos c1 = 1 , c2 = 1 , x1 = 3 y x2 = 3 . Luego

 $ % $ %
1
3 3
f (x) f +f .
1 3 3

En general, el problema es resuelto considerando los polinomios de Legendre {P0 (x), P1 (x), . . .} .
Estos son polinomios que satisfacen

1. Pn (x) es un polinomio de grado n , n = 0, 1, . . . .


 1
2. P (x)Pn (x)dx = 0 cuando P (x) es un polinomio de grado menor que n .
1

Los primeros polinomios de Legendre son

P0 (x) = 1
P1 (x) = x
1
P2 (x) = x2
3
3
P3 (x) = x3 x
5
..
.

Tenemos el siguiente teorema

Teorema 8.2 Supongamos que x1 , x2 , . . . , xn son las races del polinomio de Legendre Pn (x)
y que los n
umeros ci son dados por

 1 4
n
x xj
ci = dx , i = 1, 2, . . . , n
1 j =1
xi xj
j = i
Sergio Plaza 213

Si P (x) es un polinomio de grado menor que 2n . Entonces

 1 -
n
P (x) = ci P (xi ) .
1 i=1

8.8 Ejemplos resueltos

Ejemplo 72 Considere la siguiente tabla de valores

x 0 1 2 3 4 5 6
f (x) 5 4 1 1 1 0 3

a) Encuentre la interpolaci
on de Lagrange L6 (x) de esos datos. Usando el metodo de New-
ton, encuentre una aproximacion para la raz de L6 (x) en el intervalo [2, 3].

b) Usando la integraci
on numerica de Simpson, y tambien integrando L6 (x) directamente,
6
obtenga aproximaciones para 0 f (x)dx.

Soluci
on.

a) Tenemos que L6 (x) = L6,0 (x)y0 +L6,1 (x)y1 +L6,2 (x)y2 +L6,3 (x)y3 +L6,4 (x)y4 +L6,5 (x)y5 +
L6,6 (x)y6 , donde

(x 1)(x 2)(x 3)(x 4)(x 5)(x 6)


L6,0 (x) =
720
1 6 7 5 35 4 49 3 203 2 49
= x x + x x + x x+1
720 240 144 48 90 20

x(x 2)(x 3)(x 4)(x 5)(x 6)


L6,1 (x) =
120
1 6 1 5 31 4 29 3 87 2
= x + x x + x x +6x
120 6 24 6 10

x(x 1)(x 3)(x 4)(x 5)(x 6)


L6,2 (x) =
48
1 6 19 5 137 4 461 3 117 2 15
= x x + x x + x x
48 48 48 48 8 2
Sergio Plaza 214

x(x 1)(x 2)(x 4)(x 5)(x 6)


L6,3 (x) =
36
1 6 1 5 121 4 31 3 127 2 20
= x + x x + x x + x
36 2 36 3 9 3

x(x 1)(x 2)(x 3)(x 5)(x 6)


L6,4 (x) =
48
1 6 17 5 107 4 307 3 33 2 15
= x x + x x + x x
48 48 48 48 4 4

x(x 1)(x 2)(x 3)(x 4)(x 6)


L6,5 (x) =
120
1 6 2 5 19 4 13 3 27 2 6
= x + x x + x x + x
120 15 24 6 10 5

x(x 1)(x 2)(x 3)(x 4)(x 5)


L6,6 (x) =
720
1 6 1 5 17 4 5 3 137 2 1
= x x + x x + x x
720 48 144 16 360 6

Ahora, es facil que ver el polinomio de Lagrange es dado por


5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x x3 + x x + x x
6 4 18 12 180 180
y de aqu tenemos que la transformaci
on de Newton de L6 (x) es dada por

5 1 7 4 1 5 1 6 341 2
5+ x x3 + x x + x x
N( x ) = x 6 4 18 12 180 180
5 3 2 14 3 5 4 1 5 341
x + x x + x x
6 4 9 12 30 90
Comenzando la busqueda de la raz en x0 = 2 la convergencia es rapida y la raz buscada
es aproximadamente igual a x = 2, 37 , y L6 (x) = 0, 0096448 . (Obviamente podemos
obtener una mejor aproximacion, pero eso solo implica m as iteraciones).
b
b) La f on de Simpson es a f (x)dx h3 (f0 + 4f1 + 2f2 + 4f3 + 2f4 +
ormula de integraci
+ 2fn2 + 4fn1 + fn ), donde fi = f (xi ) = yi , y h = ba
n . En nuestro caso, h = 1 y
6
tenemos 0 f (x)dx (5 + 4 4 + 2 1 + 4 1 + 2 1 + 4 0 + 3)/3 = 20/3 = 6, 66666....
Por otra parte, tenemos que

5 1 7 4 1 5 1 6 341 2
L6 (x) = 5 + x x3 + x x + x x
6 4 18 12 180 180
integrando, obtenemos

 6  6
f (x)dx L6 (x)dx = 6, 571428571
0 0
Sergio Plaza 215

Ejemplo 73 Considere la siguiente tabla de valores

k xk f (xk ) f  (xk )
0 1 5 2
1 2 1 1
2 3 3 4

a) Encuentre la aproximacion de Hermite H5 (x) de esos datos. Usando el metodo de Newton,


encuentre una raz de H5 (x).
3
b) Usando la regla de los trapecios, y tambien integrando directamente 1 H5 (x)dx, calcular
3
aproximaciones de 1 f (x)dx.

Soluci
on

a) Tenemos que

(x 2)(x 3) x2 5x
L2,0 (x) = = +3
(1 2)(1 3) 2 2
5
L2,0 (x) = x
2

(x 1)(x 3)
L2,1 (x) = = x2 + 4x 3
(2 1)(2 3)

L2,1 (x) = 2x + 4

(x 1)(x 2) x2 3x
L2,2 (x) = = +1
(3 1)(3 2) 2 2
3
L2,2 (x) = x
2

Ahora, como Hn,j (x) = (1 2(x xj )Ln,j (xj ))(Ln,j (x))2 tenemos

 2
1 2 5
H2,0 ( x ) = (3x 2) x x+3
2 2
3 5 131 3 127 2
= x 8 x4 + x x + 57 x 18
4 4 2
 2
2,0 (x) 1 2 5
H = (x 1) x x+3
2 2
1 5 11 4 47 3 97 2
= x x + x x + 24 x 9
4 4 4 4
Sergio Plaza 216

H2,1 (x) = ( x2 + 4 x 3 )2

= x4 8x3 + 22x2 24x + 9

2,1 ( x )
H = ( x 2 ) ( x2 + 4 x 3 )2

= x5 10 x4 + 38 x3 68 x2 + 57 x 18

 2
1 2 3
H2,2 ( x ) = (x 8) x x+1
2 2
1 5 7 4 61 3
= x x + x 29 x2 + 25 x 8
4 2 4
 2
2,2 ( x ) 1 2 3
H = ( 10 3x ) x x+1
2 2
1 5 9 4 31 3 51 2
= x x + x x + 10 x 3
4 4 4 4

Luego el polinomio de Hermite aproximando los datos es

27x4 299x
H5 (x) = x5 + 67x3 + 145x 45
2 2

La transformada de Newton de H5 (x) es

299 2 27 4
45 + 145 x + x5 x + 67 x3 x
N( x ) = x 2 2
4 2
145 + 5 x 299 x + 201 x 54 x3

Comenzando la busqueda de la raz con x0 = 1.6 la convergencia es r apida y el valor


= 1.71, el correspondiente valor H5 (1.71) = 0.0026091. Otra
aproximado de la raz es x
alternativa es comenzar con x0 = 2.4 obtenemos la raz x = 2.44 , el correspondiente valor
H5 (2.44) = 0.002691.

b) Calculando

 3  3
145 2 1 6 299 3 67 4 27 5 3
f (x)dx H2 (x)dx = 45 x+ x + x x + x x |1 = 2, 266666667
1 1 2 6 6 4 10

Por la regla de los trapecios nos queda

 3
5 1 1 + 3
f (x)dx + =3
1 2 2
Sergio Plaza 217

8.9 Ejercicios
1
Problema 8.1 Sea f (x) = 1+ex sen(4x) . Aproxime el valor de la integral 0 f (x)dx , usando

1. la regla de los trapecios simple,

2. Regla de Simpson simple,

3. Regla de Simpson ( 38 ) simple

4. Regla de Boole simple.

Compare los resultados obtenidos en cada aproximacion con el resultado exacto de la integral
 1
21e 4 cos(4) sen(4)
f (x)dx = 1.3082506046426 . . .
0 17e

Problema 8.2 Deduzca la f


ormula del punto medio simple para aproximar integrales, la cual
es dada por  
 b
a+b
f (x)dx (b a) f (8.14)
a 2

Usando esta formula, deduzca la formula del punto medio compuesta para aproximar el
x
valor de la integral x0n f (x)dx , usando los nodos x0 < x1 < < xn , con paso constante
h = xj+1 xj , la cual es dada por
 -
n
xn
xn x0 2 
f (x)dx = h xk )
f ( h f () (8.15)
x0 24
k=1

xk1 +xk
k =
donde x 2 y ]x0 , xn [ .

Problema 8.3 Se desea calcular una aproximacion al valor de = 3.1415926535897932384626433832 . . ..


Sabemos que
 1
1
=4 dx .
0 1 + x2
Use la regla de Simpson con n = 10 para obtener una aproximaci
on al valor de dado
arriba.

Problema 8.4 Para calcular las integrales


 1
En = xn ex1 dx , n = 1, 2, . . . ,
0

podemos usar integraci


on por partes
 1 

n x1
1
1
n x1
x e dx = x e 0
nxn1 ex1 dx
0 0

con lo que obtenemos el siguiente algoritmo numerico

En = 1 nEn1 , n = 2, 3, . . . ,

donde E1 = 1/e .
Sergio Plaza 218

1. Es este algoritmo convergente?

2. Es numericamente estable?

3. Usando cuadratura gaussiana de la forma


 b
f (x)dx = Af (0) + Bf (1/2) + Cf (1) .
a

Calcule las constantes A, B y C y aplique la formula para estimar el valor de la integral


En .

4. Cu
al valor de la integral es m
as exacto (cuadratura o iterativamente)?

Problema 8.5 Si ab > 0 , podemos hacer el cambio de variable y transformar la integral


 b  1/a
1
f (x)dx = f (1/t)dt .
a 1/b t2

Considere la evaluaci
on de la integral impropia
 x
1 x2 /2
N (x) = e dx
2

1. Transforme N (x) usando la expresion anterior para que pueda utilizar la f


ormula de
Simpson.

2. Aplique la formula de integracion de Simpson compuesta con M puntos a cada una de


las integrales obtenidas en la parte (a).

 3
Problema 8.6 Se sabe que ex dx = 19.08553692... . Estime el valor de la integral usando
3 0
trapezoide, Simpson y Simpson 8 .

Problema 8.7 Sea f una funci on continua. Use cuadratura de Gauss sobre [1, 1] con 3
nodos para obtener la f
ormula

 $ % $ %
1
5 15 8 5 15
f (x) f + f (0) + f .
1 9 5 9 9 5

Problema 8.8 Deduzca la f ormula de cuadratura gaussiana con 3 modos reescalada al intervalo
[0, 1] , la cual es dada por
 $ %   $ %
1
5 5 15 4 1 5 5 + 15
f (x)dx f + f + f
0 18 10 9 2 18 10
 1
y use esta para calcular un valor aproximado para f (x)x3 dx
0
Sergio Plaza 219

Problema 8.9 Determine a, b y c tal que la f


ormula de cuadratura
 
1
Q(f ) = af (0) + bf + cf (1)
2

es exacta para la integral

 1
f (x)x3 dx
0

si f (x) es un polinomio de grado menor o igual que 2. Encuentre el error en Q(x4 ) , como una
 1
aproximaci on de x7 dx .
0

Problema 8.10 Determine c1 , c2 , c3 y c4 tal que la f


ormula de cuadratura

Q(f ) = c1 f (0) + c2 f (1) + c3 f (3) + c4 f (4)

es exacta para la integral 


f (x)ex dx
0

si f es un polinomio de grado menor o igual que 3.

Problema 8.11 Obtenga los valores de las constantes c1 , c2 , x1 y x2 tales que la siguiente
f
ormula de integraci
on numerica

1
F (x)dx = c1 F (x1 ) + c2 F (x2 )
1

sea exacta para todos los polinomios de grado menor o igual a 3. Use dicha formula para
5
on f (x) = (x 3) en el intervalo [2, 4].
aproximar la integral de la funci
c
Problema 8.12 Queremos aproximar el valor de la integral I(f ) = 0 f (x)dx , donde f (x) =
cos2 (x)ex y c es una constante positiva. Esta integral puedes ser aproximada con error
absoluto menor que > 0 dado, para ellos usamos una f ormula de integraci
on numerica.
3
Fijando = 10 , estime la cantidad de intervalos que son necesarios, en terminos de c , si
usamos la regla de los trapecios compuesta para aproximar I(f ) .

Problema 8.13 Sea f : [x0 , xn ] R una funci on a la cual deseamos aproximar el valor de
 xn
x0
f (x)dx . Denotemos por I1 el valor obtenido usando al regla de los trapecios con un paso
constante h1 e I2 el valor obtenido usando la regla de los trapecios con paso constante h2 ,
con la condicion h1 = h2 . Dena
I1 I2
Ik = I1 + h2
2
h2
1
1

Muestre con varios ejemplos que el valor Ik , llamado extrapolaci


on de Richardson, es una
mejor aproximacion que I1 y que I2 para la integral.
Sergio Plaza 220

Problema 8.14

Problema 8.15

Problema 8.16
Captulo 9

Soluci
on num erica de ecuaciones
diferenciales ordinarias

Problema 1. Encontrar una soluci


on al problema de valor inicial (PVI)


x = f (t, x)x(t0 )
(9.1)
x(t0 ) = x0 .

Por ejemplo,

x = x tang(t + 3)
x(3) = 1.

El problema 1 tiene dos partes

(i) Existencia de soluciones,

(ii) Unidad de soluciones.

Para esto se tienen los siguientes teoremas.

Teorema 9.1 Sea R R2 un rect


angulo centrado en (t0 , x0 ) , digamos

R = {(t, x) : |t t0 |  , |x x0 |  } .

Si f : R R es continua en R , entonces el problema (9.8) tiene una soluci


on x(t) para
|t t0 | < min{, /M } donde M = max{|f (t, x)| : (t, x) R}

f
Teorema 9.2 Si f y son continuas en
x

R = {(t, x) : |t t0 |  , |x x0 |  } ,
entonces el problema (9.8) tiene una u on x(t) para |t t0 |  min{, /M } .
nica soluci

221
Sergio Plaza 222

Tambien tenemos el teorema siguiente

Teorema 9.3 Si f es continua en a  t  b y < x < y satisface

|f (t, x) f (t, x2 )|  L|x1 x2 |

entonces el problema (9.8) tiene una u


nica soluci
on en [a, b]

Observaci on. Si |g(x1 ) g(x2 )|  L|x1 x2 | , decimos que g es una funci


on Lipschitz, y L
es llamada una constante de Lipschitz de g .

Por ejemplo, si g es derivable y g  es acotada en [a, b] entonces, por el teorema del valor
medio, g es Lipschitz.

En lo que sigue suponemos que el problema (9.8) tiene solucion u


nica. Tenemos entonces el
siguiente problema.

Problema 2. Encontrar una soluci


on exacta o una aproximaci
on a una soluci
on exacta del
problema (9.8).

9.1 M
etodo de Euler

DIBUJO

Tenemos la ecuacion diferencial

dx
= f (t, x)
dt
denimos los incrementos

xi+1 = xi + f (ti , xi )h (metodo de Euler)

Ejemplo. Consideremos el problema de valores iniciales




dx
= 2t3 + 12t2 20t + 8.5 , 0t4
dt


x(0) = 1.
Sergio Plaza 223

Integrando directamente nos queda

x(t) = 0.5t4 + 4t3 10t2 + 8 + 8.5t + 1 .

Tenemos

dx
= f (t, x) = 2t3 + 12t2 20t + 8.5
dt
Luego, x(0.5) = x(0)+f (0, 1)0.5 , donde x(0) = 1 y la pendiente en t = 0 es f (0, 1) = 8.5 .
Luego xA = x(0.5) = 1 + 8.5 0.5 = 5.25 y la soluci on exacta en t = 0.5 es xT = x(0.5) =
3, 21875 . Se deja al lector completar los calculos.
Recordemos que el error es

E(xA ) = xT xA

en nuestro caso E(xA ) = 3.21875 5.25 = 2.03125 y el error relativo (porcentaje de error)

xT xA 2.03125
ER (xA ) = = = 63.1% .
xT 3.21875

9.1.1 An
alisis del error para el m
odulo de Euler
dx
Sea x (t) = = f (t, x) como en el problema 9.1.
dt
Usando desarrollo de Taylor alrededor de (ti , xi ) obtenemos

(n)
xi 2 x
xi+1 = xi + xi h + h + + i hn + Rn
2 n!
x(n+1) () n+1
donde h = ti+1 ti y Rn = h , con entre ti y ti+1 . Escrito de otra forma
(n + 1)!

f  (ti , xi ) 2 f (n1) (ti , xi ) n


xi+1 = xi + f (ti , xi )h + h + + h + O(hn+1 )
2! n!

f  (ti , xi ) 2
Luego, Error = h + y podemos considerar el error aproximado
2
f  (ti , xi ) 2
Ea = h ( error de trancamiento local )
2
Observaci
on. Vimos que

f  (ti , xi ) 2 f  (ti , xi ) 3
xi+1 = xi + f (ti , xi )h + h + h +
    2  3! 
m
etodo de Euler
error

Ahora, para estimar el error aproximado hasta el orden 3, tenemos que calcular f  (ti , xi ) .
Sabemos del calculo diferencial que
Sergio Plaza 224

f f dx
f  (ti , xi ) = +
t x dt
luego,

   
 f f dx f f dx
f (ti , xi ) = + + +
t t x dt x t x dt

omoda para f  (t, x) .


desarrollando esto, se obtiene una expresion larga y no muy c

9.2 M
etodo de Heun

DIBUJO

Tenemos

xi+1 = f (ti , xi ) ,

una extrapolaci
on lineal de xi+1 es dada por

x0i+1 = xi + f (ti , xi )h ( ec. predictor)

y una mejora de xi+1 que permite el calculo de una estimacion de la pendiente es

xi+1 = f (ti+1 , x0i+1 ) .

Luego, podemos considerar la pendiente promedio

xi + xi+1 f (ti , xi ) + f (ti+1 , x0i+1 )


xi = =
2 2
y usaremos esta pendiente para extropolar linealmente desde xi a xi+1 usando el metodo de
Euler, es decir,

f (ti , xi ) + f (ti+1 , x0i+1 )


xi+1 = xi + h ( (ec. corrector))
2
En resumen, el metodo de Heun nos queda como
Sergio Plaza 225



x0 = xi + f (ti , xi )h (ec. Predictor)
i+1

f (ti , xi ) + f (ti+1 , x0i+1 )
xi+1 = xi + h (ec. Corrector)
2
Escrito de otra forma, nos queda

f (ti , xi ) + f (ti+1 , xi + hf (ti , xi ))


xi+1 = xi + h
2

9.3 M
etodo del punto medio o m
etodo de Euler mejorado
En este caso consideramos



h

xi+1/2 = xi + f (ti , xi )
2



ti+1/2 h ti + ti+1
= ti + = .
2 2

DIBUJO

Usaremos ese valor promedio para calcular la pendiente en el punto medio (ti+1/2 , xi+1/2 ) y
despues extrapolamos a xi+1 , usando este valor intermedio, es decir, tenemos

h
xi+1 = xi + f (ti+1/2 , xi+1/2 ) (Euler mejorado)
2
esto es,

h h h
xi+1 = xi + f (ti + , xi + f (ti , xi )) .
2 2 2

9.4 M
etodos de RungeKutta
Consideramos una forma generalizada para lo anterior, escribiendo

xi+1 = xi + (ti , xi , h)h ,

es decir, depende del incremento h . La funci


on es llamada funci
on incremento. En
general esta se escribe como
Sergio Plaza 226

= a1 k1 + a2 k2 + + an kn ,

donde ai , i = 1, 2, . . . , n , son constantes y




k1 = f (ti , xi )




k2 = f (ti + p1 h, xi + q1,1 k1 h)
k3 = f (ti + p2 h, xi + (q2,1 k1 + q2,2 k2 )h)

..




.
k = f (ti + pn1 h, xi + (qn1,1 k1 + qn1,2 k2 + + qn1,n1 kn1 )h) .
n

Note que los kj son relaciones de recurrencias.

Problema. Hacer una eleccion razonable para tener relaciones manejables y una buena aprox-
imacion a la soluci
on. En esto consiste una de las tecnicas m
as conocidas, nos referimos a las
tecnicas de RungeKutta.

9.4.1 RungeKutta de orden 2


En este caso, tenemos

xi+1 = xi + (a1 k1 + a2 k2 )h (R-K2,1)

donde


k1 = f (ti , xi )
k2 = f (ti + p1 h, xi + q1,1 k1 h) .

Problema. Encontrar a1 , a2 , p1 y q1,1 .

Estos se calculan igualando el termino de segundo orden de (R-K2,1) con la expansion de


Taylor de f alrededor del punto (ti , xi ) . De esto se obtienen las ecuaciones

1
a1 + a2 = 1
1
a2 q1,1 = = a2 p 1
2
de donde

a1 = 1 a2
1
p1 = q1,1 = ,
2a2

y a2 lo podemos elegir libremente.


1 1
Por ejemplo, considerando a2 = obtenemos a1 = y p1 = q1,1 = 1 , y nos queda
2 2
h
xi+1 = xi + (k1 + k2 ) (metodo de Heun con un s
olo corrector)
2
Sergio Plaza 227

donde


k1 = f (ti , xi )
k2 = f (ti + h, xi + k1 h) ,
es decir,

h
xi+1 = xi + (f (ti , xi ) + f (ti + h, xi + hf (ti , xi )) .
2
Considerando a2 = 1 nos queda a1 = 0 y p1 = q1,1 = 1/2 , y obtenemos

xi+1 = xi + k2 h (metodo de punto medio)


h h
= xi + f (ti + , xi + f (ti , xi ))
2 2
donde


k1 = f (ti , xi )

 

h 1
k2 = f ti + , xi + k1 h .
2 2

9.4.2 M
etodo de Ralston
2 1 3
Tomando a2 = , obtenemos a1 = , p1 = q1,1 = , y
3 3 4
 
1 2
xi+1 = xi + k1 + k2 h
3 3
donde


k1 = f (ti , xi )

 

3 3
k2 = f ti + h, xi + k1 h .
4 4

9.4.3 M
etodo de RungeKutta de orden 3
Esta vez, consideramos desarrollos de Taylor hasta orden 3. Obtenemos

1
xi+1 = xi + (k1 + 4k2 + k3 )h (R-K3)
6
donde


k1 = f (ti , xi )

k = f ti + 12 h, xi + 12 k1 h
2
k3 = f (ti + h, xi k1 h + 2k2 h)
Sergio Plaza 228

9.4.4 M
etodo de RungeKuta de orden 4

Esta vez, consideramos desarrollos de Taylor hasta orden 4. Obtenemos

1
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 )h (R-K4)
6
donde




k1 = f (ti , xi )


k2 = f ti + h2 , xi + 12 k1 h


k = f ti + h2 , xi + 12 k2 h
3
k4 = f (ti + h, xi + k3 h)

9.4.5 M
etodo de RungeKuta de orden superior

Considerando dearrollos de Taylor hasta order 6, obtenemos

1
xi+1 = xi + (7k1 + 32k3 + 12k4 + 32k5 + 7k6 )h (R-K6) (metodo de Butcher)
90

donde


k1 = f (ti , xi )







1 1

k2 = f (ti + h, xi + k1 h)

4 4





1 1 1




k3 = f (ti + h, xi + k1 h + k2 h)
4 8 8

h 1

k4 = f (ti + , xi k2 h + k3 h)

2 2







3 3 9

k5 = f (ti + h, xi + k1 h + k4 h)

4 16 16





3 2 12 12 8
k6 = f (ti + h, xi k1 h + k2 h + k3 h k4 h + k5 h) .
7 7 7 7 7

9.5 M
etodos multipaso
Consideremos el problema


x = f (t, x) , atb
x(a) = .

Un metodo multipaso de paso m para resolver este problema de valor inicial es uno cuya
ecuacion de diferencia para obtener xi+1 en el punto ti+1 puede representarse por la siguiente
Sergio Plaza 229

ecuacion, donde m es un entero mayor o igual que 1.

xi+1 = am1 xi + am2 xi1 + + a0 xi(m1)


+h[bm f (ti+1 , xi+1 ) + bm1 f (ti , xi )
+ + b0 f (ti(m1) , xi(m1) )] . (9.2)

ba
para i = m1, m, . . . , N 1 , donde h = , a0 , a1 , . . . , am1 y b0 , b1 , . . . , bm son constantes
N
y se especican los valores iniciales

x0 = , x1 = 1 , x2 = 2 , . . . , xm1 = m1 . (9.3)

Cuando bm = 0 , el metodo es explcito, o abierto ya que (9.3) da entonces xi+1 de manera


explcita en termino de los valores previamente determinados. Cuando bm = 0 el metodo es
implcito o cerrado ya que xi+1 se encuentra en ambos lados de la ecuacion.

Por ejemplo, las ecuaciones


x0 = , x1 = 1 , x2 = 2 , x3 = 3
h (9.4)
xi+1 = xi + [ 55f (ti , xi ) 59f (ti1 , xi1 ) + 37f (ti2 , xi2 ) 9f (ti3 , xi3 ) ]
24

donde i = 3, 4, . . . , N 1 denen un metodo explcito de 4 pasos, llamado metodo de Adam-


Bashforth de cuarto orden.
Las ecuaciones


x0 = , x1 = 1 , x2 = 2
h (9.5)
xi+1 = xi + [ 9f (ti+1 , xi+1 ) 19f (ti , xi ) 5f (ti1 , xi1 ) + f (ti2 , xi2 ) ]
24

donde i = 2, 3, . . . , N 1 , denen un metodo implcito de 3 pasos llamado metodo de Adam-


Moulton de cuarto orden.
Tanto en (9.4) o (9.5) deben especicarse los valores iniciales, generalmente suponemos que
x0 = y se generan los valores residuales por un metodo de RungeKutta o por otro metodo
de 1 paso, por ejemplo, por el metodo de punto medio

x0 =
h h
xi+1 = xi + hf (ti + , xi + f (ti , xi ))
2 2

donde i = 0, 1, . . . , m 1 .
o por el metodo de Euler modicado
Sergio Plaza 230


x0 =
h
xi+1 = xi + [f (ti , xi ) + f (ti+1 , xi + hf (ti xi ))]
2
con i = 0, 1, . . . , m 1 ,
o por el metodo de Heun

x0 =
h 2 2
xi+1 = xi + [f (ti , xi ) + 3f (ti + h, xi + hf (ti , xi ))]
4 3 3
o por el metodo de RungeKutta de orden 4


x0 =



h 1

k1 = hf (ti + , xi + k1 )

2 2





h 1
k3 = hf (ti + , xi + k2 )
2 2







k4 = hf (ti+1 , xi + k3 )







xi+1 1
= xi + (k1 + 2k2 + 2k3 + k4 )
6
donde i = 0, 1 . . . , m 1
En el problema (9.8)


x = f (t, x) , atb
x(a) = .
Si

xi+1 = am1 xi + am2 xi1 + + a0 xi(m1) + h[bm f (ti+1 , xi+1 ) + bm1 f (ti , xi ) +
+ b0 f (ti(m1) , xi(m1) )]

es el (i + 1)paso en un metodo de multipaso, entonces el error local de truncamiento en este


paso es dado por

x(ti+1 ) am1 x(ti ) a0 x(ti(m1) )


i+1 (h) =
h

bm [f (ti+1 , x(ti+1 )) + + b0 f (ti(m1) , x(ti(m1) ))]

i = m 1, m, . . . , N 1 .
Tenemos los siguientes casos particulares.
Sergio Plaza 231

9.5.1 M
etodo de AdamsBashforth de dos pasos

x0 = , x1 = 1
h
xi+1 = xi + (3f (ti , xi ) f (ti1 , xi1 ))
2
i = 1, 2, . . . , N 1 . Su error de truncamiento local es

5 
i+1 (h) = x (i )h2 , i ]ti1 , ti+1 [ .
12

9.5.2 M
etodo de AdamsBashforth de 3 pasos


x0 = , x1 = 1 , x2 = 2
h
xi+1 = xi + [ 23f (ti , xi ) 16f (ti1 , xi1 ) + 5f (ti2 , xi2 ) ]
12
i = 2, 3, . . . , N 1 . Su error de truncamiento local es

3 (4)
i+1 (h) = x (i )h3 , i ]ti2 , ti+1 [ .
8

9.5.3 M
etodo de AdamsBashforth de 4 pasos


x0 = , x1 = 1 , x2 = 2 , x3 = 3
h
xi+1 = xi + [ 55f (ti , xi ) 59f (ti1 , xi1 ) + 37f (ti2 , xi2 ) 9f (ti3 , xi3 )]
24
i = 3, 4, . . . , N 1 . Su error local de truncamiento es dado por

251 (5)
i+1 (h) = x (i )h4 , i ]ti3 , ti+1 [ .
720

9.5.4 M
etodo de AdamsBashforth de 5 pasos

x0 = , x1 = 1 , x2 = 2 , x3 = 3 , x4 = 4

xi+1 = xi + [1901f (ti, xi ) 2774f (ti1 , xi1 ) + 2616f (ti2 , xi2 ) 1274f (ti3, xi3 )

720

+251f (ti4, xi4 )]

i = 4, 5, . . . , N 1 . Su error local de truncamiento es

95 (6)
i+1 (h) = x (i )h5 , i ]ti4 , ti+1 [
288
Los metodos implcitos se derivan usando (ti+1 , f (ti+1 , x(ti+1 ))) como un nodo de interpo-
lacion adicional en el cual se usa una aproximaci
on de la integral
Sergio Plaza 232

 ti+1
f (t, x(t))dt ,
ti

la cual se puede aproximar por diferentes metodos, por ejemplo, regla de los trapecios, regla de

Simpson, o regla de Simpson 38 , ... .

9.5.5 M
etodo de AdamsMoulton de dos pasos


x0 = , x1 = 1
h
xi+1 = xi + [ 5f (ti+1 , xi+1 ) + 8f (ti , xi ) f (ti1 , xi1 ) ]
12

donde i = 1, 2, . . . , N 1 . Su error de truncamiento es dado por

1 (4)
i+1 (h) = x (i )h3 , i ]ti1 , ti+1 [ .
24

9.5.6 M
etodo de AdamsMoulton de tres pasos


x0 = , x1 = 1 , x2 = 2
h
xi+1 = xi + [9f (ti+1 , xi+1 ) + 19f (ti , xi ) 5f (ti1 , xi1 ) + f (ti2 , xi2 )]
24

donde i = 2, 3, . . . , N 1 . Su error local de truncamiento es dado por

19 (5)
i+1 (h) = x (i )h4 , i ]ti2 , ti+1 [ .
720

9.6 Sistemas de ecuaciones diferenciales


Un sistema de ecuaciones diferenciales es un sistema del tipo

du


1
= f1 (t, u1 , . . . , um )




dt



du2
(S1) = f2 (t, u1 , . . . , um ) (9.6)

dt

..

.



dum = fm (t, u1 , . . . , um )
dt
con a  t  b y condiciones inicales

(CI1) u1 (a) = 1 , u2 (a) = 2 , . . . , um (a) = m .

Problema. Encontrar las m funciones u1 , . . . , um que satisfacen el sistema (S1) .


Sergio Plaza 233

Para resolver este problema, introducimos algunas notaciones. Sea

D = {(t, u1 , . . . , um ) : a  t  b, < ui < , i = 1, . . . , m} .


Decimos que una funci on f (t, u1 , . . . , um ) satisface una condici
on de Lipschtz en D en las
variables u1 , . . . , um si

-
m
|f (t, u1 , . . . , um ) f (t, z1 , . . . , zm )|  L |ui zi | ,
i=1

para alguna constante L  0 y (t, u1 , . . . , um ), (t, z1 , . . . , zm ) D .

Observemos que si


ui (t, u1 , . . . , um )
 L

para i = 1, . . . , m y todo (t, u1 , . . . , um ) D . Entonces, por el teorema del valor medio, f


satisface una condici on de Lipschitz en D .
Tenemos el siguiente teorema.

Teorema 9.4 Sea D = {(t, u1 , . . . , um ) : a  t  b, < ui < , i = 1, . . . , m} y


sean fi : D R , i = 1, . . . , m . Supongamos que para cada i = 1, . . . , m la funci on fi es
f
continua en D y satisface una condici on de Lipschitz en D o ui
(t, u 1 , . . . , u m ) es continua
para i = 1, . . . , m y a  t  b . Entonces el sistema (9.6) con las condiciones iniciales (9.6)
tiene soluci
on u nica u1 (t), . . . , um (t) , a  t  b .

Para encontrar aproximaciones a las soluciones del sistema (9.6) numericamente, podemos
utilizar, por ejemplo, el metodo de RungeKutta


x0 =



k1 = f (ti , xi )





 

h 1

k2 = f ti + , xi + k1
2 2

 



h 1

k3 = f ti + , xi + k2

2 2






k4 = f (t1 + h, xi + k3 )
y entonces

h
xi+1 = xi + (k1 + 2k2 + 2k3 + k4 ) , i = 0, 1, . . . , N 1
6
que resuelve numericamente el problema

x (t) = f (t, x) , atb
x(a) = .
Sergio Plaza 234

ba
Este se generaliza como sigue. Sea N  1 y sea h = . La partici
on de [a, b] en N
N
subintervalos con nodos

tj = a + jh, j = 0, 1, . . . , N

es dada.
Usaremos la notacion xi,j para denotar una aproximacion a ui (tj ) , j = 0, 1, . . . , N , i =
1, . . . , m , es decir, xi,j aproxima la iesima solucion ui (t) de (9.6) en el punto tj de los
nodos. Usamos la notacion

x1,0 = 1 , x2,0 = 2 , . . . , xm,0 = m

para las condiciones iniciales.


Si hemos calculado los valores x1,j , x1,j , x2,j , . . . , xm,j . Obtenemos x1,j+1 , x2,j+1 , . . . , xm,j+1
como sigue. Calculando primero, para i = 1, . . . , m



k1,i = hf (tj , x1,j , x2,j , . . . , xm,j )





 

h 1 1 1

k2,i = hf tj + , x1,j + k1,1 , x2,j + k1,2 , . . . , um,j + k1,m

2 2 2 2

 

h 1 1 1

k3,i = hfi tj + , x1,j + k2,1 , x2,j + k2,2 , . . . , xm,j + k2,m

2 2 2 2






k4,i = hfi tj + h, x1,j + k3,1 , x2,j + k3,2 , . . . , xm, j + k3,m

hacemos entonces, para , i = 1, . . . , m

1
xi,j+1 = xi,j + (k1,i + 2k2,i + 2k3,i + k4,i .
6

Note que antes de determinar los terminos k2,i deben calcularse todos los valores k
,1 , k
,2 , . . . , k
,m .
En general, estos deben calcularse antes que cualquiera de las expresiones k
+1,i .

9.7 Ecuaciones diferenciales de orden superior


Un problema de valores iniciales


x(m) (t) = f (t, x, x , . . . , x(m1) ) , atb
(OS1)
x(a) = 1 , x (a) = 2 , . . . , x(m1) (a) = m

Se transforma en un sistema de ecuaciones diferenciales, como el (9.6) mediante la intro-


duccion de nuevas variables. Sean
Sergio Plaza 235




u1 (t) = x(t)

u2 (t) = x (t)
..

.

um (t) = x(m1) (t)

El problema (9.7) se transforma entonces en el siguiente sistema de ecuaciones diferenciales.

du1 dx

= = u2




dt dt





du2 dx

= = x = u3

dt dt




..
.







dum1 dx (m2)

= x(m1) = um


=

dt dt





dx (m1)
dum
= = x(m) = f (t, u1 , u2 , . . . , um )
dt dt
con condiciones iniciales




u1 (a) = x(a) = 1

u2 (a) = x (a) = 2
..

.

um (a) = x(m1) (a) = m

y podemos aplicar lo anterior para resolver este sistema y as obtener la soluci


on del problema
(9.7).

9.8 Problemas con valores en la frontera para ecuaciones


diferenciales ordinarias
Problema 1 Resolver el siguiente problema con valores en la frontera


x = f (t, x, x ) , atb
x(a) = (9.7)

x(b) = .

Antes de continuar con el problema (9.7), recordemos algunos resultados de ecuaciones


diferenciales.

Teorema 9.5 Supongamos que f es continua en el conjunto D = {(t, x, x ) : a  t 


f f
b , < x < , < x < } y que , son continuas en D . Si
x x
Sergio Plaza 236

f
(i) (t, x, x ) > 0 para todo (t, x, x ) D , y
x
(ii) existe una constante M  0 tal que


x (t, x, x )
M

para todo (t, x, x ) D .

Entonces el problema (9.7) tiene soluci


on u
nica en D .

Ejemplo. El problema con valores en la frontera

 tx
x +e + sen(x ) = 0, 1t2
x(1) = 0

x(2) = 0

nica en D = {(t, x, x ) : 1  t  2 , < x < , < x < } .


tiene solucion u
 tx

que f (t,
x, x ) = e
En efecto, tenemos sen(x ) es continua. Ahora, f 
x (t, x, x ) =

tetx > 0 en D y
x
f  
 (t, x, x )
= | cos(x )|  1 .

Notemos que en el caso particular en que f (t, x, x ) tiene la forma

f (t, x, x ) = p(t)x + q(t)x + r(t) ,

la ecuacion x = f (t, x, x ) es llamada lineal. Este tipo de ecuaciones ocurre frecuentemente
en problemas de la Fsica.

Corolario 9.1 Si el problema lineal con valores en la frontera


x = p(t)x + q(t)x + r(t) atb
x(a) =

x(b) =

donde las funciones p(t) , q(t) y r(t) satisfacen

(i) p(t) , q(t) y r(t) son continuas en [a, b] ,

(ii) q(t) > 0 en [a, b] .

Entonces el problema tiene soluci


on u
nica.

9.8.1 M
etodo del disparo para el problema lineal

Para aproximar la soluci


on u
nica garantizada bajo las hip
otesis del corolario anterior, primero
consideramos los problemas de valores iniciales
Sergio Plaza 237


x = p(t)x + q(t)x + r(t) , atb
(P V I, 1) x(a) =

x (a) = 0


x = p(t)x + q(t)x , atb
(P V I, 2) x(a) = 0

x (a) = 1.

Bajos las hip otesis del corolario, ambos problemas tienen soluci nica. Si x1 (t) denota la
on u
solucon del (P V I, 1) y x2 (t) denota la solucion del (P V I, 2), entonces si x(t) = x1 + Cx2 (t)
es una solucion de la ecuaci on x = p(t)x + q(t)x + r(t) , la vericaci
on de esto es inmediata.
Usando las condiciones de frontera, x(q) = x1 (a) + Cx2 (a) = + 0 = y x(b) = x1 (b) +
1 (b)
Cx2 (b) = , por lo tanto C = x x2 (b) . En conclusi
on, la solucion buscada es

x1 (b)
x(t) = x1 (t) + x2 (t) , si x2 (b) = 0,
x2 (b)

es la soluci
on del problema con valores en la frontera que estamos estudiando. En las hip
otesis
del Corolario 9.1 no se da el caso problematico de tener x2 (t) 0 ,

Ejemplo 74
2t 2
x = 1+t 
2x 1+t2 x +1 0t4
x(0) = 1.25

x(4) = 0.95

Otra forma para aproximar la soluci


on del problema con valores en la frontera

 
x + p(t)x + q(t)x + r(t) = 0, atb
x(a) =

x(b) =

es como sigue. Producimos un sistema de ecuaciones de primer orden en el que no gura


explicitamente t , para ello denimos


x0 = t
x = x1
3
x4 = x2 ,

donde x1 es la soluci
on del (P V I, 3) y x2 es la soluci
on del (P V I, 4) siguientes


x = f (t, x, x ) , atb
(P V I, 3) x(a) =

x (a) = 0

y
Sergio Plaza 238


x = f (t, x, x ) , atb
(P V I, 4) x(a) =

x (a) = 1.

Obtenemos as el sistema de ecuaciones



x0 = 1 x0 (a) = a



x1

= x3 x1 (a) =
x2 = x4 x2 (a) =


x3
= f (x0 , x1 , x3 ) x3 (a) = 0


x4 = f (x0 , x2 , x4 ) x4 (a) = 1

el cual puede resolverse, usando por ejemplo, RungeKutta.

9.9 El metodo del disparo para el problema no lineal de


valores en la frontera
Consideremos el problema de valores en la frontera


x = f (t, x, x ) , atb
x(a) =

x(b) = .

donde f satisface las hip


otesis del Teorema 9.5.
En este caso usamos las soluciones de una sucesion de problemas de valor inicial


x = f (t, x, x ) , atb
x(a) =

x (a) = s

donde s es un par ametro. Elegimos s = sk de modo que limk x(b, sk ) = x(b) = , donde
x(t, sk ) denota la soluci
on del problema de valores iniciales asociado en este caso con s = sk y
x(t) denota la soluci on del problema de valores de frontera.
Comenzamos con un par ametro s0 que determina la elevacion inicial con la cual se dispara
al objetivo desde el punto (a, ) a lo largo de la curva descrita por la solucion del problema de
valor inicial


x = f (t, x, x ) , atb
x(a) =

x (a) = s0 .

Si x(b, s0 ) no esta sucientemente cerca de corregimos la elevacion, tomando s1 , s2 , . . . , ,


hasta estar sucientemente proximo al blanco.
Sergio Plaza 239

9.9.1 Determinaci ametros sk


on de los par
Problema. Determinar s tal que

g(b, s) = x(b, s) = 0

(ecuacion no lineal). Podemos usar, por ejemplo el metodo de la secante, con valores iniciales
s0 y s1 ,

g(b, sk1 )(sk1 sk2 )


sk = sk1
g(b, sk1 ) g(b, sk2 )
(x(b, sk1 ) )(sk1 sk2 )
= sk1 , k = 2, 3, . . .
x(b, sk1 ) x(b, sk2 )

o el metodo de Newton

x(b, sk1 )
sk = sk1 d
ds x(b, sk1 )

d
aqu el problema es obtener una expresion explicta para ds x(b, s) .

9.10 M
etodo de diferencias finitas para problemas lineales
Consideremos primero el caso lineal


x = p(t)x + q(t)x + r(t) , atb
x(a) =

x(b) =
ba
Dividimos el intervalo [a, b] en N +1 puntos ti = a+ih , i = 0, 1, . . . , N +1 , donde h = N .
Para i = 1, 2, . . . , N la ecuacion diferencial a aproximar es

x (ti ) = p(ti )x (ti ) + q(ti )x(ti ) + r(ti ) .

Usando las f
ormulas para aproximar derivadas tenemos, por ejemplo,

1 h2
x (ti ) = 2
(x(ti+1 ) 2x(ti ) + x(ti1 )) x(4) (i ) ,
h 12
donde i ]ti1 , ti+1 [ (f
ormula de las diferencias centradas). Analogamente,

1 h2
x (ti ) = (x(ti+1 ) x(ti1 )) x (i ) ,
2h 6
donde i ]ti1 , ti+1 [ . Reemplazando, obtenemos
Sergio Plaza 240

 
x(ti+1 ) 2x(ti ) + x(ti1 ) x(ti+1 ) x(ti1 )
= p(ti ) + q(ti )x(ti ) + r(ti )
h2 2h
h2
(2p(ti )x (i ) x(4) (i )) .
12
Un metodo de diferencias nitas con error de truncamiento de orden O(h2 ) y usando la
notacion wj = x(tj ) , junto con las condiciones de frontera x(a) = y x(b) = , se obtiene

w0 =
2wi wi+1 wi1 wi+1 wi1
+ p(ti ) + q(ti )wi = r(ti )
h2 2h
wN +1 =

i = 1, 2, . . . , N . Esto se escribe como

   
h h
1 + p(ti ) wi1 + (2 + h q(ti ))wi 1 p(ti ) wi+1 = h2 r(ti )
2
2 2

y el sistema de ecuaciones lineales de orden N N tiene la forma tridiagonal

Aw = b

donde


2 + h2 q(t1 ) 1 + h2 p(t1 ) 0 0 0


1 h p(t2 ) 2
1 + h

2 2 + h q(t2 ) 2 p(t2 ) 0 0



.. .. .. .. .. ..
A= . . . . . .

.. .. .. .. .. ..
. . . . . .

1 + h2 p(tN 1 )


0 0 0 1 h2 p(tN )) 2 + h2 q(tN )
y


h2 r(t1 ) + 1 + h2 p(t1 ) w0

w1
2
h r(t2 )

w2 ..

.. .
w= . y b= .
..
.. .
.
h2 t(tN 1 )
wN


h2 r(tN ) + 1 h2 p(tN ) wN +1
Sergio Plaza 241

2
El sistema tridiagonal anterior tiene soluci
on u
nica si h < L , donde L = max{|p(t)| : a 
t  b} .

9.10.1 Caso no lineal

Consideremos el problema no lineal de valores en la frontera


x = f (t, x, x ) , atb
x(a) =

x(b) = .

Para garantizar soluciones suponemos que

f f
1.- f , y 
son continuas en D = {(t, x, x ) : a  t  b , < x < , <
x x
x < } .

f
2.- (t, x, x )  en D para alg
un > 0 .
x

3.- Existen


,

f

k


= max
(t, x, x )
: (t, x, x ) D ,
x


,

f

L


= max
 (t, x, x )
: (t, x, x ) D .
x

Como antes, usando formulas para x (ti ) y x (ti ) , obtenemos

 
x(ti+1 ) 2x(ti ) + x(ti1 ) x(ti+1 ) x(ti1 ) h2  h2
= f ti , x(ti ), x (i ) + x(4) (i )
h2 2h 6 12

donde i , i ]ti1 , ti+1 [ .


Poniendo

w0 =
 
wi+1 2wi + wi1 wi+1 wi1
+f ti , wi , = 0
h2 2h
wN +1 =

i = 1, 2, . . . , N , obtenemos un sistema de ecuaciones no lineales


Sergio Plaza 242

w2
2w1 w2 + h2 f (t1 , w1 , ) = 0
2h
w3 w1
w1 + 2w2 w3 + h2 f (t2 , w2 , ) = 0
2h
.. .. ..
. . .
2 wN wN 2
wN 2 + 2wN 1 wN + h f (tN 1 , wN 1 , ) = 0
2h
wN 1
wN 1 + 2wN + h2 f (tN , wN , ) = 0
2h

y tiene soluci
on u
nica si y s
olo si h < 2/L . Para resolver este sistema podemos usar, por
ejemplo, el metodo de Newton en varias variables.

9.11 Problemas resueltos

Ejemplo 75 Usando los metodos de aproximacion de soluciones de ecuaciones diferenciales de


Euler, Euler Mejorado, y de RungeKutta, encuentre una soluci
on aproximada del problema


x = sen(tx)
x(0) = 3

con h = 0.1 y n = 10.

Soluci
on. Usando las f ormulas de aproximaci on de Euler, Euler Mejorado, y de RungeKutta,
tenemos la siguiente tabla para los valores de (tn , xn ), los cuales unidos por segmentos de rectas
nos dan la aproximaci on poligonal deseada.

Euler Euler Mejorado RungeKutta


n tn xn xn xn
0 0 3 3 3
1 0,1 3 3,01494 3,01492
2 0,2 3,02955 3,05884 3,05874
3 0,3 3,08050 3,12859 3,12829
4 0,4 3,16642 3,21812 3,21744
5 0,5 3,26183 3,31761 3,31637
6 0,6 3,36164 3,41368 3,41185
7 0,7 3,45185 3,49163 3,48947
8 0,8 3,51819 3,53946 3,53746
9 0.9 3,55031 3,5514 3,55003
10 1 3,54495 3,52867 3,52803
Sergio Plaza 243

9.12 Ejercicios
Problema 9.1 El metodo de AdamsBashforth de segundo orden para aproximar soluciones
de un problema de valor inicial

x = f (t, x) , a  t  b
x(a) = x0

es dado por
 
3 1
xn+1 = xn + h f (tn , xn ) f (tn1 , xn1 )
2 2
n  1 , donde para n = 1 , t0 = a y t1 = t0 + h = a + h y x1 puede calcularse con cualquier
metodo de 1 paso, por ejemplo, RungeKutta, de de orden 4. Conocidos (t0 , x0 ) y t1 , x1 ) ,
calculamos (t2 , x2 ) , y as sucesivamente usando el metodo de AdamsBashforth. Use lo anterior
para aproximar la soluci on al problema de valor inicial
 t
1
x = 2tx + x(s)ds
102 0

x(0) = 1,

donde para aproximar la integral del lado derecho se usa la regla de los trapecios.

Problema 9.2 Determine una soluci


on aproximada del problema
d2 x(t)
d t2
= ex(t) , t ]0, 1[ , x(0) = x(1) = 0

mediante el metodo de elementos nitos.

Problema 9.3 Considere la funci


on
 t
f (t) = 1 k sen2 () d
0

donde k es un par ametro, con 0  k  1 . Usando un problema de valor inicial adecuado


y el metodo de RungeKutta de orden 4, con una subdivisi on del intervalo [0, /2] en 10
subintervalos, encuentre una aproximaci
on al valor de la integral.

Problema 9.4 En un estudio de una poblaci on de ratones de campo se encuentra que ella
evoluciona de acuerdo a la siguiente ecuacion diferencial

dN (t)
= AN (t) B(t)N (t)1.1
dt
N (t) indica la cantidad de inviduos en el tiempo t . Se determina experimentalmente que
A = 2 y se conocen las siguientes mediciones para B(t) (t medido en alguna unidad razonable
de tiempo)

t 0 4 8 12
B 0.70 0.04 0.56 0.70
Sergio Plaza 244

(a) Usando interpolaci


on de Lagrange, encuentre una aproximaci
on polinomial para B(t) .

(b) Usando la aproximaci on polinomial para B(t) encontrada en la parte (a), encuentre una
aproximacion en el intervalo [0, 0.6] de la soluci
on de la ecuacion diferencial usando el
metodo de Euler con h = 0.2 y dada la poblaci on inicial de ratones N (0) = 100 .

Problema 9.5 Para resolver el siguiente problema con valor en la frontera:

x (t) = 4(x(t) t) , 0  t  1


x(0) = 0 , x(1) = 2

se propone usar el metodo de diferencias nitas sobre la malla {0, 14 , 12 , 34 , 1}, es decir, el tama
no
de paso es h = 14 . Se les recuerda que las formulas de diferencias nitas centradas son:

x(ti+1 ) 2x(ti ) + x(ti1 )


x (ti ) =
h2
x(ti+1 ) x(ti1 )
y  (ti ) = , x(ti ) = i donde i = 1, 2, 3
2h

(a) Escriba el sistema lineal que se obtiene al aplicar estas f


ormulas en la ecuacion diferencial
con valor en la frontera dada anteriormente.

(b) Para resolver dicho sistema se propone usar el metodo iterativo de Gauss-Seidel, escriba
como quedara dicho metodo para el sistema obtenido en la parte (a) y diga si el metodo
(0) (0) (0)
converge o no. Justique su respuesta. Partiendo del punto (0) = (1 , 2 , 3 ) =
(0, 0, 0), obtenga los puntos (1) , (2) y (3) es decir, las tres primeras iteraciones del
metodo de Gauss-Seidel.

(c) Tomando (3) como la soluci on del sistema lineal obtenido en la parte (a), obtenga un
polinomio de interpolaci on de grado 3 que aproxime la soluci
on de la ecuaci
on diferencial
1 1
x(t) en el intervalo [ 4 , 2 ].
Indice Alfab
etico

An
alisis del error en el metodo de la secante, Soluciones de ecuaciones no lineales, 24
38
alisis del error en el metodo de Newton, 28 UnderowOverow, 6
An
alisis del error en el metodo de biseccion, 26 Unidad de redondeo de un computador, 5
An

Condiciones de convergencia del metodo de New-


ton multivariable, 35
Condiciones de convergencia en el metodo de
Newton, 32

Error de representacion punto otante, 4


Error en sumas, 16
Error relativo de la representacion punto otante,
4
Error y fuentes de errores, 6
Estabilidad en metodos numericos, 16

Inestabilidad numerica de metodos, 18

Metodo de biseccion, 24
Metodo de la secante, 37
Metodo de Newton, 27
Metodo de Newton en varias variables, 33
Metodos iterativos de punto jo, 39
Metodo de la posici
on falsa, 39
Mayor entero positivo representable en forma
exacta, 6

N
umero punto otante por corte, 3
N
umero punto otante por redondeo, 3

Perdida de dgitos signicativos, 9


Propagacion de error, 11
Propagacion de error en evaluacion de funciones,
14
Punto jo de una funci on, 39

Representacion binaria, 2
Representacion decimal, 1
Representacion en una base > 1, 2
Representacion punto otante de n
umeros, 1

245
Referencias

[1] Kendall Atkison, Elementary numerical analysis. John Willey & Sons, Inc. 1985.

[2] Richard L. Burden, J. Douglas Faires, An


alisis numerico. (Septima edicion) International
Thomson Editores, 2002.

[3] Steven C. Chapra, Raymond P. Canale, Metodos numericos para ingenieros. McGrawHill,
1999.

[4] Lars Elden, Linde WittmeyerKoch, Hans Bruun Nielsen, Introduction to numerical
computationanalysis and matlab illustrations. Studentlitteratur AB, 2004.

[5] Curtis F. Gerald, Patrick O. Wheatley, An


alisis numerico con aplicaciones. (Sexta edici
on).
Pearson Educacion, 2000.

[6] Desmond J. Higham, Nicholas J. Higham, Matlab guide. SIAM, 2000.

[7] David Kincaid, Ward Cheney, An alisis numericos: las matem


aticas del c
alculo cientco.
AddisonWesley Iberoamericana, 1994.

[8] John Mathews, Kurtis D. Fink, Metodos Numericos con MatLab. Prentice Hall, 2003.

[9] Clever B. Moler, Numerical computing with matlab. SIAM, 2004.

[10] Shoichiro Nakamura, An


alisis numerico y visualizaci
on con Matlab. Pearson Educaci
on,
1997.

[11] James M. Ortega, Numerical analysis: a second course. SIAM 1990.

[12] W. Allen Smith, An


alisis numerico. PrenticeHall Hispanoamericana S.A., 1988.

[13] J. Stoer, R. Burlirshc, Introduction to numerical analysis. (Third edition). Text in Applied
Mathematics 12, Springer, 2002.

[14] G. W. Stewart, Afternotes on numerical analysis. SIAM, 1996.

[15] G. W. Stewart, Afternotes goes to graduate school: lectures on advanced numerical analysis.
SIAM, 1998.

246

También podría gustarte