Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una Introduccion Al Analisis Numerico
Una Introduccion Al Analisis Numerico
M
uller S.C.
Una Introducci
on
al
An
alisis Num
erico
Hans C. M
uller S.C.
Una Introducci
on
al
An
alisis Num
erico
Con 55 figuras
ii
Hans C. M
uller Santa Cruz
Departamento de Matem
aticas
Facultad de Ciencias y Tecnologa
Universidad Mayor de San Simon
Casilla 992, Cochabamba, Bolivia
e-mail hans@mat.umss.bo
Pr
ologo
logo
Pro
iv
Prefacio
vi
Prefacio
Hans C. M
uller S.C.
Contenido
I. Preliminares
I.1 Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
I.2 Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
I.3 Un ejemplo: C
alculo de PI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
viii
Contenido
III. Interpolaci
on
III.1 Interpolaci
on de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bases Te
oricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Construccion del Polinomio de Interpolaci
on . . . . . . . . . . . . . .
El Error de Interpolaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Polinomios de Chebichef . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estudio de los Errores de Redondeo . . . . . . . . . . . . . . . . . . . . . .
Convergencia de la Interpolaci
on . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.2 Splines C
ubicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Construccion del Spline Interpolante . . . . . . . . . . . . . . . . . . . . . .
El Error de la Aproximacion Spline . . . . . . . . . . . . . . . . . . . . . . .
Aplicacion de Spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.3 Extrapolaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104
104
106
111
113
115
119
129
131
133
136
142
143
145
150
152
152
155
155
157
159
161
163
163
165
168
169
173
174
179
184
193
197
199
203
204
207
210
211
Contenido
ix
V. C
alculo de Valores Propios
V.1 Teora Cl
asica y Condici
on del Problema
..........
La Condicion del Problema a Valores Propios . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
V.2 Determinaci
on de Valores Propios . . . . . . . . . . . . . . . . . . .
El Metodo de la Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Formas Tridiagonales y Formas de Hessenberg . . . . . . . . . . . .
Teorema de Sturm y el Algoritmo de la Bisecci
on . . . . . . . . .
Generalizaci
on del Metodo de la Potencia . . . . . . . . . . . . . . . . .
El Metodo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
214
217
221
223
223
227
229
233
237
241
VI. Integraci
on Num
erica
VI.1 Bases Te
oricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Formulas de Cuadratura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El Orden de una Formula de Cuadratura . . . . . . . . . . . . . . . . .
Estimacion del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios
...............................................
VI.2 Cuadraturas de Orden Elevado . . . . . . . . . . . . . . . . . . . . . .
Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Los Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Las Formulas de Cuadratura de Gauss . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VI.3 Implementaci
on Num
erica . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tratamiento de Singularidades . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
244
248
249
250
256
258
259
263
264
267
269
273
282
VI.4 Transformaci
on de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estudio del Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Interpolaci
on Trigonometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Transformacion R
apida de Fourier FFT . . . . . . . . . . . . . . . . . .
Aplicaciones de FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
284
287
288
290
292
293
296
297
300
300
303
307
311
Contenido
VII.2 M
etodo de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Efectos de los Errores de Redondeo . . . . . . . . . . . . . . . . . . . . . . .
Estabilidad del Metodo de Euler . . . . . . . . . . . . . . . . . . . . . . . . .
Metodo de Euler Impcito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VII.3 M
etodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Construccion de un Metodo de Orden 4 . . . . . . . . . . . . . . . . . .
Metodos Encajonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Soluciones Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Convergencia de los Metodos de Runge-Kutta . . . . . . . . . . . .
Experiencias Numericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VII.3 M
etodos Multipasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Metodos de Adams Explcitos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Metodos de Adams Implcitos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Metodos Predictor-Corrector . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Metodos BDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estudio del Error Local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Convergencia de los Metodos Multipaso . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliografa
.....................................................
Indice de Smbolos
Indice Alfab
etico
313
317
319
321
322
323
327
330
333
335
338
340
341
341
343
344
345
346
348
350
353
355
.............................................
359
...............................................
361
Captulo I
Preliminares
Con la utilizaci
on masiva de sistemas informaticos en la resolucion de
problemas a todo nivel, el An
alisis Numerico ha tenido un gran desarrollo en
las u
ltimas decadas, como una rama integrante de las Matem
aticas. En este
primer captulo se expondr
a las nociones de base que sustentan el An
alisis
Numerico, para ser utilizadas en los captulos posteriores.
La primera seccion estar
a dedicada a estudiar los algoritmos como
una composici
on de operaciones elementales, partiendo de un dispositivo
ideal de c
alculo. Se analizar
a las nociones de eficiencia y error de un
algoritmo.
En la segunda seccion se analizar
a el problema algortmico a partir
de los dispositivos materiales con que se cuenta en la actualidad, es decir
ordenadores o computadoras. En esta seccion se estudiar
a la representacion
en punto flotante de un n
umero real y su redondeo en la computadora. Se
introducir
a la nocion de precisi
on de una computadora y la relacion de esta
con el concepto de estabilidad, en sus diferentes versiones, de un algoritmo.
En la tercera y u
ltima seccion de este captulo, se ver
a que las limitaciones impuestas por la representacion en punto flotante, no es una restricci
on para calcular con la precisi
on que se requiera. Prueba de esto, ser
a
calculado, como un ejemplo ilustrativo, con 10000 decimales de precisi
on.
I.1 Algoritmos
(I.1.1)
I.1 Algoritmos
Es necesario recalcar que problema y algoritmo son conceptos diferentes, aunque de alguna manera ligados. Considerese el problema siguiente,
P(x) = an xn + an1 xn1 + + a1 x + a0 .
(I.1.2)
para n 2.
(I.1.3)
(I.1.4)
(I.1.5)
(I.2.6)
I Preliminares
(I.1.7)
X
xk
k=0
k!
(I.1.8)
n
X
xk
k=0
k!
(I.1.9)
I.1 Algoritmos
Definici
on I.1.5.- Sean P(x), P (x) dos problemas. El error de truncacion
de P(x), respecto de P (x) est
a dado por
P(x) P (x).
(I.1.10)
El nombre que tiene este error, como se dijo mas arriba, es debido
a que la la serie de Taylor es truncada a un n
umero finito de terminos.
No obstante, existe una gran diversidad de metodos que aproximan a la
solucion del problema utilizando otro tipo de argumentos, en este caso es
mas conveniente utilizar el nombre de error de aproximaci
on o error del
metodo; de todas formas es cuestion de gusto.
El concepto de eficiencia ha sido definido para aquellos problemas
donde se puede encontrar la solucion mediante un algoritmo. Para aquellos
problemas, donde no es posible encontrar un algoritmo que de la solucion y
suponiendo que es posible aproximar la solucion de manera arbitraria mediante un metodo algortmico, la eficiencia est
a ligada al costo en operaciones, como tambien al error del metodo. En esta situacion la eficiencia es
un concepto mas subjetivo que depende de alguna manera del usuario, pues
existen problemas donde el error de aproximacion debe ser lo mas peque
no
posible, y otros problemas donde la exactitud no es un requisito primordial.
Ejemplos
1.- Considerese el problema, determinar . Utilizando la identidad
arctan 1 =
4
y que la serie de Taylor en el origen est
a dada por
X
(1)k 2k+1
arctan x =
x
,
(I.1.11)
2k + 1
k=0
arccos(1/2) =
3
y desarrollando arccos en serie de Taylor, se obtiene un metodo cuya
convergencia es mucho mas rapida.
2.- Consid
erese el problema, determinar 2. La primera manera de determinar 2 es tomar un intervalo cuya extremidad inferior tenga un cuadrado
inferior a 2 y la extremidad superior tenga un cuadrado mas grande a 2.
Se subdivide el intervalo en dos subintervalos de igual longitud, se elige
aquel cuyas extremidades al cuadrado contengan 2. En la tabla siguiente
se da algunas de las iteraciones de este metodo.
I Preliminares
Iteraci
on
0
1
2
3
4
5
16
17
18
19
20
Ext. Inferior
1.0
1.25
1.375
1.375
1.40625
1.40625
1.41420745849609
1.41421127319336
1.41421318054199
1.41421318054199
1.41421318054199
Ext. Superior
1.5
1.5
1.5
1.4375
1.4375
1.421875
1.41421508789063
1.41421508789063
1.41421508789063
1.41421413421631
1.41421365737915
Puede
observarse inmediatamente, que el segundo metodo para determinar
Ejercicios
1.- Supongase que, el dispositivo de c
alculo, con el que se cuenta, puede
efectuar la division con resto; es decir, para a, b enteros no negativos,
con b 6= 0, el dispositivo calcula p, q satisfaciendo:
a = pb + r
0 r < b.
I.1 Algoritmos
|b|
|b|
<r .
2
2
i = n 1, . . . , 1, 0.
b) Construir 1 +
10.
c) Intentar construir 3 2. Es posible?
I.2 Estabilidad
(I.2.1)
(I.2.2)
I.2 Estabilidad
mantisa, se tiene
arr(0. |10 {z
. . . 0} 49 . . . 101 ) = 1,
l
arr(0. |10 {z
. . . 0} 50 . . . 101 ) = . 10
. . . 1} 101 > 1,
| {z
l
eps = 5.10l ;
(I.2.4)
si se realiza el mismo c
alculo en base 2, como todas las computadoras lo
hacen, se obtiene
eps = 2l .
(I.2.5)
Para el FORTRAN sobre una HP-9000, se tiene:
REAL4,
REAL8,
REAL16,
Ahora bien, un n
umero real y su representacion en punto flotante
en una computadora est
an relacionados por el:
Teorema I.2.2.- Para x 6= 0, se tiene
|arr(x) x|
eps.
|x|
(I.2.6)
Demostraci
on.- Sea x = a 10b y arr(x) = a
10b . Si se redondea a l cifras
significativas se tiene
|
a a| 5 10l1 ,
de donde
|arr(x) x|
5.10l1
|
a a| 10b
= 5 10l = eps
=
b
|x|
101
|a| 10
por que |a| 1/10.
donde
|| eps.
(I.2.7)
Como se ver
a mas adelante, la relacion (I.2.7) es la base fundamental para
todo estudio de los errores de redondeo.
10
I Preliminares
x2 2 2x + 2 = 0,
|P(
x) P(x)|
eps.
|P(x)|
(I.2.8)
x
2 = x2 (1 + 2 ),
|i | eps;
se obtiene
x
1 x
2 x1 x2
= (1 + 1 )(1 + 2 ) 1 = 1 + 2 + 1 2 .
x1 x2
(I.2.9)
11
I.2 Estabilidad
1
,
51
x2 =
1
,
52
para el cual
2/50
= 100.
(1/50)2
Realizando el c
alculo con 3 cifras significativas en base 10, se obtiene
x
1 = .196 101 , x
2 = .192 101 y x
1 + x
2 = .400 101 . Como las
dos primeras cifras son las mismas para x
1 y x2 , la adicion las ha hecho
desaparecer y no hay mas que una cifra que es significativa. El resultado
exacto es 1/(51 52) = 0.377 103 .
Respecto a la definicion de condici
on, se debe observar dos situaciones. La primera, si uno de los xi = 0, entonces se tiene x
i = 0; la segunda
sucede cuando P(x) = 0, la condici
on se la calcula pasando al lmite.
Una vez definida la condici
on de un problema, el siguiente paso es
ver la incidencia que tienen los errores de redondeo en la implementacion de
un algoritmo para resolver un problema dado. Tal como se dijo en la seccion
precedente, un algoritmo es una sucesion finita de operaciones elementales,
es decir
P(x) = fn (fn1 (. . . f2 (f1 (x)) . . .)).
(I.2.12)
La amplificaci
on del error, efectuando la operaci
on fi , est
a dada por la
condici
on (fi ). Por consiguiente:
Proposici
on I.2.4.- El algoritmo que resuelve el problema dado por
(I.2.12), tiene la estimacion siguiente
(P) (f1 ) (f2 ) (fn ).
(I.2.13)
Demostraci
on.- Por induccion sobre n. Para n = 1, el resultado es trivial.
Supongase, que es cierto para n, por lo tanto, si el problema es de la forma
P(x) = fn+1 (fn (fn1 (. . . f2 (f1 (x)) . . .))),
12
I Preliminares
|P (x)|
|fn+1 (P (x)) fn+1 (P (
x))|
(fn+1 )(P )eps.
|fn+1 (P (x))|
Finalmente utilizando la hipotesis de induccion, se tiene (I.2.13).
Definici
on I.2.5.- Un algoritmo es numericamente estable, en el sentido de
forward analysis, si
(f1 ) (f2 ) (fn ) Const (P)
(I.2.14)
x+1
x(x + 1)
1
.
x(x + 1)
Las operaciones efectuadas son muy bien condicionadas, por consiguiente, este algoritmo es numericamente estable.
El segundo algoritmo definido por
1/x
x + 1 1/(x + 1)
1
1
1
=
.
x x+1
x(x + 1)
13
I.2 Estabilidad
(I.2.15)
(x1 , x2 , x3 , x4 )
x1 x2
x1 x2
x 1 x 2 + x3 x 4 .
(I.2.16)
x
3 = x3 (1 + 3 )(1 + 2 ),
x
2 = x2 (1 + 2 )(1 + 3 ),
x
4 = x4 (1 + 4 )(1 + 3 ).
14
I Preliminares
Ejercicios
1.- Cual es la condici
on de la sustracci
on de dos n
umeros?
2.- Determinar la condici
on del problema P(x1 , x2 ) = x1 /x2 con x2 6= 0.
3.- Hallar la condici
on del c
alculo del producto escalar
hx, yi =
n
X
xi yi .
i=1
ax + by = 1
,
cx + dy = 0
con ad 6= bc
p
p2 + q,
2 = p
p
p2 + q.
I.3 Un ejemplo: C
alculo de Pi
X
(1)k 2k+1
x
.
2k + 1
(1.3.1)
k=0
X
(1)k
.
2k + 1
(I.3.2)
k=0
tan + tan
,
1 tan tan
una verificaci
on inmediata conduce a
1
1
1
= 12 arctan
+ 8 arctan
5 arctan
.
4
18
57
239
Remplazando (I.3.1) en (I.3.3), da como resultado
(I.3.3)
16
I Preliminares
X
(1)k 1 2k+1
( )
2k + 1 18
k=0
|
{z
}
= 48
X
X
(1)k 1 2k+1
(1)k 1 2k+1
+ 32
20
.
( )
(
)
2k + 1 57
2k + 1 239
k=0
k=0
{z
} |
{z
}
|
B
(I.3.4)
MA
X
(1)k 1 2k+1
( )
,
2k + 1 18
k=0
= 32
B
MB
X
(1)k 1 2k+1
( )
,
2k + 1 57
k=0
C = 20
MC
X
(1)k 1 2k+1
(
)
.
2k + 1 239
k=0
De donde:
X (1)k 1
(1/18)2MA +3
2k+1
( )
,
48
A A = 48
2k + 1 18
1 (1/18)2
k=MA +1
X (1)k 1
(1/57)2MB +3
2k+1
,
( )
B B = 32
32
2k + 1 57
1 (1/57)2
k=MB +1
X (1)k 1
(1/239)2MC +3
2k+1
.
(
)
C C = 20
20
2k + 1 239
1 (1/239)2
k=MC +1
Por hip
otesis, se tiene por ejemplo que A A 10(N +1) , por lo tanto
para asegurar esta precisi
on es suficiente que
48
(1/18)2MA +3
10(N +1) ,
1 (1/18)2
(1/18)2MA +3
= 10(N +1) ,
1 (1/18)2
(I.3.5)
lculo de Pi
I.3 Un ejemplo: Ca
17
(I.3.6)
MB =
(I.3.7)
(I.3.8)
X
1
(I.3.9)
x=
ak k ,
b
k=0
x
=
a
k /10m k ,
(I.3.10)
k=0
con 0 a
k < 10m para k 1. Comparando (I.3.9) con (I.3.10) se tiene
que ak = a
k para 0 k N/m + 1 y |ak a
k | 1 para k = N/m + 2,
deduciendose de esta manera la:
Proposici
on I.3.1.- Sea x un n
umero no negativo y x
su representacion
dada por (I.3.10), entonces
|
x x| 10(N +2m) .
(I.3.11)
18
I Preliminares
a0 = b0 q + r0 ,
a1 + r0 10m = b1 q + r1 ,
(I.3.13)
..
.
aN/m+2 + rN/m+1 10m = bN/m+2 + rN/m+2 .
El segundo paso ser
a definir la adicion y la sustracci
on para dos reales
positivos x y y. Si se denota los redondeados por x
y y, sus representaciones
en punto fijo est
an dadas por:
N/m+2
N/m+2
x
=
ak /10m k ,
y =
bk /10m k .
k=0
k=0
x
[
y =
ck /10m k ,
(I.3.14)
k=0
qc
x
=
k=0
bk /10m k ,
(I.3.16)
lculo de Pi
I.3 Un ejemplo: Ca
19
donde x
est
a dado por (I.3.10), los coeficientes bk est
an definidos recursivamente, utilizando la division euclidiana, de la manera siguiente:
qaN/m+2 = bN/m+2 + dN/m+2 10m ,
qaN/m+1 + dN/m+2 = bN/m+1 + dN/m+1 10m ,
..
.
b0 = qa0 + d1 .
(I.3.17)
|| 10N 2m :
(I.3.18)
deduciendose inmediatamente:
x
3 = (x + )/182 + ,
x
5 = x
3 /182 + ,
..
.
(I.3.19)
x2k+1
10N 2m .
(I.3.20)
1 (1/18)2
La segunda operaci
on, que aparece en el algoritmo, es la division por los
enteros de la forma 2k + 1. Por el mismo procedimiento que antes, se llega a
2k+1\
(I.3.21)
/(2k + 1) x2k+1 /(2k + 1) 2 10N 2m .
x
20
I Preliminares
8979323846
5923078164
3282306647
8410270193
6659334461
3460348610
0631558817
0113305305
5759591953
6274956735
4406566430
0539217176
4526356082
2249534301
2129021960
4999999837
3469083026
7838752886
2875546873
1712268066
1065485863
6899577362
4541506959
4939319255
6370766010
7747268471
8989152104
3558764024
6360093417
8505494588
8720275596
5425278625
6145249192
5255213347
8625189835
0494601653
8145410095
0841284886
2039194945
7396241389
9512694683
8482601476
4939965143
4105978859
2774155991
4469584865
1365497627
5848406353
5226746767
3548862305
9451096596
6010150330
6759852613
7564014270
2643383279
0628620899
0938446095
8521105559
2847564823
4543266482
4881520920
4882046652
0921861173
1885752724
8602139494
2931767523
7785771342
4654958537
8640344181
2978049951
4252230825
5875332083
1159562863
1300192787
2788659361
2599413891
5082953311
0604009277
4710181942
0404753464
7521620569
7496473263
2164121992
5869269956
0236480665
5181841757
1732172147
5741849468
6948556209
4668049886
3883786360
2694560424
0471237137
0865832645
9835259570
9909026401
1429809190
5977297549
8559252459
3836736222
8079771569
4220722258
8895252138
7745649803
0940252288
8617928680
6554978189
4775551323
5028841971
8628034825
5058223172
6446229489
3786783165
1339360726
9628292540
1384146951
8193261179
8912279381
6395224737
8467481846
7577896091
1050792279
5981362977
0597317328
3344685035
8142061717
8823537875
6611195909
5338182796
2497217752
6861727855
0167113900
9555961989
6208046684
6602405803
9141992726
4586315030
9092721079
4991198818
4672890977
7235014144
4385233239
9219222184
2723279178
9506800642
1965285022
8696095636
9958133904
9825822620
3639443745
6592509372
8930161753
5395943104
6260991246
1435997700
2848864815
5225499546
5593634568
7971089314
9208747609
3129784821
7964145152
6939937510
3421170679
5359408128
5493038196
2712019091
0249141273
9171536436
9415116094
3105118548
8301194912
1907021798
7669405132
7363717872
6892589235
4771309960
1609631859
2619311881
7669147303
9375195778
2164201989
8230301952
8347913151
8890750983
9848824012
4676783744
2590694912
8150193511
0426992279
2861829745
7509302955
3479775356
7727938000
1973568548
0739414333
2725502542
6085784383
2512520511
2106611863
4371917287
7802759009
5224894077
5305068203
2169646151
9284681382
9972524680
0805124388
1296160894
8456028506
6672782398
1743241125
5669136867
1782493858
6829989487
3746234364
E-00050
E-00100
E-00150
E-00200
E-00250
E-00300
E-00350
E-00400
E-00450
E-00500
E-00550
E-00600
E-00650
E-00700
E-00750
E-00800
E-00850
E-00900
E-00950
E-01000
E-01050
E-01100
E-01150
E-01200
E-01250
E-01300
E-01350
E-01400
E-01450
E-01500
E-01550
E-01600
E-01650
E-01700
E-01750
E-01800
E-01850
E-01900
E-01950
E-02000
E-02050
E-02100
E-02150
E-02200
E-02250
E-02300
E-02350
E-02400
E-02450
E-02500
E-02550
E-02600
E-02650
E-02700
lculo de Pi
I.3 Un ejemplo: Ca
5428584447
2135969536
0374200731
8687519435
8191197939
9839101591
5679452080
6638937787
0306803844
6660021324
1005508106
4011097120
2305587631
7321579198
7229109816
5725121083
6711136990
3515565088
8932261854
6549859461
2332609729
5836041428
1809377344
4492932151
2131449576
2807318915
6655730925
4769312570
3348850346
8455296541
7002378776
1127000407
6343285878
2021149557
0990796547
2996148903
9389713111
0480109412
8530614228
7716692547
9769265672
8888007869
6171196377
4252308177
6222247715
7805419341
5695162396
4786724229
4037014163
2168895738
5578297352
9906655418
3162499341
3220777092
3166636528
7723554710
9456127531
3114771199
0408591337
7152807317
8350493163
4781643788
9562586586
8584783163
4803048029
2742042083
2901618766
9914037340
2540790914
8798531887
2784768472
3503895170
1960121228
9526586782
2314429524
0578539062
0643021845
9520614196
9561814675
9514655022
0830390697
7734549202
3408819071
6587969981
6280439039
7635942187
4148488291
9091528017
5791513698
8658516398
4909989859
8963213293
6371802709
9712084433
1388303203
4030707469
6084244485
8572624334
4411010446
4711055785
5863566201
1136576867
2665408530
5913440171
8547332699
5698305235
6158140025
3761255176
0463994713
7904297828
1472213179
8137585043
4873898665
1463853067
2560290228
9213375751
0367515906
8915049530
4473774418
5864573021
2465436680
1496589794
3798623001
3344604281
7639792933
9131814809
1201905166
6193266863
5859548702
8134078330
2606381334
4641442822
6790770715
1284042512
5185290928
5570552690
0577775606
0058760758
2085661190
7952406163
4328752628
5135711136
7058429725
6860849003
2989392233
5993716231
1051141354
8493718711
1983874478
3191048481
6342875444
1426912397
5231603881
9207734672
6054146659
0486331734
6357473638
7595156771
3125147120
6447060957
3506712748
8209144421
3150197016
9823873455
3089857064
8199430992
5732654893
8249037589
2112019130
9637669838
4189303968
8232527162
3763466820
8558100729
5324944166
6143444318
2749470420
3908145466
8089330657
0126228594
5675135751
2962107340
5647503203
4764777262
0633217518
4949450114
3609657120
4721040317
1495950156
7350235072
9844489333
4263129860
6315981931
0980676928
0924323789
5937764716
5126272037
4419521541
2777710386
0962804909
3606273567
7908143562
3362542327
6776879695
7726346594
7213444730
1925651798
5452011658
4965209858
8887644624
2510474709
6254543372
4252257719
8896399587
9410911939
9167781314
3770242429
4517220138
3017114448
21
7357395231
0145765403
0847848968
0053706146
0643745123
4894090718
9301420937
2182562599
2520149744
6496514539
4052571459
5770042033
5329281918
5270695722
5832228718
0067510334
5151168517
2833163550
2046752590
4488957571
8239119325
8524374417
2033038019
9522868478
6426243410
0105265227
6531098965
3606598764
8039626579
5867697514
5622305389
4645880797
5740679545
1302164715
7829666454
4375189573
1986915140
2414254854
2979866223
6540628433
9180763832
2118608204
6049631862
8354056704
0963408780
8099888687
9516735381
2382806899
6907069779
5122893578
3431465319
3418994854
3877343177
2636019759
6303544776
4014517180
8394497538
9703098339
7047458784
6057007334
0694113528
3934196562
0338507224
8246857926
1643961362
1315359584
5429162991
9475729174
3251910760
9699009019
1651300500
1280696501
4640903890
1342716610
5902799344
3321445713
8067491927
7181921799
6494231961
6213785595
6615014215
2850732518
0579626856
1028970641
7869936007
2618612586
0917567116
3520935396
6711031412
1437657618
7647918535
7091548141
2828905923
9746366730
0291327656
7621101100
3123552658
7732269780
2111660396
2691862056
8611791045
7877185560
5661406800
9456131407
2708266830
7163775254
5097925923
7791745011
5961458901
2870808599
5403321571
7172159160
6639379003
7166416274
1900042296
9472654736
0386743513
7693259939
4132604721
2974167729
6400482435
4223625082
6015881617
7777416031
4473456738
2075456545
8828161332
2803504507
6246436267
2437205835
1307710987
7787201927
9243693113
0131470130
1349143415
2648293972
0395352773
6760449256
5068772460
9306455377
6426357455
2082520261
2116971737
5168323364
1784408745
6449544400
E-02750
E-02800
E-02850
E-02900
E-02950
E-03000
E-03050
E-03100
E-03150
E-03200
E-03250
E-03300
E-03350
E-03400
E-03450
E-03500
E-03550
E-03600
E-03650
E-03700
E-03750
E-03800
E-03850
E-03900
E-03950
E-04000
E-04050
E-04100
E-04150
E-04200
E-04250
E-04300
E-04350
E-04400
E-04450
E-04500
E-04550
E-04600
E-04650
E-04700
E-04750
E-04800
E-04850
E-04900
E-04950
E-05000
E-05050
E-05100
E-05150
E-05200
E-05250
E-05300
E-05350
E-05400
E-05450
E-05500
E-05550
E-05600
E-05650
E-05700
E-05750
E-05800
E-05850
E-05900
E-05950
E-06000
E-06050
E-06100
E-06150
E-06200
E-06250
E-06300
E-06350
22
I Preliminares
6198690754
2283345085
8282949304
4611996653
2827892125
2183564622
3685406643
9567302292
1920419947
2711172364
8856986705
0516553790
8757141595
4460477464
1465741268
3634655379
9113679386
0126901475
1965362132
2772190055
3610642506
2276930624
0861533150
3776700961
5189757664
9164219399
3338945257
1266830240
8475651699
9104140792
7180653556
9598470356
8788202734
5771028402
6407655904
5178609040
7367812301
6161528813
7634757481
9203767192
4366199104
8244625759
1509682887
3408005355
5848358845
4043523117
9748442360
7267507981
3025494780
7429958180
2673430282
9289647669
2609275249
9588970695
4525564056
6909411303
9695946995
6922210327
9279068212
2248261177
0037279839
2543709069
2314593571
5510500801
2339086639
1596131854
7360411237
3084076118
7065874882
5020141020
2162484391
2645600162
4610126483
8516026327
0486082503
1377655279
8581538420
0771262946
0134967151
1939509790
1913933918
4553859381
3435439478
4315470696
6866273337
7811196358
9159950549
0492564879
4986419270
2708943879
4668476535
3926406160
6148425551
3904975008
7435363256
4452127473
2071512491
5216413767
4907236234
4239950829
2929525220
9811614101
8862150784
7252532567
2226293486
2092222453
7998066365
2909945681
7086671149
4587687126
8437909904
1935670911
2033229094
0337511173
1633303910
4782656995
9849175417
3142775687
6006651012
8007193045
2554709589
2490114195
7247162591
4418604142
7583183271
6035799646
3653494060
4482465151
1509526179
5657612186
4889218654
0738837781
1858963814
4004152970
7939612257
9849225284
9086996033
3833952942
3475464955
3599843452
3013052793
2569815793
6723585020
4035998953
3742880210
6999892256
5052983491
9302133219
3975175461
5685338621
3229563989
8819097303
1906996395
5680344903
0234395544
2218185286
5747458550
9958511562
3300594087
7374256269
8556145372
5638729317
9362016295
7616477379
1363581559
8792530343
6562710953
9160781547
9245449454
4043027253
9690314950
6468441173
6591228508
1187267675
0029960783
2451670908
5328612910
0034158722
3985626476
8254889264
5065265305
6558343434
6034891390
2317473363
0137751721
3346768514
5471918550
7225383742
9957449066
3818839994
9002909517
4120065975
7618932349
0455635792
2123828153
6685451333
6363954800
3142517029
9256504936
3402166544
8754711962
3780029741
5619673378
3648022967
4233562823
0918390367
0287830766
1429894671
7160504922
0276347870
5786905076
6978103829
2516105070
2054274628
6789766974
0724522563
5394590944
9276457931
9596881592
8740786680
7155184306
3953984683
8672523340
8989358211
8119800497
5245300545
9820595510
9597783779
2408514006
3323233421
5784322988
3068121602
0104903778
3478673303
4872332083
1541337142
4675200490
0742202020
5139844253
5919465897
8181152843
2368288606
8607648236
1910857598
9403265918
5558215725
6220415420
8690929160
7000699282
4248776182
9805349896
6914905562
8802545661
3718294127
7693385781
9562009939
9480457593
0080315590
2214477379
4644902636
1821408835
1758344137
4697486762
0283529716
5851276178
2292796501
1221033346
0911407907
1239480494
0448002670
6923488962
8183609003
3755890045
1844396582
2076651479
6236256125
8070576561
6089632080
3672220888
7094447456
5435784687
1242470141
8108175450
4310063835
3097164651
2705623526
6540360367
2205750596
2651341055
0704691209
0657922955
0560010165
8818338510
3545500766
3936383047
2830871123
6745627010
3407239610
0580685501
0226353536
0237421617
6604433258
0730154594
2737231989
8764962867
1986835938
9046883834
7601123029
4892830722
7571555278
3187277605
2234157623
5141310348
6679570611
1340841486
3414334623
4423919862
4044378051
0310712570
5161841634
3028840026
1206604183
5829765157
5022629174
8425039127
0172967026
0336931378
7113864558
3610310291
1493140529
2485309066
3937517034
5512816228
0865739177
5223970968
6551658276
3445621296
5838292041
9875187212
6974992356
3860251522
7079119153
4962482017
7668440323
2380929345
6328822505
5337543885
3942590298
2163208628
5144632046
6822246801
3215137556
0134556417
8861444581
2147805734
1193071412
1983438934
4384070070
6012764848
4532865105
8344086973
9240190274
1409387001
2498872758
5256375678
E-06400
E-06450
E-06500
E-06550
E-06600
E-06650
E-06700
E-06750
E-06800
E-06850
E-06900
E-06950
E-07000
E-07050
E-07100
E-07150
E-07200
E-07250
E-07300
E-07350
E-07400
E-07450
E-07500
E-07550
E-07600
E-07650
E-07700
E-07750
E-07800
E-07850
E-07900
E-07950
E-08000
E-08050
E-08100
E-08150
E-08200
E-08250
E-08300
E-08350
E-08400
E-08450
E-08500
E-08550
E-08600
E-08650
E-08700
E-08750
E-08800
E-08850
E-08900
E-08950
E-09000
E-09050
E-09100
E-09150
E-09200
E-09250
E-09300
E-09350
E-09400
E-09450
E-09500
E-09550
E-09600
E-09650
E-09700
E-09750
E-09800
E-09850
E-09900
E-09950
E-10000
Captulo II
Sistemas Lineales
a11
..
A=
.
an1
a1n
..
,
.
ann
b1
.
b = ..
bn
con coeficientes reales o complejos. Por esta necesidad es importante la construccion de algoritmos que permitan su resolucion en un tiempo razonable y
con el menor error posible. Cada problema tiene su particularidad, motivo
por el cual no existe un metodo general mediante el cual se pueda resolver eficazmente todos los problemas. Es verdad que existen metodos casi generales,
que con peque
nas modificaciones pueden servir para encontrar la solucion
de un problema particular. A lo largo de este captulo se expondr
an estos
metodos, dando criterios de estabilidad y estimaciones de error.
En la primera seccion se tratara la condici
on del problema lineal, para
este efecto ser
a necesario introducir elementos de la teora de normas en
las matrices, para luego introducir las nociones relativas a la condici
on del
problema lineal.
En la segunda seccion se abordara los metodos de resoluci
on como son:
el Algoritmo de Eliminaci
on de Gauss, la Descomposici
on de Cholesky y
algunas modificaciones de estos metodos. En esta seccion se estudiar
a la
implementacion de tales metodos, como tambien la estabilidad de estos.
La tercera seccion tratara, la teora e implementacion de los metodos iterativos lineales como: Jacobi, Gauss-Seidel y SOR. As mismo se analizar
an
algunos problemas tipos y se haran comparaciones de tales metodos.
En la cuarta seccion, se ver
a los metodos de tipo gradiente cuyo enfoque
es diferente a los metodos de las dos secciones precedentes, en efecto, son
metodos que encuentran la solucion a partir de problemas de minimizacion.
Se resolver
an ejemplos tipos y se comparara la eficiencia de estos con otros
metodos.
24
II Sistemas Lineales
La u
ltima seccion describir
a el Metodo de los Mnimos Cuadrados, como
una generalizacion de lo anteriormente expuesto, introduciendo como corolario la nocion de Pseudo-Inversa. As mismo se analizar
a la implementacion
del metodo QR, incluyendo una estimacion del error de tal metodo.
II.1 Condici
on del Problema lineal
Definici
on II.1.1.- Una norma sobre Rn es una aplicaci
on
k k : Rn R,
con las siguientes propiedades:
kxk 0,
kxk = 0 x = 0;
kxk = || kxk , donde R;
kx + yk = kxk + kyk .
i)
ii)
iii)
La primera condici
on implica que una norma siempre es positiva y es
nula siempre y cuando el vector sea el vector nulo. La segunda propiedad es
la homogeneidad de la norma y la tercera condici
on es mas conocida como
desigualdad del triangulo. Las normas mas usuales en Rn son las siguientes:
kxk1 =
kxk2 =
kxkp =
n
X
i=1
|xi | ,
n
X
i=1
n
X
i=1
norma ciudad-bloque;
|xi |
! 12
|xi |2
! p1
norma euclidiana;
p > 1;
norma de la convergencia uniforme.
Estas normas, que son las usualmente utilizadas, tienen algunas propiedades
en com
un. La mas importante es que, si se aumenta en valor absoluto una
de las componentes, la norma se incrementa. Es necesario formalizar este
hecho, motivo por el cual, se tiene la:
26
II Sistemas Lineales
Definici
on II.1.2.- Si x = (x1 , . . . , xn ) Rn , se define el valor absoluto de
x como |x| = (|x1 | , . . . , |xn |). Se dice que |x| |y|, si |xi | |yi | para todo
i = 1, . . . , n. Una norma k k sobre Rn se dice que es:
(a) Mon
otona, si |x| |y| implica que kxk kyk para todo
x, y Rn .
(b) Absoluta, si kxk = k|x|k para todo x Rn .
Proposici
on II.1.3.- Una norma k k sobre Rn es monotona, si y solamente
si es absoluta.
Demostraci
on.- Si la norma k k es monotona, sea x Rn , llamenos y = |x|.
Como |x| |y|, y |y| |x| se tiene inmediatamente, porque la norma es
monotona, que kxk = kyk.
Si la normak k es absoluta, sea x Rn , considerese
x
= (x1 , . . . , xk1 , xk , xk+1 , . . . , xn ), con [0, 1]. Utilizando el hecho
que la norma sea absoluta, desigualdad del triangulo y efectuando c
alculos
algebraicos se tiene:
1
1
k
xk =
(1 )(x1 , . . . , xk1 , xk , xk+1 , . . . , xn ) + (1 )x + x
2
2
1
1
(1 ) k(x1 , . . . , xk1 , xk , xk+1 , . . . , xn )k + (1 ) kxk + x
2
2
1
1
= (1 ) kxk + (1 ) kxk + kxk = kxk .
2
2
Ahora bien, si x = (x1 , . . . , xk , . . . , xn ) y y = (x1 , . . . , xk1 , yk , xk+1 , . . . , xn ),
con |yk | |xk |, utilizando la desigualdad anterior se tiene kxk kyk. Para
demostrar que |x| |y| implica que kxk kyk, se repite el anterior paso n
veces, es decir una vez por cada componente.
Una matriz de orden mn puede ser vista como un vector que pertenece
al espacio Rmn , de esta manera definir la norma de una matriz como la de
un vector, pero se perdera as muchas de las propiedades que tiene una
aplicaci
on lineal. Es por eso la:
Definici
on II.1.4.- Sea A una matriz de m n, se define su norma como
kAk = sup
x6=0
kAxk
= sup kAxk .
kxk
kxk=1
(II.1.1)
27
x Rn .
(II.1.2)
(II.1.3)
(II.1.4)
Demostraci
on.- La relacion (II.1.3) de la proposici
on es consecuencia
inmediata de la definicion de la norma de una matriz.
La relacion (II.1.4) es consecuencia de las observaciones hechas despues de
la definicion, en efecto
kABxk kAk kBxk kAk kBk kxk ,
kABxk
kAk kBk ,
kxk
kABk kAk kBk .
j=1,...,m
i=1
|aij | ,
p
valor propio mas grande de At A,
m
X
|aij | .
= max
kAk2 =
kAk
n
X
i=1,...,n
j=1
(II.1.5)
(II.1.6)
(II.1.7)
28
II Sistemas Lineales
Demostraci
on.- Se comenzara por kAk1 , se tiene:
X
m
n X
n X
X
m
|aij | |xj |
a
x
kAxk1 =
ij j
i=1 j=1
i=1 j=1
!
!
m
n
n
X
X
X
|aij | |xj |
max
|aij | kxk1 ,
j=1
por lo tanto
j=1,...,m
i=1
kAk1 max
j=1,...,m
n
X
i=1
i=1
|aij | .
Se mostrar
a, que la igualdad se cumple, en efecto, sea jo tal que:
n
n
X
X
|aij | ; y x
tal que x
jo = 1, xi = 0 si i 6= jo ;
|aijo | = max
i=1
j=1,...,m
i=1
a1jo
n
X
|aijo | k
xk1 .
de esta manera kA
xk =
...
=
i=1
amj
o
Para la k k2 se tiene:
i=1
i=1
i=1
i=1,...,m
X
m
X
m
|aij | |xj |
aij xj max
kAxk = max
i=1,...,n
i=1,...,n
j=1
j=1
m
m
X
X
max
|aij | max |xj | max
|aij | kxk ,
i=1...,n
as
kAk max
j=1,...,m
j=1
m
X
j=1
|aij | .
j=1,...,m
i=1,...,n
j=1
29
La Condici
on de una Matriz
La resolucion de un sistema lineal de ecuaciones debe hacer meditar sobre
muchos aspectos relacionados, como ser la existencia de la solucion, si el
problema a resolver est
a bien condicionado, conocer una estimacion del error
cometido en la solucion numerica, etc. Se tiene inicialmente el sistema de
ecuaciones
Ax = b,
donde A Mn (R), y b Rn ;
(II.1.8)
el problema es encontrar x R que sea solucion del sistema (II.1.8), esta
situacion puede escribirse formalmente como
P(A, b) = x.
De esta manera la condici
on del problema est
a dada por
P(A, b) P(A,
b)
cond eps,
|P(A, b)|
(II.1.9)
donde:
a
ij = aij (1 + ij ),
bi = bi (1 + i ),
|ij | eps;
|i | eps.
(II.1.10)
(II.1.10 )
kx x
k
b) = x
Si se plantea P(A,
, se tiene
cond eps. Por otro lado,
kxk
considerando que solamente normas mononotas son utilizadas, se tiene:
a11 11
..
.
an1 n1
a1n n1
..
eps kAk ,
.
ann nn
..
.
de esta manera
A A
eps kAk
b b
eps kbk .
(II.1.11)
30
II Sistemas Lineales
Teorema
ongase que
una matriz con det A 6= 0, sup
II.1.8.-
Sea A
A A
kAk A ,
b b
kbk b . Si A cond(A) < 1, entonces
k
x xk
cond(A)
(A + b ).
kxk
1 A cond(A)
(II.1.13)
Si adem
as se tiene A cond(A) < 21 , entonces la condici
on del problema
resolver Ax = b es 2cond(A).
x = b, de donde:
Demostraci
on.- Se tiene Ax = b y A
x = b b y Ax A
A
x = b b,
Ax A
x + Ax
A(x x
) = (A A)
x + (b b), x x
= A1 (A A)
x + A1 (b b),
introduciendo las desigualdades en las normas se obtiene:
xk +
A1
b b
kx x
k
A1
A A
k
x xk) + kbk b )
A1
(kAk A (kxk + k
1
x xk) + kxk b ) ,
A
kAk (A (kxk + k
k
x xk
cond(A)
de esta manera
(A + b ).
kxk
1 A cond(A)
Como la condici
on del problema lineal est
a ntimamente ligada a la
condici
on de la matriz, es importante conocer algunas de sus propiedades,
dadas por la:
Proposici
on II.1.9.- La condici
on de una matriz satisface las siguientes
propiedades:
cond(A) 1;
cond(I) = 1;
cond(A) = cond(A),
(II.1.14)
(II.1.15)
(II.1.16)
R.
Demostraci
on.- Verificaci
on inmediata.
Ejemplos
1.- Q ortogonal, es decir Qt Q = I, la condici
on respecto a la norma k k2
esta dada por
cond2 (Q) = 1.
(II.1.17)
2.- Sea la matriz A dada por
4
1
1
4
1
.. . . .
A= .
h .
..
0
1
..
.
1
0
0
..
..
.
.
4
1
1
4
1
4
N = .
..
, adem
as A =
1
4
0
..
.
0
1
4
..
.
0
Se deduce que
31
(I + N ) donde
0
0
,
..
.
1
4 0
kN k =
1
< 1.
2
h
h
(I + N )1 = (I N + N 2 N 3 + ),
4
4
2
h
(1 + kN k +
N
+ )
4
1
h
4 1 kN k
h
,
2
A1 =
1
A
1
,
i+j1
i, j = 1, . . . , n.
max
,
min
(II.1.18)
1
1
1
c2
cn
c1
,
V =
.
.
..
..
..
.
c1n1
c2n1
cnn1
32
II Sistemas Lineales
donde los ci son diferentes. Se puede mostrar que la cond2 V bn ,
donde b > 1.
k
xxk
=
= ( 2(1 + 4 ) 1 + 5 ) ,
0
108 (1 + 3 )
y
Ahora bien, la estimacion
y = 108
1 + 5
108 (1 + 5 3 ),
1 + 3
|y y|
2eps.
|y|
Calculando x
, se tiene
2(1 + 4 ) (1 + 2 )
y
x
=
1 + 1
de donde
por lo tanto,
2 108 + 24 108 (2 + 5 3 )
1 + 1
x + 21 108 (2 + 5 3 )
1 + 1
x(1 + 4eps),
|x x
|
4eps.
|x|
si cond(DA)eps <
as DA =
1 1
0 1
1
.
2
33
obteniendo el:
Corolario II.1.10.- Con las misma hipotesis del teorema II.1.8, y adem
as
si cond(DA)eps < 21 , se tiene
La condici
on del problema 2
inf
cond(DA).
(II.1.19)
diagonal
Ejercicios
1.- a) Sea k k definida en Rn . La bola unitaria cerrada se define como
= x Rn kxk 1 ,
B
3.- Dar las condiciones para que una norma sea monotona, observando su
bola unitaria cerrada.
4.- Para una matriz A se define la norma de Frobenius como
v
uX
n
u n X
2
kAk = t
|aij | .
F
i=1 j=1
n kAk2 .
i,j
34
II Sistemas Lineales
|rii |1
R1
p ;
condp (R) max
i,k
para p = 1, 2, .
|rii |
.
|rkk |
8.- Sea
1
2
0
+ 1
h0
h1
1
1
1
2
+
h1
h1
h2
A=
..
.
0
0
h2
..
.
0
..
1
hn2
..
.
1
1
2 h
+h
n2
n1
II.2 M
etodos Directos
(II.2.1)
det A(i)
,
det A
Sn
signo()
n
Y
ai(i) ,
i=1
36
II Sistemas Lineales
El Algoritmo de Gauss
Uno de los algoritmos mas utilizados, precisamente por su relativo bajo
costo, es el Algoritmo de Eliminaci
on de Gauss. Considerese el sistema de
ecuaciones dado por
a11 x1
a21 x1
..
.
an1 x1
a12 x2
a22 x2
+
+
+ an2 x2
+ann xn
+
+
+a1n xn
+a2n xn
=
=
..
.
b1
b2
= bn
a11 x1
a12 x2
(1)
a22 x2
..
.
+ +
+ +
a1n xn
(1)
a2n xn
an2 x2
+ +
ann xn
(1)
(1)
= b1
(1)
= b2
.
..
.
(1)
= bn
(1)
ai2
(1) , para i = 3, . . . , n.
a22
Se calcula lineai li2 linea2 , para i = 3, . . . , n.
Si a22 = 0 se intercambia lineas.
(1)
Paso 2 Si a22 6= 0,
li1 =
r11 x1
r1,n1 xn1
..
.
rn1,n1 xn1
r1n xn
+ rn1,n xn
rnn xn
= c1
..
.
= cn1
=
cn
II.2 M
etodos Directos
37
De donde se tiene:
cn
,
rnn
cn1 rn1,n xn
xn1 =
,
rn1 ,n1
..
.
c1 r12 x2 r1n xn
x1 =
.
r11
xn =
(II.2.2)
..
0
0
A(n1) , b(n1)
0 0 .
. . .
.. ..
.. ...
0 0
A(1) , b(1)
A(2) , b(2)
..
0 0
.
.
..
..
.
0 0
R=
r11
0
..
.
r1n
..
,
.
rnn
l21
L=
...
ln1
0
1
..
ln2
.
1
(II.2.4)
Demostraci
on.- Supongase, que las permutaciones necesarias han sido
efectuadas al principio, es decir se aplica el Algoritmo de Gauss a la matriz
38
II Sistemas Lineales
donde:
A(1)
1
l21
l
=
.31
..
A(2)
por lo tanto
0
1
0
..
.
0
0
1
..
.
0
0
0 0 = L1 A,
..
ln1 0
0
1
0
0
1
0
0
0
l
1
0
32
=
..
..
...
.
.
0 ln2 0
0
0
0 = L2 A,
R = Ln1 Ln2 L2 L1 A.
Lo u
nico que falta mostrar, es que
L1 = Ln1 Ln2 L2 L1 ,
y para eso, se tiene:
Li = I Vi ,
donde
Vi =
0
0
..
.
0
li+1,i
..
.
lni
0
..
.
..
.
0 0
(II.2.5)
II.2 M
etodos Directos
39
(II.2.6)
(II.2.7)
A A(1)
x2 dx
0
3
n
.
3
(II.2.8)
2
La resolucion de LRx = b, implica aproximadamente n2 multiplicaciones
mas adiciones en la solucion de Ly = b. Igual n
umero de operaciones se
tiene para la resolucion de Rx = y, lo que hace un total aproximado de n2
operaciones.
40
II Sistemas Lineales
La elecci
on del pivote
Definici
on II.2.3.- Sea A una matriz, se llama pivote de la matriz A al
coeficiente a11 .
Para ilustrar la necesidad en elegir un buen pivote, considerese el
siguiente ejemplo. La precisi
on de los c
alculos tienen tres cifras significativas
en base 10. Sea el sistema de ecuaciones dado por
4
10 x1 + x2 = 1
.
(II.2.9)
x1 + x2 = 2
La solucion exacta de este sistema de ecuaciones est
a dada por:
x1 = 1, 000100010001000 ,
x2 = 0, 999899989998999 .
(II.2.10)
Ahora bien, aplicando el algoritmo de Gauss con 104 como pivote, se tiene:
a21
= 0, 100 105 ,
a11
La segunda linea del sistema se convierte en
0, 100 105 x2 = 0, 100 105 ,
de donde
x2 = 0, 100 101 ,
l21 =
resolviendo x1 se tiene
0, 100 103 x1 = 0, 100 101 0, 100 101 ,
por lo tanto
x1 = 0.
(II.2.11)
Ahora, aplquese el algoritmo de Gauss con 1 como pivote, es decir intercambiando la primera ecuacion con la segunda, se tiene:
a21
= 0, 100 105 ,
a11
La segunda linea del sistema se convierte en
0, 100 101 x2 = 0, 100 101 ,
de donde
x2 = 0, 100 101 ,
resolviendo x1 , se tiene
0, 100 101 x1 = 0, 200 101 0, 100 101 ,
por lo tanto
l21 =
x1 = 0.100 101 .
(II.2.12)
II.2 M
etodos Directos
41
l21 =
a21
a11
b2 = b2 l21 b1 ,
(1)
(1)
a22 x2 = b2 .
Si |l21 | 1 se tiene:
(1)
(1)
b2 l21 b1 ,
b1
,
a12
1
1
(b1 a12 x2 )
(b1 b1 ) .
a11
a11
j = 1, . . . , n.
A = L
la descomposici
on exacta de A.
42
II Sistemas Lineales
Por consiguiente, es necesario estimar la diferencia A A elemento por
elemento. Se tiene el siguiente:
R
el resultado numerico de
Teorema II.2.4.- Wilkinson. Sea det A 6= 0; L,
la descomposici
on LR con b
usqueda de pivote |lij | 1. Entonces
0
1
A LR 2a eps
1
.
..
0
1
2
2 3
.. ..
. .
1 2 3
(k)
donde a = max aij y
0
1
2
3
n 1
(II.2.15)
i,j,k
1
l21
1 = l31
L
.
..
ln1
1
0 1
0
..
.
1
1 L1 ,
=L
1 L
L
2
n1
1
obteniendo
R
=L
1 L
1 L
1 A A(1) + L
1 L
2 A(1) A(2)
AL
1
2
1
1
n1 A(n2) A(n1) .
1
L
+ L1
1 L2 Ln1
II.2 M
etodos Directos
43
(1)
=a
ij 2 + li1 a1j 1 + li1 a1j 1 2 ,
obteniendo as:
(k)
L1 A A(1) 2a eps donde a = max aij , i 2.
i,j,k
0 0
1 1
.
..
L1 A A(1) 2a eps
...
.
1 1
0
0
(1)
0
L2 A A(2) 2a eps
.
..
la demostracion, se obtiene
0 0
0 0
1 1,
..
..
.
.
0 1 1
El Algoritmo de Cholesky
Un caso particular de sistema de ecuaciones lineales, es donde la matriz A
es:
Definici
on II.2.5.- Una matriz A Mn (R) es simetrica y definida positiva,
si cumple las siguientes dos condiciones:
(II.2.16)
At = A;
(II.2.17)
xt Ax > 0,
x Rn , x 6= 0.
44
II Sistemas Lineales
(II.2.17)
Demostraci
on.- Sea A simetrica y definida positiva, dada por
a1n
..
.
.
a11
..
A=
.
ann
an1
A(1)
a11
0
=
...
a1n
a12
(1)
li1 =
ai1
,
a11
de donde se tiene
(1)
ai1 a1j
.
a11
a11
z
zt
C
se tiene
C (1) = C
1
zz t .
a11
2
1
y t z > 0,
a1 1
y 6= 0.
Por hip
otesis la matriz A es definida positiva, de donde
( x1
y )
a11
z
zt
C
x1
y
II.2 M
etodos Directos
45
(y t z)
2 (z t y)
+ y t Cy > 0,
a11
a11
por consiguiente
y t Cy
2
1
y t z > 0.
a11
La descomposici
on LR es u
nica, si esta existe, en efecto, si
A = L1 R1 = L2 R2 ,
dos descomposiciones de A. Se tiene
1
L1
2 L1 = R2 R1 ;
las matrices del tipo L, como aquellas de tipo R forman subgrupos dentro
el grupo de las matrices inversibles, deduciendose que
L1
2 L1 = I,
por lo tanto L1 = L2 y R1 = R2 . Para demostrar la parte b) del teorema, se
define la matriz L1 , como
Lt1 = D1 R,
donde D = diag(r11 , , rnn ), hay verificar que L1 = L. Las siguientes
identidades se cumplen:
A = LR = LDLt1 ,
At = L1 DLt ,
como A es simetrica y por la unicidad de la descomposici
on LR, se deduce
L = L1 .
.
Definici
on II.2.7.- Sea D una matriz diagonal a coeficientes no negativos,
entonces:
p
p
1
D 2 = diag
d11 , , dnn .
(II.2.18)
= LD 21 , se tiene
Si se define L
L
t,
A=L
que es la descomposici
on de Cholesky de la matriz A simetrica y definida
Entonces los
positiva. Para simplificar notacion, se escribe L, en lugar de L.
46
II Sistemas Lineales
lkk =
lik
q
2 l2 l2
akk lk1
k2
k,k1 ;
(II.2.19)
i = 1, . . . , k 1.
k=1
k(n k)
x(n x)dx =
n3
.
6
(II.2.20)
1 1 1 1
1 2 2 2
1 2 3 3,
A LL a eps
. . .
.. .. ..
1 2 3 n
(II.2.21)
Demostraci
on.- Se demuesta de la misma manera que el teorema II.2.4
referente a la estabilidad de la descomposici
on LR.
II.2 M
etodos Directos
47
Ejercicios
1.- Escribir una subrutina DEC(N,NDIM,A,B,IP,IER) que calcule la descomposici
on LR, tomando en cuenta la b
usqueda parcial de pivote.
Luego escribir una subrutina SOL(N,NDIM,A,B,IP) que permita resolver
Ax = b utilizando la descomposicion obtenida por DEC.
a) Resolver
9
5 2 1 3
3
4
28
1 20
.
x =
32
0 1
1
30
11
2 8 25 4
b) Calcular la inversa de la matriz de Hilbert dada por
n
1
H=
para n = 2, 3, 4, 5.
i + j i,j=1
2k 1 (j 1)! (j 1)!
ljk =
.
(j k)!(j + k 1)!
(II.2.22)
Cu
antas cifras son exactas?
es el resultado numerico, calcular el residuo
c) Si L
L
t,
AL
calcular tambien el residuo A LLt para la matriz L dada por (II.2.22).
3.- Calcular cond (An ) para las matrices:
a) de Hilbert
b) de Vandermonde (aij ) = cij1 , i, j = 1 n con ci = ni ,
para n = 1, 2, 3, . . . , 15. Calcular tambien n1 log10 (cond (An )) y encontrar una formula que aproxime cond (An ).
II.3 M
etodos Iterativos
M
etodos de Jacobi y Gauss-Seidel
Estos metodos son utilizados para resolver el sistema de ecuaciones, dado
por
u = Au + b.
(II.3.1)
El metodo de Jacobi consiste en la utilizaci
on de la soluci
on anterior para
calcular la nueva solucion, es decir
u(k+1) = Au(k) + b.
(II.3.2)
0
a21
L=
...
an1
..
.
an,n1
0
0
,
..
.
0
a11
0
U =
...
0
a12
a22
..
.
a1n
a2n
.
..
.
ann
II.3 M
etodos Iterativos
49
(II.3.4)
(II.3.5)
(IV.3.6)
(IV.3.8)
Existe una clase de matrices, para las cuales estos metodos son convergentes. Una de sus caractersticas est
a dada por la:
Definici
on II.3.1.- Una matriz A es irreducible si para cada (i, j), existe
una sucesion l0 = i, l1 , , lm = j tal que
alk ,lk+1 6= 0.
Gr
aficamente se puede visualizar mediante la nocion de grafo dirigido,
en Grimaldi se puede encontrar una explicacion bastante detallada sobre
las aplicaciones de la teora de grafos. Considerese el grafo G compuesto del
conjunto de vertices V y el conjunto de aristas A, definido por:
i) V = {1, 2, . . . , n},
ii) (i, j) A aij 6= 0.
Para comprender esta definicion, considerese los dos siguientes ejemplos,
sean:
0
1
A=
0
0
2
0
0
0
2
0
0
1
0
0
1
2
0
GA
50
II Sistemas Lineales
0
1
B=
0
0
1
0
1
0
0
1
0
1
0
0
1
0
GB
Se puede observar facilmente, que la matriz A no es irreducible, mientras
que la matriz B si es irreducible.
Con la definicion anterior se puede formular el siguiente teorema que da
una condici
on suficiente, para que los metodos de Jacobi, como de GaussSeidel, sean convergentes.
Teorema II.3.2.- Sea A una matriz no-negativa (aij 0), con las siguientes
propiedades:
n
X
aij 1, i = 1, . . . , n;
i)
j=1
n
X
aio j < 1;
j=1
iii) A es irreducible;
Ck1
e(0)
Demostraci
on.- Se mostrar
a para el metodo de Jacobi. Se tiene
e(k+1) = Ae(k) ,
(0)
sea = max ei , de donde
(0)
(1) X
aij ej ,
ei
| {z }
j
(II.3.9)
II.3 M
etodos Iterativos
51
kn1
{z }
n1 veces
alj
X
j
ajk
alj 1.
alj
<
X
j
(An )jk
alj 1.
(k1)
(k)
.
e
=
Ae
planteando
N1o
e(No )
,
=
(0)
e
52
II Sistemas Lineales
El Teorema de Perron-Frobenius
Indudablemente por las consecuencias que implica el teorema de PerronFrobenius, es que vale la pena estudiarlo como un tema aparte. Es un
teorema cuya demostracion ha llevado mucho esfuerzo de parte de muchos
matematicos. Se enunciar
a este teorema sin dar una demostracion rigurosa,
sino los pasos de esta.
Teorema II.3.3.- Sea A una matriz no negativa irreducible, entonces:
i) Existe un vector propio u, con ui > 0 respecto a un valor propio
r > 0.
ii) Todos los otros valores propios de A son || < r. Sola
i2
excepcion posible = re n valor propio simple.
iii) r depende de manera estrictamente monotona de todos los
elementos de A.
Demostraci
on.- Se comenzara por el punto i). Sea u Rn , tal que ui > 0;
entonces
v = Au,
definiendo
ri =
v1
,
ui
u K;
v K;
con 6= .
II.3 M
etodos Iterativos
53
En efecto, sup
ongase que < y sea w = u + tv, tal que t sea lo mas
peque
no posible, de manera que w K, entonces
Aw = u + tv 6 K,
por consiguiente, no puede haber mas de un valor propio cuyo vector propio
este en el interior del cono.
Adem
as, r es un valor propio simple, ya que si no lo fuera, una peque
na
perturbacion en la matriz A llevara al caso de los valores propios simples,
caso que ha sido ya estudiado mas arriba.
Por otro lado, no hay vectores propios en el borde del cono K. Efectivamente, sea u K, vector propio. Por hipotesis, algunos de las componentes
de u son nulos, pero al menos una de las componentes es diferente de 0. De
donde
u + Au + + An u = (1 + + + n )u.
Como A es irreducible, existe No n con
o
aN
ij > 0,
i, j;
por lo tanto
(An u)j > 0,
j;
v
u
54
II Sistemas Lineales
(I L)
U.
(II.3.10)
(I L)
= I + L + L2 + + Lm ,
II.3 M
etodos Iterativos
55
1
U=
(II.3.11)
son independientes de .
Ejemplos
1.- La matriz A definida por
A=
0
C
B
0
0 a
b 0
c
0
..
.
..
56
II Sistemas Lineales
posee la property A. Pues, se tiene:
x
x
0 a
y
y
b 0 c
= ,
z
z
d 0 e
..
..
..
..
.
.
.
.
1
0 a
x
x
1
b 0
y
y
c 1
2 z
d
0
e
2 z .
.
.
..
..
..
..
.
.
(II.3.12)
L + U x = x,
M
etodo de Sobrerelajaci
on SOR
Las siglas SOR significan en ingles Successive over relaxations. Es una
modificaci
on del metodo de Gauss-Seidel. Consiste en utilizar un factor de
sobrerelajaci
on . Primero se efectua una iteracion de Gauss-Seidel para
luego corregir con , en sntesis el metodo SOR est
a dado por:
1
(II.3.13)
II.3 M
etodos Iterativos
57
Haciendo el c
alculo de u, componente por componente, se tiene:
X
X
(k+1)
(k)
+
aij uj
aij uj + bi ,
uauxi =
j<i
(k+1)
ui
ji
(k)
ui
(k)
.
+ uauxi ui
(II.3.14)
h
i
por lo tanto
u(k+1) = (I L)1 (U + (1 )I) u(k) + b .
(k+1)
= (I L)
(II.3.15)
(U + (1 )I) y x el
(I L)1 (U + (1 )I) x = x,
(U + (1 )I) x = (I L) x,
U x + (1 )x = x Lx,
U x = ( 1 + )x Lx,
1+
(L + U ) x =
x,
L + U x =
x,
de donde, se ha mostrado el siguiente:
Teorema II.3.7.- Sea A una matriz irreducible, no negativa y con la
property A. Si es un valor propio de la matriz obtenida por SOR, entonces
=
1+
(II.3.16)
1 + = ,
(II.3.17)
2
( + ( 1)) = 2 2 ,
58
II Sistemas Lineales
(II.3.18)
Si 1 , 2 , las dos raices de esta ecuacion, son complejas; entonces ambas son
conjugadas, de donde
|| = | 1| .
(II.3.19)
Si 1 , 2 son raices reales de (II.3.18), se tiene que uno de los raices es mas
grande que la otra, a menos que 1 = 2 . Esto sucede cuando la parabola
2 2 4 + 4 = 0.
De donde, se ha demostrado el:
2
p
,
1 + 1 2
(II.3.20)
1 1 2
p
.
max = w 1 =
1 + 1 2
1
raices conjugadas.
(II.3.21)
II.3 M
etodos Iterativos
59
1
,
n+1
(II.3.23)
se plantea:
xi = ih,
yj = jh,
i = 0, . . . , n + 1;
j = 0, . . . , n + 1;
(II.3.24)
denotando
uij = u(xi , yj ),
fij = f (xi , yj ).
(II.3.25)
h2
u0j = 0,
un+1,j = 0,
ui0 = 0,
j = 0, . . . , n + 1;
j = 0, . . . , n + 1;
i = 0, . . . , n + 1;
ui,n+1 = 0,
i = 0, . . . , n + 1.
i = 1, . . . , n,
j = 1, . . . , n;
i = 1, . . . , n,
j = 1, . . . , n;
(II.3.26)
60
II Sistemas Lineales
donde:
u = (u11 , . . . , u1n , u21 , . . . , u2n , . . . , un1 , . . . , unn )t ,
f = (f11 , . . . , f1n , f21 , . . . , f2n , . . . , fn1 , . . . , fnn )t ,
B I
I B I
1
.. .. ..
,
A=
.
.
.
4
I
B I
I B
0 1
1
.
.
..
.
I=
B = 1 .. .. ,
.
..
1
. 0
Definici
on II.3.9.- El producto tensorial de dos matrices P de orden n m
y Q de orden l k se define como la matriz
p11 Q p1m Q
.. ,
P Q = ...
(II.3.27)
.
pn1 Q pnm Q
de orden nl mk.
1
(B I + I B) .
4
II.3 M
etodos Iterativos
61
k
l
cos(
) + cos(
) .
n+1
n+1
(II.3.30)
).
(II.3.31)
max = cos(
n+1
Recordando el metodo de Jacobi se tiene:
u(k+1) = Au(k) + f,
U = AU + f,
e(k) = u u(k) ,
e(k+1) = Ae(k) ,
ei
(k)
donde ei
(k)
= i ei ,
i = 1, . . . , n2 ;
e1
(0)
= N
i ei ,
62
II Sistemas Lineales
obteniendose as el n
umero de iteraciones necesarias para conseguir una
precisi
on relativa de 10m . Por las siguientes relaciones:
n1 10m ,
N ln max m ln 10,
2
N ln 1
2 m ln 10,
2(n + 1)
2
N
m 2.3,
2(n + 1)2
por lo tanto
1
2m 2.3
(n + 1)2 mn2 .
(II.3.32)
2
2
Ahora bien, una iteracion equivale mas o menos 4n2 operaciones, de donde
el trabajo necesario es 2mn4 operaciones.
Considerando, que el metodo de Gauss-Seidel se realiza en la mitad de
operaciones respecto al de Jacobi, y por el teorema II.3.6, el n
umero de
iteraciones para llegar a una precisi
on relativa de 10m es la mitad de Jacobi.
Las siguiente tabla indica el n
umero de operaciones, tiempo para diferentes
precisiones requeridas.
N=
Precision
# operaciones
Tiempo de Calculo
10
102
105
0.1sec
100
104
109
1000
106
1013
107 sec 7, 7a
nos
.
op 2 1
n+1
II.3 M
etodos Iterativos
63
Por lo tanto, el n
umero de iteraciones para obtener una precisi
on relativa de
10m es approximadamente igual a
N 0.4mn.
(II.3.34)
# Operaciones
Tiempo de Calculo
op
10
104
102 sec
1, 42
100
107
10sec
1, 93
1000
1010
1, 9937
1, sino;
(II.3.34)
64
II Sistemas Lineales
Ejercicios
1.- Para resolver iterativamente el problema Ax = b, se considera la
iteracion
M x(k+1) = N xk + b, con A = M N.
Determinar M y N para los metodos de Jacobi y Gauss-Seidel.
Programar los dos metodos y aplicarlos al problema
4
1
0
1
1 0 1
3
4 1 0
3
x =
,
1 4 1
7
0 1 4
1
0 1/2
1/2 0 1/2
A=
.
1/2 0 1/2
1
0
1 si i 6= j y el nudo i est
a ligado al nudo j,
0 si i = j o el nudo i no est
a ligado al nudo j,
II.3 M
etodos Iterativos
65
Ejemplo:
1
2
3
4
1
1
1
1
A =
1
r > 3,
excepto en los casos:
r=1,
r= 2,
r=(1
+ 5/2),
r= 3,
4.- Demostrar que la matriz bloque
verifica la property A.
0
A = C
para
para
para
para
B
0
E
un
un
un
dos
grafo;
grafo;
grafo;
grafos.
D
0
b11 C b1n C
.
..
.
A = B C = ..
.
bn1 C bnn C
a) Mostrar: si x es un vector propio de dimension n e y es un vector de
dimension m, entonces
(Bx) (Cy) = (B C)(x y)
donde x y est
a definido similarmente.
b) Deducir que: si
x es vector propio de B, con valor propio ;
y es vector propio de C, con valor propio ;
entonces
x y es vector propio de B C, con valor propio .
II.4 M
etodos Minimizantes
1 t
x Ax xt b + c min,
2
Ax = b.
(II.4.2)
(II.4.2)
Demostraci
on.- El primer problema puede ser escrito como
X
1X
xj bj + c min .
xi aij xj
2 i,j
j
(II.4.4)
akj xj bk = 0.
II.4 M
etodos Minimizantes
67
M
etodo del Gradiente
El gradiente de f , utilizando la demostracion de la anterior proposici
on,
est
a dado por
f (x) = Ax b.
(II.4.5)
Sea xo un punto de partida, se tiene:
1
f (x) = f (xo ) + hf (xo ), x xo i + (x xo )t A(x xo ),
2
1
= f (xo ) + kx x0 k kf (xo )k cos + (x xo )t A(x xo ),
2
donde es el angulo entre f (xo ) y x x0 . Como se busca que f (x) sea
mnimo, f (xo ) y x xo deben tener la misma direccion y el mismo sentido.
Supongase que se ha encontrado este x, que se lo denota por x1 , se
puede plantear para k 0, obteniendo as, el metodo del gradiente
xk+1 = xk k g k ,
(II.4.6)
k =
gk gk
t
g k Ag k
(II.4.8)
Una ilustraci
on de las iteraciones del metodo del gradiente est
a dada en la
figura II.4.1.
x1
x 3
x
68
II Sistemas Lineales
max
= cond2 A;
min
k
x x
1
+1
k
0
x x
,
(II.4.9)
Adem
as, se tiene el:
Teorema II.4.3.- Existe, x0 tal que
k
x x
=
1
+1
k
0
x x
.
(II.4.10)
Demostraci
on.- En un referencial con un origen adecuado y una base de
vectores propios de A, el problema (II.4.2) puede formularse como
1 t
x
A
x c min,
2
es decir
x = 0,
A
(II.4.11)
x =
A
..
x
= 0.
(II.4.12)
II.4 M
etodos Minimizantes
69
Planteando
Por lo tanto, se puede suponer que A tiene la forma de A.
x0i = 0,
para i = 2, . . . , n 1;
(II.4.13)
,
=
(1 )y 0 )
y 0
y0
y1
de donde:
despejando q, se obtiene
q = 1 ,
q = 1 ;
1
.
+1
Puesto que la oscilaci
on encontrada no depende del punto inicial, las iteraciones siguientes presentaran el mismo fen
omeno. Con lo que se ha mostrado
el teorema.
q=
M
etodo del Gradiente Conjugado
La u
ltima demostracion muestra que en determinadas ocasiones el metodo
del gradiente conduce a una oscilaci
on en torno a la soluci
on, haciendo
que la convergencia no sea tan rapida como se espera, pudiendo mejorar
esta situacion, tomando aparte de la direccion del gradiente otra direccion
alternativa. El metodo del gradiente conjugado consiste en tomar tambien
la direccion conjugada al gradiente. Para poder enunciar tal metodo es
necesario dar los elementos te
oricos para su comprensi
on.
Proposici
on II.4.4.- Sea f (x) = 21 xt Ax xt b, donde A es una matriz
simetrica y definida positiva. Sea d una direccion, entonces los mnimos de
f (x) sobre las rectas paralelas a d se encuentran en el hiperplano
dt (Ax b) = 0.
(II.4.14)
70
II Sistemas Lineales
Demostraci
on.- Si x pertenece a una recta de direccion d, es de la forma
donde R.
x = a + d,
Se define la funcion g, como g(t) = f (a + td), por lo tanto esta funcion tiene
un mnimo en t0 , si
g (to ) = dt f (a + to d) = 0,
es decir, si se cumple
dt (A(a + to d) b) = 0.
Definici
on II.4.5.- Dos direcciones d1 y d2 son conjugadas respecto a A si
t
d1 Ad2 = 0.
(II.4.15)
k k
d ,g
,
k =
k
d , Adk
xk+1 = xk + k dk ,
g
k+1
k+1
= Ax
= g
k+1
k+1
(II.4.16)
b = g + k Ad ,
+ k dk .
g k+1 , Adk
.
=
k
d , Adk
(II.4.17)
II.4 M
etodos Minimizantes
71
x := punto de partida;
g := Ax b;
d := g;
h := Ad;
hd, gi
:=
;
hd, hi
x := x + d;
g := g + h;
si |g| 106 , entonces fin algoritmo;
hg, hi
; =
;
hd, hi
d := g + d;
Retornar al paso 4.
k
d , Adl = 0,
l < k;
(II.4.18)
k l
l < k.
g , g = 0,
Demostraci
on.- Por inducci
on sobre k.
1 0
0 0
g , g = g , g 0 Ag 0 , g 0
= 0.
Supongase cierto para k, por la construccion de g k+1 , se tiene g k+1 , dk = 0,
entonces:
k+1 k
k+1 k
g
,g = g
, d +k1 g k+1 , dk1
| {z }
0
k+1 l
k l
g
, g = g , g +k Adk , dl
| {z }
0
= 0;
k+1
d
, Adl = c1 g k+1 , Adl + c2 dk , Adl
| {z }
0 hip. ind
= c1 g k+1 , g l = 0.
72
II Sistemas Lineales
Definici
on II.4.7.- Se define la norma natural del problema por
kxkA = xt Ax.
(II.4.19)
Teorema II.4.8.- El error del metodo del Gradiente Conjugado, despues
de l iteraciones satisface
x xl
M
x x0
,
(II.4.20)
A
A
donde
M = inf
i R
sup
v.p.
!
2
l
1 + 1 + 2 + + l .
(II.4.21)
Corolario II.4.9.- Si A tiene solamente l valores propios diferentes, entonces el metodo del Gradiente Conjugado da la solucion exacta despues de
l iteraciones.
Demostraci
on del teorema.- Se puede suponer por traslaci
on, que b = 0,
de donde la solucion exacta es x = 0, por lo tanto el error cometidos es
el = xl . Se tiene d0 = g 0 , definiendo E1 por:
E1 = x = x0 + 1 d0
= x = x0 + 1 Ax0
= x = (I + 1 A)x0 .
x1 es el punto de E1 que minimiza f (x) = 21 xt Ax.
E2 = x|x = x0 + 1 d0 + 2 d1
= x|x = (I + 1 A + 2 A2 )x0 .
xl minimiza f (x) en El .
Sean v1 , . . . , vn vectores propios normalizados de A, por lo tanto forman
una base. Por consiguiente:
x0 =
n
X
i vi ,
i=1
x0 Ax0 =
i vit Avj j
i,j
X
i
i2 i
=
x0
A .
II.4 M
etodos Minimizantes
73
n
X
i=1
xl Axl =
n
X
i=1
de donde
n
X
i vi
i=1
i (1 + 1 i + + l li )vi ,
i2 i (1 + 1 i + + l li ),
l
2
x
max 1 + 1 i + + l li 2
x0
2 .
A
A
1 ,...,n
Polinomios de Chebichef
Supongase, que se conoce los valores propios de la matriz A simetrica y
definida positiva, es decir:
0 < min i max .
min
max
74
II Sistemas Lineales
Definici
on II.4.10.- El n-simo polinomio de Chebichef, es el polinomio de
grado n, Tn (x) tal que:
Tn (1) = 1,
Tn (1) = (1)n ,
Todos los mnimos y maximos relativos son 1 y pertenecen a (, 1, 1).
Teorema II.4.11.- Chebichef. Tn (x) est
a dado por
Tn (x) =
n
n
p
p
1
x + x 2 1 + x x2 1
.
2
(II.4.22)
Demostraci
on.- Este teorema ser
a abordado en el Captulo IV, motivo por
el cual la demostracion no es necesaria por el momento. Lo u
nico que puede
decirse, es que la definicion moderna de los polinomios de Chebichef est
a
dada por
Tn (x) = cos n,
donde x = cos .
(II.4.23)
1
max +min
max min
.
(II.4.24)
Demostraci
on.- Se utiliza la transformacion afn dada por
x = + ,
donde:
2
,
max min
max + min
=
.
max min
II.4 M
etodos Minimizantes
75
Demostraci
on.- Para x 1, se tiene
|Tl (x)|
de donde
M
particularmente para
l
p
1
x + x2 1 ,
2
2
l ,
p
x + x2 1
x=
para x 1;
(II.4.26)
max + min
+1
=
,
max min
1
l b .
(II.4.28)
M
etodo del Gradiente Conjugado Precondicionado
El corolario II.4.9 indica claramente, que el metodo del Gradiente Conjugado
converge a la solucion exacta despues de l iteraciones, siendo l el n
umero de
valores propios diferentes de la matriz A. Se puede mejorar la velocidad de
convergencia, haciendo un cambio de variables en el problema original
f (x) =
1 t
x Ax xt b.
2
Se define x
como
x
= E t x,
76
II Sistemas Lineales
donde E es una matriz inversible con ciertas condiciones a cumplir que ser
an
dadas mas adelante. Para no recargar la notacion, se denota
Et
= E t .
1 t 1
x
E AE t x
x
E 1 b.
2
(II.4.29)
x
:= punto de partida;
g := E 1 AE t x
E 1 b;
d :=
g;
:= E 1 AE t d;
h
D E
g
d,
E;
:= D
h
d,
x
:= x
+ d;
g := g + h;
6
si |
g| D
10E
, entonces fin algoritmo;
g, h
=D
E;
;
h
d,
d :=
g + d;
Retornar al paso 4.
II.4 M
etodos Minimizantes
77
dar
a cuenta de las sutilezas empleadas. Por consiguiente, la formulacion
algortmica est
a dada por:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
x := punto de partida;
g := Ax b;
:= C 1 g;
o := hg, i;
d := ;
h := Ad;
:= 0 /hd, hi;
x := x + d;
g := g + h;
si |g| 106 , entonces fin algoritmo;
:= C 1 g;
1 := hg, i;
; = 1 /0 ;
d := + d;
0 := hd, gi;
Retornar al paso 6.
eki =
aki
j=1
k1
X
j=1
eii
ekj eji
(II.4.30b)
78
II Sistemas Lineales
Luego se resuelve:
E
g = g;
E t = g.
2.- SSOR precondicionado (Axelsson, 1973)
La matriz A puede ser descompuesta en tres partes, la diagonal, la parte
inferior y la parte superior. El metodo SSOR consiste en definir la matriz
E, como una matriz triangular inferior, cuyos coeficientes de la diagonal
son iguales a la raiz cuadrada de los coeficientes de la diagonal de A. Los
coeficientes de la parte inferior de la matriz E son iguales a los coeficientes
de la parte inferior de la matriz A multiplicados por un factor de relajaci
on
positivo , es decir:
eii = aii ;
(II.4.31a)
eki = aki , 0.
(II.4.31b)
Luego se resulve:
E
g = g,
t
E = g.
La determinaci
on del optimal se realiza al tanteo, dependiendo del problema a resolver, pues por el momento no existe un criterio analitico para
determinar este valor optimal.
Resultados Num
ericos
El estudio te
orico y la formulacion de metodos de resolucion de sistemas
lineales por si solo constituye un hermoso ejercicio mental. Un metodo no es
bueno, hasta que ha sido probado numericamente en problemas concretos,
por eso es importante poder comparar la eficiencia de los diferentes metodos
formulados en esta seccion, en diferentes tipos de problemas.
Al igual que la seccion II.3, se considerar
a una ecuacion a derivadas
parciales de tipo elptico, pues este tipo de problema, se presta mucho a la
resoluci
on de grandes sistemas lineales. Sea,
u = 1,
u| = 0.
(II.4.32)
II.4 M
etodos Minimizantes
79
0 1
.
.
B = 1 .. .. .
..
. 0
iter=0
iter=1
iter=2
iter=3
iter=4
iter=5
iter=6
iter=7
iter=8
iter=9
iter=10
Figura II.4.3. Solucion del problema (II.4.34).
iter=18
80
II Sistemas Lineales
iter
103
Gradiante.
102
Gradiante Conjugado.
Grad. Conj. Chols. Incom.
101
100 1
10
102
Figura II.4.4. N
umero de iteraciones vs n.
Finalmente la tabla II.4.1, da el n
umero de iteraciones para alcanzar
una precisi
on de 106 utilizando el metodo del gradiante conjugado precondicionado para diferentes valores de n y el factor de relajaci
on . En la
u
ltima columna se agrega, optimal en funcion de n.
Tabla II.4.1. Determinaci
on de optimal.
n\
0.6
.65
.7
.75
.8
.85
.9
.95
op
10
10
11
12
.75
20
12
12
11
10
10
11
14
.8
50
27
24
22
18
17
15
14
16
.9
100
43
35
37
31
27
24
20
18
.95
180
72
59
55
46
40
41
33
27
.95
II.4 M
etodos Minimizantes
81
Ejercicios
1.- Mostrar que una matriz simetrica A es definida positiva si y solamente
si
det(Ak ) > 0
a11
..
k = 1, 2, . . . , n donde Ak =
.
ak1
a1k
..
.
akk
93 24
24 107
x1
x2
1
(42, 21)
5
x1
x2
3
2 1 1
1 2 1x = 2
3
1 1 2
k k
g ,g
.
k =
k
d , Adk
82
II Sistemas Lineales
+1
0 si n 6= m,
Tn (x)Tm (x)
si n = m 6= 0,
p
dx =
2
1 x2
si n = m = 0.
7.- (Modificaci
on del metodo del gradiante conjugado para matrices no
simetricas o no definidas positivas). Sea
Ax = b
(II.4.35)
(II.4.36)
Hasta la seccion precedente, se estudiaron problemas inherentes a la resolucion de sistemas de ecuaciones lineales donde la solucion existe y es u
nica.
En esta seccion se estudiar
an problemas mas generales, donde la existencia
y unicidad no juegan un rol tan preponderante.
El problema que se estudiar
a consiste b
asicamente en el siguiente. Se
tiene como datos:
(tj , yj ),
j = 1, . . . , m, (m grande),
(II.5.1)
y = ((t, x1 , . . . , xn )) ,
(II.5.2)
donde t R, y R y xi R.
Un ejemplo de funcion de modelo, es la siguiente funcion:
((t, x1 , x2 )) = x1 + tx2 + t2 x1 .
El problema consiste en encontrar x1 , . . . , xn , tales que
((t, x1 , . . . , xn )) yj ,
j = 1, . . . , m.
(II.5.3)
*
*
t1
tm
t2
n
X
i=1
ci (t)xi ,
(II.5.4)
84
II Sistemas Lineales
c (t ) c (t ) c (t )
y1
1 1
2 1
n 1
x1
y2
c1 (t2 ) c2 (t2 ) cn (t2 )
.
... . ,
(II.5.5)
..
.
.
.
.
.
x
ym
c1 (tm ) c2 (tm ) cn (tm ) | {zn }
| {z }
|
{z
} x
b
A
Ax b.
(II.5.6)
Planteando:
ej = (tj , x) yj ,
j = 1, . . . , m;
(II.5.7)
la solucion del problema (II.5.6), mediante el metodo de los mnimos cuadrados, ser
a aquella en la que
m
X
i=1
em
i min,
(II.5.8)
es decir
kAx bk min .
(II.5.9)
85
) ,
exp (
f (y) =
2
2
i=1
donde y = (y1 , . . . , ym )t .
Efectuando c
alculos, se obtiene
1 X yi i 2
f (y) = C exp
2 i=1
(II.5.10)
i=1
es decir
m
X
i=1
yi
n
X
j=1
(II.5.11)
ai jxj min .
(II.5.12)
Interpretaci
on geom
etrica
Se define el subespacio vectorial de Rm de dimension n dado por
E = {Ax|x Rn } Rm ,
la solucion de (II.5.9) est
a dada por el vector x0 , tal que
Ax0 b
es
mnima, es decir Ax0 es el vector mas proximo perteneciente a E al vector
b, de donde el vector Ax0 b es ortogonal al espacio E, ver figura II.5.2.
b
86
II Sistemas Lineales
(II.5.13)
Se remarca inmediatamente que la matriz At A es simetrica y semidefinida positiva, es decir xt At Ax 0. La matriz At A ser
a definida positiva
si y solamente las columnas de A son linealmente independientes. Si este es
el caso, se puede utilizar la descomposici
on de Cholesky para resolver
At Ax = At b,
pero en la mayora de los casos At A es una matriz mal condicionada. Como
ejemplo vale la pena citar el siguiente ejemplo:
Se tiene, la funcion de modelo dada por
(t) =
n
X
= xi ti1 ,
i=1
t1
t2
1
A=
..
.
1 tm
t1n1
t2n1
..
,
.
n1
tm
y1
y2
b=
.. .
.
ym
87
Por lo tanto
P
P n1
m
P
P t2i
Pti n
t
t
ti
i
i
At A =
.
.
..
..
P 2n1
P n1 P n
ti
t
ti
Pi
P
1P
1/m P ti 1/m Ptin1
1/m ti
1/m t2i
1/m tni
1
=
.
..
..
m
.
P n1
P n
P 2n1
1/m ti
1/m ti 1/m ti
1
1/2
1/n
1/2
1/(n + 1)
1/2
,
m
..
..
.
.
1/n
puesto que
1/(n + 1)
Z
tk dt
1/2n
1 X k
ti .
m
La descomposici
on QR
Dada una matriz A de orden m n, se busca las matrices: Q de orden m m
y la matriz R de orden m n, tales que la matriz Q sea ortogonal, es decir
Qt Q = I;
y la matriz R triangular superior, es decir
z
r11
R=
0
con
}|
..
.
O
r1n
m,
rnn
A = QR.
m n;
(II.5.14)
88
II Sistemas Lineales
Puesto que la matriz Q es ortogonal, para todo vector c Rm , se tiene
t
Q c
= kck ,
2
de donde
kAx bk2 =
Qt (Ax b)
2
=
Rx Qt b
min .
2
(II.5.15)
(II.5.16)
(II.5.17)
89
1
0
.
Q1 A =
..
..
...
.
.
0
R.
(II.5.18)
(II.5.19)
2u1 (ut1 A1 ) = A1 1 e1 ,
| {z }
R
A1 1 e1
.
kA1 1 e1 k2
(II.5.20)
(II.5.21)
= 1 (1 a11 ),
Q1 Aj = Aj 2u1 ut1 Aj
2
v1 v1t Aj
v1t v1
1
= Aj
v1 v1t Aj .
1 (1 a11 )
= Aj
(II.5.22)
90
II Sistemas Lineales
0
.
Q1 A =
(1)
...
A
0
1
1
0 2
0
,
0
0
Q2 Q1 A = ..
2 A(1) = .
Q
..
.
(2)
..
A
.
0
0
0
donde
1
0
Q2 =
...
0 0
2
Q
Costo de la descomposici
on QR
La descomposici
on se la realiza en n 1 etapas,
Qn1 Q2 Q1 A = R,
|
{z
}
Qt
91
v1
A(1)
v1 v2
A(2)
1 2
Al final de la descomposici
on se obtiene la siguiente matriz
R
v1 v2
..
.
vn
1 2
1 r1n
R1 R2
..
..
con R1 =
R=
.
(II.5.25)
.
.
0
0
k
|
{z
}
k = rangA
92
II Sistemas Lineales
La descomposici
on QR es un instrumento numerico que permite determinar
el rango de la matriz A. Ahora bien, debido a los errores de redondeo, el
principal problema consiste en decidir cuando un j es nulo en la sucesion
decreciente (II.5.24) . Se remarca inmediatamente que, si k+1 = 0, entonces
k+i = 0 para i > 2.
el resultado numerico obtenido despues de k pasos
Se define la matriz R
como
1
..
2
R
.
.
=
R
(II.5.26)
k
0
0
Planteando
A = QR,
(II.5.27)
se tiene la:
Definici
on II.5.2.- k+1 es despreciable, si y solamente si
A A
eps kAk2 .
2
A A = Q(R R),
kAk2 = kRk2 ,
,
A A
=
R R
2
de donde
(II.5.28)
k+1 despreciable
R R
eps kRk2 ,
2
k+1 es una buena aproximacion de
R R
, y 1 es una buena aproxi2
macion de kRk2 , obteniedo el siguiente resultado
k+1 despreciable k+1 eps 1 .
(II.5.29)
(II.5.30)
93
La matriz
A+ = (At A)1 At ,
(II.5.31)
ser
a la matriz inversa para el problema (II.5.6).
Para el problema mas general, donde le rango de A es n, la descomposici
on QR da el siguiente resultado
1 r1k
R1 R2
..
;
, con R1 =
R=
.
0
0
0
k
planteando x = (x1 , x2 )t , con x1 Rk , se tiene
2
2
kAx bk2 =
Rx Qt b
2
R1 x1 + R2 x2 c1
2
c2
2
de donde el:
(II.5.35)
94
II Sistemas Lineales
(II.3.36)
t
U AV =
..
con:
1 k > 0,
k+1 = = n = 0.
(II.3.37)
..
V t At AV =
,
.
n2
AV = U
..
n ,
95
donde U1 est
a constituida por las primeras k columnas de U . Sean
(AV )1
(AV )2
)t , donde x
Rnk , obteniendo:
(AV )2 = 0, en efecto, sea x = (0, . . . , 0, x
| {z }
k
xt V t At AV x = xt
12
..
.
n2
Se define U1 por
x = 0;
x.
U1 = (AV )1 D1 ,
1
..
0
.
,
U t AV = =
k
0
(II.5.38)
la descomposici
on en valores singulares. Entonces la pseudo-inversa de A
est
a dada por
1
1
..
0
.
U t.
(II.5.39)
A+ = V
1
k
0
Demostraci
on.- Se tiene
2
kAx bk22 =
U V t x b
2
2
2
t
t
V
=
U (V t x U t b)
2 =
U
b
|{z} |{z}
y
c
2
2
Dy1
c
2
1
= ky ck2 =
0
c2
2
2
= kDy1 c1 k2 + kc2 k2 .
96
II Sistemas Lineales
D1 c1
0
D1
0
0
0
D1
0
0
0
=A+ b,
c1
c2
V tb
b.
Finalmente se tiene:
Teorema II.5.7.- La pseudo-inversa de una matriz verifica las siguientes
propiedades:
a)
b)
c)
(A+ A)t = A+ A,
(AA+ )t = AA+ ,
A+ AA+ = A+ ,
d)
AA+ A = A,
Error del M
etodo de los Mnimos Cuadrados
Retomando la interpretacion estadstica del metodo de los mnimos cuadrados. Se han dado dos hipotesis de partida, para determinar la solucion: la
primera sobre los yi de la ecuacion (II.5.5); la segunda concerniente a la
compatibilidad de la funcion modelo (II.5.2) con los datos (II.5.1).
Suponiendo validas estas dos hipotesis, se tiene
A = ,
(II.5.40)
97
Por lo tanto
x = (At A)1 At (b ) o
xi i =
m
X
j=1
ij (bj j ),
(II.5.41)
m
X
j=1
ij (Yj j ).
(II.5.42)
V ar(Xi ) = ii ,
(II.5.43)
m
X
j=1
ij E(Yj j ) + i
= i .
j=1
m
X
2
ij
j=1
2
=
(At A)1 At ei
2
2
=
eti (At A)1 At
2
98
II Sistemas Lineales
(II.5.44)
(II.5.45)
Como las u
ltimas filas de ceros no incide en el c
alculo del producto Rt R, se
puede considerar R como una matriz de n n, obteniendo as la descomposici
on de Choleski de (At A).
Una vez determinados los parametros x de la funcion modelo (II.5.2)
corresponde saber, si los (II.5.1) son compatibles con tal modelo. Por la
descomposici
on QR, el problema (II.5.6) se convierte, ver (II.5.15), en
R
C1
C1
x=
, donde
= Qt b.
(II.5.46)
0
C2
C2
Denotando los elementos de Qt por qij , los elementos del vector C, satisfacen
ci =
m
X
qij bj ,
j=1
m
X
j=1
qij (bj j ).
m
X
j=1
qij (Yj j ),
i = n + 1, . . . , m.
(II.5.47)
A continuacion, se da la proposici
on siguiente, sin demostracion.
Proposici
on II.5.9.- Sean Y1 , . . . , Ym variables aleatorias independientes
siguiendo N (0, 1). Entonces las variables aleatorias Zn+1 , . . . , Zm , definidas
por (II.5.47) son independientes y siguen tambien una ley normal N (0, 1).
El error cometido, por el metodo de los mnimos cuadrados, es equiva2
lente a estudiar kC2 k2 de donde el teorema, sin demostracion:
99
Teorema II.5.10.- Pearson. Sean Z1 , Z2 , . . . , Zn variables aleatorias independientes siguiendo la ley normal N (0, 1). Entonces, la distribucion de la
variable aleatoria
Z12 + + Zn2 ,
(II.5.48)
est
a dada por
fn (x) =
1
2n/2 (n/2)
(II.5.49)
bi
bi
0 0.11158 5 5.5158
1 1.2972 6 6.0119
2 2.07201 7 6.6802
3 2.4744 8 7.9294
4
3.963
9 9.4129
(II.5.50)
t
sin(t/4)
bi
+y
= ,
i = 0, . . . , 9;
100
II Sistemas Lineales
pues, los bi / deben ser realizaciones de una variable normal con varianza
igual a 1. De donde la matriz de covarianza est
a dada por
x2
xy
xy
y2
3.57143 105
3.57143 105
3.57143 105
2.03571 103
Por consiguiente:
x = 1.00074 0.012,
y = 0.41352 0.09.
El metodo QR, con la notacion precedente da
kC2 k2 = 0.0693103;
corrigiendo, para el problema normalizado, se tiene
kC2 k22
= 6.93103.
2
Se tiene 10 2 grados de libertad. Viendo en una tabla de la distribucion
2 , se deduce que este valor es lo suficientemente peque
no para ser
probable.
Ahora bien, si se hubiese considerado la funcion de modelo
(t) = xt + y,
se hubiera encontrado
(II.5.51)
kC2 k22
= 90.5225,
2
101
10
9
8
7
6
5
4
3
2
1
0
Ejercicios
1.- Sea A una matriz inversible de n n. Mostrar que la descomposici
on
QR es u
nica, si se supone que rjj > 0 para j = 1, . . . , n.
2.- Aplicar el algoritmo de Golub-Householder a la matrice de rotacion
A=
cos
sin
sin
cos
102
II Sistemas Lineales
Dar una interpretacion geometrica.
0, 10
0, 15
0, 23
0, 58
0, 45
0, 60
Captulo III
Interpolaci
on
III.1 Interpolaci
on de Lagrange
i = 1, . . . , n;
la funci
on interpolante p ser
a por definicion igual a f (xi ) para i = 1, . . . , n.
Se hablara de interpolaci
on cuando se eval
ua en el punto x con
x [min xi , max xi ],
y de extrapolaci
on si no. Por su facil manipulaci
on, pues solo se efectua
multiplicaciones y adiciones, es conveniente que la funci
on interpolante p sea
un polinomio.
Definici
on III.1.1.- Dados (k +1) puntos diferentes: x0 , x1 , . . . , xk de [a, b],
los enteros no negativos 0 , . . . k y los reales yili con 0 i k y 0 li i .
El Polinomio de Hermite pn de grado n = k + 0 + + k , respecto a los
xi , i y los yili verifica
pn(li ) (xi ) = yili .
(III.1.1)
Si los i = 0 para i = 0, . . . , k, pn se llama Polinomio de Lagrange.
Definici
on III.1.2.- Cuando los puntos yili satisfacen
yili = fn(li ) (xi ),
(III.1.2)
Bases Te
oricas
Sin querer dar un tratado sobre la teora de los polinomios, existen resultados
que deben formularse para la mejor comprensi
on de la interpolaci
on polinomial. Aunque en Algebra se hace distincion entre polinomio y su funcion
n de Lagrange
III.1 Interpolacio
105
polinomial asociada, no se hara distincion entre estos, por que son polinomios a coeficientes reales o complejos los que se utilizan en la mayor parte
de los problemas a resolverse numericamente.
Definici
on III.1.3.- Sea p(x) R[x], a es un cero de multiplicidad m de
p(x), si
p(k) (a) = 0 m = 0, . . . , m 1,
y p(m) 6= 0.
Proposici
on III.1.4.- a es un cero de multiplicidad m de p(x), si y
solamente si, existe un polinomio q(x) con q(a) 6= 0 tal que
p(x) = (x a)m q(x).
Demostraci
on.-Ver en cualquier libro de Algebra.
n
III Interpolacio
106
pi,l
Y
= r(x) (x xj )j +1 ) ,
j6=i
pi,i
Y
= Ci,i (x xi )i (x xj )j +1 ) ,
j6=i
( )
pi,l
X
Y
cil,m pi,m ,
= Ci,l (x xi )i (x xj )j +1 )
m>l
j6=i
(m)
donde las constantes cil,m son escogidas de manera que pi,l (xi ) = 0 para
(l)
Construcci
on del Polinomio de Interpolaci
on
Inicialmente se considerar
a polinomios de interpolaci
on del tipo de Lagrange.
Por lo tanto, dados los puntos x0 , . . . , xn todos diferentes, y los valores
y0 , . . . , yn , el problema se reduce a encontrar un polinomio de grado n que
satisfaga
p(xi ) = yi 0 i n.
(III.1.3)
Indudablemente el caso mas sencillo es para n = 1 y luego para n = 2.
Para n = 1 la recta de interpolaci
on est
a dada por
p(x) = y0 +
y1 y0
x1 x0
(x x0 ),
y1 y0
x1 x0
(x x0 ) + a(x x0 )(x x1 ),
n de Lagrange
III.1 Interpolacio
107
este u
ltimo polinomio verifica p(x0 ) = y0 y p(x1 ) = y1 , por consiguiente es
necesario determinar a de manera que p(x2 ) = y2 . Unos simples c
alculos
algebraicos dan
y2 y1
y1 y0
1
.
a=
x 2 x0 x 2 x1
x1 x2
Definici
on III.1.8.- (Diferencias Divididas) Sean (x0 , y0 ), . . . , (xn , yn ), los
xi diferentes entre si. Entonces las diferencias divididas de orden k se definen
de manera recursiva por:
y[xi ] = yi ,
yj yi
y[xi , xj ] =
,
xj xi
y[xi1 , . . . , xik ] y[xi0 , . . . , xik1 ]
.
y[xi0 , . . . , xik ] =
xi k xi 0
(III.1.4a)
(III.1.4b)
(III.1.4c)
Teorema III.1.9.- (F
ormula de Newton). El polinomio de interpolaci
on de
grado n que pasa por (xi , yi ), i = 0, . . . , n, est
a dado por
p(x) =
n
X
y[x0 , . . . , xi ]
i=0
con la convencion
1
Y
i1
Y
(x xk ),
(III.1.5)
k=0
(x xk ) = 1.
k=0
Demostraci
on.- Por induccion sobre n. Para n = 1 y n = 2 la formula de
Newton es correcta, ver mas arriba. Se supone que la formula sea correcta
para n 1.
Sea, p(x) el polinomio de grado n que pasa por (xi , yi ), i = 0, . . . , n; de
donde
p(x) = p1 (x) + a(x x0 )(x x1 ) (x xn1 ),
con p1 (x) el polinomio de interpolaci
on de grado n 1 que pasa por (xi , yi )
i = 0, . . . , n 1. Por hipotesis de induccion se tiene
p1 (x) =
n1
X
y[x0 , . . . , xi ]
i=0
i1
Y
(x xk ),
k=0
n
III Interpolacio
108
(x x0 )
(xn x)
+ p1 (x)
,
(xn x0 )
(xn x0 )
x0 y[x0 ]
x1 y[x1 ]
x2 y[x2 ]
x3 y[x3 ]
y[x0 , x1 ]
y[x1 , x2 ]
y[x2 , x3 ]
y[x3., x4 ] .
..
..
y[x0 , x1 , x2 ]
y[x1 , x2 , x3 ]
y[x0 , . . . , x3 ]
y[x1 , ... . , x4 ] .
..
..
y[x0 , ... . , x4 ] .
..
..
y[x2 , x. 3 , x4 ] .
..
..
x4 y[x4 ]
.. . .
..
.
.
.
n de Lagrange
III.1 Interpolacio
109
i = 0, . . . , n;
(III.1.6)
(III.1.7a)
(III.1.7b)
(III.1.7b)
Definici
on III.1.11.- (Diferencias Finitas Retr
ogradas) Sea y0 , y1 , . . . , una
sucesion de n
umeros reales, se define el operador de diferencias finitas
retr
ograda de orden k de manera recursiva como sigue:
0 yi = yi ,
i = yi yi1 ,
y
k+1
k yi
k yi1 .
yi =
(III.1.8a)
(III.1.8b)
(III.1.8b)
n
i1
X
i y0 Y
i=0
i!hi
(x xk ),
i1
n i
X
yn Y
i=0
con la convencion
1
Y
i!hi
(III.1.9)
k=0
1
Y
(x xk ) = 1. Utilizando las
k=0
(x xnk ),
(III.1.10)
k=0
(x xnk ) = 1. La programaci
on es la misma que para
k=0
n
III Interpolacio
110
x0 0 y0
0 yn
xn
x1
x2
x3
x4
y0
0 y1
2 y0
y1
3 y0
0 y2
2 y1
4 y0
3
y2
y1
0 y3
2 y2
y3
0 y4
.. .. . .
.
. .
xn1 yn1
xn2 yn2
0 yn3
xn3
0 yn4
xn4
..
.
..
.
..
n
y
n1
y
n2
y
n3
y
2 yn
2 yn1 1
2 yn2
3 yn
3 yn1
4 yn
,4762
,4348
,400
,0941
,0725
,0313
n de Lagrange
III.1 Interpolacio
111
El Error de Interpolaci
on
Sea f (x) una funcion que cumple ciertas condiciones, se supone que se
hace pasar un polinomio de interpolaci
on por los puntos (xi , f (xi )), la
pregunta natural es saber que error se comete con el c
alculo del polinomio
de interpolaci
on, es decir p(x) f (x) vale cuanto, para un x determinado.
Es por esta raz
on que los siguientes teoremas ser
an enunciados para tener
una idea del error cometido.
Teorema III.1.12.- Sea f (x) n-veces continuamente diferenciable y
yi = f (xi ), i = 0, . . . , n; los xi todos diferentes.
Entonces existe (min xi , max xi ) tal que
y[x0 , x1 , . . . , xn ] =
f (n) ()
.
n!
(III.1.11)
Demostraci
on.- Se define la funcion r(x) por
r(x) = f (x) p(x),
donde p(x) es el polinomio de interpolaci
on que pasa por (xi , f (xi )),
i = 0, . . . , n. Se observa inmediatamente que r(xi ) = 0 para i = 0, . . . , n;
por el teorema de Rolle se deduce que r (x) se anula al menos una vez en
cada subintervalo [xi , xi+1 ], es decir existe i1 (xi , xi+1 ), para i = 0, . . . , n.
Aplicando una vez mas Rolle se deduce que r (x) tiene n 1 ceros en el
intervalo [x0 , xn ], finalmente aplicando el teorema de Rolle las veces que
sean necesarias se llega a la conclusi
on que r (n) tiene al menos un cero en el
intervalo requerido. Por otro lado
r (n) (x) = f (n) (x) n!y[x0 , . . . , xn ].
f (n+1) ()
.
(n + 1)!
(III.1.12)
n
III Interpolacio
112
Demostraci
on.- Se deja x fijo, se plantea xn+1 = x. Sea p(x) el polinomio
de interpolaci
on de grado n + 1 que pasa por (xi , f (xi )), i = 0, . . . , n + 1.
Por consiguiente
p(x) = p(x) +
n
Y
(x xk )y[x0 , . . . , xn+1 ],
k=0
n
Y
(x xk )
k=0
f (n+1) ()
,
(n + 1)!
Ejemplo
Para el ejemplo de la implementaci
on del metodo de diferencias
divididas
x,
1 1
f (x) = x 2 ,
2
1 3
f (x) = x 2 ,
4
3 5
(3)
f (x) = x 2 ,
8
15 72
(4)
f (x) =
x ,
16
f (x) =
para x [1; 1, 69], lo cual implica que el
por consiguiente f (4) (x) 15
16
error cometido en el c
alculo de x est
a dado por:
x p(x) 15 |(x 1)(x 1, 21)(x 1, 44)(x 1, 69)| ,
p
16 4!
1, 4 p(1, 4) 3, 45.105 .
n de Lagrange
III.1 Interpolacio
113
x[a,b]
(III.1.13)
Polinomios de Chebichef
La respuesta de la anterior interrogante, est
a en el estudio de los polinomios
de Chebichef, que ya fueron tratados en la seccion II.4.
Definici
on III.1.14.- El n-simo polinomio de Chebichef est
a definido en el
intevalo [1, 1] por la siguiente relacion
Tn (x) = cos(n arccos x).
(III.1.14)
(III.1.15)
= 0;
2n
(III.1.16)
(III.1.17)
(III.1.18)
para k = 0, 1, . . . , n 1.
Demostraci
on.- El inciso a) se demuestra utilizando el hecho que
cos((n + 1)) = 2cos cos(n) cos((n 1)).
La primera parte del inciso b) es consecuencia de la definici
on del n-simo polinomio de Chebichef. Las dos u
ltimas relaciones provienen de las
ecuaciones cos n = 0 y |cos n| = 1.
n
III Interpolacio
114
T0 (x)
T1 (x)
T2 (x)
T3 (x)
x[1,1]
x[1,1]
(III.1.19)
Demostraci
on.- La demostracion se la realiza por el absurdo. Se supone
que existe un polinomio q(x) de grado n, tal que
|q(x)| 1 para |x| 1,
n de Lagrange
III.1 Interpolacio
115
de donde r(x) = q(x)Tn (x) polinomio no nulo de grado al menos n1, pero
r(x) posee al menos n raices, lo que contradice que r(x) sea una polinomio
de grado menor o igual n 1.
(2k + 1)
Teorema III.1.17.- Si xk = cos
, entonces
2(n + 1)
max |(x x0 ) (x xn )|
x[1,1]
Para construir una division optima para cualquier intervalo [a, b], se
toma los puntos x
k definidos por
x
k =
a+b ba
+
xk ,
2
2
(III.1.20)
n
III Interpolacio
116
n
X
li (x) =
yi li (x),
i=0
n
Y
j=0
j6=i
(III.1.21)
(x xj )
.
(xi xj )
(III.1.22)
yi = yi (1 + i ),
n
X
|p(x) p(x)|
n
X
i=0
i=0
eps |y|max
n
X
i=0
|li (x)| ,
n
X
|p(x) p(x)|
eps
|li (x)| .
|y|max
i=0
Definici
on III.1.19.- La constante de Lebesgue asociada a la subdivision
x0 < x1 < < xn , est
a dada por
n = max
[x0 ,xn ]
n
X
i=0
|li (x)| .
(III.1.23)
Ejemplos
2j
a) Para la division equidistante xj = 1 + n , j = 0, . . . , n. Se puede
mostrar que la constante de Lebesgue se comporta asintoticamente,
cuando n , como
2n+1
n
,
(III.1.24)
en log n
n de Lagrange
III.1 Interpolacio
117
2
log n.
(III.1.25)
Division
Equidistante
Division
de Chebichef
10
29.900
2.0687
20
10987.
30
40
50
60
70
80
90
100
2.4792
6
2.7267
4.6925 109
2.9044
12
3.6398 10
3.0432
15
2.9788 10
3.1571
2.5281 1018
3.2537
21
2.2026 10
3.3375
24
1.9575 10
3.4115
1.7668 1027
3.4779
6.6011 10
n
III Interpolacio
118
puntos equidistantes
puntos Chebichef
n=15
n=20
0
0
n=30
n=40
0
0
n de Lagrange
III.1 Interpolacio
119
Convergencia de la Interpolaci
on
En esta subsecci
on, se analizar
a el problema de la convergencia de la
interpolaci
on. Sea f : [a, b] R, para cada entero natural se considera
una subdivision de [a, b] dada por
(n)
x0
(n)
< x2
|f (x) p(x)| ?.
Teorema III.1.20.- Sea f Cn [a, b] tal que f (n) (x)o M para todo
(n)
(n)
(n)
x [a, b] y para todo n N, sea x0 < x2 < < xn
una sucesion de
subdivisiones de [a, b]. Entonces
n
x[a,b]
(III.1.25)
n
III Interpolacio
120
Considerese la aplicaci
on Ln que a la funcion f asocia su polinomio
de interpolaci
on en los puntos x0 , x1 , . . . , xn : Ln (f ) = pn . Se remarca
inmediatamente que esta aplicaci
on es lineal, ademas si Pn es el espacio
de los polinomios de grado igual o menor a n se tiene
q Pn ,
Ln (q) = q.
gC [a,b]
g6=0
kLn (g)k
,
kgk
(III.1.26)
donde En (f ) = inf kf qk .
qPn
Demostraci
on.- Para todo q Pn , se tiene
f pn = (f q) (pn q) = (f q) Ln (f q),
por consiguiente
kf pn k kf qk + kLn (f q)k (1 + n ) kf qk ,
el resultado se obtiene tomando la cota inferior sobre los q Pn .
Definici
on III.1.22.- La cantidad En (f ) se llama el grado de aproximacion
de la funcion f por los polinomios de grado n, respecto a la norma de la
convergencia uniforme.
Examinando los diferentes factores de la mayoracion dada por el anterior
teorema, la cantidad n depende solamente de la subdivision tomada del
intervalo [a, b], mientras que En (f ) depende solamente de la funcion f . En el
estudio de la estabilidad se vio n para dos tipos de subdivision, los puntos
de Chebichef y los equidistantes, se ha podido demostrar que n es minimal
cuando se toman los puntos de Chebichef, pero en todos las sucesiones de
subdivisiones dadas al principio de este paragrafo, se tiene
lim n = .
n de Lagrange
III.1 Interpolacio
121
t,t [a,b]
|tt |h
sobre R+ ,
iv) si f C 1 [a, b], (f, h) h kf k .
(III.1.28)
Demostraci
on. El cambio de variable s = (x a)/(b a) permite de
trasladarse al caso en que a = 0, b = 1, f C 0 [0, 1], lo que se supondr
aa
continuacion.
Considerese primero el caso en que n = 2p es par, y planteando
4
!4
(p+1)t
n
sin
1
1 X
(p 2k)t
2
jn (t) =
,
cos
=
t
n
n
2
sin
k=0
2
R
donde n es escogido de manera que jn (t)dt = 1, es evidente que jn
puede escribirse bajo la forma
(III.1.29)
n
III Interpolacio
122
se tiene
g(s) n (s) =
de donde
|g(s) n (s)|
x
Z
C
tjn (t)dt ,
n
0
1
).
n
Se remarca que
Z
Z
Z
g(t) sin(kt)dt
g(t) cos(kt)dt + sin ks
g(t) cos(k(s t))dt = cos ks
Z
g(t) cos(kt)dt,
= cos ks
x[0,1]
sR
sR
n de Lagrange
III.1 Interpolacio
123
p+2
ba
(b a)p+1
(p+1)
f
,
.
n(n 1) (n p)
np1
n
III Interpolacio
124
La utilizaci
on de los puntos de Chebichef en la aproximaci
on de una
funci
on continuamente diferenciable en un intervalo [a, b], no implica necesariamente convergencia numerica, pues el c
alculo del polinomio interpolante
por medio de computadoras est
a imbuido de errores de redondeo. Por lo
tanto hay que tener mucho cuidado cuando se utilizan muchos puntos de
interpolaci
on.
Fen
omeno de Runge
Hasta ahora, se ha visto condiciones suficientes para asegurar la convergencia
de la interpolaci
on de una funcion por polinomios. Tambien se ha mostrado
que la utilizaci
on de puntos de Chebichef en la interpolaci
on de una funcion
continuamente derivable permita la convergencia. En esta parte, se ver
a
que tener una funcion continuamente derivable y una division equidistante
no es una condici
on suficiente de convergencia. Con el siguiente ejemplo
se ilustrar
a el conocido fen
omeno de Runge. En la figura III.1.6, puede
apreciarse que la interpolaci
on de Lagrange diverge cuando la division es
equidistante. Mientras, que en la figura III.1.7. utilizando subdivisiones de
Chebichef se tiene convergencia. En lineas punteadas se tiene la grafica de
la funci
on a interpolar.
0
0
n=5
1 1
0
0
n=10
1 1
0
0
1 1
n=15
n=20
n de Lagrange
III.1 Interpolacio
0
0
125
0
0
1 1
n=5
1 1
n=10
0
0
1 1
n=15
n=20
1
,
1 + 25x2
(n)
(n)
funci
on que es indefinidamente derivable. Sean x0 , . . . , xn la division
equidistante de [1, 1], pn (x) el polinomio de interpolaci
on de grado n de la
funci
on f respecto a la subdivision dada anteriormente. Prolongando f (x) al
1
1
plano complejo, se tiene que f (z) tiene polos simples en z = i y en z = i.
5
5
Se considera un camino cerrado simple C tal que [1, 1] interior de C, y los
polos esten en el exterior de C. Por consiguiente se puede aplicar la formula
de Cauchy para integrales complejas, de donde
1
f (x) =
2i
c
f (z)
dz.
zx
1
2i
(n)
(III.1.31)
n
III Interpolacio
126
En lugar de la expresi
on (III.1.33), se puede utilizar
ln
p
1
n
|n (z)| = ln (|n (z)|)
n
n
2 X
ln |z xj | ,
=
2n j=0
Z
p
1 1
n
ln |z t| dt
lim ln |n (z)| =
n
2 1
Z 1
1
log(z t)dt
=
2
1
1
= {(z + 1) log(z + 1) + (1 z) log(z 1)} 1.
2
n de Lagrange
III.1 Interpolacio
se obtiene que
lim
127
p
n
|n (z)| = G(z).
Si x R, la funcion G es igual a
1
1
G(x) = exp
ln(x + 1)(x+1) + ln(1 x)(1x) 1
2
2
p
1+x
1x
= (1 + x)
(1 x)
/e.
2/e
1/e
1 x
G(z)=2/e
Ejercicios
1.- Demostrar por induccion
y[x0 , . . . , xn ] =
n
X
j=0
n y0 =
yj
Y
i6=j
n
X
n
j=0
1
,
x j xi
yj (1)nj .
n
III Interpolacio
128
x0
(x x0 )(t x1 )
h
G(x, t) =
(t x0 )(x x1 )
h
si x t
si x t
n (x) =
n
X
i=0
|li (x)|
max f (x).
x[x0 ,x1 ]
n de Lagrange
III.1 Interpolacio
129
x[1,1]
n
X
i=0
|li (x)| ,
de Fibonacci:
x1 = xj ,
10
x0 = xj1 ,
d = (x1 x0 );
a = x1 d, b = x0 + d;
d = d;
si (f (a) f (b)) entonces
x0 = a, a = b, b = x0 + d
si no
x1 = b, b = a, a = x1 d;
si (x1 x0 1014 ) vaya a 10
si no, final.
= ( 5 1)/2;
x0
x0
x0
x1
x1
q(xi ) = yi
(i = 0, . . . , n).
x1
n
III Interpolacio
130
10.- Conservando las notaciones, construir una funcion f C 0 [a, b] tal que
kLn (f )k = kf k y kf Ln (f )k = (1 + n ) kf k .
11.- Se considera el conjunto {x0 , . . . , xn } de n + 1 puntos diferentes del
intervalo [a, b] y n la constante de Lebesgue correspondiente a la
interpolaci
on de Lagrange en estos puntos. Se plantea
n
Y
cos cos j
li () =
con i = arccos((2xi (a + b))/(b a)),
cos
i cos j
j=0
j6=i
i = 0, . . . , n.
a) Mostrar que:
!
n
X
n = max
li () ;
R
cos k( ) + cos k( + ) =
0 k n.
b) Planteando n () =
n
X
i=0
i=o
n h
i
X
li ( + i ) + li ( i ) li () , mostrar que:
i=0
n () = 1 + 2
1
si F () =
2
n
X
cos k =
k=1
sin((n + 1/2))
;
sin(/2)
Z
2 (n+1/2) ||
d = n ,
|n (s)| d
3n kF k
0
4
1
n n1 =
cuando n ,
2 +O
n
n3
4
n 2 ln n cuando n .
para k = 1 y 2.
III.2 Splines C
ubicos
(i)
(ii)
(iii)
s(xi ) = yi i = 0, . . . , n
s C 2 ([a, b]),
s de curvatura peque
na.
La curvatura de s est
a dada por
(x) =
(s (x)
3
(1 + (s (x))2 ) 2
suponiendo que s (x) es despreciable, se obtiene s (x) = (x), por consiguiente la condici
on, se expresa de la siguiente forma
Z
xn
x0
(s (x))2 dx min .
(III.2.1)
n
III Interpolacio
132
es la grafica del spline interpolante que pasa por los mismos puntos.
(III.2.2a)
(III.2.2b)
entonces
b
a
[s (x)] dx
[f (x)]2 dx.
La condici
on (III.2.3) es satisfecha si por ejemplo s (a) = s (b) = 0, o
por ejemplo si f (a) = s (a) y f (b) = s (b).
Definici
on III.2.3.- Si s (a) = s (b) = 0, el spline se llama spline natural.
bicos
III.2 Splines Cu
133
=
=
n
X
j=1
xj
xj1
j=1
n
X
[f (x) s (x)]dx
x
j [f (x) s(x)]|xjj1 = 0.
yi ,
pi1 = si (xi1 ),
pi = si (xi ).
(III.2.4)
(III.2.5)
(III.2.6)
(III.2.7)
de donde
si (x) =yi1 + y[xi1 , xi ](x xi1 )
(x xi1 )(x xi )
+
(pi y[xi1 , xi ])(x xi1 )
h2i
+ (pi1 y[xi1 , xi ])(x xi ) .
(III.2.8)
n
III Interpolacio
134
d2
2
= 4hi ,
2 (x xi1 ) (x xi )
dx
x=xi
d2
2
= 2hi ,
2 (x xi1 )(x xi )
dx
x=xi
de donde:
1
4(pi y[xi1 , xi ]) + 2(pi1 y[xi1 , xi ]) ,
hi
1
si+1 (xi ) =
2(pi+1 y[xi , xi+1 ]) + 4(pi y[xi , xi+1 ])
hi+1
si (xi ) =
por lo tanto,
pi1
+ 2pi
hi
1
1
+
hi
hi+1
pi+1
y[xi1 , xi ] y[xi , xi+1 ]
+
, (III.2.9)
=3
+
hi+1
hi
hi+1
(III.2.10a)
(III.2.10b)
Si el spline est
a fijado en los bordes, se tiene s (a) = f (a) y s (b) = f (b),
obteniendo:
p0 = f (a),
pn = f (b).
(III.2.11a)
(III.2.11b)
bicos
III.2 Splines Cu
135
3
0
h1
h1 y[x0 ,x1 ]
p0
1 2( 1 + 1 )
1
3
3
h2
h1 y[x0 ,x1 ]+ h2 y[x1 ,x2 ]
p1
h1 h1 h2
3
1
1
3
2( h1 + h1 )
p2
0
h2
h3
h2 y[x1 ,x2 ]+ h3 y[x2 ,x3 ]
2
3
=
.
.
.
.
.
.
..
..
..
.
.
1
1
1
3
3
1
2( h
+ hn ) hn
hn1
n1
pn1 hn1 y[xn2 ,xn1 ]+ hn y[xn1 ,xn ]
2
1
h1
1
hn
2
hn
3
hn
pn
y[xn1 ,xn ]
2( h1 + h1 )
1
h2
1
h2
2( h1 + h1 )
..
1
h3
..
1
hn1
.
2( h
1
n1
p
1
p2
.. =
..
. .
1
) pn1
+ hn
3
hn1
3
h1
3
h2
..
.
pn
y[xn2 ,xn1 ]+ h3n y[xn1 ,xn ] h
n
n
III Interpolacio
136
se denota por pio a
|pio | = max |pi | ,
i
por consiguiente
2 |pio | (
1
1
|pio |
|pi |
+
) o +
,
h io
hio +1
h io
hio +1
de donde
2 |pio | |pio | .
El Error de la Aproximaci
on Spline
Se ha visto en el paragrafo anterior, que la construccion del spline interpolante es muy simple, solo se requiere resolver un sistema tridiagonal de
ecuaciones lineales. En esta parte, se insistira en las estimaciones del error
cometido en el proceso de interpolaci
on spline.
Sean f : [a, b] R una funcion, a = x0 < x1 < < xn = b una
subdivision del intervalo [a, b] y finalmente s(x) el spline fijo en los bordes
que interpola f , es decir
s(xi ) = f (xi ), i = 0, . . . , n;
s (x0 ) = f (x0 );
s (xn ) = f (xn );
se deseara saber que error se comete, en otras palabras
|f (x) s(x)| ?
Teorema III.2.5.- Si f C 4 [a, b], a = x0 < x1 . . . < xn = b una
subdivision, hi = xi xi1 , los pi derivadas en los nudos del spline fijo
en los bordes. Entonces
|f (xi ) pi |
h3
(4)
f
,
24
(III.2.12)
bicos
III.2 Splines Cu
137
h4
(5)
f
.
60
(III.2.13)
Adem
as del interes del resultado del teorema que servira para la
estimacion del error, se tiene un medio simple para calcular las derivadas
de f en los puntos xi .
Demostraci
on.- La demostracion del caso general es muy similar a la
del caso de los puntos equidistantes, aqu se mostrar
a el caso equidistante,
dejando al lector el caso general. La construccion del spline est
a dada por
las ecuaciones
1
3
(pi1 + 4pi + pi+1 ) 2 (f (xi+1 ) f (xi1 )) = 0.
h
h
(III.2.14)
Se define qi , i = 1, . . . , n 1, por
qi =
1
3
f (xi1 ) + 4f (xi ) + f (xi+1 ) 2 f (xi+1 ) f (xi1 ) (III.2.15)
h
h
n
III Interpolacio
138
se obtiene finalmente que
qi =
1 3 (5)
h f (i ) + f (5) (i ) ,
60
h3
(5)
f
.
20
(III.2.16)
ei = f (xi ) pi ,
que es solucion del sistema de ecuaciones
1
[ei1 + 4ei + ei+1 ] = qi ,
h
i = 1, . . . , n 1.
en consecuencia, se tiene:
4eio = hqio eio 1 eio +1 ,
4 |eio | h |qio | + |eio 1 | + |eio +1 |
h |qio | + |eio | + |eio | ,
de donde finalmente
|ei | |eio |
h
|qi | .
2 o
p (xj ) = f (xj ),
j = i 1, i.
Entonces
|p(x) s(x)|
h5
(5)
f
240
para x [xi1 , xi ].
(III.2.17)
bicos
III.2 Splines Cu
139
Demostraci
on.- El polinomio de Hermite, utilizando (III.2.8), est
a dado
por
p(x) =yi1 + y[xi1 , xi ](x xi1 )
(x xi1 )(x xi )
(f (xi ) y[xi1 , xi ])(x xi1 )
+
h2i
+ (f (xi1 ) y[xi1 , xi ])(x xi ) , (III.2.18)
por lo tanto
(x xi1 )(x xi )
(f (xi ) pi )(x xi1 )
h2i
+ (f (xi1 ) pi1 )(x xi ) ,
h4
f (5)
|p(x) s(x)| |x xi1 | |x xi |
[|x xi | + |x xi1 |]
60
5
h
(5)
f
.
240
i = 0, 1;
i = 0, 1;
h4
(4)
f
.
384
(III.2.19)
Demostraci
on.- Sean > 0 suficientemente peque
no, p (x) el polinomio de
interpolaci
on que satisface:
p (x0 ) = f (x0 ),
p (x0 + ) = f (x0 + ),
p (x1 ) = f (x1 ),
p (x1 ) = f (x1 ).
n
III Interpolacio
140
Por el teorema (III.1.13), se tiene para todo .
(4)
f
,
|f (x) p (x)| |(x x0 )(x x0 )(x x1 = )(x x1 )|
4!
f (4)
2
2
|f (x) p(x)| (x x0 ) (x x1 )
4!
h4
(4)
f
.
384
Finalmente, con los anteriores teoremas se puede dar la siguiente estimacion del error del spline fijo en los bordes.
Teorema III.2.8.- Sean, f C 5 [a, b], xi = x0 + ih, i = 0, . . . , n, con
h = (b a)/n, s(x) el spline fijo en los bordes de la funcion f respecto a la
subdivision equidistante, entonces
h5
h4
(5)
(III.2.20)
max f (4) (x) +
|f (x) s(x)|
f
.
384 x[xi1 ,xi ]
240
Demostraci
on.- Suficiente utilizar la desigualdad del triangulo en los dos
anteriores teoremas, es decir
|f (x) s(x)| |f (x) p(x)| + |p(x) s(x)| .
bicos
III.2 Splines Cu
141
Cn = 3y[xn1 , xn ] 2
pn pn1 .
f (x0 + th)dt;
(III.3.23)
t
0
f (xn th)dt.
n
III Interpolacio
142
pn1
(5)
f
,
(5)
f
,
con || 1;
(III.3.24)
con | | 1.
C0 = 3f (x0 ) + h
h4
(5)
f
60
0
Z 1
4
h
tf (x0 + th)dt
f (5)
,
= h
60
0
h
de donde
f (x0 + th)dt
|C0 |
1
h4
(5)
h max |f (x)| +
f
.
2 xI1
60
Si io = n, se obtiene similarmente
|Cn |
1
h4
(5)
h max |f (x)| +
f
.
2 xIn
60
(|x x xi1 | + |x xi |)
max |f (x)| +
f
4 2 xI1 In
60
h2
h5
(5)
max |f (x)| +
f
.
8 xI1 In
240
El spline fijo en los bordes es mas preciso que el natural, siempre y
cuando se conozca los valores de la derivada de la funcion interpolada en
los bordes. En la demostracion del u
ltimo teorema puede observarse que la
diferencias de los pi verifican una ecuacion de diferencias finitas con valores
en la frontera, resolviendo esta ecuacion puede observarse que la diferencia
entre los pi es mucho menor en los nudos centrales, que en aquellos que est
an
cerca de los bordes. Por consiguiente la estimacion del teorema (III.2.9) es
muy pesimista, en la pr
actica la diferencia de los errores es menor.
bicos
III.2 Splines Cu
143
Aplicaci
on de spline
Al inicio de esta seccion, los splines fuer
on abordados como un instrumento
numerico de aproximacion, como una alternativa a la interpolaci
on polinomial de tipo Lagrange. Esto debido a sus propiedades de no presentar
problemas de inestabilidad numerica, por sus cualidades de convergencia y
por la poca curvatura que presentan.
Ejercicios
1.- Considerar puntos equidistantes xi = x0 +ih, h > 0. Mostrar que existe
un u
nico spline llamado B-spline, tal que para un j fijo se tiene:
s(xj ) = 1,
s(x) = 0 si |x xj | 2h.
Dibujar.
n
III Interpolacio
144
s (x0 ) = s (xn ).
6.- Los splines lj (x) del anterior ejercicio no cambian de signo en ning
un
intervalo [xi1 , xi ].
7.- Sobre el intervalo [xi1 , xi ]
n
X
i=0
III.3 Extrapolaci
on
(III.3.1)
x0+
h > 0.
(III.3.2)
Sea 1 h0 > h1 > > hn > 0 una subdivision decreciente del intervalo
(0, 1], por lo tanto
lim f (x) p(0),
(III.3.3)
x0+
xn x
x x0
+ p2 (x)
.
xn x0
xn x0
(III.3.4)
n
III Interpolacio
146
Demostraci
on.- Se puede ver facilmente que p(x) es un polinomio de grado
menor o igual a n, En los nudos, excepto para i = 0 o i = n, se tiene
xi x0
x n xi
p1 (xi ) +
x n x0
xn x0
x n xi
x i x0
= yi
,
+
x n x0
x n x0
p(xi ) =
para i = 0 y i = n verificaci
on inmediata.
h0+
(III.3.6)
Utilizando la proposici
on III.3.1 y el corolario III.3.2 se tiene las siguientes
relaciones recursivas para determinar p(0):
pj0 (0) =f (hj ),
pj,k (0) pj1,k (0)
.
pj,k+1 (0) =pj,k (0) +
hjk1 /hj 1
(III.3.7a)
(III.3.7b)
n
III.3 Extrapolacio
147
T00
T10
T20
T30
T40
..
.
T11
T21
T31
T41
..
.
T22
T32
T42
..
.
T33
T43
..
.
T44
..
.
..
Los cocientes hjk1 /hj se deducen facilmente del tablero, se toma como
numerador el hi que se encuentra en la misma diagonal a Tk,l y como
denominador el hi que se encuentra en la misma fila que Tk,l .
Ejemplo
Un procedimiento para calcular , es considerar la serie
=4
(1)k
k=0
1
.
2k + 1
k
X
(1)j
j=0
1
,
2j + 1
n
III Interpolacio
148
La pr
actica en la extrapolaci
on numerica muestra que es pr
actico y
conveniente utilizar sucesiones de la forma hj = 1/nj , donde {nj }
j=0 es una
sucesion creciente de n
umeros naturales, por consiguiente la formula (III.3.7)
se convierte en
pj0 (0) = f (hj ),
pj,k+1 (0) = pj,k (0) +
(III.3.8)
k con 0 k ko ,
(III.3.9)
Demostraci
on.- Escribiendo el polinomio de interpolaci
on de grado k,
se tiene
f (x) = pmk (x) + Rk+1 (x),
de donde
pmk (x) f (x) =
m
Y
j=mk
j6=i
m
X
i=mk
h hj
. Para x = 0, se deduce que
hi hj
Tmk a0 =
m
X
i=mk
m
Y
j=mk
j6=i
hj /hi
Rk+1 (hi ).
hj /hi 1
(III.3.10)
n
III.3 Extrapolacio
149
hj /hi
1
por
, mientras que
Si j < i, se mayora
hj /hi 1 1 r ij
ji
hj /hi
por r
si i < j, se mayora
, finalmente |Rk+1 (hi )| por
hj /hi 1
1 r ji
k+1
Ck+1 r im+k hmk
, deduciendo
|Tm,k a0 | C(k, r)Ck+1 hk+1
mk
Tmk = a0 + O(hk+1
m ).
(III.3.11)
Demostraci
on.- Se tiene
Rk+1 (h) = qk (h) + R2k+1 (h) con
qk (h) = ak+1 hk+1 + + a2k h2k .
Utilizando (III.3.10), se deduce
Tmk a0 =
m
X
i=mk
qk (hi )lm,k,i (0) + R2k+1 (hi )lm,k,i (0) .
m
X
i=mk
1
(k + 1)!
m
Y
j=mk
(k+1)
(hj )qk
(),
n
III Interpolacio
150
lo que muestra que
m
X
i=mk
m
Y
j=mk
j6=i
m
Y
hj
i
=
,
hj hi
ij
j=mk
de donde
|R2k+1 (hi )lm,k,i (0)|
deduciendo facilmente el teorema.
j6=i
C2k+1 h2k+1
ik
i
Ejercicios
1.- Sea f : (0, 1] R una funcion cuyo desarrollo asintotico por derecha
en x = 0 est
a dado por
f (x) = a0 + a1 x2 + + ak x2k + O(x2k+2 ).
Modificar el algoritmo de Aitken-Naville, es decir el proceso de extrapolaci
on, de manera que el n
umero de operaciones se redusca ostensiblemente.
2.- En esta seccion, se da un ejemplo de c
omo acelerar la convergencia de
una sucesion para calcular . Suponiendo que el desarrollo asintotico
es par, como en el ejercicio 1, recalcule y compare.
3.- Utilizando el procedimiento de la seccion III.1 para determinar la
influencia de los errores de redondeo en la determinaci
on del polinomio
de interpolaci
on. Estudie la influencia de los errores de redondeo en
la extrapolaci
on, suponiendo que los u
nicos errores de redondeo que
se comete son aquellos relativos a la evaluaci
on de la funcion f a ser
extrapolada.
2, utilizando unprocedimiento
de extrapolaci
o
n, por ejemplo
4.-
Calcule
1
=
1,
1,
21
=
1,
1,
1,
44
=
1,
2,
1,
69
=
1,
3;
1, 96 = 1, 4;
1, 9881 = 1, 41, . . ..
Captulo IV
Ecuaciones No Lineales
(IV.1.1)
(IV.1.2)
153
b2
c,
4
b
x2 =
2
b2
c.
4
(IV.1.3)
(IV.1.5)
planteando x
= x + a/3, la ecuacion se convierte en una ecuacion de la forma
x
3 3p
x 2q = 0.
(IV.1.6)
uv = p,
3
u + v 3 = 2q;
(IV.1.7)
154
IV Ecuaciones No Lineales
por lo tanto:
u3 = q +
p
q 2 p3 ,
v3 = q
p
q 2 p3 ;
(IV.1.8)
(IV.1.9)
planteando x
= x + a/4, esta ecuacion se convierte en una ecuacion de la
forma
x
4 p
x2 2q x
r = 0,
(IV.1.10)
introduciendo z C en la anterior ecuacion, se obtiene la siguiente ecuacion
equivalente
(
x2 + z)2 = (2z + p)
x2 + 2q x
+ z 2 + r,
se elige z de manera que el segundo miembro de la ecuacion precedente sea
una cuadrado perfecto, y eso ocurrre, si y solamente si
(2z + p)(z 2 + r) q 2 = 0,
(IV.1.11)
155
Localizaci
on de Ceros
Como se dijo anteriormente, al no poder calcular explcitamente las raices de
un polinomio, es importante determinar en que region se encuentran estas
raices de manera de poder aplicar un metodo iterativo.
Sea, p(x) un polinomio a coeficientes complejos de grado n, es decir
p(x) = a0 xn + a1 xn1 + + an ,
si x es una raiz, se tiene
xn =
a1 n1 a2 n2
an
x
x
+
.
a0
a0
a0
a0 aa20
a
0
xn1
1
xn2
1
x
...x =
..
.
1
1
0
{z
|
F matriz de Frobenius
n1
x
xn2
. ,
..x
1
}
156
IV Ecuaciones No Lineales
157
por eso que se puede suponer que p(x) Q[x]. Por otro lado, cuando los
polinomios tienen raices de multipliciad mayor a 1, la mayor parte de los
algoritmos no funcionan, debido a la inestabilidades que se pueden presentar,
o a las caractersticas propias de los metodos empleados.
Sea p(x) Q[x], p (x) su derivada, se define el polinomio q(x) utilizando
el algoritmo de Euclides, por
q(x) = mcd(p, p ),
(IV.1.17)
de donde el polinomio r(x) = p(x)/q(x) tiene las mismas raices que p(x)
pero todas simples. Por consiguiente, se ha visto un procedimiento simple
para reducir un polinomio p(x) a otro polinimio simple. En lo que sigue, se
puede suponer que los polinomios considerados tienen raices simples.
M
etodo de Newton
Uno de los metodos com
unmente utilizados en la determinaci
on de raices de
un polinomio, consiste en el uso del metodo de Newton. Aqu se formulara
este metodo, sin estudiar la convergencia y el c
alculo de error, dejando esto
para el siguiente paragrafo. Por lo tanto, el metodo est
a dado por la relacion
recursiva siguiente
p(x)
,
x 1
(IV.1.18)
aplicando Newton sobre q(x). El principal inconveniente de este procedimiento radica en el hecho que puede no ser racional, motivo por el cual r(x)
ya no es exacto y la propagacion de errores de redondeo puede dar resultados
completamente alejados de la realidad. El segundo procedimiento consiste en
aplicar el metodo de Newton a q(x), pero sin calcular los coeficientes de q(x).
Sea p(x) el polinomio a determinar sus raices, suponiendo que se conoce de
antemano 1 , . . . , k raices de p(x), de donde
q(x) =
p(x)
.
(x 1 ) (x k )
(IV.1.19)
158
IV Ecuaciones No Lineales
k
X
i=1
log(x i ),
q (x)
1
p (x) X
=
.
q(x)
p(x)
(x
i )
i=1
(IV.1.20)
p(xm )
k
X
p (xm ) p(xm )
i=1
(IV.1.21)
1
(xm i )
Este u
ltimo procedimiento se conoce como el metodo de Maehly. Este metodo
es numericamente estable, en efecto considerando el siguiente ejemplo dado
por Stoer.
Ejemplo
Se considera el polinomio p(x) definido por
p(x) =
12
Y
j=0
159
METODO MAEHLY
SOL EXAC
SOL NUM
ERROR
SOL NUM
ERROR
1/1
1.00
0.0
1.000
0.0
0.5000
0.894 107
0.950 10
1/2
0.500
1/22
0.15
0.400
0.2500
0.426
0.551
0.1250
0.560
0.498
0.132
0.163
0.266
0.250
1/27
0.157
0.149
1/28
0.237 101
0.028
0.740
0.742
0.865
0.864
0.140
0.140
1/23
1/24
1/25
1/26
1/29
1/210
1/211
1/212
0.894 107
0.820 107
Sucesiones de Sturm
La utilizaci
on de sucesiones de Sturm en la resolucion de ecuaciones polinomiales permite determinar las raices reales y no as las raices no reales. En
la mayor parte de los problemas, es solo importante conocer los ceros reales,
motivo por el cual los procedimientos que utilizan sucesiones de Sturm son
muy comunes en la resolucion de ecuaciones polinomiales
Definici
on IV.1.6.- Una sucesion {f0 , f1 , . . . , fn } de funciones definidas en
R con valores reales, continuamente derivables es una sucesion de Sturm, si:
a) f0 (x )f1 (x ) < 0 si f0 (x ) = 0, x R.
b) fj1 (x )fj+1 (x ) < 0 si fj (x ) = 0, 1 j n 1.
c) fn (x) no cambia de signo sobre R y es positiva
Teorema IV.1.7.- Sea {f0 , f1 , . . . , fn } una sucesion de Sturm, w(x) se
denota al n
umero de cambios de signo de {f0 (x), f1 (x), . . . , fn (x)}.
Entonces la funcion f0 (x) tiene exactamente w(b) w(a) ceros en el
intervalo [a, b].
160
IV Ecuaciones No Lineales
Demostraci
on.- w(x) puede cambiar de valor solamente si uno de los
fj (x) = 0. Por consiguiente, sea x un tal n
umero y sup
ongase que
1 j n 1. Estudiando en un vecindario de x , la funcion w estar
a
determinada por los valores de las siguientes tablas:
x
x +
x +
fj1
fj1
fj
fj
fj+1
fj+1
x +
fn1
fn
x +
f0
f1
x +
f0
f1
f0 (x) := p(x),
f1 (x) := p (x),
..
161
Ejercicios
1.- El polinomio x4 8x3 + 24x2 32x + a0 , a0 = 16 posee una raiz
de multiplicidad 4 en el punto x = 2. Como cambian las raices del
polinomio si se remplaza a0 por a
0 = a0 (1 + ) con || eps? Calcular
las raices de este polinomio, es un problema bien condicionado?
2.- Sea p(x) un polinomio de grado n a coeficientes reales. Supongase que
todas las raices 1 2 n sean reales.
a) Mostrar que el metodo de Newton converge hacia 1 , si x0 > 1 .
Indicaci
on.- Para x > 1 los valores de p(x), p (x), p (x) tienen
el mismo signo que lim p(x). Mostrar que {xk } es una sucesion
x
monotona.
b) Si x0 es mucho mas grande que 1 , entonces el metodo de Newton
converge muy lentamente. (xk+1 xk (1 1/h))
3.- Considerese el polinomio
f (x) = x6 3x5 + 6x3 3x2 3x + 2.
Sin calcular las raices de este polinomio, determinar el n
umero de raices
distintas de f (x).
4.- Encontrar un algoritmo que, para un polinomio arbitrario f Q[x],
permita calcular la factorizaci
on
f (x) = f1 (x) (f2 (x)
2
(f3 (x)
3
k
(fk (x) ,
162
IV Ecuaciones No Lineales
donde f1 , . . . , fk son primos entre si y donde cada polinomio fj (x) solo
tiene raices simples.
a0 6= 0;
.
(xk )2
p(p + 1)f (p+2) ()
8.- El metodo de Newton, aplicado a z 3 1 = 0, da la iteracion
z3 1
2z 3 + 1
zk+1 = (zk ), con (z) = z
=
.
3z 2
3z 2
Denotese por Aj = z0 C; zk e2ij/3 , j = 0, 1, 2; los canales de
atraccion. Mostrar:
a)A0 R = R {0 , 1 , . . .} donde 0 = 0 y k1 = (k ),
b)Aj+1 = e2i/3 Aj ,
c)Calcular 1 (0) y 2 (0) con la formula de Cardano. Esto muestra
que el sector {z C| |arg(z)| < /3} contiene puntos que no convergen
hacia 1.
d) Supongase que k (
z ) = 0 para un k N. Mostrar que U Aj 6=
(j = 0, 1, 2) para cada vecindario U de z.
IV.2 M
etodos Iterativos
Posici
on del Problema
Uno de los problemas mas comunes, se trata del siguiente. Supongase,
que se tiene la funcion
f : I R,
donde I R intervalo. El problema, se trata de obtener con una aproximacion arbitraria las raices de la ecuacion
f (x) = 0.
(IV.2.1)
(IV.2.2)
muestra que puede existir una infinidad de raices, aun cuando f no sea
identicamente nula en un subintervalo.
Por consiguiente, un primer paso consiste en descomponer el intervalo
I, por un n
umero finito o infinito de puntos de subdivision, en subintervalos
en cada uno de los cuales se sepa que, la ecuacion no tiene raiz, o la ecuacion
tenga una y una sola solucion. Se estar
a seguro, que es as cuando la funcion
164
IV Ecuaciones No Lineales
b1
b2
bn
+
+ +
,
x a1
x a2
x an
(IV.2.3)
IV.2 M
etodos Iterativos
165
Ejemplo
Sea f : (1, 1) R definida por
(IV.2.4)
M
etodo de la Falsa Posici
on
En este paragrafo, se supondr
a que
f : [a, b] R
L(b) = f (b),
y=L(x)
y=f(x)
(IV.2.5)
166
IV Ecuaciones No Lineales
1
f ()(x x0 )(x x1 )
2
(IV.2.6)
Proposici
on IV.2.2.- Si f no se anula en el intervalo I, y si f (0 ) = 0,
L() = 0 para , 0 I, entonces se tiene
0 =
1 f ()
( a)( b),
2 f ( )
(IV.2.7)
donde y son n
umeros que pertenecen a I.
Demostraci
on.- Por (IV.2.6), se tiene
f () =
1
f ()( a)( b),
2
M
(b a)2 .
8m
(IV.2.8)
IV.2 M
etodos Iterativos
167
L(c) = f (c)
L(b) = f (b);
(IV.2.9)
f (c) f (a)
(x a)
ca
f (b) 2f (c) + f (a)
(x a)(x c),
+2
(b a)2
IV.2.10)
1
f ()(x a)(x c)(x b),
6
(IV.2.11)
1 f ()
( a)( c)( b)
6 f ( )
(IV.2.12)
donde y son n
umeros que pertenecen a [a, b].
Demostraci
on.- Por (IV.2.11), se tiene
f () =
1
f ()( a)( c)( b),
6
168
IV Ecuaciones No Lineales
M
(b a)3 .
24m
(IV.2.13)
(IV.2.14)
Sistemas de Ecuaciones
Los problemas que han sido estudiados mas arriba estaban relacionados a
funciones de una sola variable con valores reales. Ahora bien, existe una gran
variedad de problemas donde se deben resolver sistemas de ecuaciones, que
en general no son lineales. La posici
on del problema es por consiguiente:
Dada f : U Rn Rn , encontrar U tal que
f () = 0.
(IV.2.15)
IV.2 M
etodos Iterativos
169
x
x = (fx )
1
de donde si (fx )
f (
x) es peque
no.
f (
x) + O(kf (
x)k ),
es casi singular, x
x puede ser muy grande, aun si
Un m
etodo Iterativo simple
Existe otra clase de ecuaciones que pueden ser escritas de la forma
f (x) = x,
(IV.2.17)
C < 1;
170
IV Ecuaciones No Lineales
Cm
,
1C
que tiende a cero, cuando n, m tienden a . Sea x = lim xn , se deduce
d(xn , xm )
y la u
nica posibilidad que suceda esto es que x = y.
El anterior teorema se
nala claramente que si la funcion es continua,
y la sucesion definida por (IV.2.18) es convergente, entonces el lmite de esta
sucesion es la solucion del problema (x) = x. Por consiguiente, la pregunta
natural que uno puede plantearse es cuando existen condiciones suficientes
para tener convergencia. Definiendo el error en como
en = xn x ,
donde x es la solucion exacta, y xn la n-sima iteracion, se obtiene:
en+1 = xn+1 x = (xn ) (x )
en+1 (x )en .
= (x )(xn x ) + O kxn x k2 ,
(IV.2.19)
IV.2 M
etodos Iterativos
171
Demostraci
on.- Se mostrar
a solamente el inciso a), dejando al lector el
inciso b) con las observaciones hechas antes de enunciar el teorema.
Se supone que el metodo converge x0 Rn . Sea un valor propio de A,
y e0 un vector propio respecto a este valor propio, entonces
en = An e0 ,
n e0 0,
.
1 . .
..
0
. 1
..
.
T 1 AT =
.
2
.
0
.. 1
..
.
Sea D = diag(1, , 2 , . . . , n1 ),
D1 T 1 AT D =
por consiguiente
..
.
..
0
.
1
.
2 . .
..
0
.
2
..
= J,
172
IV Ecuaciones No Lineales
si es suficientemente peque
no, se tiene kJk < 1, de donde el metodo es
convergente.
Para el problema f (x) = 0, se vio antes que se puede convertir en
problema de punto fijo, planteando
(x) = x Af (x),
(IV.2.20)
f(x,y)
=
,
cos x cos y
la inversa de la derivada de f , esta dada por
1
cos y
2y
1
(f(x,y) ) =
.
2(x cos y y cos x) cos x 2x
Recorriendo a travez de la circunferencia de radio 1 dada por la primera
ecuacion se escogen los valores de x, y para los cuales remplazando en la
segunda ecuacion se tiene valores muy cerca a 1/2. Una vez determinados
estos valores se consigue una aproximacion de la matriz A para poder
aplicar el metodo iterativo. Las soluciones obtenidas con una precisi
on
del orden de 1010 son:
x = 0.3176821764792814,
x = 0.948197255188055,
y = 0, 948197255188055;
y = 0, 3176821764792814.
IV.2 M
etodos Iterativos
173
Ejercicios
1.- Sea A una matriz que es diagonal dominante, es decir
X
|aii | >
|aij | , i = 1, . . . , n;
j6=i
K(x, s, y(s))ds,
()
donde a, b, f, K est
an dados, se busca y(x). Mostrar, si el nucleo K es
degenerado, es decir
K(x, s, y) =
n
X
i=1
n
X
ci ai (x)
i=1
j=1
1
.
10
4m 2n
q .
M
IV.3 M
etodo de Newton
(IV.3.1)
IV.3 M
etodo de Newton
175
(IV.3.2)
Ejemplos
1.- Considerese la ecuacion de una sola variable dada por
f (x) = 2x tan x,
para aplicar el metodo de Newton la derivada est
a dada por
f (x) = 2
1
,
cos2 x
xk
f (xk )
1, 2
0.172152
1 1.16934
e2k /ek1
1.69993 102
3.38337
176
IV Ecuaciones No Lineales
xk
yk
kf (xk )k2
0.5
2.
0.25
.516666 1.96666
kek k2 / kek1 k2
0.134722
14.3688
28.3211
446885.
732995.
de donde
1
0 = f (xk ) (xk+1 x ) f (xk )e2k + O((ek )3 ),
|
{z
} 2
e2k+1
ek+1 =
1 f (xk ) 2
e + O((ek )3 ),
2 f (xk ) k
1 f (xk ) 2
e + O((ek )3 ),
2 f (xk ) k
(IV.3.3)
IV.3 M
etodo de Newton
177
donde ek = x xk .
Para el caso de una funcion de varias variables, la situaci
on es bastante
similar, en efecto sea
f : U Rn Rn ,
f1
x1
xn
.
..
f (x) =
. ,
..
fn
x1
fn
xn
X
i,j
2f
(x)hi , kj ,
xi xj
1
1
3
f (xk )
f (xk )(ek , ek ) + O(khk ).
2
Demostraci
on.- Similar a la del caso de una sola variable.
(IV.3.4)
C
alculo de la Derivada
Al implementar el metodo de Newton, se debe c
alcular la derivada de f en
cada punto. La primera forma de determinar la matriz f (xk ) es de manera
analtica, construyendo as una subrutina para evaluar los coeficientes de
la matriz jacobiana en cada iteracion. Pero lastimosamente, no siempre
178
IV Ecuaciones No Lineales
t
t
n
o
1
g(t) + g (0)1 t(1 + 2 ) g(0)(1 + 3 ) g(t) + g(0)
t
o
1n
2 g(t) + g (0)1 t 3 g(0) ,
t
donde |i | eps, por consiguiente
error de redondeo
1
2 |g(0)| + |g (0)t| eps.
|t|
(IV.3.6)
IV.3 M
etodo de Newton
179
Lo ideal ser
a, por lo tanto escoger un valor de t de manera que los errores
de aproximacion y de redondeo se aproximen, ver figura IV.3.1.
Err de aprox
Err de redon.
El Teorema de Newton-Misovski
Se ha formulado el metodo de Newton de una manera general, dando
inclusive una estimacion del error cometido, deduciendo que si el metodo
converge, la convergencia es cuadratica. Pero sin embargo, no se enunci
o las
condiciones suficientes para obtener convergencia de este metodo. El siguiente teorema dara las condiciones suficientes para asegurar la convergencia del
metodo, cuando la funcion f cumple ciertas condiciones.
Teorema IV.3.3.- Newton-Misovski. Sean D Rn abierto y convexo,
f : D Rn continuamente diferenciable, f (x) inversible para todo x D,
x0 D satisfaciendo las siguientes condiciones:
a)
kx0 k
,
2
b)
(f (y)1 f x + t(x y) f (x) (y x)
t ky xk , x, y
D, t [0, 1];
1
c) := < 1;
2
< 1;
d) :=
1
0 , ) = {x Rn | kx x0 k }.
e) B(x
180
IV Ecuaciones No Lineales
Entonces:
i) La sucesion {xk } definida por el metodo de Newton se queda dentro
B(x0 , ) y converge hacia una solucion x de f (x) = 0.
2
ii) Se tiene la estimacion kxk k
2 kxk1 k .
2
iii) kxk x k
kxk1 k .
2k
2(1 )
Demostraci
on.- Es claro por la definicion del metodo de Newton que si
{xk } es convergente, entonces el lmite de la sucesion es igual a x , donde
f (x ) = 0. Se mostrar
as la conclusiones por induccion. Se supone que
xk , xk1 D, para k 1, entonces
kxk k
kxk1 k2 ,
2
en efecto
kxk k =
(f (xk ))1 f (xk )
=
(f (xk ))1 f (xk ) f (xk1 ) f (xk1 )xk1
Z 1
f (xk1 + txk1 ) f (xk1 ) xk1 dt
=
f (xk )
1
0
f (xk ) f (xk1 + txk1 ) f (xk1 ) xk1
dt
t kxk1 k2 dt =
kxk1 k2 .
2
0 =
= .
2
Si x0 , x1 , . . . , xk D, entonces
kxk k k ;
2
es cierto para k = 0, sup
ongase cierto para k 1, por consiguiente
2
2
kxk k
kxk1 k k1
= k .
2
2
k
IV.3 M
etodo de Newton
181
2
(1 + l2 + l4 + )
2 l2
.
1 l2
Para l = 0, se tiene kxk+1 x0 k
donde xk+1 B(x0 , ).
Por otro lado,
kxk+1 xl k
2 2
<
=
= , de
1 2
1
1
2 l2
0,
1 l2
cuando k l .
kxk1 k ,
2
2
;
l = l1
k
de donde k1 k1 y k k 2 , adem
as
kxl k l
2
De donde
para l l 1.
2
kxl+1 xk k
kxk1 k
,
2 1 2k
182
IV Ecuaciones No Lineales
por consiguiente
(f (y))1 [f x + t(x y)) f (x) ](y x) = t(f (y))1 f (x)(y x, y x)+
3
O(ky xk ),
3
si D es bastante peque
no, entonces se puede despreciar O(ky xk ), de
donde
(f (y))1 [f x + t(x y)) f (x) ](y x)
t
(f (y))1 f (x)
ky xk2 ,
por consiguiente
sup
(f (y))1 f (x)
(IV.3.8)
x,yD
x21 + x22 1
x2 x21
(f (x))
1
=
2x1 (1 + 2x2 )
1
2x1
2x2
2x1
IV.3 M
etodo de Newton
183
5
0, 37 = .
kx0 k =
6
b) El estudio de la segunda condici
on da:
(f (y))1 f (x + t(x y)) f (x) (y x)
1
2t(y1 x1 ) 2t(y2 x2 ) y1 x1
1 2y2
=
y2 x2
2t(y1 x1 )
0
2y1 (1 + 2y2 ) 2y1 2y1
2
t
(1 + y2 )(y1 x1 ) + (y2 x2 )2
=
.
2y1 (y2 x2 )2
2y1 (1 + 2y2 )
Se observa inmediatamente que las componentes son positivas, mayorando respecto a y, se obtiene
(f (y))1 f (x + t(x y)) f (x) (y x)
t 3(y1 x1 )2 + (y2 x2 )2
,
4(y2 x2 )2
2
pasando a la norma de la convergencia uniforme, se obtiene
(f (y))1 f (x + t(x y)) f (x) (y x)
2t ky xk inf ty 2 ,
de donde:
b) = 2.
c) = 0, 37 < 1.
0, 37
1
0 , ) 6 D, de donde no se puede
d) =
. Ahora bien, B(x
1 0, 37
2
garantizar las conclusiones del teorema. Sin embargo, tomando como x0
el valor de la primera iteracion a partir del valor inicial del ejemplo se
tiene
t
5 2
x0 =
,
,
6 3
obteniendo
19/213
, kx0 k = 0, 066 = ,
x0 =
1/21
de donde
= 0, 066,
= 0, 07,
0 , ) D.
B(x
Por lo tanto, las tres condiciones del teorema son verificadas, teniendo
garantizada de esta manera la convergencia del metodo de Newton.
El teorema de Newton-Misovski da las ventajas de utilizar el metodo
de Newton para resolver el problema f (x) = 0, sin embargo:
184
IV Ecuaciones No Lineales
Desventajas del m
etodo de Newton
Cada iteracion del metodo es costosa en operaciones. En efecto el
c
alculo de f (x) y la resolucion del sistema lineal adyacente cuestan
mucho si la dimension del sistema es grande. Resolver el sistema LR
cuesta aproximadamente n3 /3 operaciones.
Convergencia local. El metodo converge solamente si x0 est
a suficientemente pr
oximo de la solucion x .
M
etodo de Newton Simplificado
Una de las mayores desventajas que tiene el metodo de Newton, consiste en
el hecho de calcular en cada iteracion la matriz derivada y el sistema lineal
asociado. Se puede simplificar el metodo de Newton de la siguiente manera:
x0
arbitrario,
1
xk = f (x0 )
f (xk ),
(IV.3.9)
xk+1 = xk + xk .
Por consiguiente se debe calcular una sola vez f (x0 ) y calcular una vez la
descomposici
on LR. Por lo tanto, la primera iteracion consume aproximadamente n3 /3 en el c
alculo de la descomposici
on, y las dem
as iteraciones necesitan aproximadamente n2 operaciones. La desventaja de utilizar el metodo
de Newton simplificado reside en el hecho en que se pierde la convergencia
cuadratica, obteniendo una convergencia lineal. En efecto, considerando este
metodo como un metodo iterativo simple, dado en la seccion precedente se
tiene:
1
xk+1 = (xk ), donde (x) = x f (x0 )
f (x);
1
(x) = I f (x0 )
f (x).
Ahora bien, se tiene convergencia local, si y solamente si
1
(I f (x0 )
f (x)) < 1,
(IV.3.10)
IV.3 M
etodo de Newton
185
,
f (x) =
..
..
.
.
b)
M (x0 )1 (f (y) f (x))
ky xk , x, y D;
c)
M (x0 ) (f (x) M (x))
0 + 1 kx x0 k,
M (x0 )1 (M (x) M (x0 )
kx x0 k;
d) 0 < 1, := max(, + 1 ) y
h=
e) B(x0 , ) D, con
=
1
2 2;
(1 0 )
1 2h
;
h
1 0
entonces:
i) M (x) es inversible para x B(x0 , ),
ii) La sucesion {xk } definida por (IV.3.10) se queda en B(x0 , ) y converge
hacia una solucion x de f (x) = 0,
=
iii) Se define h
= h,
(1 0 )2
=
p
1 2h
,
1 0
h
186
IV Ecuaciones No Lineales
h cuya
Antes de demostrar el teorema hay que remarcar que h
verificaci
on es inmediata y tambien ; en efecto considerando los
desarrollos en serie de Taylor se tiene:
1x=
X 1/2
j0
(x)j = 1
x
c 2 x2 c 3 x3 ,
2
con los cj 0,
1
1 2h
= 1 + 4c2 h + 8c2 h2 + 16c4 h3 + ,
h
_
+
x0
1 1 2h
(1 0 )62 (1 0 ) 1,
=
h
1 0
X
(I + B)1 =
(1)k B k ,
k=0
IV.3 M
etodo de Newton
187
por consiguiente
(I + B)1
M (x)1 M (x0 )
1
1
,
1 kBk
1 kx x0 k
1
kx x0 k < .
1 kx x0 k
(IV.3.11)
f (xk1 +t(xk xk1 )) f (xk 1) dt(xk xk1 )
M (xk )
+
1
0 + 1 kxk1 x0 k kxk x0 k
1 kxk x0 k
1
kxk xk1 k
1 kxk x0 k 2
1
0 + 1 kxk1 x0 k kxk x0 k .
+
1 kxk x0 k
+
De donde
kxk+1 xk k
n
o
1
kxk xk1 k2 + (0 + ( kxk1 x0 k) kxk xk1 k .
1 kxk x0 k 2
Para resolver esta desigualdad, se remplaza kxk+1 xk k por tk+1 tk y
kxk x0 k por tk , el smbolo de desigualdad por el de igualdad, definiendo
as una sucesion {tk } R, que verifica:
t0 = 0,
t1 = ,
tk+1 tk =
1
(tk tk1 )2 + (0 + ( )tk1 )(tk tk1 ) ,
1 tk
188
IV Ecuaciones No Lineales
2
t + (1 0 )tk
2 k
2
t
+ (1 0 )tk1 = ,
2 k1
expresi
on que es constante por que no depende de k. Expresando
tk+1 = tk +
2
2 tk
(1 0 )tk +
u(tk )
= tk +
= (tk ),
1 tk
v(tk )
2
t (1 0 )t + ,
2
v(t) = 1 t.
IV.3 M
etodo de Newton
189
donde 1,2 son las raices de u(t). Expresando ambas raices en funcion de h,
se obtiene
1 1 2h
,
1,2 =
h
1 0
puesto que h 1/2, las dos raices de u son positivas, siendo 1 la raiz mas
peque
na, se tiene:
1 2 ,
1 = .
Por otro lado, ambas raices son acotadas, en efecto
1 + 2
1
1 0
1
=
=
.
2
h 1 0
1/
2 1/
1 2
1 <
1
< 2
1/
2 =
u(t)
,
v(t)
v(t) + u (t)
v (t)
+ u(t) 2 ,
v(t)
v (t)
| {z }
>0
v(t) + u (t) = 1 t + t (1 0 ) = 0 + ( )t 0.
(t) =
190
IV Ecuaciones No Lineales
planteando:
(x) = M (x0 ),
M
= ,
= ,
= 0.
1
con 0 = 0 , 1 = 1 + y
= . Definiendo G(x) = x M (x0 ) f (x), se
tiene:
IV.3 M
etodo de Newton
191
ky xk1 k
2
+ kxk1 x0 k ky xk1 k + 0 ky xk1 k ,
ky xk1 k
kxk xk1 k
2
+ kxk1 x0 k kxk xk1 k + 0 kxk xk1 k ,
s k tk =
2
(t 2tk tk1 + t2k+1 ) + tk1 (tk tk1 ) + 0 (tk tk1 ),
2 k
2
(s
2sk1 tk1 + t2k1 ) + tk1 (sk1 tk1 ) + 0 (sk1 tk1 )
2 k1
192
IV Ecuaciones No Lineales
2
t + 0 t + ,
2
t0 = 0;
s0 = ky x0 k < + .
1 2h
,
(t)
IV.3 M
etodo de Newton
193
= 1, 2;
0 = 0;
= 1, 2.
= ;
1 = 0;
Verificando y efectuando c
alculos se obtiene:
h = 0, 444 1/2,
= = 0, 554;
+ = 0, 981.
M
etodo de Newton con Relajaci
on
Una de las principales desventajas del metodo de Newton, tanto en su version
original, como en su version simplificada, es que es necesario estar cerca de
la solucion del problema. Lamentablemente, en una gran mayora de casos
eso no es posible. Por lo tanto, es necesario modificar el metodo de manera
a que la convergencia sea una preocupacion menor. El metodo de Newton
est
a dado, por las iteraciones
1
xk+1 = xk (f (xk ))
f (xk ),
pk = (f (xk )) f (xk ),
xk+1 = xk + k pk ;
con 0 < 1. La base te
orica de esta modificaci
on est
a dada por la:
Proposici
on IV.3.5.- Sean D Rn , f : D Rn continuamente diferen1
ciable, x0 D, f (x0 ) 6= 0 y p0 = (f (x0 )) f (x0 ). Entonces para toda
matriz A inversible, existe 0 > 0 tal que para todo , 0 < < 0 , se tiene
kAf (x0 + p0 )k < kAf (x0 )k .
194
IV Ecuaciones No Lineales
Demostraci
on.- Se define la funcion g : R R para una matriz A fija e
inversible, como
g() = kAf (x0 + p0 )k22
t
= f (x0 + p0 ) At Af (x0 + p0 ),
f (x0 )
< 0,
(IV.3.12)
(IV.3.13)
(IV.3.15)
IV.3 M
etodo de Newton
195
xk + k xk x = (f (xk ))
f (xk + xk ),
A = (f (xk ))
(IV.3.16)
1
Por lo tanto (IV.3.15), se convierte en g() =
(f (xk )) f (xk + xk )
y el
problema radica en determinar , para que g() sea mnimo. A continuacion
se da un algoritmo simple que permite determinar este :
k de k . Se tiene dos
Supongase que se conoce xk y una aproximacion
casos:
k ) 0, es decir xk +
k es peor que xk .
a) g(
Se busca el mas peque
no de los j > 1, tal que
k 2j ) < g(0),
g(
k 2j .
se plantea k =
k ) < 0. Se busca el j > 0 mas peque
b) g(
no tal que
k ) > g(2j
k )
g(2j+1
k .
y se plantea k = 2j
En ambos casos k no debe ser mas grande que 1.
k ? UtiFinalmente surge la u
ltima interrogante, Como determinar
lizando un desarrollo de Taylor se tiene:
(f (xk ))1 f (xk + xk ))
2
1
3
f (xk ) + f (xk )xk + f (xk )(xk , xk ) + O( )
= (f (xk ))
2
196
IV Ecuaciones No Lineales
Por otro lado f (xk ) + f (xk )xk = (1 )xk y (f (xk ))1 f (xk ) = xk ,
de donde utilizando el desarrollo de Taylor, la desigualdad del triangulo y
las observaciones anteriores, se tiene
2
hk + O(3 ))
2
donde hk =
(f (xk ))1 f (xk )(xk , xk )
/ kxk k . Despreciando el termino O(3 ), se obtiene un polinomio de grado 2, cuyo mnimo se encuentra
en
k = 1 ,
(IV.3.17)
hk
g() kxk k (1 +
de donde
d
xk xk
hk
d
k1 kxk1 k
x
k
,
kxk k
k
k = min 1, k1
kxk1 k kx
k
.
d
d
xk xk
xk
(IV.3.18)
Ejemplo
Considerese, la funcion f definida por
f (x) =
13x1 + x2 ((5 x2 ) 2)
29 + x1 + x2 ((1 + x2 )x2 14)
IV.3 M
etodo de Newton
197
x1
kxk
x2
8.5849058 3.94357758
7.8125 103
1183.1361
4.989738
4.0012650
4.9999949
4.9999999
5.0
4.000000
4.0
13.574766
1.0
5.08213 10
0.0
x1
x2
1162.367 220.297
47637.0
21035.69
kxk
1183.1
147.095
46474.7
98.296
26601.42
9256.28 65.77062
11779.45
1755.45
4049.98 44.09533
5206.34
29.658
2294.57
748.669
20.056
1006.82
310.0149
13.688
438.7011
121.126
9.5002
188.934
41.5288
6.8016
79.6434
9.51218
5.16002
32.05875
1.887
4.3114
11.4307
13
4.7248
4.03167
2.8516
14
4.9968
4.0003
0.27378
15
4.9999
4.0000
16
4.9999
4.0
3.149 103
17
5.0
4.0
5
6
7
8
9
10
11
12
4.566 107
0.0
1.0
1.0
1.0
198
IV Ecuaciones No Lineales
Aproximaci
on de Broyden
Uno de los principales problemas en la implementacion del metodo de
Newton, tanto en su version con relajaci
on, como en su version original, es
el c
alculo de la matriz jacobiana f (xk ) en cada iteracion y por consiguiente
mediante el algoritmo de eliminacion de Gauss determinar la descomposici
on
LR de esta matriz. Existen muchas alternativas para evitar el c
alculo de la
matriz jacobiana y su descomposici
on LR en cada iteracion. El siguiente
an
alisis permitir
a encontrar algunas de estas alternativas. Utilizando las
relaciones dadas por (IV.3.17) y (IV.3.18) respecto a la determinaci
on de los
coeficientes de relajaci
on, la experiencia numerica indica que, si k hk 101
se puede tomar en el lugar de f (xk+1 ) f (xk ). En este caso se tiene
la versi
on simplificada del metodo de Newton. Sin embargo, existe otra
alternativa descubierta por Broyden en 1965. Se supone, que se conoce una
aproximacion Jk de f (xk ), es decir
Jk f (xk )
(IV.3.19)
(IV.3.20)
por lo tanto
q = Jk+1 xk Jk xk = f (xk ) +
Jk+1 xk ,
| {z }
f (xk+1 )xk
{z
}
|
f (xk+1 ) + O kxk2
de donde
Jk+1 xk = Jk xk + f (xk+1 ).
(IV.3.20)
k+1
< kxk k, donde
Proposici
on IV.3.6.- Si Jk es inversible y
x
xk = Jk1 f (xk )
k+1 = J 1 f (xk+1 ),
x
k
IV.3 M
etodo de Newton
199
k+1 , xk = 0,
kxk k2 x
k+1 , xk
x
k+1
kxk k < kxk k2 ,
x
Ejercicios
1.- Utilizando el teorema de Newton-Kantorovich encontrar > 0 tal que
la iteracion
zk+1 = zk
f (zk )
f (zk )
f (z) = z 3 1
200
IV Ecuaciones No Lineales
los autores consideran la modificaci
on siguiente del metodo de Newton:
f (xk )xk = f (xk ) + k
xk+1 = x + l + xk .
(IV.3.22)
(IV.3.23)
con < 1.
a) Mostrar el resultado:
Sea D Rn abierto, f : D Rn y : D Rn continuamente
diferenciables en D. Si la condici
on (IV.3.23) es satisfecha con < 1
y si kx0 k es suficientemente peque
no, entonces la iteracion (IV.3.21)
converge hacia una solucion de f (x) = 0.
b) El teorema precedente no es cierto, en general, si se remplaza < 1
por 1. Mostrarlo.
Indicaci
on. Encontrar una matriz M (x) tal que la iteracion (IV.3.21) se
vuelva equivalente a
M (xk )xk = f (xk ),
y aplicar el teorema de Newton-Kantorovich. Utilizar la norma
kukJ = kf (x0 )uk .
4.- (U. Ascher & Osborne 1987). Considerar una funcion f : R2 R2 que
satisfaga
1
1 0
4 3 3
f (0) =
f (0) =
,
0 1
10 4 3 3
1
1/ 3 1/ 3
4
,
f (u) =
f (u) =
1
1
5 3
donde u = f (0). Aplicar el metodo de Newton con el valor inicial
x0 = 0. Para la sucesion {xk } obtenida de esta manera mostrar:
a) xk+2 = xk para todo k 0;
b) el test de monotonocidad
1
1
(f (xk )) f (xk+1 )
<
(f (xk )) f (xk )
2
IV.3 M
etodo de Newton
201
donde M = max
i
X X 2 fi
.
(x)
xj xl
j
x1 x2
(x1 8)x2
x1
x2
| 1 < x1 , x2 < 3 ,
x0 =
0.125
0.125
3
+( 1)f (xk )(p, p) + O(kpk ).
2
b) para [0, 2]
2
kJk+1 f (x0 + p)k2 kJk f (xk )k2 + kf (xk )(p, .)k2 + O(kpk ).
202
IV Ecuaciones No Lineales
(IV.3.24)
y(x) = 0 es solucion de (IV.3.24) para todo R. Con las ideas del
ejercicio 3 de la anterior seccion se puede escribir (IV.3.24) bajo la forma
G(c1 , c2 , ) = 0.
Calcular los , donde det G (C, 0) = 0.
C
Interpretar estos puntos con el teorema de las funciones implicitas.
(Soluciones: 1 = 2, 2 = 3)
11.- Mostrar numericamente que para 1 = 1 + ( > 0) el problema
(IV.3.24) posee al menos 3 soluciones, para 1 > 2 al menos 5
soluciones.
Calcular tambien todas las soluciones de (IV.3.24) para = 10, (hay
13).
IV.4 M
etodo de Gauss Newton
con
n m,
(IV.4.1)
(IV.4.3)
t
x x0 = f (x0 ) f (x0 ),
+
(IV.4.4)
204
IV Ecuaciones No Lineales
Por lo tanto, se puede formular el metodo de Gauss-Newton, como:
+
xk = f (xk ) f (xk ),
(IV.4.5)
xk+1 = xk + xk .
El c
alculo de xk se lo realiza, utilizando la descomposici
on QR dada en
el captulo II.5. Como se puede observar, la implementaci
on del metodo de
Gauss-Newton es muy simple, y al igual que el metodo de Newton existen
muchas variantes o modificaciones de este.
Convergencia del M
etodo de Gauss-Newton
Sea, {xk } la sucesion definida por el metodo de Gauss-Newton, si esta
sucesion es convergente cuando k , se tiene
+
f (x) f (xk ) 0,
xk 0,
sup
ongase que lim xk = x , que el rango de f (x) es constante en un
k
xj
m
X
fi (x)
i=1
=2
de donde
m
X
fi
(x) fi (x) = 0,
xj
i=1
t
f (x) f (x) = 0.
j;
(IV.4.7)
(IV.4.8)
Demostraci
on.- Por el teorema II.5.5 existen dos matrices ortogonales U
y V , tales que
1
..
0
.
V t,
f (x) = U
k
0
0
IV.4 M
etodo de Gauss Newton
205
remplazando, se tiene
t
f (x) = V
..
0
U t = 0,
1
1
..
+
0
.
U t = 0.
f (x) V
1
k
0
0
A la diferencia del metodo de Newton, el metodo de Gauss-Newton
ofrece solamente convergencia de tipo lineal, situacion que ser
a mostrada a
continuacion. Como antes, se define g(x) = (f (x))t f (x), si x es solucion
del problema de minimizacion de la norma euclidiana, se tiene g(x ) = 0.
El desarrollo en serie de Taylor en punto x de la funcion g, da el siguiente
resultado
2
0 = g(x) + g (x)(x x) + O(kx xk2 ),
por otra lado, la funcion g y sus derivadas parciales satisfacen:
gj (x) =
gj
(x) =
xk
de donde
m
X
fi (x)
i=1
m
X
i=1
xj
fi (x),
m
X
2 fi (x)
fi
fi
fi (x) +
(x)
(x),
xj xk
x
x
j
k
i=1
t
+O(kx xk k22 ),
206
IV Ecuaciones No Lineales
t
multiplicando esta u
ltima expresi
on por f (xk ) f (xk ) se obtiene
t
f (xk ) f (xk )
B(xk )(f (xk ), ) < 1;
y diverge si
f (xk ) f (xk )
1
> 1.
relaciones (IV.3.5) y (IV.3.6), este error es del orden de eps, donde eps
es la precisi
on del computador. Por consiguiente la k-esima iteracion del
metodo de Gauss-Newton, considerando que el error cometido por redondeo
se encuentra solamente en el c
alculo de f (x), est
a dada por
+
xk = (f (xk ) + E) f (xk ),
IV.4 M
etodo de Gauss Newton
207
+O(kx xk k22 ),
eps.
Modificaciones del M
etodo de Gauss-Newton
Similarmente al metodo de Newton, existen varias modificaciones del metodo
original de Gauss-Newton. Una de las mayores dificultades en la implementacion de este metodo consiste en calcular f (xk ) en cada iteracion.
Por consiguiente, una primera modificaci
on consiste en utilizar el metodo
de Gauss-Newton simplificado, el cual est
a dado por:
(
x0 bastante pr
oximo de la solucion,
+
xk = f (x0 ) f (xk ),
oximo de la solucion;
x0 bastante pr
+
xk = f (x0 ) f (xk ),
xk+1 = xk + k xk , 0 < k 1.
208
IV Ecuaciones No Lineales
e 1 y1
t1 ext1
.
.
,
..
..
f (x) =
f (x) =
,
xtm
xtm
tm e
e
ym
continuando con los c
alculos se tiene:
t
f (x) f (x) =
m
X
(ti exti )2 ,
i=1
B(x)(f (x), ) =
m
X
i=1
i = 1, . . . , m;
IV.4 M
etodo de Gauss Newton
209
siguientes puntos: (2, 3), (2, 1), (1, 2), (3, 2) y (2.5, 2.5). Ahora bien la
ecuacion de una circunferencia de centro (h, k) y radio r est
a dada por
(x h)2 + (x k)2 r 2 = 0,
(h 2)2 + (k 3)2 r 2
(h 2)2 + (k 1)2 r 2
(h 3)2 + (k 2)2 r 2
(h 2.5)2 + (k 2.5)2 r 2
h =1.95833333333295,
k =1.95833333333295,
r =0.959239125904873
210
IV Ecuaciones No Lineales
del metodo de Gauss-Newton.
4.0
3.5
3.0
2.5
2.0
1.5
1.0
.5
.0
.0
.5
1.0
1.5
2.0
2.5
3.0
3.5
4.0
IV.4 M
etodo de Gauss Newton
211
El M
etodo de Levenberg-Marquandt
El problema abordado en esta seccion, es resolver kf (x)k min, donde
f : Rn Rm , con n m. El metodo propuesto en el anterior paragrafo
fue el metodo de Gauss-Newton. Como se ha visto, uno de los mayores
incovenientes es que para iniciar las iteraciones se debe partir de un punto
inicial bastante pr
oximo de la solucion, por otro lado los analisis hechos se
basan en el supuesto que f (x) es de rango igual a n, es decir de rango maximal, adem
as si f (x) no es lo suficientemente peque
no el metodo de GaussNewton diverge. Por las razones expuestas es necesario formular un metodo
alternativo que permita evitar las situaciones enumeradas anteriormente.
El metodo de Levenberg-Marquandt que constituye un metodo alternativo para resolver el problema de encontrar x con kf (x)k mnima, se basa en
las siguientes ideas. Al formular el metodo de Gauss-Newton, se considero
la serie de Taylor de f (x) en el punto xk , resultado de la k 1 iteracion y
se plante
o
kf (x)k = kf (xk ) + f (xk )(x xk ) + O(kx xk k)k min,
suponiendo que x xk es lo suficientemente peque
no, se obtena como
formulacion del metodo de Gauss-Newton
kf (xk ) + f (xk )(x xk )k min,
y como condici
on suplementaria deseable
kx xk k min,
La idea de Levenberg fue de considerar el problema siguiente para determinar
el valor de xk+1
2
(IV.4.9)
(IV.4.10)
Dependiendo de la eleccion del parametro p, el metodo de LevenbergMarquandt, tiene los siguientes comportamientos:
Si p 0, se tiene el metodo de Gauss-Newton, para ver realmente lo
que sucede ver el captulo II, seccion 5, ejercicio 5.
212
IV Ecuaciones No Lineales
Ejercicios
1.- Encontrar una elipse, una hiperbola, que pasa lo mejor posible por los
puntos (xi , yi )i=1,...,m . Por ejemplo m = 10; (1/2, 1), (1/2, 0.1),
(2.5, 1), (1.5, 1.5), (0.3, 1.5), (0.5, 2), (3, 0.1), (3, 0.3), (2.5, 1),
(0.5, 3.5).
Indicaciones.- Plantear
f (x, y) = ax2 + 2bxy + cy 2 + dx + ey + g
y encontrar a, b, c, d, e, g tales que
m
X
f (xi , yi )
i=1
2
min
bajo la condici
on ac b2 = 1 para la elipse, y ac b2 = 1 para la
hiperbola.
2.- Considerese el problema de localizar un barco en el oceano. Para
volver el c
alculo mas simple, se supondr
a que la curvatura terrestre
es despreciable y que todos los puntos est
an situados en el sistema
de coordenadas rectangulares (x, y). Sobre el barco, se mide el angulo
entre el eje x y las varias estaciones emisoras, cuyas coordenadas son
conocidas.
i
xi
yi
i
1
42
158
248
IV.4 M
etodo de Gauss Newton
213
Te
oricamente, la posici
on (x, y) del barco satisface la relacion
arctan
y yi
x xi
= i
i.
Encontrar la posici
on probable de este. Las coordenadas aproximadas
del barco son x0 = 3, y0 = 2.
Atenci
on.- Hacer los c
alculos en radianes y utilizar siempre la misma
rama de la funcion arctan.
Captulo V
C
alculo de Valores Propios
La determinaci
on de valores propios o autovalores de una matriz A es
muy corriente en la resolucion de m
ultiples problemas. Sus aplicaciones van
desde problemas de minimizacion y maximizacion, soluci
on de sistemas de
ecuaciones diferenciales, ecuaciones con derivadas parciales, etc. El c
alculo
de valores propios y la determinaci
on de vectores propios para matriz de
un orden inferior o igual a 3 no presenta mayor problema, puesto que su
solucion depende del polinomio caracterstico cuyo grado en este caso es
inferior o igual a 3. Sin embargo, aquellos problemas, donde se requiere saber
los valores y vectores propios, provienen de matrices cuyo orden es mucho
mas grande que 3 Es por eso, necesario e imprecindible formular metodos y
algoritmos, lo mas eficientes posibles, teniendo en cuenta las particularidades
de las matrices que son estudiadas. Ahora bien, la mayor parte de los metodos
consevidos sirven para matrices simetricas o matrices normales, pues son
estas, las que se encuentran en la mayor parte de los problemas.
En este captulo, se estudiar
an y formularan tales metodos, pero se
comenzara haciendo una introduccion te
orica del problema de la determinaci
on de autovalores y vectores propios. Como segunda parte de este
captulo, se tendra la formulacion de estos metodos.
V.1 Teora Cl
asica y Condici
on del Problema
(V.1.1)
sica y Condicio
n del Problema
V.1 Teora Cla
215
Definici
on V.1.5.- Sea A Mn (C), se define la adjunta de A por
Aij = a
ji .
Definici
on V.1.6.- Se dice que una matriz U es unitaria si
U U = I.
Vale la pena recalcar, que una matriz ortogonal a coeficientes reales
es unitaria, y recprocamente una matriz unitaria a coeficientes reales es
ortogonal, en el caso en que existieran coeficientes complejos no reales la
situacion cambia. Por otro lado, es facil ver que el conjunto de las matrices
unitarias forman un grupo para la multiplicacion de matrices.
Teorema V.1.7.- Schur. Para cada matriz A Mn (C), existe una matriz
Q unitaria, tal que
1
0
Q AQ =
..
Demostraci
on.- Sea A una matriz cualquiera, entonces existe 1 que es
raiz de det(A I), de donde existe v1 vector propio asociado a 1 , se puede
suponer, sin perder generalidad, que kv1 k2 = 1. Se plantea
Q1 = (v1 , v2 , . . . , vn ),
con v2 , . . . , vn elegidos de manera que Q1 sea unitaria. Esta eleccion es
posible con el procedimiento de Gramm-Schmidt en el caso complejo. Se
observa inmediatamente, que
1 . . .
0
.
AQ1 = Q1
(1)
...
A
0
2 de orden n 1, tal que
De la misma manera se encuentra una matriz Q
2 . . .
0
,
2 = Q2 .
A(1) Q
..
A(2)
0
216
y planteando
Q2 =
se tiene
1 0
2
0 Q
1
0
AQ1 Q2 = Q2 Q1
0
..
.
A(2)
repetiendo el procedimiento las veces que sea necesario, se tiene el resultado deseado. Cabe recalcar que este procedimiento da la descomposicion
requerida en a lo mas n pasos.
Teorema V.1.8.- Si A es normal, es decir A A = AA , entonces existe una
matriz unitaria Q tal que
Q AQ =
0
..
Demostraci
on.- Si la matriz A es normal y Q es unitaria, entonces Q AQ
es normal. En efecto
(Q AQ) (Q AQ) = Q A QQ AQ
= Q AA Q
= (Q AQ) (Q AQ) .
queda por demostrar, que si
1
0
B=
..
B=
Puesto que BB = B B, se tiene
1
0
..
.
0
n
sica y Condicio
n del Problema
V.1 Teora Cla
0
2
..
1
0 0
n
0
..
1
0
=
n
2
..
.
de donde
0
2
..
n
2
217
0
,
|1 | = |1 | + || + + || ,
dando como resultado que la primera fila fuera del coeficiente de la diagonal
es nulo. Se continua con el mismo procedimiento hasta mostrar que B es
diagonal.
La condici
on del Problema a Valores Propios
Sea, A una matriz cualquiera a coeficientes complejos de orden n. Al igual que
en captulo II, es importante conocer la condici
on del problema planteado,
es decir la determinaci
on de valores propios. Para tal efecto sea A la matriz
con errores de redondeo de A, repasando la seccion II.1, se tiene que los
coeficientes de A satisfacen
a
ij = aij (1 + ij )
|ij | eps,
218
() = 1 + 1 + O(2 ).
u1 Cv1
+ O(2 )
u1 v1
(V.1.4)
:
de donde
Av1 = 1 v1 ,
Av1 + Cv1 = 1 v1 + 1 v1 ,
(A 1 I) v1 = Cv1 + 1 v1 ,
multiplicando esta u
ltima por u1 , se obtiene
0 = u1 Cv1 + 1 u1 v1 .
sica y Condicio
n del Problema
V.1 Teora Cla
219
Demostraci
on.- A es normal, por consiguiente existe una matriz Q unitaria
tal que
1
0
..
,
Q AQ =
.
0
n
una verificaci
on inmediata muestra que v1 es la primera columna de Q, as
mismo u1 es la primera fila de Q , de donde v1 = v1 , por lo tanto, se obtiene
u1 Cv1 |u1 Cv1 |
u v1 kv k2
1
1
kv1 k kCv1 k
2
kv1 k
kCk .
Ejemplos
1.- Se considera la matriz A definida por
A=
1
0 2
1
,
0
1
de donde
u1 = p
1 + 2
1
u1 v1 = p
.
1 + 2
220
J =
J(n1 , 1 )
..
.
J(nk , k )
J(ni , i ) =
1
..
.
.. .
.
i
1 1 0 0
0 1 1 0
,
0 0 1 1
0 0 0 1
entonces se tiene que
det(A + C I) = (1 )4 + + O(2 ),
donde C es una perturbacion de A.
Calculando los valores propios de A + C, ver figura V.1.1, es facil ver
que el problema de determinar valores propios de A es un problema mal
condicionado
sica y Condicio
n del Problema
V.1 Teora Cla
221
Ejercicios
1.- Una matriz A es de tipo Frobenius, si es de la forma
0
...
A=
0
a0
1
0
a1
..
.
0
an2
0
0
..
.
1
an1
a) Verificar que
det(A I) = (1)n n + an1 n1 + + a1 + a0 .
a
b
A=
c
a c
b a
b
n.
c
..
.
b
1 2 = ,
c
1
2
n+1
= 1.
|i |
n
X
i,j=1
|aij | .
la transformacion A Q AQ.
222
T 1 AT =
0
3
..
.
n
6.- Sea A una matriz simetrica. Para cada ndice i existe un valor propio
de A tal que
sX
| aii |
|aij |2 .
j6=i
Indicaci
on.- Utilizar el ejercicio 5 con una matriz B conveniente.
V.2 Determinaci
on de Valores Propios
El M
etodo de la Potencia
Sea, A una matriz de n n con coeficientes reales o complejos, el objetivo es
determinar el valor propio mas grande en valor absoluto. Sea y0 Rn (Cn )
arbitrario, se define la sucesion {yn } Rn de manera recursiva, como
yn+1 = Ayn ,
(V.2.1)
1
0
..
,
T 1 AT =
.
0
n
sup
ongase que los valores propios satisfacen
|1 | > |2 | |3 | |n |
sucesion {yk } definida por yk+1 = Ayk satisface:
y e1 T 1 y0 6= 0.
" Entonces la
k !#
2
a) yk = k1 a1 v1 + O
,
1
donde Av1 = 1 v1 , Avj = j vj ,
y0 = a1 v1 + a2 v2 + + an vn , y
T = (v1 , , vn ).
b) Se tiene el cociente de Rayleigh, dado por
k !
2
yk Ayk
(V.2.2)
= 1 + O ,
yk yk
1
si adem
as, la matriz A es normal, entonces
2k !
2
yk Ayk
.
= 1 + O
yk yk
1
(V.2.3)
224
Demostraci
on.- Los vectores v1 , , vn forman una base del espacio Cn ,
de donde
y0 = a1 v1 + a2 v2 + + an vn ,
deduciendose
yk = a1 k1 v1 + a2 k2 v2 + + an kn vn ,
por consiguiente
yk
= a1 v1 + a2
k1
2
1
k
v2 + + an
n
1
k
vn ,
con lo queda demostrado el punto a). Para la demostracion del punto b), se
tiene:
yk = k1 a1 v1 + k2 a2 v2 + + kn vn ,
Ayk = k+1
a1 v1 + k+1
a2 v2 + + k+1
n vn ,
1
X2
k
k
v vj a
i a
j ,
y yk =
i
j i
i,j
yk Ayk =
k k+1 v vj a
i a
j ,
i
i j
i,j
yk yk
2
yk yk
X
i
|i |2k vi vi .
Ejemplo
Considerese, la matriz A definida por
2
1
A = 0
0
0
1
2
1
0
0
0
1
2
1
0
0
0
1
2
1
0
0
0,
1
2
n de Valores Propios
V.2 Determinacio
225
3
) 3, 73205,
1 = 2(1 +
2
Tomando y0 = (1, 1, 1, 1, 1)t , se obtiene los valores de 1 dadas en la
tabla V.2.1.
Tabla V.2.1. Valores de 1 .
Iter.
Iter.
3.6
3.696969
3.721854
3.729110
3.731205
3.731808
3.731981
3.732031
3.732045
10
3.732049
11
3.732050
12
3.732051
13
3.732051
14
3.732051
1.07735026
1.86602540
v = 2.1547005 .
1.866025
1.07735026
(V.2.4)
226
es valor propio de (I A)1 .
Demostraci
on.- es valor propio de A, si y solamente si existe v 6= 0 tal
que
Av = v,
si y solamente si
(I A)v = ( )v,
1
(I A)1 v =
v.
(V.2.5)
(V.2.6)
1 = 3.7334052.
Puede suceder que la matriz A sea a coeficientes reales, sin embargo, el
valor propio buscado no sea real si no que contenga una parte imaginaria.
Supongase que = + i sea una aproximacion del valor propio buscado.
Entonces aplicando el metodo de la potencia inversa, se tiene
( + i)I A yk+1 = yk ,
(V.2.7)
n de Valores Propios
V.2 Determinacio
227
por otro lado los vectores yk pueden ser descompuestos en un vector real y
otro imaginario, de la manera siguiente
yk = uk + ivk ,
uk , vk Rn ,
yk yk
utk uk + vkt vk
(ut uk+1 + vkt vk+1 + i(utk vk+1 vkt uk+1 )
.
= k
utk uk + vkt vk
(V.2.8)
..
..
..
T 1 AT = H =
.
. .
..
..
.
.
228
Algoritmo 1.
1.- Sea A una matriz arbitraria,
se busca |ak1 | = max |aj1 |,
j=2,...,n
1
0
1
0
ai1
0 l32 1
,
, i = 2, . . . , n;
L2 =
li2 =
.
a
.
21
..
..
0 ln2
1
se obtiene
L2 AL1
=
2
0
..
.
A(1)
Q2 =
1 0
0 Q2
Q2 A1 =
... , 2 = signo a21 kA1 k2 ;
0
n de Valores Propios
V.2 Determinacio
obteniendo
Q2 AQ1
2
0
..
.
229
A(1)
Teorema de Sturm y M
etodo de la Bisecci
on
Al utilizar el algoritmo 2, de la anterior subsecci
on, a una matriz A simetrica
se obtiene una matriz tridiagonal simetrica, que se la denota nuevamente por
A, para no cargar la notacion. Por consiguiente, A es de la forma
d1
e2
A=
e2
d2
e3
..
.
..
.
e3
..
..
.
en
en
dn
(V.2.9)
(V.2.10)
Ai
0
(V.2.11)
i = 2, 3, . . . , n;
de donde
pi (x) = (di x)pi1 (x) e2i pi2 (x),
i = 2, 3, . . . , n.
(V.2.13)
230
Teorema V.2.3.- Sea A una matriz tridiagonal y simetrica con los coeficientes ei 6= 0 para i = 2, . . . , n. Entonces:
a) Las raices de pn (x) = A (x) son simples,
b) pn (i ) pn1 (i ) < 0 si i es una raiz de pn (x),
c) pj (x ) = 0 (1 j n 1, x R) pj1 (x )pj+1 (x ) < 0,
d) p0 (x) 0 para todo x R.
Demostraci
on.- El punto d) se verifica inmediatamente puesto que p0 (x) =
1 por definicion.
La demostracion del punto c) se la realiza por el absurdo, en efecto,
si se tuviera pj (x ) = 0 y pj+1 (x ) = 0, utilizando (V.2.13), se tendra
p0 (x ) = 0 lo cual contradice el hecho que p0 (x ) = 1. Ahora bien, utilizando
nuevamente (V.2.13) se tiene en el caso en que pj (x ) = 0
pj1 (x ) = e2nj+1 pj+1 (x ).
El punto b) implica el punto a), ya que pn (i ) 6= 0 conduce a que i sea
raiz simple. S
olo queda el punto b) por demostrar.
Se define, los polinomios:
qi (x) = (1)i pi (x)
q0 (x) = p0 (x);
1
,
e2 e3 ei+1
i = 1, . . . , n;
de donde
i = 2, . . . , n.
Esta u
ltima relacion puede escribirse de manera matricial, como
d1 x
e2
d2 x e3
e2
..
.
e3
...
|
{z
A xI
..
..
.
en
q (x)
0
0
..
q1 (x)
.
.
=
..
0
.
en q
qn (x)
n1 (x)
{z
}
dn x |
} q(x) 6= 0
n de Valores Propios
V.2 Determinacio
231
0
..
.
0
qn (x)
0
..
.
,
q t (x)q(x) + q t (x)(A xI)q (x) = q t (x)
{z
}
|
0
= 0 si x = i
qn (x)
de donde
pi (x)
,
pi1 (x)
(V.2.14)
1
,
fi1 (x)
i = 2, . . . , n.
(V.2.15)
232
1
2
|ei |
(di x)
,
si fi1 = 0.
eps
La justificacion de utilizar la sucesion fi (x) est
a en la siguiente proposici
on.
Proposici
on V.2.4.- w(x) es igual al n
umero de elementos negativos de
f1 (x), f2 (x), . . . , fn (x)
Demostraci
on.- La demostracion tiene sus bases te
oricas en el Teorema
de Sylvester, que indica que si A es una matriz, T una matriz no singular,
entonces la matriz B = T t AT tiene el mismo n
umero de valores propios
negativos que la matriz A. Aplicando este teorema a la proposici
on a
demostrar, se tiene
1
e2 /f1 (x)
A xI = .
..
f (x)
1
f2 (x)
..
1
en /fn1
1
1 e /f (x)
2 1
..
fn (x)
1 en /fn1 (x)
1
Demostraci
on.- Sea x 6= 0, el vector propio asociado a , por consiguiente
x = (x1 , x2 , . . . , xn )t . Sea i, tal que
|xi | |xj |
j,
n de Valores Propios
V.2 Determinacio
233
X
j6=i
X
j6=i
X
j6=i
|aij | |xj | ,
|aij | .
Generalizaci
on del M
etodo de la Potencia
Al formular el metodo de la potencia, se buscaba el valor propio, cuyo
valor absoluto era maximo, de una matriz A. Ahora bien, existen muchos
problemas en los cuales se requiere conocer no solamente el valor propio mas
grande en valor absoluto, sino tambien los otros valores propios. El prop
osito
de esta subsecci
on es formular un metodo que permita calcular los dos valores
propios mas grandes en modulo. Para tal efecto, es necesario suponer que
1 ,2 , . . . , n valores propios de A satisfacen
|1 | > |2 | > |3 | |n | .
Recordando el metodo de la potencia, se tiene la sucesion de los {yk }
definida por
yj+1 = Ayj ,
si y0 cumple ciertas condiciones, se tiene
j !
2
j
yj = 1 [a1 v1 + O ,
1
234
(V.2.19)
= Aqj .
(j)
lim 1 = 1 ,
y Ay
definiendo la aplicaci
on lineal f : V V como f = p A|V donde p es
la proyeccion ortogonal de Cn en V , y A|V es la restricci
on de A sobre el
espacio V se tiene el:
Teorema V.2.6.- Los valores propios de f son: 2 , . . . , n , mas precisamente se tiene
1 0
0
2 r22 r2n
U v,
f (v) = U
..
.
n
donde v V y
U AU =
r12
..
.
r1n
..
.
n
es la descomposici
on de Schur dada en teorema V.1.7.
n de Valores Propios
V.2 Determinacio
235
Demostraci
on.- Sea U = (u1 , u2 , . . . , un ) matriz unitaria con u1 = v1 ,
entonces cualquier elemento v V se escribe, como
v=
n
X
i ui ,
i=2
por consiguiente
v = U ,
0
2
con =
... ;
de donde f (v) = AU .
Ahora bien, si U es la matriz unitaria de la descomposici
on de Schur de
A, se tiene
1 r12 r1n
..
f (v) = U
U U ,
..
.
n
como U = v, se tiene despues de una simple verificaci
on que
f (v) = U
0
2
r22
..
.
0
r2n
U v.
Arj j v1 = 2
rj+1 .
lim 2 = 2 ,
lim rj = u2 ;
(V.2.20)
236
kr0 k = 1,
y r0 q0 = 0.
(V.2.21)
qj , con kqj k = 1;
Aqj =
kqj+1 k = 1;
Arj ,
j+1 = qj+1
(V.2.22)
lim 2 = 2 ,
lim rj = u2 ,
Uj+1
(j+1)
(j+1)
(j+1) ,
2
{z
}
Rj+1
1 0
, el algoritmo de la
=
de donde planteando U0 = (q0 , r0 ) con
0 1
potencia generalizada, se expresa de manera matricial como
U0 U0
n de Valores Propios
V.2 Determinacio
237
Rj R =
..
.
Uj U,
El M
etodo QR
Al finalizar la u
ltima subsecci
on, se dio una generalizacion del metodo de la
potencia. Por razones de presentacion, se ver
a en esta seccion un algoritmo
equivalente a este u
ltimo, conocido como el metodo QR.
La version simple del algoritmo QR es aplicable a matrices, cuyos valores
propios son reales y diferentes en valor absoluto, se lo define recursivamente
de la siguiente manera:
Aj+1
A1 = A = Q1 R1 ,
= Rj Qj = Qj+1 Rj+1 ,
(V.2.24)
llegando finalmente a
Uj+1 Rj+1 = Q1 R1 Q1 Q2 Qj .
| {z } |
{z
}
A
Uj
1
..
,
Rj R =
.
n
Qj I.
238
Por otro lado, las matrices Aj+1 y Aj tienen los mismos valores propios, pues
Aj+1 = Qj Aj Qj
Indudablemente, el metodo QR es aplicable a toda matriz cuyos valores
propios son diferentes en modulo, sin embargo es conveniente reducir la
matriz A a una de tipo Hessenberg, ya que si A es una matriz de Hessenberg,
las matrices Ak construidas a partir del algoritmo QR lo son tambien, ver
ejercicio 5, adem
as el costo de operaciones es menor.
El siguiente resultado, enunciado sin demostracion, indica la velocidad
de convergencia del metodo QR donde A es una matriz de tipo Hessenberg.
Esta relacion esta dada por
(j+1)
an,n1
(j)
an,n1
es decir
(j)
an,n1
=O
n
n1
n
n1
j !
(V.2.25)
(V.2.26)
(V.2.27)
(V.2.29)
n de Valores Propios
V.2 Determinacio
239
(k)
que es mas pr
oximo al coeficiente an,n .
Una interrogante muy importante surge, cuando detener el algoritmo
QR. Uno de los criterios mas usados es el siguiente. Si
(k) (k)
(k)
(V.2.30)
an,n1 eps ann
+ an1,n1 ,
se plantea
(k)
n = ann
.
(V.2.31)
10
7 6
A = 0.1 5 3
0 0.1 1
matriz de tipo Hessenberg. Por lo tanto lista, para ser aplicado el metodo
QR y el metodo QR con shift. A continuacion, se mostrar
a las iteraciones
resultantes del metodo QR sin shift
10.070493
A2 = .49305211 001
.00000000
10.105227
A3 = .24258892 001
.00000000
10.122222
A4 = .11880000 001
.00000000
7.0701525
4.9895287
.19067451 001
7.0677632
4.9656988
.35752960 002
7.0596308
4.9507267
.66976513 003
5.8875209
2.8589253
.93997833
5.8742925
2.8145741
.92907381
5.8759333
2.7975584
.92705007
240
a21
(k)
a21
(k+1)
a32
(k)
a32
1
,
2
1
,
5
5.8540158
2.8312527
.92526107
5.8707690
2.8312527
.92526107
5.8766286
2.7929532
.92658424
n de Valores Propios
V.2 Determinacio
241
obteniendo
Q1 R1 =
1/ 1 + 2
/ 1 + 2
/ 1 + 2
1 + 2
2
0
1/ 1 +
lo que da
A1 =
2 /1 + 2
a/
1 + 2
,
a/ 1 + 2
Ejercicios
1.- Calcular los valores propios y vectores propios de
2 1
1 2 12
A=
,
0 1 2 1
1 2
2.- Sea
88 7 6
296 169 6 2 + 3 6
360
1800
225
88 + 7 6
2 3 6
A = 296 + 169 6
.
1800
360
225
16 6
16 + 6
1
36
36
9
Calcular , , y una matriz T a coeficientes reales, tal que
0
T 1 = 0 .
0
0
3.- Sea A una matriz de orden s que es diagonalizable, y sea J una matriz
de orden n. Se define el producto tensorial A J por
a11 J a1s J
.
..
.
A J = ..
.
as1 J ass J
242
T 1 AT = =
..
.
s
y utilizar la descomposici
on
I A J = (T I)(I J)(T 1 I)
(V2.32)
c) estimar el n
umero de multiplicaciones necesarias, si:
se calcula la descomposici
on LR de I A J,
se utiliza (V.2.32); el trabajo principal es el c
alculo de la descomposicon LR de I J.
4.- Calcular todos los valores propios de
1 1
1 2 1
..
..
A=
.
.
..
.
n
2 1
1 3
Captulo VI
Integraci
on Num
erica
VI.1 Bases Te
oricas
(S)0
n
X
i=1
ricas
VI.1 Bases Teo
245
Proposici
on VI.1.5.- La funcion F es continua, adem
as si la funcion
f es continua en un punto x de [a, b], la funcion F es derivable en x y
F (x) = f (x).
Corolario VI.1.6.- Una funcion continua sobre un intervalo compacto
admite una primitiva.
Las demostraciones de la proposici
on y el corolario precedentes se las
puede encontrar en cualquier libro de An
alisis. A continuacion, se enuncia
uno de los teoremas fundamentales del c
alculo.
Teorema VI.1.7.- Sea f : [a, b] R una funcion integrable en el sentido
de Riemann que, adem
as admite una primitiva G. Para todo x [a, b], se
tiene:
Z x
G(x) G(a) =
f (t)dt.
n Num
VI Integracio
erica
246
A continuacion, se mostrar
a las formulas de cuadratura o de integracion
mas rudimentarias.
a) Regla del Punto Medio
Consiste en utilizar la suma de Riemann con i =
consiguiente
xi1 + xi
, por
2
Z b
n
X
xi1 + xi
(xi xi1 )
f (x)dx.
f
2
a
i=1
La regla del punto medio, da resultados exactos cuando f es un
polinomio de grado menor o igual a 1. Ver figura VI.1.1.
x0
x1
x2
x3
xn-1 xn
(xi xi1 )
f (x)dx,
f (x)dx f (x0 )
x2 x0
x 1 x0
+ f (x1 )
+
2
2
xn xn2
xn xn1
+ f (xn1 )
+ f (xn )
.
2
2
ricas
VI.1 Bases Teo
x0
x1
x2
247
x3
xn-1 xn
p(x) = f (x0 ) + 2
x1
x0
f (x)dx
4
1
f (x0 ) + f
6
6
x0 + x1
2
1
+ f (x1 ) h1 ,
6
f (x)dx
n
X
1
i=1
4
f (xi1 ) + f
6
6
1
hi
+ f (xi ) hi .
xi1 +
2
6
n Num
VI Integracio
erica
248
inferior a 3.
x0
x1
Figura VI.1.3. Regla de Simpson.
d) Regla de Newton
Consiste en aproximar f (i )(xi1 xi ), con el area de la superficie cuyo
lado superior, ver figura VI.1.4, esta dada por la parabola c
ubica que
2xi1 + xi
2xi1 + xi
, f(
)),
pasa por los puntos (xi1 , f (xi1 ), (
3
3
xi1 + 2xi
xi1 + 2xi
, f(
)) y (xi , f (xi )). De la misma manera que en la
(
3
3
regla de Simpson, se calcula esta parabola c
ubica utilizando por ejemplo
la formula de Newton para determinar polinomios de interpolaci
on,
luego se integra para obtener
Z x1
1
3
1
3
h1
2h1
f (x)dx f (x0 )+ f x0 +
+ f x0 +
+ f (x1 ) h1 .
8
8
3
8
3
8
x0
La regla de Newton es exacta para polinomios de grado menor o igual
a 3.
x0
x1
Figura VI.1.4. Regla de Newton.
F
ormulas de Cuadratura
ricas
VI.1 Bases Teo
249
i=1
bi f (ci )
f (x)dx.
0
El Orden de una F
ormula de Cuadratura
Definici
on VI.1.8.- Una formula de cuadratura tiene orden p, si y solamente si, p es el entero mas grande, tal que
s
X
i=0
bi f (ci ) =
f (x)dx,
(VI.1.2)
n Num
VI Integracio
erica
250
Demostraci
on. La integracion es una operaci
on lineal, por lo tanto es
suficiente mostrar que (VI.1.2) se cumple para f (x) = xq1 , donde q =
1, . . . , p 1. Ahora bien,
Z
xp1 dx =
1
.
q
i = 1, . . . , s.
(IV.1.3)
2k+1
1
dx = 0.
c x
2
s
X
ricas
VI.1 Bases Teo
251
j=1
i=1
n
X
j=1
"Z
xj
f (x)dx hj
xj1
s
X
bi f (xj + ci hj ) .
i=1
i=1
j!
j
+
1
0
j=0
i=1
(VI.1.5)
donde
Pk (t) = E
k1
(x t)+
(k 1)!
k1
+
k1
0
0
<0
Demostraci
on.- Se tiene, efectuando un cambio de variable en la integral,
que
Z 1
s
X
bi f (x0 + ci h),
E(f ) = h
f (x0 + th)dt h
0
i=1
hj (j)
f (x0 ) + hk
j!
k1
X
hj (j)
f (x0 )tj + hk
j!
j=0
por lo tanto
f (x0 + th) =
k1
X
j=0
(1 )k1 (k)
f (x0 + h)d,
(k 1)!
t
(t )k1 (k)
f (x0 + h)d,
(k 1)!
n Num
VI Integracio
erica
252
k+1
"Z
1
j+1
(t )k+1
+
f (k) (x0 + h)d dt
(k 1)!
#
Z ci
s
k1
X
(ci )+
(k)
bi
f (x0 + h)d
(k 1)!
0
i=1
1)!
(k
1)!
0
0
i=1
k1
(1 )k X (ci )+
k!
(k 1)!
i=1
a);
Pk ( ) =
b)
c)
d)
Pk ( ) = Pk1 ( ), para k 2;
Pk (1) = 0, para k 2,
si ci 1;
Pk (0) = 0, para 2 k p,
si ci 0 y p orden de la f.q.;
s
X
bi = 1,
i=1
c1
c2
cs
ricas
VI.1 Bases Teo
253
Demostraci
on.- Para el punto a), se tiene que
Pk ( ) =
=
=
1
0
1
s
k1
k1
X
(x )+
(x )+
bi
dx
(k 1)!
(k 1)!
i=1
s
k1
X
(x )+
(x )k1
bi
dx
(k 1)!
(k 1)!
i=1
s
k1
(1 )k X (x )+
bi
.
k!
(k 1)!
i=1
X
1
ck1
bi i
k! i=1 (k 1)!
#
"
s
1 X k1
1
.
bi c
=
(k 1)! k i=1 i
Pk (0) =
Ejemplo
La regla de Simpson es una formula de cuadratura, dada por
c1 = 0,
c2 = 1/2,
c3 = 1;
b1 = 1, /6 b2 = 4, /6 b3 = 1/6.
Utilizando las propiedades dadas en el teorema precedente, se tiene:
1
1
, 0 ;
2
P1 ( ) = 6
(1 ) 1 , 1 1.
6
2
2
1
+ , 0 ;
6
2
2
P2 ( ) =
2
(1
)
1
(1
,
< 1.
2
6
2
n Num
VI Integracio
erica
254
, 0 ;
12
6
2
P3 ( ) =
3
2
(1 ) (1 ) , 1 < 1;
6
12
2
3
4
+ , 0 ;
36 24
2
P4 ( ) =
3
(1 )4
(1
)
1
,
< 1.
24
36
2
Ver los graficos en la figura IV.1.6.
Consecuencia inmediata del teorema VI.1.12, se tiene el siguiente:
Teorema VI.1.14.- Sean, f C k [a, b], c1 , . . . , cs ; b1 , . . . , bs una formula de
cuadratura cuyo orden p k, entonces
Z 1
k+1
(VI.1.6)
|E(f )| h
|Pk ( )| d
max f (k) (x) .
x[x0 ,x0 +h]
.6
.1
P1
.4
P2
.2
.0
.0
.5
1.0
.0
.0
.5
1.0
.2
.4
.1
.6
.01
P3
P4
.004
.003
.002
.001
.00
.0
.5
1.0
.000
.001
.002
.003
.004
.01
.0
.5
1.0
ricas
VI.1 Bases Teo
255
1
0
|P4 ( )| d = 2
1/2
P4 ( )d =
1
,
2880
(VI.6.7)
donde h = max hi .
Demostraci
on.- Se tiene
#
" s
Z b
n
X
X
bi f (xj1 + ci hj ) =
hj
f (x)dx
a
j=1
i=1
"Z
n
X
j=1
hk+1
j
=
hk+1
j
n
X
i=1
xj
f (x)dx hj
xj1
s
X
bi f (xj1 + ci hj )
i=1
|Pk ( )| d max f (k) (x) ,
x[a,b]
hj hkj (b a)hk .
n Num
VI Integracio
erica
256
f (x)dx =
s
n
X
X
bi f (xj1 + ci h) + Chp + O(hp+1 ),
h
j=1
(VI.1.8)
i=1
(VI.1.9)
C
,
h
(VI.1.10)
De esta u
ltima relacion, se deduce que log10 (Error) y log10 fe tienen
una relacion lineal de pendiente p, donde p es el orden de la formula de
cuadratura. En la figura VI.1.7, se comprueba este hecho, utilizando como
integral test
Z 1
1
cos(ex )ex dx = sin(e).
ricas
VI.1 Bases Teo
106
257
fe
105
104
103
102
101
100 0
10
err glob
101
102
103
104
105
106
107
108
109
1010
Metodo de Euler
Metodo de Runge
Metodo de Heun
Metodo de Kutta
Metodo 3/8
Figura VI.1.7. Grafica del Error vs fe.
Ejercicios
1.- Calcular el orden de la regla de Newton:
1 2
(ci ) = (0, , , 1),
3 3
1 3 3 1
(bi ) = ( , , , ).
8 8 8 8
2.- Sean 0 c1 < c2 < < cs 1 dados. Mostrar que existe una formula
de cuadratura u
nica con nudos ci y con un orden s.
n Num
VI Integracio
erica
258
=
4
1 x2 dx.
=4
2
0
0 1+x
Por que el segundo resultado es menos bueno?
8.- Mostrar que el resultado obtenido por la regla del trapecio, o por la regla
de Simpson, es una suma de Riemann.
9.- Sean h = (b a)/n, xi = a + ih y
1
1
T (h) = h f (x0 ) + f (x1 ) + + f (xn1 ) + f (xn ) .
2
2
Demostrar que para f suficientemente derivable
Z b
h2
f (x)dx T (h) = (f (b) f (a)) + O(h3 ).
12
a
10.- Calcular los nucleos de Peano para la formula del ejercicio 4 y hacer sus
graficas.
11.- Calcular la expresi
on
R
b
a
f (x)dx T (h)
,
h2
para f (x) = 1/x, a = 1, b = 10; con varios valores de h. Verificar la
formula del ejercicio 9.
para q = 1, . . . , s.
Sea m un entero no negativo, la formula de cuadratura c1 , . . . , cs ;
b1 , . . . , bs ; es de orden s + m, si y solamente si, la formula de cuadratura
es exacta para polinomios de grado s + m 1. Ahora bien, se define el
polinomio M (x) de grado s, por
M (x) = (x c1 )(x c2 ) (x cs ),
(VI.2.2)
donde los ci son los nudos de la formula de cuadratura estudiada. Sea f (x)
un polinomio de grado s + m 1, por la division con resto se tiene que
f (x) = q(x)M (x) + r(x),
donde q(x) y r(x) son polinomios con deg q m 1 y deg r s 1. Por
consiguiente
Z
f (x)dx =
q(x)M (x)dx +
r(x)dx.
bi f (ci ) =
s
X
i=1
bi q(ci )M (ci ) +
{z
=0
s
X
bi r(ci ),
i=1
259
Z 1
q(x)M (x)dx = 0,
0
el orden de la formula de
cuadratura es s + m
M (x)dx = 0,
1 1
(c1 + c2 ) + c1 c2 = 0,
3 2
la formula de cuadratura es de orden mas grande o igual a 4, si adem
as
Z
xM (x)dx = 0,
1
1 1
(c1 + c2 ) + c1 c2 = 0,
4 3
2
obteniendo as un sistema de dos ecuaciones y dos incognitas. Una vez
determinados los ci , el siguiente paso es determinar los bi .
Polinomios Ortogonales
Uno de los mayores inconvenientes en la construccion de formulas de
cuadratura de orden elevado utilizando el teorema VI.2.1, consiste en el hecho
siguiente: se deben resolver sistemas de ecuaciones no lineales para determinar los nudos de la formula de cuadratura. Esta claro que para formulas de
cuadratura con una cantidad no muy grande de nudos esto es posible, sin
embargo para s ya mas grande esto presenta una desventaja. En esta subseccion se estudiar
an polinomios ortogonales, cuyas raices son precisamente
los nudos.
n Num
VI Integracio
erica
260
Se iniciar
a esta subsecci
on, definiendo un conjunto de funciones particulares. Sea : (a, b) R una funcion, llamada funcion de peso. Sea
E=
f : (a, b) R|
(VI.2.3)
(x)f (x)g(x)dx.
(VI.2.4)
(VI.2.5)
q polinomio de grado k 1.
Si se supone que pk (x) = xk + r(x) con deg r(x) k 1, los polinomios son
u
nicos.
261
(VI.2.6a)
(VI.2.6b)
donde
k+1 =
hxpk , pk i
,
hpk , pk i
2
k+1
=
hpk , pk i
.
hpk1 , pk1 i
(VI.2.6c)
Demostraci
on.- El primer punto del teorema, se obtiene a partir del
proceso de ortogonalizacion de Gramm-Schmidt. Las relaciones entre los diferentes polinomios ortogonales se demuestra por induccion. Por consiguiente,
se supone cierto para los polinomios p0 , p1 , . . . , pk . Ahora bien, se tiene
pk+1 (x) = xpk (x) +
k
X
cj pj (x),
j=0
k
X
j=0
cj hpj , pk i
= hxpk , pk i + ck hpk , pk i,
de donde
ck =
hxpk , pk i
.
hpk , pk i
k
X
j=0
cj hpj , pk1 i
n Num
VI Integracio
erica
262
hpk , pk i
.
hpk1 , pk1 i
(a, b)
Notacion
Nombre
(1, 1)
Pk (x)
Polinomios de Legendre
(1, 1)
Tk (x)
Polinomios de Chebichef
1
p
1 x2
(1 x) (1 + x)
x ex
x2
(1, 1)
(,)
Pk
(x)
Jacobi, , > 1
(0, )
()
Lk (x)
(, )
Hk (x)
Polinomios de Hermite
263
Teorema VI.2.5.- F
ormula de Rodriguez. Sea (x) una funcion de peso
definida como antes. Entonces
pk (x) = Ck
1 dk
(x)(x a)k (b x)k .
k
(x) dx
(VI.2.7)
Demostraci
on.- Una verificaci
on simple sobre pk (x), muestra que se tratan
efectivamente de polinomios. Para la relacion de ortogonalidad con k dado,
es suficiente mostrar que si q(x) es un polinomio de grado k 1 entonces
q pk . En efecto
Z
dk
(x)(x a)k (b x)k q(x)dx
k
a dx
b
dk1
k
k
(x)x
a)
(b
x)
q(x)
=
k1
dx
a
{z
}
|
=0
Z b k1
d
(x)pk (x)q(x)dx =
= 0.
La mayor parte de los c
alculos de integrales definidas, tienen como funcion de
peso (x) = 1. A continuacion se estudiar
a con mayor detalle los polinomios
de Legendre.
de donde
Ck =
(1)k
,
2k k!
n Num
VI Integracio
erica
264
por lo tanto
Pk (x) =
(1)k dk
(1 x2 )k .
k
k
2 k! dx
(VI.2.8)
Pk (x)
x
3 2
x
2
5 3
x
2
2
3
1
2
3
x
2
Las F
ormulas de Cuadratura de Gauss
La verificaci
on del orden de una formula de cuadratura, se la realiza en el
intervalo [0, 1]. Efectuando una transformacion afn, se tiene que M (x) del
teorema VI.2.1, es igual a
M (x) = (x c1 ) (x cs ) = Ps (2x 1)
(VI.2.9)
265
M 2 (x)dx = 0,
El objetivo, ser
a por consiguiente, encontrar una formula de cuadratura
de orden maximo, es decir 2s. Por la observacion hecha al inicio de esta
u
ltima subsecci
on, los nudos ci de la formula de cuadratura de orden s son
las raices de Ps (2x 1) polinomio de Legendre. Como consecuencia de lo
anteriormente expuesto se tiene el siguiente teorema formulado por Gauss
en 1814.
Teorema VI.2.7.- Una formula de cuadratura (ci , bi ), i = 1, . . . , s; es de
orden 2s si y solamente si c1 , . . . , cs son las raices de Ps (2x 1), Ps (t)
polinomio de Legendre y los bi est
an determinados por
s
X
1
,
q
bi cq1
=
i
i=1
q = 1, . . . , s.
(VI.2.10)
Por otro lado, debe observarse que los coeficientes de una formula de
cuadratura de Gauss son extrictamente positivos, en efecto, se define
li (x) =
s
Y
x cj
c
i cj
j=1
j6=i
j 6= i;
0,
1,
j = i.
s
X
j=1
bj (li (cj )) =
n Num
VI Integracio
erica
266
s
X
bj li (cj ) =
li (t)dt,
j=1
1
2
bi =
li
=C
x+1
2
dx,
x+1
2
Ps (x)
,
x xi
xxi
Ps (x)
= CPs (xi ) = 1,
x xi
despejando C, bi est
a dado por
1
2
1
bj li (cj ) =
bi =
2
j=1
bi =
Ps (x)
dx.
(x xi )Ps (xi )
(VI.2.12)
Adem
as,
s
X
Ps (x)
(x xi )Ps (xi )
2
(Ps (x))2
1
dx
(x xi )2
dx,
(VI.2.13)
267
Z 1
1
Ps (x)
1
Ps (x)
1
=
dx
+
+
1 xi
(x xi )Ps (xi )
2(Ps (xi ))2 1 xi
1 Ps (xi )
{z
}
|
x+1
= li
2
s
X P (xj )
xj + 1
1
1
li
=
bj s
2
2 +
2
(x
)
P
2(Ps (xi )) 1 xi
s i
j=1
=
1
1
+ 2bi
2(Ps (xi ))2 1 x2i
obteniendo
bi =
1 x2i
.
s2 (Ps1 (xi ))2
(VI.2.14)
c1
1
2
c2
c3
b1
b2
b3
1
3
2
6
1
15
2
10
1
3
+
2
6
1
2
1
15
+
2
10
1
2
1
2
5
18
8
18
5
18
Ejercicios
1.- Para los polinomios de Legendre, demostrar que:
(k + 1)Pk+1 (x) = (2k + 1)xPk (x) kPk1 (x);
(1 x2 )Pk (x) = kxPk (x) + kPk1 (x).
n Num
VI Integracio
erica
268
bi ck .
Pk (t)dt =
k + 1 i=1 i
0
5.- Sea p el orden de una formula de cuadratura y sup
ongase que el nucleo
de Peano Pp (t) no cambia de signo sobre [0, 1]. Mostrar que
Z
x0 +h
x0
f (x)dx h
s
X
i=1
bi f (x0 + ci h) = h
p+1
s
X
1
bi cpi
h
p+1
i=1
f (p) (),
VI.3 Implementaci
on Num
erica
El c
alculo numerico de integrales definidas, requiere la implementacion de
las formulas de cuadratura en forma de programas o subrutinas. Dada una
funci
on f : [a, b] R, el c
alculo de
Z
f (x)dx,
(VI.3.1)
(VI.3.2)
xi+1
xi
f (x)dx (xi+1 xi )
s
X
j=1
(VI.3.3)
Por lo tanto, el programa que va calcular numericamente la integral debe
tener en cuenta dos aspectos:
1.- Estimacion del error.
2.- Elecci
on de la subdivision de [a, b], x0 < x1 < < xn ; tal que
n
X
j=0
|f (x)| dx.
n Num
VI Integracio
erica
270
Por consiguiente, denotando por:
res[a,b] = I,
resabs[a,b] =
|f (x)| dx,
err[a,b]
Z
b
=
f (x)dx I ,
a
Algoritmo
Calcular: res[a,b] , resabs[a,b] y err[a,b] .
err[a,b] TOL resabs[a,b] : si es cierto se ha terminado, si no continuar
el siguiente paso.
a+b
Plantear c = c =
y calcular:
2
res[a,c] ,
res[c,b] ,
err[a,c] ,
err[c,b] ,
resabs[a,c] ,
resabs[c,b] ;
err[a,c] + err[c,b] TOL resabs[a,c] + resabs[c,b] : si es cierto se ha
terminado, si no dividir el subintervalo con error maximal y continuar
con el siguiente paso.
Continuar hasta que
X
X
resabs[aj ,cj ] .
p+1
n Num
VI.3 Implementacio
erica
271
i=1
i=1
(VI.3.4)
Para evitar demasiadas evaluaciones de la funcion f , es deseable que
{c1 , . . . , cs } {
c1 , . . . , cs} ,
es decir
{
c1 , . . . , cs} = {c1 , . . . , cs } {cs+1 , . . . , cs+m } ,
con s + m = s. Sin embargo m debe ser mas grande que s, si la formula de
cuadratura (ci , bi ) es una de tipo Gauss; en efecto, si m s, se tiene:
s+m
X
i=1
s
X
bi cj1 = 1 ,
i
j
bi cij1 =
i=1
1
,
j
j = 1, . . . , s + m;
j = 1, . . . , 2s;
bi , i = 1, . . . , s;
0, i = s + 1, . . . , s + m;
obteniendo as, la misma formula de cuadratura. Por consiguiente es necesario elegir m > s, por ejemplo m = s + 1.
Por otro lado, se pueden elegir los ci restantes de manera que la formula
de cuadratura (
ci , bi ), i = 1, . . . , 2s + 1; tenga un orden igual a 3s + 2.
Esta formula de cuadratura lleva el nombre de Konrad, en honor a su
descubridor. El metodo QUADPACK, toma como resultado de la integral al
resultado numerico proporcionado por la formula de cuadratura de Konrad,
es decir
2s+1
X
bi f (x0 + ci (x1 x0 )),
res = (x1 x0 )
(VI.3.5)
i=1
n Num
VI Integracio
erica
272
i=1
(VI.3.6)
finalmente se tiene
resabs = (x1 x0 )
2s+1
X
i=1
(VI.3.7)
i=1
err = (x1 x0 )
s
X
resabs = (x1 x0 )
bi f (x0 + ci h)
i=1
s
X
i=1
s
X
i=1
bi |f (x0 + ci h)| .
bi f (x0 + ci h)
!#2
100, (VI.3.9)
(VI.3.10)
n Num
VI.3 Implementacio
erica
273
[a, b]
Error exacto
err
[0, 2]
0.23 1010
0, 90 1010
25e25x
[0, 1]
0, 14 1011
0.23 105
[0, 1/2]
0, 98 105
0.14 108
Tratamiento de singularidades
Los metodos desarrollados en la anterior subsecci
on, tal como se puede
observar en la tabla precedente, son utilizables para funciones lo suficientemente derivables. Por lo tanto, no son muy eficientes para resolver integrales
definidas de funciones no muy lisas, adem
as existen integrales impropias cuyo
c
alculo es frecuente en diversas aplicaciones, como por ejemplo integrales de
los tipos:
Z 1
Z 1
f (x)
dx,
(log x)f (x)dx.
x
0
0
Ejemplo
Considerese, la funcion
f (x) =
4x log x
,
x4 + 100
R1
se desea calcular 0 f (x)dx. Esta integral es impropia, no obstante que
una formula de cuadratura de tipo Gauss proporciona resultados que
se aproximan al valor exacto de esta integral. Esto se debe a que los
nudos de la formula utilizada son diferentes de 0 y que la funcion f (x)
es singular en x = 0. Ahora bien, el error exacto al integrar sobre el
intervalo [0, 1] es del orden de 0.18 104 , el cual est
a cerca del 5% del
n Num
VI Integracio
erica
274
k Z
X
j=0
bj
f (x)dx,
aj
X
x4k
1
(4x log x)
dx
(1)k
=
100 0
100k
k=0
Z
4 X (1)k 1 4k+1
=
x
log xdx
100
100k 0
k=0
1
1 X (1)k
,
k
100
(2k
+
1)2
100
k=0
Error Exacto
Sk
Error Exacto
S0
1.748733098830973E 07
S7
1.067342048077790E 11
1.092958187148829E 08
S9
6.830988674016991E 10
S11
4.269368018838815E 11
S13
S1
S2
S3
S4
S5
S6
4.371832748595316E 08
S8
2.732395467872073E 09
S10
1.707747172841056E 10
S12
2.668355120194476E 12
6.670896474103571E 13
1.667728455334582E 13
4.169407874510255E 14
1.042395336714463E 14
2.605554660917164E 15
n Num
VI.3 Implementacio
erica
275
1
(Sn S),
4
es decir
Sn+1 S (Sn S).
(VI.3.11)
Sn+1
.
Sn
(VI.3.13)
S =Sn+1
obteniendo as
Sn = Sn+1
Sn Sn+1
.
2 Sn
(VI.3.14)
n Num
VI Integracio
erica
276
Valor integral
Error Exacto
S0
9.988928686033609E 03
0.35E 14
9.988928686033618E 03
0.26E 14
S1
S2
9.988928686033618E 03
0.26E 14
(VI.3.15)
(VI.3.16)
Sn S
Sn+k S ak
..
..
..
= 0.
(VI.3.18)
.
.
.
Sn+k S
Sn+2k S
a1
n Num
VI.3 Implementacio
erica
277
det
n+1
Sn
..
.
Sn+1
Sn+k1
luego, se tiene
Sn
Sn
..
.
Sn+k1
Sn+1
Sn+1
n+k
Sn+k
Sn+k
..
.
Sn+k
= 0,
..
Snk1
=
Snk1
1
Sn
= S
..
.
Sn+k1
1
Sn+1
1
Sn+k
..
.
Snk1
Snk1
S=
(VI.3.19)
2 Sn
2 Sn+k1
..
..
.
.
2 Sn+k1 2 Sn+k2
Por ultimo la relacion (VI.3.19), puede mejorarse si al determinante del
numerador se agrega la primera linea a la segunda linea, la segunda linea a
la tercera y as sucesivamente, convirtiendose en
Sn+1
Sn+k
Sn
Sn+1 Sn+1 Sn+k+1
.
..
.
.
.
Sn+k
Snk
(k)
(VI.3.20)
S =
2
2 Sn+k1
Sn
..
..
.
.
.
2 Sn+k1 2 Sn+k2
n Num
VI Integracio
erica
278
k =
(n)
1 = 0,
(n)
= Sn ,
(n)
k+1
(n+1)
k1
(n)
= Sn ,
entonces
(n)
= Sn ,
(VI.3.21)
1
(n+1)
(n)
(n)
= Sn(3) , . . .
(VI.3.22)
Demostraci
on.- Una demostracion completa y una explicacion detallada
puede encontrarse en Brezinski.
La sucesion definida por el teorema precedente permite formular el algoritmo en forma de una tablero, ver la figura VI.3.1.
(0)
1
(0)
0
(1)
(0)
1
1
(1)
0 (0)
2
(1)
(2)
1 1 (0)
3
(0)
(1)
(2)
4
2
0
(2)
(1)
(3)
1 1 3 (0)
5
(1)
(2)
(3)
0 2 4 (0)
6
n Num
VI.3 Implementacio
erica
279
n
X
(1)k
,
2k + 1
(VI.3.23)
k=0
k=0
102
k=2
104
106
k=4
108
k=6
1010
k=8
1012
k=10
1014
1016
1018
1020
0
k=24
1
k=22
3
10
(n)
k
11
12
13
14
15
en funcion de n.
n Num
VI Integracio
erica
280
a) Considerese, la integral impropia
Z 1
0
log x
dx.
x2 + 100
f (x)dx,
n Num
VI.3 Implementacio
erica
281
1
sin(x )dx =
2
2
.
2
La funci
on sin(x2 ) se anula en x2 = k con k N, definiendo as una sucesion
de n
umeros positivos {xk }, dada por
xk =
Planteando
Ik =
xk+1
k.
sin(x2 )dx,
k = 0, 1, 2, . . . ;
xk
donde Ik pueden ser calculadas por GAUINT se define la sucesion {Sk }, por
Sk =
k
X
Ij ,
j=0
n Num
VI Integracio
erica
282
Sk
Sk
Sk
S (3)
S (4)
S (5)
Ejercicios
1.- Para una sucesion {Sn }n0 , el -algoritmo est
a definido por:
(n)
1 = 0,
(n)
= Sn ,
(n)
(n+1)
k+1 = k1 +
1
(n+1)
k
(n)
Si la aplicaci
on del -algoritmo a {Sn }n0 y a {Sn }n0 = {aSn + b}
(n)
(n)
proporciona respectivamente las cantidades k y k . Mostrar que
(n)
(n)
2l = a2l + b,
1 (n)
.
a 2l+1
(n)
2l+1 =
1
100
x0.99 dx,
b)
log x
dx.
x
n Num
VI.3 Implementacio
erica
283
Sn = Sn+1
Sn Sn+1
,
2 Sn
n = 0, 1, . . . .
Indicaci
on.- Verificar que Sn = ( 1 + n )(Sn S) y encontrar una
formula similar para 2 Sn
VI.4 Transformaci
on de Fourier
En est
a seccion ser
a abordado el c
alculo numerico de las transformadas de
Fourier, es decir los coeficientes de las series de Fourier para una determinada
funci
on. Se iniciar
a un repaso te
orico sobre las series de Fourier, luego se
introducir
a la transformada discreta de Fourier, cuya abreviacion usual es
T DF , para finalmente ver la transformacion rapida de Fourier mas conocida
como F F T .
Las motivaciones de la utilizaci
on de series de Fourier est
an dadas por
sus diferentes aplicaciones en numerosas areas de la ciencia, como de la
tecnologa; para citar algunas de ellas, se tiene el tratamiento de se
nales, la
resoluci
on de ecuaciones diferenciales, la construccion de metodos espectrales
en la resolucion de ecuaciones a derivadas parciales, etc.
La teora de la transformacion de Fourier est
a ntimamente ligada a
las funciones 2-periodicas e integrables. En este libro se supondr
a que las
funciones son integrables en el sentido de Riemann, y no se considerar
a el
caso mas general. Recordando la:
Definici
on VI.4.1.- La serie de Fourier de una funcion 2- periodica e
integrable, est
a dada de manera formal por
f (x)
f(k)eikx ,
(VI.4.1)
kZ
f (x)eikx dx.
(VI.4.2)
2
0
f E,
(VI.4.4)
n de Fourier
VI.4 Transformacio
285
si j 6= k.
2l
,
N
l = 0, 1, . . . , N.
(VI.4.6)
(VI.4.7)
n Num
VI Integracio
erica
286
(VI.4.8)
Definici
on VI.4.3.- La transformada discreta de Fourier (DFT) de y PN
es la sucesion (zk )kZ , donde
N 1
N 1
1 X
1 X
ikxl
yl e
yl kl ,
=
zk =
N
N
l=0
con
= e2i/N .
l=0
Se la denota z = FN y.
Proposici
on VI.4.4.- La transformada discreta de Fourier satisface las
siguientes propiedades:
a) Para y PN , se tiene que FN y PN .
b) La aplicaci
on Fn : PN PN es lineal y biyectiva.
c) La aplicaci
on inversa de FN est
a dada por
1
FN
= N FN ,
donde
(VI.4.9)
N 1
1 X
(VI.4.10)
l=0
Demostraci
on.- Utilizando el hecho que N = e2i = 1 y lN =
N l
( ) = 1, se obtiene
zk+N =
N 1
N 1
1 X
1 X
yl (k+N )l =
yl kl = zk ,
N
N
l=0
l=0
(FN FN y)j =
(FN y)k kj
N
k=0
N 1 N 1
1 X X
yl kl kj
N 2 k=0 l=0
N 1
1 X
= 2
yl
N l=0
1
= yj .
N
N 1
1 X k(jl)
N
k=0
n de Fourier
VI.4 Transformacio
287
La u
ltima igualdad de este c
alculo, es consecuencia de
N
1
X
km
k=0
N
1
X
m k
( ) =
k=0
mN 1
m 1
N
=0
si m = 0modN
si no.
xl =
2l
,
N
l = 0, 1, . . . , N ;
tonces
fn (k) f(k) =
f(k + jN ).
(VI.4.11)
jZ
j6=0
Demostraci
on.- La hipotesis sobre los coeficientes de Fourier implica que
se tenga igualdad en la formula (VI.4.1), ver Gramain. Por lo tanto, se tiene
N 1
1 X X
fN (k) =
f (n)einxl
N
l=0
nZ
kl
!
N
1
X
1
(nk)l
f(n)
=
N
nZ
l=0
|
{z
}
1 si n = k((mod)N
=
0 si no
X
=
f(k + jN )
X
jZ
para
|k|
N
.
2
(VI.4.12)
n Num
VI Integracio
erica
288
En particular, con h = 2/N , se tiene
Z 2
N 1
h X
1
f (xj )
f (x)dx = O(hp ),
2 j=0
2 0
(VI.4.13)
lo que significa que, para funciones lisas y periodicas, la formula del trapecio
es muy precisa.
Demostraci
on.- Se mostrar
a primero que los coeficientes de Fourier satisfacen
(VI.4.14)
f (k) C.kp .
En efecto, varias integraciones por partes dan
1
f(k) =
2
f (x)eikx dx
2
Z
eikx
(i)1 2
= f (x)
f (x)eikx dx
+
ik 0
2
0
|
{z
}
0
..
.
(ik)p
2
f (p) (x)eikx dx
Z 2
1
(p)
f (x) dx.
2 0
Para |k| N/2 y j =
6 0 se tiene que |k + jN | (|j| 1/2)N , utilizando
(VI.4.11), se obtiene
X
C(j 1/2)p N p = C1 N p .
fN (k) f(k)
teniendo as, (VI.4.14) con C =
j1
Interpolaci
on Trigonom
etrica
Para la division equidistante (VI.4.6) del intervalo [0, 2] y para
y0 , y1 , . . . , yN 1 dados, se busca un polinomio trigonometrico, es decir una
n de Fourier
VI.4 Transformacio
289
combinacion lineal finita de funciones eikx , que pase por (xl , yl ), para
l = 0, 1, . . . , N 1. La existencia de tal polinomio trigonometrico est
a
asegurada por el siguiente:
Teorema VI.4.7.- Sea y PN y z = FN y su transformada discreta de
Fourier. Entonces, el polinomio trigonometrico
N/2
pN (x) =
zk eikx :=
X
1
zk eikx ,
zN/2 eiN x/2 + zN/2 eiN x/2 +
2
|k|<N/2
k=N/2
(VI.4.15)
N
1
X
k=0
|k|N/2
f (k) .
(VI.4.16)
Demostraci
on.- Restando (VI.4.1) de (VI.4.15) se obtiene
N/2
pN (x) f (x) =
k=N/2
X
fN (k) f(k) eikx
f(k)eikx .
|k|N/2
La aserci
on es pues consecuencia de (VI.4.11) y de la desigualdad del
triangulo
n Num
VI Integracio
erica
290
(VI.4.17)
Transformaci
on R
apida de Fourier (FFT)
El algoritmo que ser
a estudiado, se debe a Cooley & Tukey en 1965, se basa
sobre las ideas de Runge 1925. Para poder formular este, es necesario la
siguiente:
Proposici
on VI.4.9.- Sean u = (u0 , u1 , . . . , uN 1 ) PN ,
v = (v0 , v1 , . . . , vN 1 ) PN y defnase
y = (u0 , v0 , u1 , v1 . . . . , uN 1 , vN 1 ) P2N .
(VI.4.18)
(VI.4.18)
k
2N (F2N y)k+N = N (FN u)k 2N
N (FN v)k .
2
Demostraci
on.- Utilizando el hecho que 2N
= N , un c
alculo directo da
para k arbitrario
2N (F2N y)k =
2N
1
X
yj e2ijk/2n
j=0
2N
1
X
jk
yj 2N
j=0
N
1
X
l=0
2lk
y2l 2N
+
|{z}
| {z }
ul
lk
N
N
1
X
l=0
(2l+1)k
y2l+1 2N
| {z } | {z
vl
k
lk
2N
N
k
= N (FN u)k + 2N
N (FN v)k.
n de Fourier
VI.4 Transformacio
291
N
La segunda formula de (VI.4.18) resulta de 2N
= 1.
y0
y1
y2 *
y
FN 3
y4
y5
y6
y7
FN/2
y0
y4
* FN/8 y0 = y0
y1
y5
* FN/8 y1 = y1
FN/8 y4 = y4
y0 *
y2
* FN/8 y2 = y2
y4
y2
FN/4
y6
y6
FN/8 y6 = y6
FN/4
FN/2
(VI.4.19)
FN/8 y5 = y5
y1 *
y3
* FN/8 y3 = y3
y5
y3
FN/4
y7
y7
FN/8 y7 = y7
0=(0,0,0)
4=(1,0,0)
2=(0,1,0)
6=(1,1,0
1=(0,0,1)
5=(1,0,1)
3=(0,1,1)
7=(1,1,1)
n Num
VI Integracio
erica
292
N2
25 = 32
103
10
20
10
10
N log2 N cociente
6
10
12
10
6.4
160
4
10
100
2 10
5 104
Aplicaciones de la FFT
La transformada rapida de Fourier, tiene una gran cantidad de aplicaciones,
desde el c
alculo de espectrogramas, resolucion de ecuaciones diferenciales
ordinarias o a derivadas parciales, hasta la solucion de sistemas lineales.
Definiendo el producto de convolucion de dos sucesiones N -periodicas
y PN y z Pn , por
N
1
X
(y z)k =
ykl zl .
(VI.4.20)
l=0
FN (y z) = N FN y FN z,
(VI.4.21)
a0
a1
a2
..
.
aN 1
a0
a1
..
.
aN 2
aN 1
a0
..
.
aN 1
aN 2
aN 3
x0
a1
a 2 x1
a 3 x2
. .
.. ..
a0
xN 1
b0
b1
b2
..
.
bN 1
(VI.4.22)
n de Fourier
VI.4 Transformacio
293
a2
.
.
.
aN 1
a1
a0
a1
..
.
a2
a1
a0
..
.
aN 2
aN 3
aN +1 x0 b0
aN +2 x1 b1
aN +3 x2 = b2 , (VI.4.23)
.. .. ..
.
.
.
bN 1
xN 1
a0
Ejercicios
1.- Mostrar que
Fn (y z) = N FN y FN z,
para el producto de convolucion
(y z)k =
N
1
X
ykl zl ,
l=0
u(0) = u(2) = 0,
Captulo VII
Ecuaciones Diferenciales
VII.1 Generalidades
t I0 ;
(VII.1.1)
(VII.1.2)
ym (t) = fm (t, y1 (t), . . . , ym (t))
Las ecuaciones del sistema VII.1.3 son de primer orden, pues en estas, el
orden de derivacion mas alto que aparece es el primero. Considerese ahora
un problema diferencial de orden p, de la forma
y (p) (t) = f (t, y(t), y (t), . . . , y (p1) ),
(VII.1.4)
z1 (t) = z2 (t)
..
.
.
(t)
= zp (t)
z
p1
297
VII.1 Generalidades
de donde planteando
z = (z1 , z2 , . . . , zp )t
se tiene
(VII.1.5)
La condici
on de Cauchy para el problema (VII.1.5) est
a dada por
y(t0 ), y (t0 ), . . . , y (p1) (t0 ).
Ahora bien, en este captulo no ser
a tratado el problema diferencial
general de orden p, dado por
F (t, y(t), y (t), . . . , y (n) (t)) = 0,
t I0 .
(VII.1.6)
(t, y) y (t, z) I0 Rm ;
(VII.1.7)
298
f (s, y(s))ds.
(y)(t) = y0 +
t0
Introduciendo la norma
t0
t
t0
Le2L(st0 ) ds ky y kL
1
e2L(tt0 ) ky y kL ,
2
deduciendose
1
ky y kL .
2
El teorema del punto fijo implica que tiene un solo punto fijo en C 0 (I0 ),
de donde se tiene el resultado.
k(y) (y )kL
(VII.1.9)
Entonces
ky(x) v(x)k ky0 v(x0 )k eL(xx0 ) +
Demostraci
on.- Se tiene:
L(xx0 )
e
1 .
L
(VII.1.10)
(y (s) v (s))ds
y(x) v(x) = y(x0 ) v(x0 ) +
x0
Z x
(f (s, y(s)) f (s, v(s)) + f (s, v(s)) v (s)) ds,
= y(x0 ) v(x0 ) +
x0
299
VII.1 Generalidades
Planteando
u(x) = ky0 v(x0 )k +
se deduce
x0
(VII.1.11)
wn (x0 ) = u(x0 ) +
1
,
n
(VII.1.12)
L(xx0 )
e
1) .
L
(VII.1.13)
x1
x0
x1
x0
wn (s)ds
x1
= u(x1 ) u(x0 ),
x0
x0
300
por lo tanto
w(x0 ) u(x0 ),
llegando a una contradiccion con 1/n 0.
(VII.1.14)
donde f : R Rn Rn .
Un problema diferencial con valores en la frontera es darse una ecuacion
diferencial del tipo (VII.1.14) con n condiciones para y(a) y y(b), donde
a, b R. Existe una gama de problemas diferenciales con valores en la
frontera. A continuacion se mostrar
a los ejemplos mas representativos.
Ejemplos
a) Problemas a valores iniciales. Son de la forma
y = f (x, y),
y(x0 ) = y0 .
Este tipo de problema tiene solucion u
nica si f es continua y verifica las
condiciones de Lipschitz.
b) Considerese el problema
y = y;
y(a) = A,
y(b) = B.
301
VII.1 Generalidades
y = f (x, y, y );
2
z = l f lt, z,
,
l
l = 0,
z(1) = B,
z (1) = 0.
(VII.1.15)
302
donde f : R Rn R y r : Rn Rn Rn .
Por consiguiente la funcion r en los diferentes ejemplos, ser
a igual a:
r(y(a), y(b)) = y(a) ya
y1 (a)
y1 (b)
y1 (a) A
r
,
=
y2 (a)
y2 (b)
y1 (b) B
r(y(x0 ), y(x0 + T )) = y(x0 ) y(x0 + T )
ejemplo a),
ejemplo b),
ejemplo c),
(VII.1.16)
(VII1.17)
(VII.1.18)
r
r
y
(ya , y(b, a, ya )) +
(ya , y(b, a, ya ))
(b, a, ya ). (VII.1.20)
ya
yb
ya
303
VII.1 Generalidades
(VII.1.22)
n
X
(VII.1.23)
i=1
(VII.1.25)
y
f
y
(x, x0 , y0 ) =
(x, y(x, x0 , y0 ))
(x, x0 , y0 )
x y0
y
y0
con
de donde
y
(x0 , x0 , y0 ) = I,
y0
y
(x, x0 , y0 ) es la resolvente de la ecuacion diferencial lineal
y0
=
f
(x, y(x, x0 , y0 )).
y
(VII.1.26)
Shooting Simple
Retomando el problema con valores en la frontera formulado bajo la forma
de las ecuaciones (VII.1.18) y (VII.1.19) puede ser resuelto utilizando el
metodo conocido como shooting simple, que en sntesis es utilizar un metodo
304
n
umerico para resolver (VII.1.19). Este metodo puede ser Newton u otro
metodo numerico adaptado al problema. Sin pretender dar una teora que
justifique tal metodo, para tal efecto referirse a Stoer, se mostrar
a este
metodo implementado en ejemplos.
Ejemplos
a) Considerese el problema con valores en la frontera dado por:
y = ey ,
y(0) = 1,
(VII.1.27)
1
y(1) = .
2
Utilizando la notacion de la subsecci
on precedente, se plantea
y(x, ),
la solucion del problema diferencial a valores iniciales
y = ey ,
y(0) = 1,
y (0) = .
(VII.1.27b)
y(1)
0
0
10
305
VII.1 Generalidades
(VII.1.28)
(VII.1.29)
(VII.1.30)
306
(VII.1.31)
se obtiene
y
(T, 0, y0 ) I
y0
t
f (y(T, 0, y0 ))
f (y(T, 0, y0 ))
0
y0
T
y(T, 0, y0 ) y0
.
0
(VII.1.32)
307
VII.1 Generalidades
figura VII.1.3
3
0
0
Shooting M
ultiple
La solucion del problema con valores en la frontera
y = f (x, y),
r(y(a), y(b)) = 0,
(VII.1.33)
(VII.1.34)
308
(VII.1.35)
y(10) = 1;
21 10e110 11e100
.
e110 e100
(VII.1.36)
1015 110
e
2.8 1031 .
21
(VII.1.37)
los valores que puede tomar y (0), para que y(x) este definida en el intervalo
[0, 100], est
an restringidos a un intervalo de longitudo no mayor a 106 . Por
este motivo puede deducirse la dificultad de implementar el metodo shooting
simple.
VII.1 Generalidades
309
y(x1 , x0 , y0 ) y1 = 0
y(x2 , x1 , y1 ) y2 = 0
..
(VII.1.38)
.
r(y0 , yn ) = 0.
La solucion de (VII.1.38) se la encuentra utilizando un metodo iterativo,
que puede ser Newton si el problema no es lineal. Como ilustraci
on de este
Metodo se tiene los siguientes dos ejemplos.
Ejemplos
a) Considerese el problema (VII.1.37). Para su resolucion se ha subdividido equidistantemente en 100 subintervalos. La solucion del sistema
(VII.1.38) se la hecho utilizando el metodo de Newton. Las iteraciones
y las graficas pueden apreciarse en la figura VII.1.4.
310
iter=0
2
1
0
20
40
60
80
100
iter=1
2
1
0
20
40
60
80
100
iter=2
2
1
0
20
40
60
80
100
iter=3
2
1
0
20
40
60
80
100
iter=4
2
1
0
20
40
60
80
100
iter=11
2
1
0
20
40
60
80
100
311
VII.1 Generalidades
siguiente: Encontrar una funcion y(x), tal que
10
p
1 + y 2 dx min,
10
y 2 dx = 550,
y(0) = 5,
y(10) = 2.5.
Planteando
L(, y, y ) = y
p
55
1 + y 2 y 2
,
10
Este problema es de tipo variacional. Aplicando las ecuaciones de EulerLagrange se convierte en el problema diferencial siguiente
d
dx
p
55
2
2
y 1 + y (y
p
55
2
2
y 1 + y (y ) = 0.
y
312
iter=0
10
iter=2
10
iter=4
10
8
7
6
5
4
3
2
1
0
0
8
7
6
5
4
3
2
1
0
0
8
7
6
5
4
3
2
1
0
0
iter=1
10
iter=3
10
iter=5
10
Ejercicios
1.- Resolver:
p
y = x signo(y) |x|,
y = exp(y) sin(x),
y = (x y + 3)2 .
p
x2 y 2 + y.
313
VII.1 Generalidades
Encontrar una formula explicita para las soluciones.
3.- La ecuacion de un cuerpo en caida libre est
a dada por
r =
M
,
r2
r (0) = v0 .
r(0) = R,
(VII.1.39)
y
+ (1 + x)y 4 = 0,
1+x
(VII.1.40)
y 3y 4y = g(x),
g(x) =
cos x,
0,
0 x /2;
/2 x;
y =
y,
2 3
y =
1
4
1
3
VII.2 M
etodo de Euler
i = 0, . . . , n 1.
(VII.2.2)
(VII.2.3)
xi+1 = xi + hi ,
yi+1 = yi + hi f (xi , yi ).
(VII.2.4)
De manera general
La solucion numerica proporcionada por el metodo de Euler es, por consiguiente una funcion poligonal, ver figura VI.2.1, denotada por yh (x), llamada
polgono de Euler; esta funcion esta definida por:
h = (h0 , . . . , hn ),
(
x [xk , xk+1 ],
yh (x) = yk + (x xk )f (xk , yk ).
y1
y0
y2
y3
y4
y5
y6
y(x)
x1
x2 x3
x4
x5
x6
(VII.2.5)
VII.2 M
etodo de Euler
315
Una pregunta muy natural, que uno puede plantearse, consiste en determinar
bajo que condiciones el metodo de Euler converge hacia la solucion exacta
del problema diferencial de Cauchy, cuando n .
Considerese el problema
y = f (x, y),
y(x0 ) = y0 ,
(VII.2.6)
max
i=0,...,n1
hi .
(VII.2.7)
Proposici
on VII.2.1.- Sea D = {(x, y)|x [x0 , x0 + a], ky y0 k b} U.
Supongase que f |{D continua, A = max kf (x, y)k, = min(a, b/A).
(x,y)D
Proposici
on VII.2.2.- Sea h una division del intervalo I. Sean yh (x) el
polgono de Euler para (x0 , y0 ) y zk (x) el polgono de Euler para (x0 , z0 ). Si
kf (x, y) f (x, z)k L ky zk ,
(VII.2.8)
entonces
kyh (x) zh (x)k kx0 z0 k eL(xx0 ) .
(VII.2.9)
316
VII.2 M
etodo de Euler
317
L
x0
eL 1
,
L
por consiguiente, {yh (x)} es una sucesion de Cauchy, con que no depende
de x. Como consecuencia inmediata, se tiene que la sucesion converge hacia
una funci
on (x) que adem
as es continua.
La demostracion del punto b) se basa en los siguientes hechos: yh (x0 ) =
y0 implica que (x0 ) = y0 , se considera el modulo de continuidad de f ,
definido por
() = sup{kf (x, y) f (
x, y)k | |x x
| , ky yk A},
se observa inmediatamente, que () 0 si 0. Utilizando la proposici
on
VII.2.2, se obtiene
kyh (x + ) yh (x) f (x, yh (x))k (),
de donde, se tiene
k(x + ) (x) f (x, (x))k (),
efectuando el pasaje al lmite, se obtiene
(x) = f (x, (x)).
La unicidad del punto c) ha sido ya demostrada en el corolario VII.1.12
Corolario VII.2.4.- f : U Rn (U Rn ) continuamente diferenciable.
D = {(x, y)|x0 x x0 + , ky y0 k b} U.
318
Demostraci
on.- Remontando la demostracion del teorema precedente, se
tiene
eL(xx0 ) 1
kyh (x) y(x)k
.
L
Puesto que f es diferenciable, se tiene
kf (x, y) f (
x, y)k L ky yk + M |x x
|
A |h| + |h| ,
de donde planteando = (LA + M ) |h| se tiene (VII.2.10).
yn+1
= yn + hn f (tn , yn ) + hn n + n
(VII.2.11)
(VII.2.12)
f
2
(tn , yn )en ] + hn n + n + O(ken k ).
y
(VII.2.13)
f
(tn , yn )zn ] + h(hn + n ),
y
(VII.2.14)
VII.2 M
etodo de Euler
319
f
(t, y(t))]z(t) + (h(t) + (t)).
y
(VII.2.15)
C
2
t J, h h0 .
h0
Error
320
hmin C eps,
(VII.2.16)
donde eps es la precisi
on de la computadora.
Las mayoraciones que se acaban de dar son por lo general demasiado
pesimistas, por ser rigurosos matematicamente, uno se situa en la situacion
mas desfavorable posible. Por otro lado si se toma h muy peque
no, inferior
a eps, el algoritmo se mantiene estacionario.
Estabilidad del M
etodo de Euler
En la anterior subsecci
on se pudo observar la incidencia directa del error de
redondeo. En esta parte se analizar
a la propagacion del error de redondeo
en la solucion numerica. Considerese el problema siguiente
y = y,
y(0) = y0 .
(VII.2.17)
(VII.2.18)
sup
ongase que en lugar de y0 , se introduce una aproximacion y0 , planteando
en = yn yn donde yn es la solucion numerica de la ecucion (VII.2.17) con
valor inicial y0 . Los en verifican la siguiente relacion:
en+1 = en + hen ,
e0 = (
y0 y0 ),
de donde
en = (h + 1)n e0 .
(VII.2.19)
2
.
||
(VII.2.20)
VII.2 M
etodo de Euler
321
y(0) = y0 .
(VII.2.21)
(VII.2.22)
1
100
cos x +
sin x + Ce100x ,
10001
10001
100
0, 01.
10001
(VII.2.23)
322
yh () = 9.999 103 ,
165
yh () = 60.101.
h2 =
155
h1 =
M
etodo de Euler Implcito
En lugar de utilizar el esquema dado por (VII.2.4); el metodo de Euler
implcito, est
a dado por el esquema
yk+1 = yk + hk f (xk+1 , yk+1 ).
(VII.2.24)
(VII.2.25)
1
en ,
1 h
(VII.2.26)
VII.2 M
etodo de Euler
323
(VII.2.27)
|z 1| > 1,
(VII.2.28)
Ejercicios
1.- Aplicar el metodo de Euler al problema
y = y2 ,
y(0) = 1.
Evaluar y(1/4).
Utilizar pasos constantes, (por ejemplo h=1/6). Estimar el error con el
corolario VII.2.4. Comparar esta estimacion con el error exacto.
2.- Demostrar el resultado siguiente: Si el problema
y = f (x, y),
n
y(x0 ) = y0 ,
n
VII.3 M
etodos de Runge-Kutta
y(x0 ) = y0 ,
(VII.3.1)
x0 +h
f (t, y(t))dt.
(VII.3.3)
x0
VII.3 M
etodos de Runge-Kutta
325
h
h
x0 + , y(x0 + ) ,
2
2
(VII.3.4)
(VII.3.5)
x0
x0 +h/2
x 0 +h
(VII.3.6)
326
a21
c3
..
.
a31
..
.
a32
..
.
..
cs
as1
as2
as,s1
b1
b2
(VII.3.7)
bs1
bs
Los metodos de Euler, como tambien los metodos de Runge y Heun est
an
dados en la tabla III.3.1
Tabla III.3.1. Primeros metodos de Runge-Kutta
0
0
0
1/2
1
1/2
0
Euler
1/3
1/3
2/3
2/3
1/4
Runge
3/4
Heun
ci =
i1
X
aij , i = 2, . . . , s.
(VII.3.8)
j=1
cuando h 0.
(VII.3.9)
VII.3 M
etodos de Runge-Kutta
327
Y = F (Y ),
y(0) = y0 ,
x(0) = 0,
1
x
, F (Y ) =
Y =
f (x, y),
y
donde
(VII.3.10)
s
i1
X
X
1
x1
,
Y1 = Y0 + h
bi Ki =
,
aij Kj =
Ki = F Y0 + h
ki
y1
i=1
j=1
i1
X
j=1
aij Kj =
x0
y0
+h
i1
X
j=1
aij
1
kj
x0P
+ ci h
i1
y0 + h j=1 aij kj
.
328
El siguiente paso, es de estudiar un procedimiento que permita determinar metodos de Runge-Kutta de ordenes mas elevados. Un buen ejercicio
ser
a construir el metodo de Kutta que es de orden 4.
Construcci
on de un m
etodo de orden 4
La idea principal de la construccion del metodo de Runge, es considerar los
desarrollos en serie de Taylor de la solucion exacta y(x0 +h), como tambien de
la solucion numerica obtenida a partir del metodo, que se la denota por y1 (h).
Luego comparar las series, para obtener condiciones sobre los coeficientes del
metodo.
Serie de Taylor de la soluci
on exacta
Considerese el problema de Cauchy
y = f (y),
y(x0 ) = y0 .
(VII.3.11)
h2
f f (y0 )
2! y
h3
fy (f (y0 ), f (y0 )) + fy fy f (y0 )
3!
fy (f (y), f (y), f (y)) +
(VII.3.12)
+ fy fy (f (y), f (y)) + fy fy fy f (y) + O(h5 ).
Serie de Taylor de la soluci
on num
erica
Para calcular la serie de Taylor de y1 , es suficiente determinar las series de
los
i1
X
ki = f (x0 + h
aij kj ).
(VII.3.13)
j=1
VII.3 M
etodos de Runge-Kutta
329
aij cj fy fy f (y0 ) +
+ O(h ).
h2 2
c f (f (y0 ), f (y0 ))
2 i y
Efectuando todava una vez mas una iteracion, e introduciendo los valores
obtenidos en la definicion (VII.3.5) de yi , se obtiene
!
!
X
X
h2
bi ci (f f )0
(VII.3.14)
2
bi f0 +
y1 = y0 + h
2
i
i
!
X
h3 X 2
bi aij cj (f f f )0
bi ci (f (f, f ))0 + 6
3
+
3!
ij
i
!
X
h4 X 3
+
bi ci aij cj (f (f f f ))0
bi ci (f (f, f, f ))0 + 8
4!
ij
i
X
bi aij ajk ck (f f f f )0 + O(h5 ),
+ 24
ijk
donde el subndice 0 indica que las evaluaciones deben ser hechas en el punto
y0 .
Comparando los coeficientes de (VII.3.12) y (VII.3.14), se encuentran
las condiciones que deben satisfacer los coeficientes ci , bi y aij para contar
con un metodo de orden 4. Estas condiciones se las enuncia en el:
bi ci =
1
,
2
(VII.3.15b)
bi c2i =
1
,
3
(VII.3.15c)
X
i
330
1
,
6
(VII.3.15d)
bi c3i =
1
,
4
(VII.3.15e)
bi ci aij cj =
1
,
8
(VII.3.15f )
bi aij c2j =
1
,
12
(VII.3.15g)
bi aij ajk bk =
1
.
24
(VII.3.15h)
bi aij =
ij
X
i
ij
X
ij
X
ijk
c2 c4
c2 + c3
1
+
.
2
3
4
(VII.3.16)
1
c2
,
12
6
(VII.3.17)
1
c4
.
6
8
(VII.3.18)
12
6
6
8
c2 c4
c2 + c3
1
b4 a43 a32 c2 b3 c3 (c3 c2 )(c4 c3 ) =
/24,
+
2
3
4
lo que es equivalente a
c2 (1 c4 ) = 0.
VII.3 M
etodos de Runge-Kutta
331
0
1/2
1/2
1/2
1/2
1/3
1/3
2/3
1/3
1/8
1
1
Regla 3/8
M
etodos Encajonados
Para resolver un problema realista, un c
alculo a paso constante es en
general ineficiente. Existen diversas causas para esta ineficiencia: la primera
es que se debe conocer a priori una estimacion del error local cometido,
lo cual es complicado en general ocasionando una perdida de generalidad
en los programas a implementarse. La otra raz
on fundamental que existen
intervalos donde los pasos de integracion pueden ser de longitud mayor. El
principal problema reside en como escoger los pasos de integracion. La idea
que puede resolver satisfactoriamente estos problemas consiste en escoger
pasos de integracion de manera que el error local sea en todo caso inferior o
igual a T ol dado por el utilizador. Motivo por el cual es necesario conocer
una estimacion del error local. Inspirados en el programa GAUINT descrito
en VI.3, se construye un metodo de Runge-Kutta con y1 como aproximacion
numerica, y se utiliza la diferencia y1 y1 como estimacion del error local
del metodo menos preciso.
Se da un metodo de orden p a s pisos, con coeficientes ci , aij , bj . Se busca
un metodo de orden p < p que utiliza las mismas evaluaciones de f , es decir
y1 = y0 + h(b1 k1 + + bs ks ),
(VII.3.19)
332
(VII.3.20)
a21
c3
..
.
a31
..
.
a32
..
.
..
cs
as1
as2
as,s1
(1)
b1
b1
b2
b2
bs1
bs1
bs
bs
(bs+1 )
T ol Chp+1
(VII.3.22)
opt .
hopt = 0.9 h
.
ky1 y1 k
(VII.3.23)
y0 := y1 ,
h := min(hopt , xend x0 );
VII.3 M
etodos de Runge-Kutta
333
si no el paso es rechazado
h := hopt .
C) Si x0 = xend se ha terminado, si no se recomienza por (A) y se calcula
el paso siguiente.
La pr
actica numerica muestra que es aconsejable remplazar (VII.3.23)
por
.
hopt = h min 5, max(0.2, 0.9(T ol/err)1/p+1
Para la norma dada en la relacion (VII.3.23), se utiliza en general
v
u n
u 1 X yi1 yi1 2
ky1 y1 k = t
, donde sci = 1 + max(|yi0 | , |yi1 |).
n i=1
sci
(VII.3.24)
En la literatura especializada, estos metodos encajonados con control
de paso automatico, se los denota por RKpp donde RK son las iniciales
de Runge-Kutta y p, p son los ordenes de los metodos encajonados. En la
actualidad la utilizaci
on de tales metodos es muy com
un. En la tabla VII.3.4
se da el esquema del metodo de Dormand-Prince RK54 ; este metodo es
analizado minuciosamente en Hairer & Wanner.
Tabla VII.3.4. Metodo Dormand-Prince 5(4)
0
1
5
1
5
3
10
3
40
4
5
44
45
8
9
19372
6561
9017
3187
9
40
56
15
32
9
25360
2187
64448
6561
355
33
46732
5247
49
176
35
384
500
1113
125
192
2187
6784
11
84
y1
35
384
500
1113
125
192
2187
6784
11
84
y1
5179
57600
7571
16695
393
640
92097
339200
187
2100
1
40
212
729
5103
18656
334
1/3
2/3
2/3
1/4
3/4
1/2
1/2
Soluciones Continuas
Uno de los incovenientes mayores de los metodos formulados en esta seccion
consiste en el hecho que estos dan las soluciones en un conjunto discreto
de puntos. Una primera alternativa es unir estas soluciones con polgonos,
si los puntos donde el metodo ha dado las soluciones. El resultado no es
satisfactorio desde varios puntos de vista. Si el metodo es de orden elevado
la interpolaci
on lineal, vista en el Captulo III, tiene como efecto la perdida
de precisi
on. Desde el punto de vista grafico las soluciones dejan de ser
VII.3 M
etodos de Runge-Kutta
335
2
2
b3 = ,
3
2
4
3
b3 = ,
9
3
3
4
b3 = .
9
6
1/3
2/3
2/3
3
( 4 )
3 2
336
Convergencia de los M
etodos de Runge-Kutta
En las subsecciones precedentes, se ha hecho un analisis del error local,
intimamente ligado al orden del metodo. Pero no se ha analizado que sucede
con el error global de la solucion numerica. Para analizar este tipo de error
es necesario introducir alguna notacion adicional.
Considerese un metodo a un paso
yn=1 = yn + hn (xn , yn , hn ),
(VII.3.25)
aplicado a una ecuacion diferencial y = f (x, y), con valor inicial y(x0 ) =
y0 . Es natural plantearse sobre la magnitud del tama
no del error global
y(xn ) yn . A continuacion se enunciar
a un teorema general sobre esta clase
de error.
Teorema VII.3.5.- Sea y(x) la solucion de y = f (x, y), y(x0 ) = y0 sobre
el intervalo [x0 , xe ]. Supongase que:
a) el error local satisface para x [x0 , xe ] y h hmax
ky(x + h) y(x) h(x, y(x), h)k C hp+1 ,
(VII.3.26)
(VII.3.27)
Demostraci
on.- La idea central de la demostracion es estudiar la influencia
del error local, cometido en el paso i-esimo a la propagacion de yn . Enseguida,
adicionar los errores acumulados. Ver figura VII.3.2.
Sean {yn } y {zn } dos soluciones numericas obtenidas por (VII.3.25) con
valores iniciales y0 y z0 respectivamente. Utilizando la condici
on de Lipschitz
dada por (VII.3.27), su diferencia puede ser estimada como
kyn+1 zn+1 k kyn zn k + hn kyn zn k
VII.3 M
etodos de Runge-Kutta
337
Recursivamente, se obtiene
kyn zn k ehn1 ehn2 ehi kyi zi k .
y el error propagado Ei , ver figura VII.3.2, satisface
(xn xi )
kEi k e(xn xi ) kei k Chp+1
,
i1 e
y0
y(xn )
En
E n1
e n1
e1
e
(VII.3.30)
E1
y
x0
x1
x2 x 3
xn
n
X
i=1
kEi k
n
X
(xn xi )
hp+1
i1 e
i=1
x0
( x n x)
x
x0
x1
x2
x n1
xn
338
se estar
a seguro que todas las soluciones numericas de la figura VII.3.2 se
quedar
an en U.
s
X
bi ki (y),
(VII.3.31)
i=1
donde
ki (y) = f x + ci h, y + h
i1
X
j=1
aij kj (y) .
(VII.3.32)
Proposici
on VII.3.6.- Si f (x, y) satisface una condici
on de Lipschitz
kf (x, y) f (x, z)k L ky zk en un vecindario de la solucion de y =
f (x, y), la expresi
on (x, y, h) de (VII.3.31) verifica la condici
on (VII.3.27)
con
X
X
X
|bi aij | + (hmax L)2
|bi aij ajk | + .
|bi | + (hmax L
= L
i
ij
ijk
(VII.3.33)
Demostraci
on.- La condici
on de Lipschitz para f (x, y) aplicado a
(VII.3.32) da
kk1 (y) k1 (z)k = kf (x, y) f (x, z)k L ky zk
kk2 (y) k2 (z)k L ky z + ha21 (k1 (y) k1 (z))k
L(1 + hmax L |a21 |) ky zk ,
etc. Las estimaciones (VII.3.34) introducidas en
k(x, y, h) (x, z, h)k
s
X
i=1
(VII.3.34)
VII.3 M
etodos de Runge-Kutta
339
Experiencias Num
ericas
En esta subsecci
on se mostrar
a varios ejemplos donde los metodos de RungeKutta act
uan. Se comparara varios metodos.
1.- Se considera la ecuacion diferencial, con valor inicial,
y = y + sin x,
y(0) = 1;
(VII.3.35)
1
3 x 1
e cos x + sin x.
2
2
2
(VII.3.36)
fe
105
104
103
102
101
100 0
10
err glob
101
102
103
104
105
106
107
108
109
1010
Metodo de Euler
Metodo de Runge
Metodo de Heun
Metodo de Kutta
Metodo 3/8
340
= 3y1
y1 (0) = 1.5,
y2 (0)3,
y12 y2 ,
(VII.3.37)
y2
5
4
3
2
y1
100
10
101
102
0
103
Error global
10
10
105
106
107
108
VII.3 M
etodos de Runge-Kutta
341
Ejercicios
1.- Aplicar el metodo de Runge al sistema
y1 = y2 ,
y2 = y1 ,
y1 (0) = 1,
y2 (0) = 0,
s
j
X
z
y0 ,
z = h.
y1 =
j!
j=0
4.- Construir todos los metodos de Runge-Kutta de orden 3 con s = 3 pisos.
5.- Considerese el problema
y =
y + g(x),
x
y(0) = 0
(j)
y (0) = 1
g (j1) (0).
j
6.- Aplicar un metodo de Runge-Kutta al problema del ejercicio anterior,
1
utilizar la definicion f (x, y) = 1 j
g(0), para x = 0.
a) Mostrar que el error del primer paso satisface
VII.4 M
etodos Multipasos
Los metodos a un paso calculan un valor aproximado yn+1 , en el instante tn+1 , utilizando u
nicamente el valor aproximado yn . La utilizaci
on
de varios valores aproximados yn , yn1 , . . ., permite obtener a precisi
on
igual metodos de costo menos elevado; estos metodos son com
unmente
llamados multipasos, mas precisamente cuando los c
alculos utilizan r valores precedentes: yn , yn1 , . . . , ynr+1 , es decir concernientes los r pasos:
hn , hn1 , . . . , hnr+1 , se habla de metodos a r pasos. Entre estos metodos,
los metodos de Adams son aquellos que parecen ser a la hora actual los mas
eficaces cuando el problema diferencial es bien condicionado, ser
an estudiados en esta subsecci
on. Los algoritmos modernos utilizan estos metodos con
un n
umero variable de pasos y un tama
no de paso variables. La variaci
on
del n
umero de pasos y la longitud de los pasos permite adaptar el metodo
a la regularidad de la solucion, permite tambien de levantar las dificultades
de arranque que presentan los metodos a n
umero de pasos fijo.
M
etodos de Adams Explcitos
Sea una division x0 < x1 < < xn = xe del intervalo sobre el cual se
busca resolver la ecuacion diferencial y = f (x, y) y sup
ongase que se conoce
aproximaciones yn , yn1 , . . . , ynk1 de la solucion para k pasos consecutivos
(yi y(xj )). De la misma forma que para la derivacion de los metodos de
Runge-Kutta, se integra la ecuacion diferencial, para obtener
Z xn+1
f (t, y(t))dt.
(VII.4.1)
y(xn+1 ) = y(xn ) +
xn
para j = n, n 1, . . . , n k + 1;
x nk+1
f n1
x n1
fn
xn
p(t)
x n+1
(VII.4.2)
VII.4 M
etodos Multipasos
343
xn+1
p(t)dt.
(VII.4.3)
xn
k1
X
j=0
j1
Y
i=0
(VII.4.4)
k1
X
j=0
xn+1 j1
Y
xn
i=0
j fn
,
j!hh
(VII.4.6)
k1
X
j=0
donde
1
j =
j!
1 j1
Y
(i + s)ds =
j j fn ,
i=0
s+j1
j
(VII.4.7)
ds.
344
M
etodos de Adams Implcitos
La idea central de estos metodos consiste en considerar el polinomio p (t)
de grado k, que satisface
p (t) = fj
j = n + 1, n, n 1, . . . , n k + 1.
para,
(VII.4.9)
A diferencia de la version explcita fn+1 = f (xn+1 , yn+1 ) es todava desconocido. El siguiente paso es definir la aproximacion numerica por
Z xn+1
p (t)dt.
(VII.4.10)
yn+1 = yn +
xn
i=0
Z
k
X
j=0
xn+1 j1
Y
xn
i=0
VII.4 M
etodos Multipasos
345
k
X
j j fn+1 ,
j=0
(VII.4.13)
donde
1
j!
j =
1 j1
Y
i=0
(i + s 1)ds =
s+j2
j
ds.
(VII.4.14)
j 1
1
1
1
19
3
863
375
33953
2
12
24
720
160
60480
24192
3628800
M
etodos Predictor-Corrector
Los metodos de Adams implcitos tienen la gran ventaja sobre la version
explcita, por que las soluciones provistas son mas realistas. Sin embargo la
gran dificultad de estos metodos es la resolucion de (VII.4.15). En algunos
casos particulares, como en el caso de los sistemas lineales, esta resolucion
346
podr
a hacerse directamente, pero en el caso general la utilizaci
on de un
metodo iterativo para resolver el sistema no lineal es necesaria. Por otro lado,
es necesario recalcar que yn+1 es una aproximacion de la solucion exacta,
motivo por el cual es natural pensar que un c
alculo muy preciso de yn+1
tal vez no sea necesario. Es por eso, que una mejora de esta situacion puede
darse de la manera siguiente. Primero calcular una primera aproximacion por
un metodo explcito, luego corregir este valor, una o varias veces, utilizando
la formula (VII.4.15). Con este algoritmo, un paso de este metodo toma la
forma siguiente:
Pk1
P: se calcula el predictor yn+1 = yn + h j=0
j j fn por el metodo de
Adams explcito; yn+1 es ya una aproximacion de y(xn+1 ).
E: evaluaci
on de la funcion: se calcula fn+1 = f (xn+1 , yn+1 ).
C: la aproximacion corregida est
a dada por yn+1 = n + h fn+1 .
E: calcular fn+1 = f (xn+1 , yn+1 ).
Este procedimiento, que se lo denota PECE, es el mas utilizado. Otras
posibilidades son: efectuar varias iteraciones, por ejemplo PECECE, o de
omitir la u
ltima evaluaci
on de f , es decir PEC, y de tomar fn+1 en el lugar
de fn+1 para el paso siguiente.
Metodos BDF
Se ha visto que los metodos de Adams, tanto en su version explcita, como
en su version implcita consideran polinomios de interpolaci
on que pasan
por los fj . Esta manera de abordar el problema de la aproximacion de las
soluciones de un problema diferencial es eficaz cuando el problema diferencial
es bien condicionado, pero estos pueden volverse muy costosos desde el
punto de vista computacional para los problemas diferenciales rgidos. Por
consiguiente, puede ser interesante de utilizar el metodo de las diferencias
retr
ogradas que ser
a descrito en esta subseccion.
La idea central de los metodos BDF consiste en considerar el polinomio
q(t) de grado k, ver figura VII.4.2, definido por
q(xj ) = yj ,
para
j = n + 1, n, . . . , n k + 1;
(VII.4.16)
(VII.4.17)
k
X
j=0
j1
Y
i=0
(VII.4.18)
VII.4 M
etodos Multipasos
347
j1
Y
i=1
ynk+1
x nk+1
q(t)
yn
yn1
xn
x n1
x n+1
j yn+1 = hfn+1 .
(VII.4.20)
348
i yn+i = h
k
X
i fn+i ,
(VII.4.21)
i=0
i=0
(VII.4.22)
y(x)
y n+1
yn
xn
yn+k
x n+k1
xn+1
x n+k
k
X
i=0
(VII.4.23)
k
X
i y (xn + ih)
i=0
lo que es equivalente a
f
L(y, xn , h) = k I hk (. . .) (y(xn+k ) yn+k ),
y
(VII.4.24)
VII.4 M
etodos Multipasos
349
k
X
i = 0 y
i=0
i iq = q
i=0
k
X
iq1 para q = 1, . . . , p.
(VII.4.25)
i=0
Demostraci
on.- En la formula (VII.4.23), se desarrolla las expresiones
y(x + ih) y y (x + ih) en serie de Taylor y obteniendo
L(y, x, h) =
k
X
i=0
y (q) (x)
g0
= y(x)
k
X
i=0
k
X
X
(ih)q
(ih)r
i
y (r+1) (x)
h
q!
r!
i=0
r0
X
g1
(q)
hq
(x)
q!
k
X
i=0
i i q
k
X
i=0
La condici
on L(y, x, h) = O(hp+1 ) da la condici
on (VII.4.25).
q1
Ejemplo
Considerese el metodo de Adams explcito a k pasos. Para q k, se
considera la ecuacion diferencial y = qxq1 cuya solucion es y(x) = xq .
En esta situacion, el polinomio p(t) de (VII.4.2) es igual a f (t, y(t)) y el
metodo de Adams explcito da el resultado exacto. Por consiguiente, se
tiene L(y, x, h) = 0, ver la formula (VII.4.24) lo que implica
k
X
i=0
i (x + ih)q qi (x + ih)q1 h = 0
Estabilidad
A simple vista la relacion (VII.4.25) permite formular metodos multipaso con
un n
umero dado de pasos con un orden optimal. Sin embargo la experiencia
350
(VII.4.26)
(VII.4.27)
Una aplicaci
on a la ecuacion diferencial y = y con y(0) = 1 da la formula
de recurrencia
Para resolver la ecuacion precedente, se calcula el polinomio caracterstico
de esta, obteniendo
2 + 4(1 h) (5 + 2h) = 0,
(VII.4.28)
2 = 5 + O(h).
yn = C1 1n + C2 2n
(VII.4.29)
3.0
h=0.01
h=0.05
2.0
1.0
.0
h=0.025
.5
h=0.1
1.0
VII.4 M
etodos Multipasos
351
La raz
on de la divergencia de la solucion numerica en el ejemplo precedente,
es que el polinomio
k
X
i i ,
(VII.4.30)
() =
i=0
(VII.4.31)
y est
a dada por una combinacion lineal de:
n . . . . . . . . . . . . . . . . . . . . si es una raiz simple de () = 0,
n , n n . . . . . . . . . . . . . . . si es una raiz doble de () = 0,
n , n n , . . . , nl l . . . . . . si es una raiz de multiplicidad l.
Para que la solucion numerica quede acotada, es necesario que las
condiciones de la definicion siguiente sean satisfechas.
Definici
on VII.4.3.- Un metodo multipaso es estable, si las raices del
polinomio () satisfacen
= 0 entonces 1,
i) si ()
= 0 y = 1 entonces es una raiz simple de ().
ii) si ()
Se puede mostrar facilmente que los metodos de Adams tienen como
polinomio caracterstico
() = k1 ( 1).
Por consiguiente los metodos de Adams son estables para la definicion que
acaba de ser enunciada. Por otro lado se muestra igualmente que los metodos
BDF son estables solamente para k 6.
Existe un resultado muy importante en la teora de la estabilidad de los
metodos multipaso, cuya demostracion escapa a los objetivos del libro. Este
resultado es conocido como la primera barrera de Dahlsquist.
Teorema VII.4.4.- Primera barrera de Dahlsquist. Para un metodo multipaso estable, el orden k satisface p k + 2 si k es par, p k + 1 si k es
impar y p k si el metodo es explcito.
Convergencia de los M
etodos Multipaso
Debido a la complejidad de la demostracion, en esta subsecci
on se
tratara, solamente el caso equidistante.
352
para xn x0 = nh Const.
(VII.4.34)
Demostraci
on.- El punto esencial de la demostracion es el siguiente: Se
escribe formalmente el metodo multipaso (VII.4.21) bajo la forma de un
metodo a un paso. El metodo multipaso es de la forma, suponiendo k = 1
yn+k =
k1
X
(VII.4.35)
i=0
k1
X
i f (xn+i , yn+i ),
i=0
k1
X
i f (xn+i , yn+i )
(VII.4.36)
i=0
+ k f
k1
X
i yn+i
i=0
k1 1 k2 1
0
1
A =
1
1 1
0
..
.
..
..
.
.
0 1
(x, Y, h)
0
O , (x, Y, h) =
..
..
.
0
0
(VII.4.37)
VII.4 M
etodos Multipasos
353
(VII.4.38)
yn+k1 zn+k1
.
..
yn+1 zn+1
yn zn
yn+1 zn+1
(xn , Yn , h) (xn , Zn , h)
0
.
+h
..
(VII.4.40)
Ahora se ver
a la acumulacion de los errores propagados. Esta parte de la
demostracion es exactamente igual que para los metodos a un paso, ver el
354
y0
y(xn )
En
E n1
e n1
e1
e
E1
y
x0
x1
x2 x 3
xn
Ejercicios
1.- Para los coeficientes del metodo de Adams explcito, demostrar la
formula de recurrencia siguiente:
1
1
1
m + m1 + m2 + +
0 = 1.
2
3
m+1
Indicaci
on.-Introducir la serie
G(t) =
j tj ,
j = (1)j
j=0
s
j
ds
y demostrar que
G(t) =
(1 t)s ds
log(1 t)
1
G(t) =
,
t
1t
xn+1
f (t, y(t))dt
xn1
VII.4 M
etodos Multipasos
355
k1
X
j=0
j j fn .
j = kj .
iP yn+1 = h
k1
X
iP fn+1 ,
(P )
i fn+1 .
(C)
i=0
i=0
y un corrector de orden p
k
X
i=0
i yn+1 = h
k
X
i=0
Bibliografa
358
Bibliografa
Bibliografa
359
Indice de Smbolos
problema, 2.
redondeo de x, 8.
precisi
on de la computadora, 8.
norma de vector, 25.
norma de matriz, 26.
1
vector 1, 29.
cond(A)
condici
on de la matriz A, 29.
LR
descomposici
on de Gauss, 37.
diag(r1 , r2 , . . . , rn ) matriz diagonal, 45.
D1/2
matriz raiz cuadrada, 45.
coeficiente de relajaci
on, 56.
Indice Alf
abetico
condici
on
del problema a valores propios, 217
del problema lineal,30,33
de un problema, 10
de una matriz, 29,30
Lipschitz, 297,298
construccion
polinomio de interpolaci
on, 106
metodo de orden 4, 327
spline, 133
convergencia
acelerador, 147
interpolaci
on, 119
metodo de Gauss-Newton, 204
metodo de Gauss-Seidel, 49
metodo de Jacobi, 49
metodos de Runge-Kutta, 335
metodos multipaso, 350
spline, 133
costo, 3
descomposici
on LR, 39
descomposici
on QR, 90
transformada rapida de Fourier, 291
Cramer, regla de, 35
Dahlsquist, primera barrera, 350
descomposici
on
Cholesky, 44, 45
Jordan, 219
LR, 37, 38, 39
QR, 87
Schur, 215, 234
valores singulares, 94
diferencias
divididas, 107
finitas, 109
direccion
conjugada, 69, 70
Newton, 194
dispositivo
ideal de c
alculo, 2
material de c
alculo, 8
Dormand & Prince, 332
364
ecuaciones
con derivadas parciales, 59
cuadraticas, 152
c
ubicas, 153
de grado cuarto, 154
diferenciales, 296
Euler-Lagrange, 310
no resolubles por radicales, 155
resolubles por radicales, 152
eficiencia, 3
-algoritmo, 278
error
de aproximacion, 5
de la aproximacion spline, 136
de interpolaci
on, 111
del metodo, 5
de truncacion, 4
formula de cuadratura, 250
extrapolaci
on, 149
metodo gradiente, 68
metodo gradiente condicionado, 72
metodo Gauss-Newton, 205,
metodo Multipaso, 346
metodo Newton, 176
transformada discreta de Fourier,
287
errores de redondeo, 115
estabilidad
algoritmo de Gauss, 41,42,43
backward analysis, 13
forward analysis, 12
metodo de Euler, 319
metodo de Euler explcito, 322
metodo multipaso, 348
numericamente estable, 12
Euler
efecto de los errores de redondeo,
317
estabilidad, 319
metodo, 313
metodo implcito, 321
polgono, 313
extrapolaci
on
polinomial, 145
tablero, 147
error, 149
betico
Indice Alfa
factorizaci
on,
incompleta de Cholesky, 77
fen
omeno de Runge, 124
FFT, 290
Fibonacci, busqueda, 129
formas tridiagonales, 227
formula
de Cardano, 154
de Newton, 107
de Nystrom, 354
de Rodrguez, 262
formula de cuadratura, 248
error, 250
Gauss,
264266
orden, 249
orden elevado, 259
simetrica, 249
Fourier
error, 287
serie de, 284
transformada, 284
transformada discreta, 286
transformada rapida, 290
funcion
integrable, 244
modelo, 83
ortogonal, 260
peso, 259
funciones con oscilaciones, 281
Galois, teorema, 155
GAUINT, 272
Gauss,
algoritmo de eliminacion, 36, 37
formulas de cuadratura,
264266
convergencia Gauss-Newton, 204
metodo Gauss-Newton, 203
Gerschgorin, teorema, 156, 232
grado de aproximacion, 120
grafo dirigido, 49
Hermite, 104, 138
Heun, 325
betico
Indice Alfa
Interpolaci
on
convergencia, 119
de Lagrange, 104108
de Hermite, 104
trigonometrica, 289
Kantorovich, ver teorema
Konrad, 271
Lagrange, 104
-estrategia, 194
Lebesgue, 116
Levenberg-Marquandt, 210
Lipschitz, 297
mantisa, 8
matriz
adjunta, 215
definida positiva, 43
Frobenius, 155, 221
Hessenberg, 227
Hilbert, 31, 87
Householder, 88, 228
irreducible, 49, 50
no-negativa, 50
normal, 216
ortogonal, 30
pseudo-inversa de una, 92
simetrica, 43
tridiagonal, 227
Toeplitz, 292
unitaria, 215
Vandermonde, 31
metodo,
Adamas explcitos, 341
Adamas implcitos, 343
a un paso, 323
BDF, 345
de la biseccion, 229
de la potencia, 223
de la potencia generalizada, 233
de la potencia inversa, 225
Dormand & Prince, 332
encajonados, 330
Euler, 313, 325
falsa posici
on, 165
Gauss Newton, 203-205
Gauss Seidel, 4856
Gradiente, 67
Gradiente Conjugado, 69
Gradiente Conjugado
Precondicionado, 75
365
Heun, 325
iterativos, 163172
iterativo simple, 169
Jacobi,4856
Levenberg-Marquandt, 210
Maehly, 158
Multipaso, 341
Newton, 157, 174199
Newton con Relajaci
on, 193
Newton Simplificado, 184
predictor-corrector, 344
QR, 237
QR con shift, 238
Sobrerelajaci
on SOR, 56, 58
Runge-Kutta, ver Runge-Kutta
SSOR precondicionado, 78
mnicmos cuadrados, 83
interpretacion estadstica, 84
interpretacion geometrica, 85
Misovski,
ver teorema Newton-Misovski
modificaciones de Gauss-Newton, 207
modulo de continuidad, 121
Newton
direccion, 194
Kantorovich, 185
metodo, 157, 174199
metodo con Relajaci
on, 193
metodo simplificado, 184
Misovski, 179
regla de, 247
norma,
absoluta, 26
ciudad-bloque, 25
de la convergencia uniforme, 25
de una matriz, 26
de un vector, 25
euclidiana, 25
Frobenius, 33
monotona, 26
natural, 72
Nucleo de Peano, 251254
nucleo resolvente, 303
operaci
on elemental, 2
orden
formula de cuadratura, 249
metodo de Runge-Kutta, 325
construccion de
un metodo de orden 4, 327
366
betico
Indice Alfa
Peano, 251254
region de estabilidad, 320
Pearson, 99
regla
Perron-Frobenius, 52
del punto medio, 246
pivote, 40
del trapecio, 246
polgono de Euler, 313
de Newton, 247
polinomio
de Simpson, 247
caracterstico, 214
Cramer, 35
Chebichef, 73, 113, 262
resolvente, 303
Rodriguez, 262
Hermite, 104
interpolaci
on de Hermite, 104, 138, 262 Romberg, 148
Runge-Kutta
interpolaci
on de Lagrange, 104
condiciones de orden, 327,328
Jacobi, 262
convergencia, 335
ortonormales, 260
error glogal, 335
Lagrange, 104, 105
error local, 325
Laguerre, 262
Dormand-Prince, 332
Legendre, 262, 263
esquema, 325
precisi
on de la computadora, 8
Euler, 325
primitiva, 245
Heun, 325
problema, 2
Kutta, 330
a valor inicial, 296
metodos, 324
bien condicionado, 10
metodos encajonados, 330
con valores en la frontera, 300
orden, 325
de Cauchy, 296
regla 3/8, 330
de minimizacion, 66
Runge, 325
mal condicionado, 10
soluciones continuas, 333
potencia inversa de Wielandt, 225
procedimienteo 2 de Aitken, 276
Schur, 215,234
producto
serie de Fourier, 284
de Kronecker, 65
Shooting
escalar de funciones, 260
m
ultiple, 307
sesquilineal, 284
simple, 303
tensorial de matrices, 60
soluciones continuas, 333
Property A de Young, 55
SOR, 56
punto
Spline
flotante, 8
aplicaci
on,142
de Chebichef, 117
construccion, 133
punto fijo, 169
c
ubico, 131,132
pseudo-inversa de una matriz, 92
error, 136
fijo en los bordes, 132
QUADPACK, 271
natural, 132
SSOR precondicionado, 78
Rayleigh, 223,227
radio espectral, 58
redondeado, 8
betico
Indice Alfa
optimal, 58
Sturm, 159
sucesiones
armonica, 148
Bulirsch, 148
Romberg, 148
Sturm, 159
Sylvester, 232
tablero de extrapolaci
on, 147
teorema
Cauchy-Lipschitz, 297, 315
Chebichef, 74
Dirichlet, 285
del Muestreo, 289
Fundamental del Algebra, 152
Galois, 155
Gerschgorin, 156, 232
Jordan, 219
Newton-Kantorovich, 185
Newton-Misovski, 179
Pearson, 99
Perron-Frobenius, 52
punto fijo, 169
Schur, 215
Sylvester, 232
Weirstrass, 124
Wilkinson, 42
Wynn, 278
transformada
discreta de Fourier, 286
r
apida de Fourier, 290
valor absoluto de un vector, 26
valor propio, 215
valores singulares, 94
Van der Pol, 305
vector propio, 215
Weirstrass, 124
Wilkinson, 42
Wynn, 278
367
368
betico
Indice Alfa
Una Introducci
on al An
alisis Num
erico es un libro
que pretende dar un enfoque moderno de los topicos
introductorios de esta disciplina. Las nociones de
estabilidad y error son analizadas minuciosamente en cada
tema. La formulacion de metodos y algoritmos es tratada
de una manera construccionista, evitando de esta manera
las recetas y trucos que aperecen en otros libros.
El libro cuenta con siete captulos que dan una idea de
lo que constituye actualmente el An
alisis Numerico. Estos
son: Preliminares, Sistemas Lineales, Interpolaci
on,
Ecuaciones No Lineales, Calculo de Valores Propios,
Integracion Numerica y Ecuaciones Diferenciales.
Por sus caractersticas, este libro puede utilizarse como
texto base, o bien como un complemento bibliografico.
Esta destinado a alumnos o profesionales interesados en
el An
alisis Numerico. Como prerequisito para una buena
utilizaci
on de este libro, se requiere tener los conocimientos
b
asicos de analisis y algebra lineal