Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una Introduccion
al
Analisis Numerico
i
Este libro nace ante el vacio existente de una bibliografa en espa~nol que
trate los temas capitales del Analisis Numerico. El nombre que lleva, \Una
Introduccion al Analisis Numerico", se debe esencialmente al caracter que
deseo que tenga este libro.
El Analisis Numerico es una disciplina de las Matematicas en gran
crecimiento gracias a la utilizacion masiva de medios informaticos. Da que
pasa es mas corriente el tratamiento numerico en las Ciencias, como en
la Tecnologa el modelaje, la simulacion numerica son moneda corriente.
Ahora bien, toda persona que pretenda tener como herramienta de tra-
bajo, los metodos numericos, debe conocer los topicos introductorios del
Analisis Numerico que son: Sistemas Lineales, Interpolacion, Resolucion de
Ecuaciones no Lineales, Calculo de Valores Propios y Solucion Numerica de
Ecuaciones Diferenciales, porque tarde o temprano se topara con alguno de
estos temas.
Siguiendo la lnea trazada por este libro, este contiene siete captulos: el
primero de caracter introductorio, donde se da los conceptos basicos de error
y estabilidad, seguido de un ejemplo mostrando que la aritmetica del punto
otante no es un impedimento para efectuar calculos de precision arbitraria
el segundo captulo trata sobre los problemas lineales mas comunes y
los metodos de solucion de estos el tercer captulo aborda el tema de
interpolacion numerica y extrapolacion, introduciendo el estudio de los
splines cubicos el captulo IV analiza los problemas no lineales y los metodos
mas ecientes de resolucion de estos en el captulo V se estudia el problema
de valores propios y la implementacion de metodos numericos para el calculo
de valores propios el captulo sexto trata de la integracion numerica y la
transformada rapida de Fourier y nalmente el captulo VII estudia los
problemas diferenciales y los metodos numericos de resolucion mas usuales
de estos problemas.
Practicamente el contenido de este libro ven los estudiantes de segundo
a~no de las Carreras de Matematicas e Informatica de la Universidad de
Ginebra, Suiza, Universidad en la cual he sido formado. El pre-requisito
para un buen aprovechamiento de este libro es conocer bien los principios
basicos del Analisis Real y Complejo, como tambien tener una buena base
de Algebra Lineal. Por consiguiente, este libro esta destinado a estudiantes
universitarios que siguen la asignatura de Analisis Numerico, como as mismo
toda persona interesada en Analisis Numerico que tenga los pre-requisitos
y que desea cimentar sus conocimientos en esta disciplina. Este libro puede
vi Prefacio
ser utilizado como texto base o bien como complemento bibliograco.
Debo agredecer a mis profesores de la Universidad de Ginebra, E. Hairer
y G. Wanner cuyos cursos han servido de base para la elaboracion de este
libro. Por otro lado, sin el apoyo en material de trabajo del Programa
MEMI, Programa de Mejoramiento de la Ense~nanza de las Matematicas e
Informatica, de la Universidad Mayor de San Simon este libro no habra
existido. As mismo agradezco a mi familia, mis colegas y amigos que
seguieron con inters la elaboracion de este libro.
El libro ha sido transcrito en TEX y las gracas realidas en las sub-
rutinas gracas FORTRAN que G. Wanner me las cedio muy gentilmente. La
transcripcion, como la ejecucion de los programas en sido realizados sobre
una WorkStation HP-9000.
Posiblemente este libro contenga muchos errores, me gustara que los
hagan conocer, para que en una segunda edicion estos sean corregidos.
Octubre, 1995 Hans C. Muller S.C.
Contenido
I. Preliminares
I.1 Algoritmos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 2
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 6
I.2 Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 8
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 14
I.3 Un ejemplo: C alculo de PI : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 15
II. Sistemas Lineales
II.1 Condici on del Problema Lineal : : : : : : : : : : : : : : : : : : : : : : : : : : 25
Normas de Vectores y Matrices : : : : : : : : : : : : : : : : : : : : : : : : : : : : 25
La Condicion de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 29
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 33
II.2 M etodos Directos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 35
El Algoritmo de Gauss : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 36
El Algoritmo de Cholesky : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 43
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 47
II.3 M etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 48
Metodos de Jacobi y Gauss-Seidel : : : : : : : : : : : : : : : : : : : : : : : : : 48
El Teorema de Perron-Frobenius : : : : : : : : : : : : : : : : : : : : : : : : : : : 52
Metodo de Sobrerelajacion SOR : : : : : : : : : : : : : : : : : : : : : : : : : : : 56
Estudio de un Problema Modelo : : : : : : : : : : : : : : : : : : : : : : : : : : : 59
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 64
II.4 M etodos Minimizantes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 66
Metodo del Gradiente : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 68
Metodo del Gradiente Conjugado : : : : : : : : : : : : : : : : : : : : : : : : : : 69
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 73
Metodo del Gradiente Conjugado Precondicionado : : : : : : : : : 75
Resultados Numericos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 78
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 81
II.5 M nimos Cuadrados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 83
La descomposicion QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 87
La Pseudo-Inversa de una Matriz : : : : : : : : : : : : : : : : : : : : : : : : : : 92
Error del Metodo de los Mnimos Cuadrados : : : : : : : : : : : : : : : 96
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 101
viii Contenido
III. Interpolacion
III.1 Interpolaci on de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Bases Teoricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
Construccion del Polinomio de Interpolacion : : : : : : : : : : : : : : 106
El Error de Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 111
Polinomios de Chebichef : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113
Estudio de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : 115
Convergencia de la Interpolacion : : : : : : : : : : : : : : : : : : : : : : : : : 119
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 129
III.2 Splines C ubicos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 131
Construccion del Spline Interpolante : : : : : : : : : : : : : : : : : : : : : : 133
El Error de la Aproximacion Spline : : : : : : : : : : : : : : : : : : : : : : : 136
Aplicacion de Spline : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 142
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 143
III.3 Extrapolaci on : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 145
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 150
IV. Ecuaciones No Lineales
IV.1 Ecuaciones Polinomiales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones Resolubles por Radicales : : : : : : : : : : : : : : : : : : : : : : 152
Ecuaciones No Resolubles por Radicales : : : : : : : : : : : : : : : : : : 155
Localizacion de Ceros : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 155
Metodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 157
Sucesiones de Sturm : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 159
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 161
IV.2 M etodos Iterativos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Posicion del Problema : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
Metodo de la Falsa Posicion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 165
Sistema de Ecuaciones : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 168
Un Metodo Iterativo Simple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 169
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173
IV.3 M etodo de Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 174
El Teorema de Newton-Misovski : : : : : : : : : : : : : : : : : : : : : : : : : : 179
Metodo de Newton Simplicado : : : : : : : : : : : : : : : : : : : : : : : : : : 184
Metodo de Newton con Relajacion : : : : : : : : : : : : : : : : : : : : : : : : 193
Aproximacion de Broyden : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 197
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 199
IV.4 M etodo de Gauss Newton : : : : : : : : : : : : : : : : : : : : : : : : : : : : 203
Convergencia del Metodo de Gauss-Newton : : : : : : : : : : : : : : : 204
Modicaciones del Metodo de Gauss-Newton : : : : : : : : : : : : : 207
El Metodo de Levenber-Marquandt : : : : : : : : : : : : : : : : : : : : : : : 210
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 211
Contenido ix
V. Calculo de Valores Propios
V.1 Teor a Cl asica y Condici on del Problema : : : : : : : : : : 214
La Condicion del Problema a Valores Propios : : : : : : : : : : : : : 217
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 221
V.2 Determinaci on de Valores Propios : : : : : : : : : : : : : : : : : : : 223
El Metodo de la Potencia : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
Formas Tridiagonales y Formas de Hessenberg : : : : : : : : : : : : 227
Teorema de Sturm y el Algoritmo de la Biseccion : : : : : : : : : 229
Generalizacion del Metodo de la Potencia : : : : : : : : : : : : : : : : : 233
El Metodo QR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 241
VI. Integracion Numerica
VI.1 Bases Te oricas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 244
Formulas de Cuadratura : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 248
El Orden de una Formula de Cuadratura : : : : : : : : : : : : : : : : : 249
Estimacion del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 250
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256
VI.2 Cuadraturas de Orden Elevado : : : : : : : : : : : : : : : : : : : : : : 258
Polinomios Ortogonales : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 259
Los Polinomios de Legendre : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 263
Las Formulas de Cuadratura de Gauss : : : : : : : : : : : : : : : : : : : 264
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 267
VI.3 Implementaci on Num erica : : : : : : : : : : : : : : : : : : : : : : : : : : : : 269
Tratamiento de Singularidades : : : : : : : : : : : : : : : : : : : : : : : : : : : 273
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 282
VI.4 Transformaci on de Fourier : : : : : : : : : : : : : : : : : : : : : : : : : : : : 284
Estudio del Error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 287
Interpolacion Trigonometrica : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 288
Transformacion Rapida de Fourier FFT : : : : : : : : : : : : : : : : : : 290
Aplicaciones de FFT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 292
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 293
VII. Ecuaciones Diferenciales
VII.1 Generalidades : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 296
Teoremas de Existencia y Unicidad : : : : : : : : : : : : : : : : : : : : : : : 297
Problemas con Valores en la Frontera : : : : : : : : : : : : : : : : : : : : : 300
Diferenciabilidad respecto a los Valores Iniciales : : : : : : : : : : 300
Simple Shooting : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 303
Shooting Multiple : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 307
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 311
x Contenido
VII.2 M etodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 313
Efectos de los Errores de Redondeo : : : : : : : : : : : : : : : : : : : : : : : 317
Estabilidad del Metodo de Euler : : : : : : : : : : : : : : : : : : : : : : : : : 319
Metodo de Euler Impcito : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 321
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 322
VII.3 M etodos de Runge-Kutta : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 323
Construccion de un Metodo de Orden 4 : : : : : : : : : : : : : : : : : : 327
Metodos Encajonados : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 330
Soluciones Continuas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 333
Convergencia de los Metodos de Runge-Kutta : : : : : : : : : : : : 335
Experiencias Numericas : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 338
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 340
VII.3 M etodos Multipasos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Explcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 341
Metodos de Adams Implcitos : : : : : : : : : : : : : : : : : : : : : : : : : : : : 343
Metodos Predictor-Corrector : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 344
Metodos BDF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 345
Estudio del Error Local : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 346
Estabilidad : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 348
Convergencia de los Metodos Multipaso : : : : : : : : : : : : : : : : : : 350
Ejercicios : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 353
Bibliograf a : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 355
Indice de S mbolos : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 359
Indice Alfab etico : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 361
Captulo I
Preliminares
R
resultado, de donde la:
R
Denici on I.1.3.- Un problema es darse un dato x 2 n y obtener un
resultado P (x) 2 .
En consecuencia, son problemas todas las funciones cuyo dominio
es un espacio vectorial real de dimension nita, cuya imagen esta incluida
en la recta real. Una funcion cuya imagen esta incluida en un espacio de
dimension mas grande que 1, puede ser interpretada como un conjunto de
problemas, donde cada problema es la funcion proyeccion correspondiente.
Las ecuaciones pueden ser vistas como problemas, pero antes aclarando cual
de las soluciones se esta tomando.
I.1 Algoritmos 3
Es necesario recalcar que problema y algoritmo son conceptos dife-
rentes, aunque de alguna manera ligados. Considerese el problema siguiente,
P (x) = an xn + an;1 xn;1 + + a1 x + a0 : (I:1:2)
P (x) puede ser obtenido de muchas maneras, en particular utilzando los 2
siguientes algoritmos: El primero consiste en evaluar el polinomio (I.1.2) tal
como esta denido, con la convencion que:
x1 = x
(I:1:3)
xn = x xn;1 para n 2:
La segunda manera de evaluar el polinomio consiste en utilizar el algoritmo
de Horner, el cual esta dado por:
q0 (x) = an
q1 (x) = q0 (x)x + an;1
q2 (x) = q1 (x)x + an;2 (I:1:4)
..
.
qn (x) = qn;1 (x)x + a0 :
Como puede observarse ambos algoritmos evaluan el polinomio P (x), sin
embargo en el primero se requiere: 1 + + n ; 1 multiplicaciones para
evaluar las potencias, n multiplicaciones para evaluar los terminos de la
forma ai xi y nalmente n adiciones, lo cual hace un total de
n(n + 3) operaciones elementales. (I:1:5)
2
El algoritmo de Horner requiere a cada paso de una multiplicacion y una
adicion lo cual es igual a
2n operaciones elementales. (I:2:6)
Por lo tanto, puede observarse claramente que el algoritmo de Horner es
mas eciente que el primero, pues la implementacion de este efectua menos
operaciones elementales.
El concepto de eciencia de un algoritmo esta ligado por consi-
guiente al costo en operaciones elementales que se requiere para ejecutar
un algoritmo. Ahora bien, en la realidad una computadora requiere menos
tiempo para evaluar una adicion que para una multiplicacion. Cada ope-
racion elemental toma cierto tiempo en efectuarse, que en general depende
de la computadora y el lenguaje en el que esta escrito el programa. Es
4 I Preliminares
por eso, que es mas conveniente medir la eciencia en terminos de tiempo
ejecutado, en lugar del numero de operaciones elementales ejecutadas. Con
lo argumentado se puede formular una primera denicion de eciencia.
Denici on I.1.4.- El costo del algoritmo fn fn, esta dado por
C = m1 + m2 + : : : + mn (I:1:7)
donde mi es el tiempo de ejecucion de fi . Si C1 y C2 son los costos en tiempo
de dos algoritmos que resuelven el mismo problema, se dira que el primer
algoritmo es mas eciente que el segundo si C1 C2 .
Tal como se dijo al inicio de esta seccion, el dispositivo ideal con
el que se cuenta, puede efectuar una cantidad nita de operaciones elemen-
tales. Suponiendo nuevamente, que solamente se cuenta con las cuatro ope-
raciones aritmeticas, las unicas funciones que pueden evaluarse utilizando
un algoritmo son las funciones polinomiales y racionales. Ahora bien, existe
una cantidad ilimitada de funciones y se puede mostrar que no existe ningun
algoritmo que sea la composicion de adiciones, multiplicaciones, sustrac-
ciones o divisiones, que permita calcular una raiz cuadrada evaluar funciones
trigonometricas, exponenciales o logartmicas. Sin embargo, existen proce-
dimientos matematicos que permiten aproximar estas funciones de manera
arbitraria. Los mas comunmente utilizados: son las series de Taylor, las frac-
ciones continuas y algunos metodos iterativos. Todos estos metodos estan
sustentados en las nociones de lmite, de continuidad, derivabilidad dados
en los cursos de Calculo y Analisis.
A continuacion se vera un ejemplo ilustrativo, donde se introducira
la nocion del error de truncacion. Considerese la funcion exponencial, cuyo
desarrollo en serie de Taylor esta dada por
X
1 xk
ex = : (I:1:8)
k=0 k !
Es evidente que ex no puede evaluarse en un numero nito de pasos, para
un x dado, sin embargo en lugar de evaluar ex , uno se puede contentar
evaluando una cantidad nita de terminos de la serie de Taylor, es decir
X
n xk
p(x) = (I:1:9)
k=0 k !
para un n jado de antemano. La diferencia entre ex y p(x) es el error
de truncacion de ex respecto a p(x). Este error de truncacion es del orden
O(xn+1 ) cuando x tiende a 0. El nombre de truncacion proviene del hecho
que para evaluar ex se ha despreciado una parte de la serie. Por consiguiente,
el error de truncacion puede denirse como:
I.1 Algoritmos 5
Denici on I.1.5.- Sean P (x), P 0(x) dos problemas. El error de truncacion
de P (x), respecto de P 0 (x) esta dado por
P (x) ; P 0 (x): (I:1:10)
El nombre que tiene este error, como se dijo mas arriba, es debido
a que la la serie de Taylor es truncada a un numero nito de terminos.
No obstante, existe una gran diversidad de metodos que aproximan a la
solucion del problema utilizando otro tipo de argumentos, en este caso es
mas conveniente utilizar el nombre de error de aproximacion o error del
metodo de todas formas es cuestion de gusto.
El concepto de eciencia ha sido denido para aquellos problemas
donde se puede encontrar la solucion mediante un algoritmo. Para aquellos
problemas, donde no es posible encontrar un algoritmo que de la solucion y
suponiendo que es posible aproximar la solucion de manera arbitraria me-
diante un metodo algortmico, la eciencia esta ligada al costo en opera-
ciones, como tambien al error del metodo. En esta situacion la eciencia es
un concepto mas subjetivo que depende de alguna manera del usuario, pues
existen problemas donde el error de aproximacion debe ser lo mas peque~no
posible, y otros problemas donde la exactitud no es un requisito primordial.
Ejemplos
1.- Considerese el problema, determinar . Utilizando la identidad
arctan 1 = 4
y que la serie de Taylor en el origen esta dada por
X1 (;1)k
arctan x = 2k + 1 x2k+1 (I:1:11)
k=0
se puede obtener un metodo que aproxime , pero el problema de este
metodo es su convergencia demasiado lenta es mas, para x = 1 la serie
(I.1.11) no es absolutamente convergente.
Otro metodo que permitira aproximar , consiste en utilizar el hecho
que
arccos(1=2) = 3
y desarrollando arccos en serie de Taylor, se obtiene un metodo cuya
convergencia es mucho mas rapida.
p
2.- Consid
p erese el problema, determinar 2. La primera manera de determi-
nar 2 es tomar un intervalo cuya extremidad inferior tenga un cuadrado
inferior a 2 y la extremidad superior tenga un cuadrado mas grande a 2.
Se subdivide el intervalo en dos subintervalos de igual longitud, se elige
aquel cuyas extremidades al cuadrado contengan 2. En la tabla siguiente
se da algunas de las iteraciones de este metodo.
6 I Preliminares
Ejercicios
1.- Supongase que, el dispositivo de calculo, con el que se cuenta, puede
efectuar la division con resto es decir, para a b enteros no negativos,
con b 6= 0, el dispositivo calcula p q satisfaciendo:
a = pb + r y 0 r < b:
a) Implementar un algoritmo que calcule el maximo comun divisor de a
y b.
Z
b) Utilizando el inciso precedente, implementar otro algoritmo que
permita calcular m n 2 , tales que
mcd(a b) = ma + nb:
I.1 Algoritmos 7
c) Estudiar la situacion mas desfavorable, aquella donde el costo en
operaciones es el mas alto. Deducir una estimacion de la eciencia del
algoritmo.
2.- Suponiendo que, el dispositivo de calculo puede efectuar la division con
resto, con la particularidad siguiente:
X
1 (;1)k 1 )2k+1
= 48 2 k + 1 ( 18
| k=0 {z }
A
X
1 (;1)k 1
2k+1 X
1 (;1)k 1 )2k+1 :
+ 32 2k + 1 ( 57 ) ; 20 2 k + 1 ( 239 (I:3:4)
| k=0 {z } | k=0 {z }
B C
Ahora bien, se desea obtener una representacion de en notacion decimal
con N decimales de precision. Si cada serie del lado derecho de (I.3.4) es
calculada con una precision de 10;(N +1) se tiene largamente la precision
deseada. Denotando por A^, el valor calculado de A B^ , el valor calculado de
B y C^ , el valor calculado de C , se tiene:
^ X
MA (;1)k 1
A = 48 2k + 1 ( 18 )2k+1
k=0
X
MB (;1)k 1 )2k+1
B^ = 32 2k + 1 ( 57
k=0
X
MC 1)k 1
C^ = 20 2(; 2k+1
k + 1 ( 239 ) :
k=0
De donde:
X 1 (;1)k 1
48 (1=18)2MA+3
A^ ; A = 48 ( ) 2k +1
1 ; (1=18)2
k=MA +1 2k + 1 18
X 1 (;1)k 1
32 (1=57)2MB+3
B ; B = 32
^ ( ) 2 k +1
1 ; (1=57)2
k=MB +1 2k + 1 57
X 1 (;1)k 1
20 (1=239)2MC +3 :
C ; C = 20
^ ( ) 2 k +1
1 ; (1=239)2
k=MC +1 2k + 1 239
Por hipotesis, se tiene por ejemplo que A ; A^ 10;(N +1), por lo tanto
para asegurar esta precision es suciente que
2MA+3
48 (1=18) 2 10;(N +1)
1 ; (1=18)
remplazando el signo por =, se tiene
2MA+3
48 (1=18) 2 = 10;(N +1) (I:3:5)
1 ; (1=18)
I.3 Un ejemplo: Calculo de Pi 17
obteniendo de esta manera
log10 (48) ; (2MA + 3) log10 (18) ; log10 (1 ; (1=18)2) = ;(N + 1):
Despejando MA, se obtiene
k=0
ck =10mk (I:3:14)
donde los ck estan denidos recursivamente, utilizando la division eu-
clidiana, por:
cN=m+2 + dN=m+2 10m = aN=m+2 bN=m+2
cN=m+1 + dN=m+1 10m = aN=m+1 bN=m+1 + dN=m+2
.. (I:3:15)
.
c0 = a0 b0 + d1 :
El tercer paso sera denir la multiplicacion de un real positivo con un
entero q. Sea el productovskip-3pt
X+2
N=m
qcx^ = bk =10mk (I:3:16)
k=0
I.3 Un ejemplo: Calculo de Pi 19
donde x^ esta dado por (I.3.10), los coecientes bk estan denidos recursiva-
mente, utilizando la division euclidiana, de la manera siguiente:
qaN=m+2 = bN=m+2 + dN=m+2 10m
qaN=m+1 + dN=m+2 = bN=m+1 + dN=m+1 10m
.. (I:3:17)
.
b0 = qa0 + d1 :
Habiendo denido las operaciones requeridas para calcular con la
precision requerida, se puede denir el algoritmo que calculara A^, y por
consiguiente ^ .
Algoritmo
1.- Se dene x := 1=18, a = x, k = 0.
2.- Hacer para k = 1 hasta k = MA:
x := x=182
y := x=(2k + 1)
a = a + (;1)k y:
3.- a := 48 a.
Finalmente, se debe hacer un analisis de la propagacion de errores de
redondeo, cometidos en el calculo de A^, para asegurar que el resultado que
de la computadora corresponde con lo esperado. Este estudio se lo efectuara
en tres partes. Sea x^2k+1 el resultado realizado por el algoritmo al calcular
x2k+1 para x = 1=18. Utilizando la proposicion I.3.1, se tiene,
x^ = x + jj 10;N ;2m : (I:3:18)
deduciendose inmediatamente:
x^3 = (x + )=182 +
x^5 = x^3 =182 +
(I:3:19)
..
.
Utilizando desigualdades triangulares y considerando series geometricas, se
obtiene x^2k+1 ; x2k+1 1 10;N ;2m: (I:3:20)
1 ; (1=18)2
La segunda operacion, que aparece en el algoritmo, es la division por los
\
enteros de la forma 2k + 1. Por el mismo procedimiento que antes, se llega a
2k+1
x =(2k + 1) ; x2k+1 =(2k + 1) 2 10;N ;2m: (I:3:21)
20 I Preliminares
Por ultimo para obtener A^, se tiene una suma de MA + 1 terminos y un
producto por 48. En cada suma se comete un error menor a 2 10;N ;2m, de
donde se tiene como estimacion del error acumulado
A^ ; A 192(MA + 1)10;N ;2m (I:3:22)
Ahora bien, si 192(MA +1) es mas peque~no que 102m;1, entonces el objetivo
es satisfecho largamente.
Como ilustracion de lo expuesto, se ha calculado con 10000 decimales
de precision, utilizando una HP-9000.
con 10000 decimales
3.1415926535 8979323846 2643383279 5028841971 6939937510 E-00050
5820974944 5923078164 0628620899 8628034825 3421170679 E-00100
8214808651 3282306647 0938446095 5058223172 5359408128 E-00150
4811174502 8410270193 8521105559 6446229489 5493038196 E-00200
4428810975 6659334461 2847564823 3786783165 2712019091 E-00250
4564856692 3460348610 4543266482 1339360726 0249141273 E-00300
7245870066 0631558817 4881520920 9628292540 9171536436 E-00350
7892590360 0113305305 4882046652 1384146951 9415116094 E-00400
3305727036 5759591953 0921861173 8193261179 3105118548 E-00450
0744623799 6274956735 1885752724 8912279381 8301194912 E-00500
9833673362 4406566430 8602139494 6395224737 1907021798 E-00550
6094370277 0539217176 2931767523 8467481846 7669405132 E-00600
0005681271 4526356082 7785771342 7577896091 7363717872 E-00650
1468440901 2249534301 4654958537 1050792279 6892589235 E-00700
4201995611 2129021960 8640344181 5981362977 4771309960 E-00750
5187072113 4999999837 2978049951 0597317328 1609631859 E-00800
5024459455 3469083026 4252230825 3344685035 2619311881 E-00850
7101000313 7838752886 5875332083 8142061717 7669147303 E-00900
5982534904 2875546873 1159562863 8823537875 9375195778 E-00950
1857780532 1712268066 1300192787 6611195909 2164201989 E-01000
3809525720 1065485863 2788659361 5338182796 8230301952 E-01050
0353018529 6899577362 2599413891 2497217752 8347913151 E-01100
5574857242 4541506959 5082953311 6861727855 8890750983 E-01150
8175463746 4939319255 0604009277 0167113900 9848824012 E-01200
8583616035 6370766010 4710181942 9555961989 4676783744 E-01250
9448255379 7747268471 0404753464 6208046684 2590694912 E-01300
9331367702 8989152104 7521620569 6602405803 8150193511 E-01350
2533824300 3558764024 7496473263 9141992726 0426992279 E-01400
6782354781 6360093417 2164121992 4586315030 2861829745 E-01450
5570674983 8505494588 5869269956 9092721079 7509302955 E-01500
3211653449 8720275596 0236480665 4991198818 3479775356 E-01550
6369807426 5425278625 5181841757 4672890977 7727938000 E-01600
8164706001 6145249192 1732172147 7235014144 1973568548 E-01650
1613611573 5255213347 5741849468 4385233239 0739414333 E-01700
4547762416 8625189835 6948556209 9219222184 2725502542 E-01750
5688767179 0494601653 4668049886 2723279178 6085784383 E-01800
8279679766 8145410095 3883786360 9506800642 2512520511 E-01850
7392984896 0841284886 2694560424 1965285022 2106611863 E-01900
0674427862 2039194945 0471237137 8696095636 4371917287 E-01950
4677646575 7396241389 0865832645 9958133904 7802759009 E-02000
9465764078 9512694683 9835259570 9825822620 5224894077 E-02050
2671947826 8482601476 9909026401 3639443745 5305068203 E-02100
4962524517 4939965143 1429809190 6592509372 2169646151 E-02150
5709858387 4105978859 5977297549 8930161753 9284681382 E-02200
6868386894 2774155991 8559252459 5395943104 9972524680 E-02250
8459872736 4469584865 3836736222 6260991246 0805124388 E-02300
4390451244 1365497627 8079771569 1435997700 1296160894 E-02350
4169486855 5848406353 4220722258 2848864815 8456028506 E-02400
0168427394 5226746767 8895252138 5225499546 6672782398 E-02450
6456596116 3548862305 7745649803 5593634568 1743241125 E-02500
1507606947 9451096596 0940252288 7971089314 5669136867 E-02550
2287489405 6010150330 8617928680 9208747609 1782493858 E-02600
9009714909 6759852613 6554978189 3129784821 6829989487 E-02650
2265880485 7564014270 4775551323 7964145152 3746234364 E-02700
I.3 Un ejemplo: Calculo de Pi 21
5428584447 9526586782 1051141354 7357395231 1342716610 E-02750
2135969536 2314429524 8493718711 0145765403 5902799344 E-02800
0374200731 0578539062 1983874478 0847848968 3321445713 E-02850
8687519435 0643021845 3191048481 0053706146 8067491927 E-02900
8191197939 9520614196 6342875444 0643745123 7181921799 E-02950
9839101591 9561814675 1426912397 4894090718 6494231961 E-03000
5679452080 9514655022 5231603881 9301420937 6213785595 E-03050
6638937787 0830390697 9207734672 2182562599 6615014215 E-03100
0306803844 7734549202 6054146659 2520149744 2850732518 E-03150
6660021324 3408819071 0486331734 6496514539 0579626856 E-03200
1005508106 6587969981 6357473638 4052571459 1028970641 E-03250
4011097120 6280439039 7595156771 5770042033 7869936007 E-03300
2305587631 7635942187 3125147120 5329281918 2618612586 E-03350
7321579198 4148488291 6447060957 5270695722 0917567116 E-03400
7229109816 9091528017 3506712748 5832228718 3520935396 E-03450
5725121083 5791513698 8209144421 0067510334 6711031412 E-03500
6711136990 8658516398 3150197016 5151168517 1437657618 E-03550
3515565088 4909989859 9823873455 2833163550 7647918535 E-03600
8932261854 8963213293 3089857064 2046752590 7091548141 E-03650
6549859461 6371802709 8199430992 4488957571 2828905923 E-03700
2332609729 9712084433 5732654893 8239119325 9746366730 E-03750
5836041428 1388303203 8249037589 8524374417 0291327656 E-03800
1809377344 4030707469 2112019130 2033038019 7621101100 E-03850
4492932151 6084244485 9637669838 9522868478 3123552658 E-03900
2131449576 8572624334 4189303968 6426243410 7732269780 E-03950
2807318915 4411010446 8232527162 0105265227 2111660396 E-04000
6655730925 4711055785 3763466820 6531098965 2691862056 E-04050
4769312570 5863566201 8558100729 3606598764 8611791045 E-04100
3348850346 1136576867 5324944166 8039626579 7877185560 E-04150
8455296541 2665408530 6143444318 5867697514 5661406800 E-04200
7002378776 5913440171 2749470420 5622305389 9456131407 E-04250
1127000407 8547332699 3908145466 4645880797 2708266830 E-04300
6343285878 5698305235 8089330657 5740679545 7163775254 E-04350
2021149557 6158140025 0126228594 1302164715 5097925923 E-04400
0990796547 3761255176 5675135751 7829666454 7791745011 E-04450
2996148903 0463994713 2962107340 4375189573 5961458901 E-04500
9389713111 7904297828 5647503203 1986915140 2870808599 E-04550
0480109412 1472213179 4764777262 2414254854 5403321571 E-04600
8530614228 8137585043 0633217518 2979866223 7172159160 E-04650
7716692547 4873898665 4949450114 6540628433 6639379003 E-04700
9769265672 1463853067 3609657120 9180763832 7166416274 E-04750
8888007869 2560290228 4721040317 2118608204 1900042296 E-04800
6171196377 9213375751 1495950156 6049631862 9472654736 E-04850
4252308177 0367515906 7350235072 8354056704 0386743513 E-04900
6222247715 8915049530 9844489333 0963408780 7693259939 E-04950
7805419341 4473774418 4263129860 8099888687 4132604721 E-05000
5695162396 5864573021 6315981931 9516735381 2974167729 E-05050
4786724229 2465436680 0980676928 2382806899 6400482435 E-05100
4037014163 1496589794 0924323789 6907069779 4223625082 E-05150
2168895738 3798623001 5937764716 5122893578 6015881617 E-05200
5578297352 3344604281 5126272037 3431465319 7777416031 E-05250
9906655418 7639792933 4419521541 3418994854 4473456738 E-05300
3162499341 9131814809 2777710386 3877343177 2075456545 E-05350
3220777092 1201905166 0962804909 2636019759 8828161332 E-05400
3166636528 6193266863 3606273567 6303544776 2803504507 E-05450
7723554710 5859548702 7908143562 4014517180 6246436267 E-05500
9456127531 8134078330 3362542327 8394497538 2437205835 E-05550
3114771199 2606381334 6776879695 9703098339 1307710987 E-05600
0408591337 4641442822 7726346594 7047458784 7787201927 E-05650
7152807317 6790770715 7213444730 6057007334 9243693113 E-05700
8350493163 1284042512 1925651798 0694113528 0131470130 E-05750
4781643788 5185290928 5452011658 3934196562 1349143415 E-05800
9562586586 5570552690 4965209858 0338507224 2648293972 E-05850
8584783163 0577775606 8887644624 8246857926 0395352773 E-05900
4803048029 0058760758 2510474709 1643961362 6760449256 E-05950
2742042083 2085661190 6254543372 1315359584 5068772460 E-06000
2901618766 7952406163 4252257719 5429162991 9306455377 E-06050
9914037340 4328752628 8896399587 9475729174 6426357455 E-06100
2540790914 5135711136 9410911939 3251910760 2082520261 E-06150
8798531887 7058429725 9167781314 9699009019 2116971737 E-06200
2784768472 6860849003 3770242429 1651300500 5168323364 E-06250
3503895170 2989392233 4517220138 1280696501 1784408745 E-06300
1960121228 5993716231 3017114448 4640903890 6449544400 E-06350
22 I Preliminares
6198690754 8516026327 5052983491 8740786680 8818338510 E-06400
2283345085 0486082503 9302133219 7155184306 3545500766 E-06450
8282949304 1377655279 3975175461 3953984683 3936383047 E-06500
4611996653 8581538420 5685338621 8672523340 2830871123 E-06550
2827892125 0771262946 3229563989 8989358211 6745627010 E-06600
2183564622 0134967151 8819097303 8119800497 3407239610 E-06650
3685406643 1939509790 1906996395 5245300545 0580685501 E-06700
9567302292 1913933918 5680344903 9820595510 0226353536 E-06750
1920419947 4553859381 0234395544 9597783779 0237421617 E-06800
2711172364 3435439478 2218185286 2408514006 6604433258 E-06850
8856986705 4315470696 5747458550 3323233421 0730154594 E-06900
0516553790 6866273337 9958511562 5784322988 2737231989 E-06950
8757141595 7811196358 3300594087 3068121602 8764962867 E-07000
4460477464 9159950549 7374256269 0104903778 1986835938 E-07050
1465741268 0492564879 8556145372 3478673303 9046883834 E-07100
3634655379 4986419270 5638729317 4872332083 7601123029 E-07150
9113679386 2708943879 9362016295 1541337142 4892830722 E-07200
0126901475 4668476535 7616477379 4675200490 7571555278 E-07250
1965362132 3926406160 1363581559 0742202020 3187277605 E-07300
2772190055 6148425551 8792530343 5139844253 2234157623 E-07350
3610642506 3904975008 6562710953 5919465897 5141310348 E-07400
2276930624 7435363256 9160781547 8181152843 6679570611 E-07450
0861533150 4452127473 9245449454 2368288606 1340841486 E-07500
3776700961 2071512491 4043027253 8607648236 3414334623 E-07550
5189757664 5216413767 9690314950 1910857598 4423919862 E-07600
9164219399 4907236234 6468441173 9403265918 4044378051 E-07650
3338945257 4239950829 6591228508 5558215725 0310712570 E-07700
1266830240 2929525220 1187267675 6220415420 5161841634 E-07750
8475651699 9811614101 0029960783 8690929160 3028840026 E-07800
9104140792 8862150784 2451670908 7000699282 1206604183 E-07850
7180653556 7252532567 5328612910 4248776182 5829765157 E-07900
9598470356 2226293486 0034158722 9805349896 5022629174 E-07950
8788202734 2092222453 3985626476 6914905562 8425039127 E-08000
5771028402 7998066365 8254889264 8802545661 0172967026 E-08050
6407655904 2909945681 5065265305 3718294127 0336931378 E-08100
5178609040 7086671149 6558343434 7693385781 7113864558 E-08150
7367812301 4587687126 6034891390 9562009939 3610310291 E-08200
6161528813 8437909904 2317473363 9480457593 1493140529 E-08250
7634757481 1935670911 0137751721 0080315590 2485309066 E-08300
9203767192 2033229094 3346768514 2214477379 3937517034 E-08350
4366199104 0337511173 5471918550 4644902636 5512816228 E-08400
8244625759 1633303910 7225383742 1821408835 0865739177 E-08450
1509682887 4782656995 9957449066 1758344137 5223970968 E-08500
3408005355 9849175417 3818839994 4697486762 6551658276 E-08550
5848358845 3142775687 9002909517 0283529716 3445621296 E-08600
4043523117 6006651012 4120065975 5851276178 5838292041 E-08650
9748442360 8007193045 7618932349 2292796501 9875187212 E-08700
7267507981 2554709589 0455635792 1221033346 6974992356 E-08750
3025494780 2490114195 2123828153 0911407907 3860251522 E-08800
7429958180 7247162591 6685451333 1239480494 7079119153 E-08850
2673430282 4418604142 6363954800 0448002670 4962482017 E-08900
9289647669 7583183271 3142517029 6923488962 7668440323 E-08950
2609275249 6035799646 9256504936 8183609003 2380929345 E-09000
9588970695 3653494060 3402166544 3755890045 6328822505 E-09050
4525564056 4482465151 8754711962 1844396582 5337543885 E-09100
6909411303 1509526179 3780029741 2076651479 3942590298 E-09150
9695946995 5657612186 5619673378 6236256125 2163208628 E-09200
6922210327 4889218654 3648022967 8070576561 5144632046 E-09250
9279068212 0738837781 4233562823 6089632080 6822246801 E-09300
2248261177 1858963814 0918390367 3672220888 3215137556 E-09350
0037279839 4004152970 0287830766 7094447456 0134556417 E-09400
2543709069 7939612257 1429894671 5435784687 8861444581 E-09450
2314593571 9849225284 7160504922 1242470141 2147805734 E-09500
5510500801 9086996033 0276347870 8108175450 1193071412 E-09550
2339086639 3833952942 5786905076 4310063835 1983438934 E-09600
1596131854 3475464955 6978103829 3097164651 4384070070 E-09650
7360411237 3599843452 2516105070 2705623526 6012764848 E-09700
3084076118 3013052793 2054274628 6540360367 4532865105 E-09750
7065874882 2569815793 6789766974 2205750596 8344086973 E-09800
5020141020 6723585020 0724522563 2651341055 9240190274 E-09850
2162484391 4035998953 5394590944 0704691209 1409387001 E-09900
2645600162 3742880210 9276457931 0657922955 2498872758 E-09950
4610126483 6999892256 9596881592 0560010165 5256375678 E-10000
Captulo II
Sistemas Lineales
Estas normas, que son las usualmente utilizadas, tienen algunas propiedades
en comun. La mas importante es que, si se aumenta en valor absoluto una
de las componentes, la norma se incrementa. Es necesario formalizar este
hecho, motivo por el cual, se tiene la:
26
R
II Sistemas Lineales
Denici on II.1.2.- Si x = (x1 : : : xn ) 2 n , se dene el valor absoluto de
R
x como jxj = (jx1 j : : : jxn j). Se dice que jxj jyj, si jxi j jyi j para todo
i = 1 : : : n. Una norma k k sobre n se dice que es:
R
(a) Monotona, si jxj jyj implica que kxk kyk para todo
x y 2 n .
R
(b) Absoluta, si kxk = kjxjk para todo x 2 n .
R
Proposici on II.1.3.- Una norma k k sobre n es monotona, si y solamente
si es absoluta.
R
Demostraci on.- Si la norma k k es monotona, sea x 2 n , llamenos y = jxj.
Como jxj jyj, y jyj jxj se tiene inmediatamente, porque la norma es
monotona, que kxk = kyk.
R
Si la normak k es absoluta, sea x 2 n , considerese
x! = (x1 : : : xk;1 xk xk+1 : : : xn ), con 2 #0 1]. Utilizando el hecho
que la norma sea absoluta, desigualdad del triangulo y efectuando calculos
algebraicos se tiene:
1 1
kx!k = 2 (1 ; )(x1 : : : xk;1 ;xk xk+1 : : : xn ) + 2 (1 ; )x + x
12 (1 ; ) k(x1 : : : xk;1 ;xk xk+1 : : : xn )k + 21 (1 ; ) kxk + x
= 12 (1 ; ) kxk + 21 (1 ; ) kxk + kxk = kxk :
Ahora bien, si x = (x1 : : : xk : : : xn ) y y = (x1 : : : xk1 yk xk+1 : : : xn ),
con jyk j jxk j, utilizando la desigualdad anterior se tiene kxk kyk. Para
demostrar que jxj jyj implica que kxk kyk, se repite el anterior paso n
veces, es decir una vez por cada componente.
R
Una matriz de orden m n puede ser vista como un vector que pertenece
al espacio mn , de esta manera denir la norma de una matriz como la de
un vector, pero se perdera as muchas de las propiedades que tiene una
aplicacion lineal. Es por eso la:
Denici on II.1.4.- Sea A una matriz de m n, se dene su norma como
kAk = sup kkAx
xk
k = sup kAxk : (II:1:1)
x6=0 kxk=1
La denicion de la norma de una matriz depende evidentemente de las
normas elegidas para kxk y kAxk. Sin embargo puede ser vericado sin
ningun problema, que la norma de una matriz, verica las condiciones de
norma de un vector. La demostracion es una simple vericacion de estas
R R
condiciones, utilizando la denicion de supremo. Ademas si las norma de los
espacios n y m son monotonas o absolutas, es facil vericar que la norma
II.1 Condicio n del Problema lineal 27
de matriz inducida por estas, es todava monotona es suciente utilizar
la denicion para probar esta armacion. Por otro lado kAk es el numero
positivo mas peque~no que satisface kAxk kxk, por lo tanto
kAxk kAkkxk R
8x 2 n : (II:1:2)
Una norma sobre el espacio de matrices verica las siguientes propiedades,
dada por la:
R
Proposici on II.1.5.- Cualquier norma sobre el espacio de las matrices
Mm ( ) satisface las propiedades adicionales siguientes:
kI k = 1 (II:1:3)
kAB k kAk kB k : (II:1:4)
Demostraci on.- La relacion (II.1.3) de la proposicion es consecuencia
inmediata de la denicion de la norma de una matriz.
La relacion (II.1.4) es consecuencia de las observaciones hechas despues de
la denicion, en efecto
kABxk kAk kBxk kAk kB kkxk
kABxk kAkkB k
kxk
kAB k kAk kB k :
:::m i
2i = i=1max
kxk2 :
:::m i
i=1 i=1
Para obtener la igualdad, es suciente tomar x = ejo , donde
jo es el
autovalor mas grande.
Para la k k1 se tiene:
m 0m 1
X
a x max @ ja j jx jAX
kAxk1 = i=1max
:::n j =1 ij j i=1:::n j =1 ij j
0m 1 0 1
X
@ jaij j j=1max X
m
i=1
max:::n
jx jA @i=1max
:::m j :::n
jaij jA kxk1
j =1 j =1
X
m
as kAk1 j=1max
:::m
jaij j :
j =1
II.1 Condicio n del Problema lineal 29
Para obtener la igualdad es suciente tomar x = 1, donde 1 = (1 : : : 1)t .
R
Ax = b donde A 2 Mn ( ), y b 2 n R R (II:1:8)
el problema es encontrar x 2 que sea solucion del sistema (II.1.8), esta
situacion puede escribirse formalmente como
P (A b) = x:
De esta manera la condicion del problema esta dada por
P (A b) ; P (A! !b)
jP (A b)j cond eps (II:1:9)
donde:
a!ij = aij (1 + ij ) jij j eps (II:1:10)
!bi = bi (1 + i ) ji j eps: (II:1:100)
Si se plantea P (A! !b) = x!, se tiene kx ; x!k cond eps. Por otro lado,
kxk
considerando que solamente normas mononotas son utilizadas, se tiene:
0 a1111 a1nn1 1
@ .. .. .. A eps kAk
. . .
an1 n1 ann nn
de esta manera
A! ; A eps kAk y !b ; b eps kbk : (II:1:11)
Suponiendo que la matriz sea inversible, se puede enunciar el siguiente
teorema, pero antes una denicion es necesaria.
Denici on II.1.7.- La condicion de una matriz A inversible se dene como
cond(A) = kAk A;1 :
(II:1:12)
30 II Sistemas Lineales
Teorema
A! ; A II.1.8.- Sea A una matriz con det A 6= 0, supongase que
kAk A , !b ; b kbk b . Si A cond(A) < 1, entonces
kx! ; xk cond(A) ( + ): (II:1:13)
kxk 1 ; cond(A) A b
A
1,
Si ademas se tiene A cond(A) < 2 entonces la condicion del problema
resolver Ax = b es 2cond(A).
Demostraci on.- Se tiene Ax = b y A!x! = !b, de donde:
Ax ; A!x! = b ; !b y Ax ; Ax! + Ax ! ; A!x! = b ; !b
A(x ; x!) = (A ; A)!x + (b ; b) x ; x! = A;1 (A! ; A)!x + A;1 (b ; !b)
! !
introduciendo las desigualdades
en las normas se obtiene:
kx ; x!k A;1 A! ; A kx!k + A;1 !b ; b
A;1 (kAk A (kxk + kx! ; xk) + kbk b )
A;1 kAk (A (kxk + kx! ; xk) + kxk b )
de esta manera kx!k;xkxk 1 ;cond( A)
cond(A) (A + b ):
A
Como la condicion del problema lineal esta ntimamente ligada a la
condicion de la matriz, es importante conocer algunas de sus propiedades,
dadas por la:
Proposici on II.1.9.- La condicion de una matriz satisface las siguientes
propiedades:
cond(A) 1 (II:1:14)
cond(I ) = 1
cond(A) = cond(A) 2 : R (II:1:15)
(II:1:16)
Demostraci on.- Vericacion inmediata.
Ejemplos
1.- Q ortogonal, es decir Qt Q = I , la condicion respecto a la norma k k2
esta dada por
cond2 (Q) = 1: (II:1:17)
2.- Sea la matriz A dada por
0 4 1 0 0 1
BB 1 4 1 0 CC
A= hB 1
BB .... . . . . . . ... ... CCC
@ .. 1 4 1 A
1 4
II.1 Condicio n del Problema lineal 31
entonces kAk1 = h6 , ademas A = h4 (I + N ) donde
0 0 1 0 01
BB 41 40 41 0 CC 1
N =B @ ... . . . . . . ... CA kN k1 = 2 < 1:
0 0 41 0
Se deduce que
A;1 = h4 (I + N );1 = h4 (I ; N + N 2 ; N 3 + )
A;1 h (1 + kN k + N 2 + )
1 4
h4 1 ; 1kN k
h2
entonces cond1 (A) 3, por lo tanto, la matriz es bien condicionada.
3.- El siguiente ejemplo muestra la existencia de una matriz mal condi-
cionada.
Sea H la matriz de n n, llamada matriz de Hilbert, denida por
hij = i + j1 ; 1 i j = 1 : : : n:
H es una matriz simetrica denida positiva, motivo por el cual la
condicion respecto a la norma euclidiana esta dada por
cond2 H =
max
min
donde los
son valores propios de H . Se puede mostrar que
cond2 H cen : (II:1:18)
Se puede observar claramente que las matrices de Hilbert son mal
condicionadas, inclusive para n bastante peque~no.
4.- Finalmente, este ejemplo muestra la existencia de otra matriz mal
condicionada, como ser las matrices de Vandermonde. Sea V la matriz
de n n denida por
0 1 1 1 1
V =B
B c1 c2 cn CC
@ ... . .. A
.. .
cn1 ;1 cn2 ;1 cnn;1
32 II Sistemas Lineales
donde los ci son diferentes. Se puede mostrar que la cond2 V bn ,
donde b > 1.
Ahora bien, la estimacion kkx;xkxk 2cond(A)eps puede ser demasiada
pesimista, para ver esto, considerese el siguiente ejemplo,
1 1 x 2
0 108 y = 1 :
Si se llama A a la matriz del sistema, se tiene kAk2 = 108 y A;1 1. El
sistema con los errores de redondeo incorporados, esta dado por:
1 + 1 + x!
1 2
0 108(1 + 3 ) = y! = ( 2(1 + 4 ) 1 + 5 )
y! = 108 11 + 5 ;8
+ 3 ' 10 (1 + 5 ; 3)
de donde jy ; y!j 2eps:
jyj
Calculando x! se tiene
x! = 2(1 + 41) +; (1 + 2 )!y
1
= 2 ; 10;8 + 24 ; 10;8(2 + 5 ; 3)
1 + 1
= x + 21 ; 10;8(2 + 5 ; 3 )
1 + 1
' x(1 + 4eps)
por lo tanto, jx ; x!j 4eps:
jxj
El problema es bien condicionado, aunque la matriz A tenga una gran
condicion. Si se multiplica el sistema de ecuaciones por una matriz diagonal
D se obtiene, el nuevo problema dado por
DAx = Db
por el teorema II.1.8, se tiene
kx ; x!k 2cond(DA)eps si cond(DA)eps < 1 :
kxk 2
En el ejemplo anterior, se plantea
D = 10 100;8 as DA = 10 11
II.1 Condicio n del Problema lineal 33
obteniendo el:
Corolario II.1.10.-1 Con las misma hipotesis del teorema II.1.8, y ademas
si cond(DA)eps < 2 , se tiene
La condicion del problema 2 D diagonal
inf cond(DA): (II:1:19)
Ejercicios
R
1.- a) Sea k k denida en n . La bola unitaria cerrada se dene como
R
B! = x 2 n kxk 1
mostrar que la bola unitaria es un conjunto convexo.
b) Sea D un conjunto convexo acotado, en cuyo interior esta 0. Si se supone
que D es equilibrado, es decir si x 2 D implica que ;x 2 D. Mostrar que
se puede denir una norma cuya bola unitaria cerrada sea precisamente
D.
R
2.- >Es la funcion f (x) = jx1 ; x2 j + jx2 j una norma sobre 2 ? Si lo es, >es
monotona? Dibujar la bola unitaria.
3.- Dar las condiciones para que una norma sea monotona, observando su
bola unitaria cerrada.
4.- Para una matriz A se dene la norma de Frobenius como
v
u
uX
kAkF = t
n X
n
jaij j2 :
R
i=1 j =1
a) Mostrar que kAkF es una norma sobre nn .
b) Vericar la desigualdad
kAk2 kAkF pn kAk2 :
5.- Vericar la desigualdad
max ja j kAk2 n: max
ij ij
ja j :
ij ij
R
donde Ai es la i-esima columna de la matriz A. Dada una matriz A y un
vector b 2 n , se denota por
A(j) = (A1 : : : Aj;1 b Aj+1 : : : An
la matriz obtenida remplazando la j-esima columna por el vector b. Ahora
bien, la solucion del sistema (II.2.1) esta dada por
A (i)
xi = det
det A
donde x = (x1 : : : xn ). Por lo tanto, la resolucion del sistema implica el
calculo de n+1 determinantes. Si para encontrar el valor de los determinantes
se utiliza la siguiente relacion
X Yn
signo() ai(i)
2Sn i=1
donde Sn es el grupo de permutaciones de n elementos, se debe efectuar n!
sumas. Si se desea resolver un sistema de 69 ecuaciones con el mismo numero
de incognitas, suponiendo que cada suma se efectua en 10;9 segundos,
se tardara aproximadamente 6:75 1049 a~nos en llegar a la solucion del
36 II Sistemas Lineales
problema. Como conclusion se puede decir que existen metodos cuyo valor
teorico es importante, pero su ejecucion numerica es desastrosa, razon por
la cual es imprescindible implementar algoritmos cuyo costo no sea muy
elevado.
El Algoritmo de Gauss
Uno de los algoritmos mas utilizados, precisamente por su relativo bajo
costo, es el Algoritmo de Eliminacion de Gauss. Considerese el sistema de
ecuaciones dado por
8 a11x1 + a12 x2 + +a1nxn = b1
>
< a21x1 + a22 x2 + +a2nxn = b2
> . .. :
: a .. x .
+ an2 x2 + +annxn = bn
n1 1
El Algoritmo de Cholesky
Un caso particular de sistema de ecuaciones lineales, es donde la matriz A
es:
R
Denici on II.2.5.- Una matriz A 2 Mn( ) es simetrica y denida positiva,
si cumple las siguientes dos condiciones:
(II:2:16)
(II:2:17)
At = A
R
xt Ax > 0 8x 2 n x 6= 0:
44 II Sistemas Lineales
Teorema II.2.6.- Sea A simetrica y denida positiva, entonces:
a) El algoritmo de Gauss es posible sin busqueda de pivote.
b) La descomposicion A = LR satisface
R = DLt con D = diag(r11 r22 rnn ): (II:2:17)
Si se dene L! = LD 21 , se tiene
A = L! L! t
que es la descomposicion de Cholesky de la matriz A simetrica y denida
positiva. Para simplicar notacion, se escribe L, en lugar de L! . Entonces los
46 II Sistemas Lineales
coecientes de la matriz L de la descomposicion de Cholesky de A, estan
dados por:
para k = 1 : : : n:
q
lkk = akk ; lk21 ; lk22 ; ; lkk
2
;1
(II:2:19)
lik = a ik ; l i1 l k 1 ; ; l ik ;1 l kk ;1 i = 1 : : : k ; 1:
lkk
El costo en operaciones, despreciando el calculo de las raices cuadradas,
para obtener la descomposicion de Cholesky, esta dado por
X
n Zn 3
k(n ; k) x(n ; x)dx = n6 : (II:2:20)
k=1 0
00 1 1 01
1 2
B1 2 2
0 0 0C
A=B
@0 1C
0 0
1 2A
0 0 2 0 3 4
GA
50 II Sistemas Lineales
00 01
1 2
1 0
B=B
@ 10 0
1
1
0
0C
1A
0 0 1 0
3 4
GB
Se puede observar facilmente, que la matriz A no es irreducible, mientras
que la matriz B si es irreducible.
Con la denicion anterior se puede formular el siguiente teorema que da
una condicion suciente, para que los metodos de Jacobi, como de Gauss-
Seidel, sean convergentes.
Teorema II.3.2.- Sea A una matriz no-negativa (aij 0), con las siguientes
propiedades:
Xn
i) aij 1 i = 1 : : : n
j =1
X
n
ii) Existe io, tal que aio j < 1
j =1
iii) A es irreducible
entonces los metodos de Jacobi y Gauus-Seidel convergen hacia una solucion
unica, ademas existe < 1, tal que
(k)
e 1 Ck;1 e(0)1 : (II:3:9)
w Κ
son independientes de .
Ejemplos
1.- La matriz A denida por
0 B
A= C 0
C y = y :
2.- La matriz tridiagonal con coecientes diagonales nulos, dada por
00 a 1
BB b 0 c CC
@ d 0 e A
... ...
56 II Sistemas Lineales
posee la property A. Pues, se tiene:
00 a 10x1 0x1
BB b 0 c CBy C By C
@ d 0 e CA B@ z. CA =
B@ z. CA
... ... .. ..
0 0 1a 10 1 0 1
BB b 0 1 c CC B yx C B yx C
B@ d 0 1 e CA B@ 2 z CA =
B@ 2 z CA :
. .. ... .
.. ...
Teorema II.3.6.- Sea A una matriz no negativa, irreducible, con valor
propio maximal
< 1 y con la property A, entonces
=
2 (II:3:12)
donde es le valor propio mas grande de la matriz inducida por el metodo
de Gauss-Seidel.
Demostraci on.- Sea x el vector propio respecto a , de donde
(L + U )x = x
dividiendo esta expresion por p y aplicando la property A, se tiene
p
L + p1 U x = px
de donde p es el valor propio maximal de A.
Si la matriz A es irreducible, no negativa, con valor propio maximal
menor a 1 y ademas con la property A, se tiene:
| Metodo de Gauss-Seidel converge 2 veces mas rapido que el de Jacobi.
| Metodo de Gauss-Seidel ocupa la mitad de sitio de memoria.
| Metodo de Gauss-Seidel ocupa la mitad de plaza de calculo.
| Pero Jacobi puede ser paralelizado, en cambio Gauss-Seidel no.
Metodo de Sobrerelajacion SOR
Las siglas SOR signican en ingles Successive over relaxations. Es una
modicacion del metodo de Gauss-Seidel. Consiste en utilizar un factor de
sobrerelajacion !. Primero se efectua una iteracion de Gauss-Seidel para
luego corregir con !, en sntesis el metodo SOR esta dado por:
u(k+ 21 ) = Lu(k+1) + Uu(k) + b
u(k+1) = u(k) + ! u(k+ 21 ) ; u(k) (II:3:13)
! > 1:
II.3 Metodos Iterativos 57
Haciendo el calculo de u, componente por componente, se tiene:
X X
uauxi = aij u(jk+1) + aij u(jk) + bi
j<i j
i (II:3:14)
u(k+1) = u(k) + !
i i uauxi ; u(ik) :
Para ver la velocidad de convergencia de este metodo, es necesario hacer un
estudio sobre la convergencia. Una iteracion de SOR puede ser escrita como
u(k+1) = u(k) + !Lu(k+1) + (!U ; !I ) u(k) + !b
es decir
u(k+1) = !Lu(k+1) + (!U + (1 ; !)I ) u(k) + !b
por lo tanto h i
u(k+1) = (I ; !L);1 (!U + (1 ; !)I ) u(k) + !b : (II:3:15)
Sea un valor propio de u ( k +1) ; 1
= (I ; !L) (!U + (1 ; !)I ) y x el
vector propio asociado, entonces:
(I ; !L);1 (!U + (1 ; !)I ) x = x
(!U + (1 ; !)I ) x = (I ; !L) x
!Ux + (1 ; !)x = x ; !Lx
!Ux = ( ; 1 + !)x ; !Lx
(L + U ) x = ; !1 + ! x
dividiendo por p se obtiene
p
L + p1 U x = ;!p1 + !
x
de donde, se ha mostrado el siguiente:
Teorema II.3.7.- Sea A una matriz irreducible, no negativa y con la
property A. Si es un valor propio de la matriz obtenida por SOR, entonces
= ;!p1 +
! (II:3:16)
es valor propio de la matriz A.
El problema ahora, es determinar !, de manera que los valores propios
sean lo mas peque~nos posibles. Se tiene:
; 1 + ! =
!p
(II:3:17)
( + (! ; 1))2 =
2 !2
58 II Sistemas Lineales
dando la ecuacion de segundo grado
;
2 + 2(! ; 1) ;
2 !2 + (! ; 1)2 = 0: (II:3:18)
Si 1 2 , las dos raices de esta ecuacion, son complejas entonces ambas son
conjugadas, de donde
jj = j! ; 1j :
Por lo tanto, condicion necesaria para la convergencia es
;1 < ! < 2: (II:3:19)
Si 1 2 son raices reales de (II.3.18), se tiene que uno de los raices es mas
grande que la otra, a menos que 1 = 2 . Esto sucede cuando la parabola
λ1
λ2
λ3
μ
μ2 μ1
μ raices conjugadas.
se plantea:
xi = ih i = 0 : : : n + 1
(II:3:24)
yj = jh j = 0 : : : n + 1
denotando
uij = u(xi yj ) fij = f (xi yj ): (II:3:25)
Discretizando la ecuacion para esta malla, se obtiene las siguientes ecua-
ciones:
( i = 1 : : : n
; uij+1 + uij;1 + uhi+12 j + ui;1j ; 4uij = fij
j = 1 : : : n
u0j = 0 j = 0 : : : n + 1
un+1j = 0 j = 0 : : : n + 1
ui0 = 0 i = 0 : : : n + 1
uin+1 = 0 i = 0 : : : n + 1:
Cambiando la forma de las ecuaciones, se tiene
(
;
uij = 14 uij+1 + uij;1 + ui+1j + ui;1j + h2 fij
i = 1 : : : n
j = 1 : : : n
que en notacion matricial, tiene la forma
u = Au + 14 h2 f (II:3:26)
60 II Sistemas Lineales
donde:
u = (u11 : : : u1n u21 : : : u2n : : : un1 : : : unn)t
f = (f11 : : : f1n f21 : : : f2n : : : fn1 : : : fnn )t
0B I 1
BB I B I C
A = 14 B ... ... ... C CC
B@
I B IA
00 1 1 I B
01 1
B=B @ 1 .. . . . . . CA I = @ . . . A :
.. 0 1
Denici on II.3.9.- El producto tensorial de dos matrices P de orden n m
y Q de orden l k se dene como la matriz
0p Q p Q1
11 1m
P Q=@ . B .
. .. C
. A (II:3:27)
pn1 Q pnmQ
de orden nl mk.
Por lo tanto, la matriz A del problema se escribe como
A = 41 (B I + I B ) :
Para hacer estimaciones del costo de operaciones, al encontrar la solucion
con un error jado de antemano, es necesario determinar la condicion de
la matriz A, como as mismo el radio espectral de A para determinar la
velocidad de convergencia de los metodos de Jacobi, Gauss-Seidel y SOR.
Para tal efecto, se tiene la:
Proposici on II.3.10.- El producto tensorial de matrices verica la siguiente
propiedad
(B C ) (D E ) = BD CE: (II:3:28)
Demostraci on.- Se deja como ejercicio
Sean, yk y k el vector y el escalar respectivamente, denidos por:
ki n
yk = sin( n + 1 )
i=1 (II:3:29)
k = 2 cos( nk
+1 )
II.3 Metodos Iterativos 61
puede vericarse como ejercicio que yk es un vector propio de B asociado al
valor propio k . Se tiene, utilizando (II.3.28)
() A = BBB 1 1
1
C
1C
CA
6 3
@ 1
4 1
5
x1
x 3ó
2
x
o
x
max = cond2 A
min
entonces
xk ; x ; 1 k x0 ; x (II:4:9)
+1
donde x es la solucion exacta.
Ademas, se tiene el:
Teorema II.4.3.- Existe, x0 tal que
xk ; x = ; 1 k x0 ; x : (II:4:10)
+1
1 n
Polinomios de Chebichef
Supongase, que se conoce los valores propios de la matriz A simetrica y
denida positiva, es decir:
0 <
min
i
max :
El polinomio que minimiza el polinomio del teorema II.4.8 tiene la propiedad
siguiente:
| es igual a en
min,
| admite los valores ; + como valores maximos en el intervalo
#
min
max ] exactamente l + 1 veces,
| es igual a en
max .
La razon puede apreciarse en la gura II.4.2, para el caso l = 2.
λ min λ max
−ε
Demostraci on.- Este teorema sera abordado en el Captulo IV, motivo por
el cual la demostracion no es necesaria por el momento. Lo unico que puede
decirse, es que la denicion moderna de los polinomios de Chebichef esta
dada por
Tn (x) = cos n donde x = cos : (II:4:23)
max min
max ;
+
min :
max min
por consiguiente tomando 1=M = Tl ( ) se tiene el resultado deseado.
Teorema II.4.13.- Para el metodo del Gradiente Conjugado, se tiene la
estimacion
xl ; x 2 pp ; 1 l x0 ; x (II:4:25)
A +1 A
donde = cond2 (A), x la solucion exacta.
II.4 Metodos Minimizantes 75
Demostraci on.- Para x 1, se tiene
p l
jTl (x)j 21 x + x2 ; 1
de donde
M 2
p l para x 1 (II:4:26)
x + x2 ; 1
particularmente para
x =
max +
min = + 1
max ;
min ; 1
remplazando en (II.4.26), se obtiene (II.4.25).
Con los resultados obtenidos respecto a los errores de convergencia,
tanto para el metodo del gradiente, como para el metodo del gradiente con-
jugado, se puede estimar el numero de iteraciones necesarias para conseguir
una precision relativa de 10;b . Para el metodo del gradiente por (II.4.6), se
tiene:
1
10;b ; +1
;2:3b l ln(1 ; 1=) ; l ln(1 + 1=)
;2:3b ;2l=
l b: (II:4:27)
Con el mismo procedimiento que para el metodo del gradiente, el metodo
del gradiente conjugado necesita aproximadamente l iteraciones, de donde
p
l b : (II:4:28)
103
102 Gradiante.
Gradiante Conjugado.
Grad. Conj. Chols. Incom.
101
Gradiante Conjugado SSOR.
100 1
10 102 n
R R
(tj yj ) j = 1 : : : m (m grande) (II:5:1)
donde tj 2 , yj 2 y una funcion de modelo
y = ' ((t x1 : : : xn )) n m
R R R
(II:5:2)
donde t 2 , y 2 y xi 2 .
Un ejemplo de funcion de modelo, es la siguiente funcion:
' ((t x1 x2 )) = x1 + tx2 + t2 x1 :
El problema consiste en encontrar x1 : : : xn tales que
' ((t x1 : : : xn )) yj j = 1 : : : m: (II:5:3)
*
* *
* *
*
* * * *
*
t1 t2 tm
R
Matrices de Householder (1958)
Sea u 2 m , con kuk2 = 1. Se dene la matriz Q por
Q = I ; 2uut (II:5:17)
matriz que es simetrica y ortogonal. En efecto:
;
Qt = I ; 2uut t
;
= I ; 2uut
; ;
Qt Q = I ; 2uut t I ; 2uut
= I ; 2uut ; 2uut + 4uutuut
R R
= I:
La manera como actua Q sobre m es la siguiente, sea x 2 m ,
Qx = x ; 2uutx
si ut x = 0, se tiene inmediatamente que Qx = x, de donde Q es una simetra
respecto al hiperplano fxjut x = 0g, en efecto
;
Qu = I ; 2uut u = ;u:
II.5 M
nimos Cuadrados 89
En base a estas matrices se construira un metodo que permita descomponer
la matriz A en QR en n ; 1 pasos a lo maximo.
Se busca una matriz Q1 = I ; 2u1ut1 con ku1 k2 = 1, tal que
0 1 1
Q1 A = B
B 0. . . CC :
@ .. .. .. A
0
Denotando por e1 a (1 0 : : : 0)t y A1 la primera columna de la matriz A,
hay que determinar Q1 , tal que
Q1 A1 = 1 e1 2 : R (II:5:18)
Por las propiedades de norma se tiene j1 j = kA1 k2 , por consiguiente
1 = kA1 k2 (II:5:19)
Q1 es una matriz de Householder, por lo tanto:
A1 ; 2u1 ut1A1 = 1 e1
2u1(u| t1{zA1}) = A1 ; 1 e1
2R
de donde u1 tiene la misma direccion que A1 ; 1 e1 . En consecuencia,
u1 = kAA1 ;;1ee1k : (II:5:20)
1 1 1 2
Sabiendo que la sustraccion es una operacion mal condicionada cuando las
cantidades a restar son cercanas, se plantea
1 = ;signo(a11 ) kA1 k2 : (II:5:21)
El siguiente paso es determinar Q1 Aj , donde Aj es la j-esima columna de la
matriz A, deniendo v1 = A1 ; 1 e1 , se tiene:
v1t v1 = 1 (At ; et )(A ; e )
2 2 1 11 1 11
;
= 12 kA1 k22 ;1 a11 ; 1 a11 + 21
| {z2 }
1
= 1 (1 ; a11 )
Q1Aj = Aj ; 2u1ut1 Aj
= Aj ; t2 v1 v1t Aj
v1 v1
= Aj ; ( 1; a ) v1 v1t Aj : (II:5:22)
1 1 11
90 II Sistemas Lineales
Despues del primer paso de la descomposicion QR, se ha obtenido
0 1 1
B 0.
Q1 A = B
CC :
@ .. A!(1) A
0
El segundo paso es determinar Q! 2 matriz de Householder, como en el primer
paso, de manera que
0 1 1 0 1 1
B 0 C BB 0 2 C
C
Q2 Q1 A = @ .. Q! A!(1) A = B
B C B@ 0.. 0.. CC
. 2
. . A!(2) A
0 0 0
donde
01 0 0
1
B 0.
Q2 = B
CC :
@. . Q! 2 A
0
Costo de la descomposici on QR
La descomposicion se la realiza en n ; 1 etapas,
1 1 2
Al nal de la descomposicion se obtiene la siguiente matriz
R
v1 v2 . .
.
vn
1 2 n
Hay que observar que QR es aplicable, si las columnas de A son linealmente
independientes. Si no fuesen linealmente independientes se llegara a la
situacion de obtener un i = 0, y la descomposicion en este caso sera
numericamente inestable. Para evitar esta situacion, se puede modicar la
descomposicion QR de la manera siguiente. Sea A la matriz a descomponer,
se considera
kAjo k22 = j=1max kA k2
:::n j 2
(II:5:23)
se intercambia la primera columna A1 con Ajo y se procede el primer paso de
la descomposicion QR, para el segundo paso se procede de la misma manera
y as sucesivamente. Por consiguiente, con esta modicacion se obtiene la
sucesion decreciente,
1 2 k > 0: (II:5:24)
Si hay vectores linealmente dependientes se llega por lo tanto al siguiente
resultado
R R 0 1 r1n 1
R = 01 02 con R1 = @ . . . ... A : (II:5:25)
| {z k }
k = rangA
92 II Sistemas Lineales
La descomposicion QR es un instrumento numerico que permite determinar
el rango de la matriz A. Ahora bien, debido a los errores de redondeo, el
principal problema consiste en decidir cuando un j es nulo en la sucesion
decreciente (II.5.24) . Se remarca inmediatamente que, si k+1 = 0, entonces
k+i = 0 para i > 2.
Se dene la matriz R^ el resultado numerico obtenido despues de k pasos
como 0 1 1
B ...
R^ = B R^2 C
CA : (II:5:26)
@ k
0 0
Planteando
A^ = QR
^ (II:5:27)
se tiene la:
Denici on II.5.2.- k+1 es despreciable, si y solamente si
A ; A^2 eps kAk2 : (II:5:28)
R
(AV )2 las otras n ; k columnas de AV
(AV )2 = 0, en efecto, sea x = (0| :{z: : 0} x^)t , donde x^ 2 n;k , obteniendo:
k
0 2 1
1
xt V t At AV x = xt B
@ ... CA x = 0
n2
kAV xk22 = k(AV )2 x^k22 8x^:
Se dene U1 por
U1 = (AV )1 D;1
obteniendo columnas ortonormales, ya que
;
U1tU1 = D;1 (AV )t1 (AV )1 D;1 = I
Finalmente se construye U2 , de manera que U sea ortogonal.
Teorema II.5.6.- Sea A una matriz de m n, siendo
0 1 1
U t AV = ( = B
B ... 0C
C (II:5:38)
@ k A
0
la descomposicion en valores singulares. Entonces la pseudo-inversa de A
esta dada por 0 1;1 1
A+ = V B
B ... 0C
CA U t: (II:5:39)
@ ;
k 1
0
Demostraci on.- Se tiene
kAx ; bk22 = U (V t x ; b22
2
= U ((V t x ; U t b)22 = ( |{z} U t b
V t ; |{z}
y c
Dy c 2 2
= k(y ; ck22 = 0 1 ; c1
2 2
= kDy1 ; c1 k22 + kc2 k22 :
96 II Sistemas Lineales
Para que la expresion sea minimal es necesario que y1 = D;1 c1 . Por otro
lado se tiene que y = V t x, de donde kyk2 = kxk2 , de manera, que para que
x sea minimal es necesario que y2 = 0. De donde
D ;1 c
x =V 1
0
D;1 0 c
= V 0 0 c1
D ;1 0 2
=V t
0 0 V b
=A+ b 8b:
Finalmente se tiene:
Teorema II.5.7.- La pseudo-inversa de una matriz verica las siguientes
propiedades:
a) (A+ A)t = A+ A
b) (AA+ )t = AA+
c) A+ AA+ = A+
d) AA+ A = A
llamados axiomas de Moore-Penrose, ademas la pseudo-inversa esta unica-
mente determinada por estos axiomas.
Demostraci on.- Vericacion inmediata utilizando (II.5.39).
Denotando los elementos de Qt por qij , los elementos del vector C , satisfacen
X
m
ci = qij bj
j =1
y las componentes del vector C2 satisfacen tambien
X
m
ci = qij (bj ; j ):
j =1
Es razonable considerar las variables aleatorias
X
m
Zi = qij (Yj ; j ) i = n + 1 : : : m: (II:5:47)
j =1
A continuacion, se da la proposicion siguiente, sin demostracion.
Proposici on II.5.9.- Sean Y1 : : : Ym variables aleatorias independientes
siguiendo N (0 1). Entonces las variables aleatorias Zn+1 : : : Zm , denidas
por (II.5.47) son independientes y siguen tambien una ley normal N (0 1).
El error cometido, por el metodo de los mnimos cuadrados, es equiva-
lente a estudiar kC2 k22 de donde el teorema, sin demostracion:
II.5 M
nimos Cuadrados 99
Teorema II.5.10.- Pearson. Sean Z1 Z2 : : : Zn variables aleatorias inde-
pendientes siguiendo la ley normal N (0 1). Entonces, la distribucion de la
variable aleatoria
Z12 + + Zn2 (II:5:48)
esta dada por
fn(x) = n=2 1 xn=2;1 e;x=2 x > 0 (II:5:49)
2 ;(n=2)
y por fn (x) = 0 para x 0. Es la ley 2 con n grados de libertad. La
experanza de esta variable es n y su varianza es 2n.
Ejemplo
A partir de la funcion f (t) = t + 0:5 sin(t=2), se ha elaborado la tabla
II.5.1, que tiene como elementos (i bi ) con 0 i 9, donde bi = f (i)+i.
i es la realizacion de una variablea aleatoria siguiendo una ley normal
N (0 ) con = 0:1.
Tabla II.5.1. Valores de bi en funcion de i.
i bi i bi
0 0:11158 5 5:5158
1 1:2972 6 6:0119
2 2:07201 7 6:6802
3 2:4744 8 7:9294
4 3:963 9 9:4129
Se considera, la funcion de modelo
'(t) = xt + y sin(t=2): (II:5:50)
Obteniendo por la descomposicion QR:
x = 1:00074
y = 0:413516:
El siguiente paso sera estimar el intervalo de conanza para x y y. Para
tal efecto, se considera el problema
x t + y sin(t= 4) bi
= i = 0 : : : 9
100 II Sistemas Lineales
pues, los bi = deben ser realizaciones de una variable normal con varianza
igual a 1. De donde la matriz de covarianza esta dada por
2 3:57143 10;5 ;3:57143 10;5
x xy =
2
xy y ;5
;3:57143 10 ;3 :
2:03571 10
Por consiguiente:
x = 1:00074 0:012
y = 0:41352 0:09:
El metodo QR, con la notacion precedente da
kC2 k2 = 0:0693103
corrigiendo, para el problema normalizado, se tiene
kC2 k22 = 6:93103:
2
Se tiene 10 ; 2 grados de libertad. Viendo en una tabla de la distribucion
2 , se deduce que este valor es lo sucientemente peque~no para ser
probable.
Ahora bien, si se hubiese considerado la funcion de modelo
'(t) = xt + y (II:5:51)
se hubiera encontrado
kC2 k22 = 90:5225
2
valor demasiado grande para ser probable.
La conclusion es que, para los valores de la tabla II.5.1, la ley (II.5.50)
es mas probable que la ley (II.5.51).
En la gura II.5.3, puede observarse en linea continua la graca de la
funcion modelo dada por (II.5.50) y con lineas segmentadas la graca de
la funcion modelo (II.5.1).
II.5 M
nimos Cuadrados 101
10
0
0 1 2 3 4 5 6 7 8 9
Ejercicios
1.- Sea A una matriz inversible de n n. Mostrar que la descomposicion
QR es unica, si se supone que rjj > 0 para j = 1 : : : n.
2.- Aplicar el algoritmo de Golub-Householder a la matrice de rotacion
sin
A = ;cos
sin cos :
Dar una interpretacion geometrica.
3.- Sea Q una matriz ortogonal de n n. Mostrar que Q puede escribirse
R
como el producto de n matrices de Householder, de donde cada trans-
formacion ortogonal de n es una sucesion de al menos n reexiones.
4.- Escribir una subrutina DECQR(N,M,MDIM,A,ALPH),
(A(MDIM,N),ALPH(N)), que calcula la descomposicion QR de una ma-
triz m n, m n.
Escribir tambien una subrutina SOLQR(N,M,MDIM,A,ALPH,B) que cal-
cula la solucion del problema
kAX ; bk2 ;! min :
Determinar la parabola x1 + x2 t + x2 t2 , que ajusta lo mejor posible:
102 II Sistemas Lineales
ti 0 0 2 0 4 0 6 0 8 1:0
yi 0 10 0 15 0 23 0 58 0 45 0 60
5.- Sea A una matriz m n. Mostrar que At A + I es no singular para
>0y
A+ = lim t ;1 t
!0+ (A A + I ) A :
Captulo III
Interpolacion
R
de los problemas a resolverse numericamente.
Denici on III.1.3.- Sea p(x) 2 #x], a es un cero de multiplicidad m de
p(x), si
p(k) (a) = 0 m = 0 : : : m ; 1 y p(m) 6= 0:
Proposici on III.1.4.- a es un cero de multiplicidad m de p(x), si y
solamente si, existe un polinomio q(x) con q(a) 6= 0 tal que
p(x) = (x ; a)m q(x):
donde las constantes cilm son escogidas de manera que p(ilm)(xi ) = 0 para
m > l y Cil de manera que p(ill) = 1.
Para construir el polinomio de interpolacion no debe utilizarse los
polinomios denidos en la demostracion, uno porque el costo en operaciones
es demasiado elevado y otro por la sensibilidad de estos polinomios as
denidos a los errores de redondeo.
Construccion del Polinomio de Interpolacion
Inicialmente se considerara polinomios de interpolacion del tipo de Lagrange.
Por lo tanto, dados los puntos x0 : : : xn todos diferentes, y los valores
y0 : : : yn, el problema se reduce a encontrar un polinomio de grado n que
satisfaga
p(xi ) = yi 0 i n: (III:1:3)
Indudablemente el caso mas sencillo es para n = 1 y luego para n = 2.
Para n = 1 la recta de interpolacion esta dada por
y1 ; y0
p(x) = y0 + x ; x (x ; x0 )
1 0
para n = 2 la parabola de interpolacion esta dada por
; y0
p(x) = y0 + xy1 ; (x ; x0 ) + a(x ; x0 )(x ; x1 )
1 x0
III.1 Interpolacio n de Lagrange 107
este ultimo polinomio verica p(x0 ) = y0 y p(x1 ) = y1 , por consiguiente es
necesario determinar a de manera que p(x2 ) = y2 . Unos simples calculos
algebraicos dan
1
! y2 ; y1 y1 ; y0 "
a= x ;x x ;x ; x ;x :
2 0 2 1 1 2
Para n = 3 se puede continuar con el mismo esquema, pero antes es necesario
dar la nocion de diferencias divididas.
Denici on III.1.8.- (Diferencias Divididas) Sean (x0 y0) : : : (xn yn), los
xi diferentes entre si. Entonces las diferencias divididas de orden k se denen
de manera recursiva por:
y#xi ] = yi (III:1:4a)
y#xi xj ] = xyj ; yi (III:1:4b)
j ; xi
y#xi1 : : : xik ] ; y#xi0 : : : xik;1 ]
y#xi0 : : : xik ] = xik ; xi0 : (III:1:4c)
x0 y#x0 ]
&
y#x x ]
% 0 1&
x1 y#x1 ] y#x0 x1 x2 ]
& % &
y#x1 x2 ] y#x0 : : : x3 ]
% & % &
x2 y#x2 ] y#x1 x2 x3 ] y#x : : : x ]
& % & % 0 ... 4 . . .
y#x x ] y#x :.: : x ]
% 2 3& % 1 .. 4 . . .
x3 y#x3 ] y#x x. x ]
& % 2 .. 3 4 . . .
y#x x ]
% 3... 4 . . .
x4 y#x4 ]
.. .. . . .
. .
Figura III.1.1. Esquema de la Formula de Newton.
La programacion del polinomio de interpolacion es muy facil, ademas
que se puede utilizar la plaza ocupada por yi . En efecto la primera columna
del esquema es utilizada por los yi , se remarca inmediatamente que yn
aparece una vez en los calculos, por consiguiente las ultimas n ; 1 lugares de
la columna son utilizados por los n ; 1 valores de las diferencias divididas
que aparecen en la segunda columna, quedando el primer valor de y0 , y se
continua de esta manera hasta obtener y#x0 : : : xn ].
III.1 Interpolacio n de Lagrange 109
Un caso particular en la determinacion del polinomio de interpolacion
ocurre cuando la subdivision de los puntos es uniforme, es decir
xi = x0 + ih i = 0 : : : n (III:1:6)
donde h = (xn ; x0 )=n. Para poder implementar el algoritmo de Newton
con esta subdivision es necesario, las siguientes dos deniciones.
Denici on III.1.10.- (Diferencias Finitas Progresivas) Sea y0 y1 : : : una
sucesion de numeros reales, se dene el operador de diferencias nitas
progresivas de orden k de manera recursiva como sigue:
r0 yi = yi (III:1:7a)
ryi = yi+1 ; yi (III:1:7b)
rk+1 yi = rk yi+1 ; rk yi : (III:1:7b)
Denici on III.1.11.- (Diferencias Finitas Retrogradas) Sea y0 y1 : : : una
sucesion de numeros reales, se dene el operador de diferencias nitas
retrograda de orden k de manera recursiva como sigue:
r! 0 yi = yi (III:1:8a)
r! yi = yi ; yi;1 (III:1:8b)
r! yi = r! yi ; r! yi;1 :
k +1 k k (III:1:8b)
Ahora bien, tomando una subdivision uniforme x0 < : : : < xn se
tiene los dos resultados equivalentes para el polinomio de interpolacion de
Lagrange que pasa por los puntos (xi yi ). Utilizando las diferencias nitas
progresivas se tiene
X
n ri y iY
0
;1
p(x) = i (x ; xk ) (III:1:9)
i=0 i!h k=0
Y
;1
donde h = (xn ; x0 )=n y con la convencion (x ; xk ) = 1. Utilizando las
k=0
diferencias retrogradas se tiene
X ! i yn iY
n r ;1
p(x) = i (x ; xn;k ) (III:1:10)
i=0 i!h k=0
Y
;1
con la convencion (x ; xn;k ) = 1. La programacion es la misma que para
k=0
el caso general, con la unica diferencia que no se efectuan divisiones. Por
110 III Interpolacio n
consiguiente, se tiene el mismo esquema de resolucion para una subdivision
uniforme. En la gura III.1.2 se observa los esquemas para las diferencias
nitas progresivas y las diferencias nitas retrogradas.
x0 r0 y0 xn r 0 yn
& ry &
ry
% & 20
0 % n & 2
0
x1 r y1 x r y r yn
& %r y0 & 3
n ; 1 n ; 1
& % & 3
r y1 r y0 ryn;1 r yn
% & 2 % & 4 % & % &4
x2 r0 y2 r y1 r y0 xn;2 r 0 yn;2 r 2 yn;1 1 ry
& % & 3 % & % &3 % n
ry ry
% ry2 & 2 %r y1
% n;2 & 2 % n;1
x3 r0 y3 r y2 x n;3 r 0 y n;3 r y
& ry % & % n;2
% 3 ry n ;3
x4 r0 y4 %
xn;4 r 0 yn;4
. .
.. .. . . . .. .. . . .
. .
Figura III.1.2. Esquemas para Diferencias Finitas
La evaluacion del polinomio de interpolacion en un punto x 2 #x0 xn ] se
la realiza utilizando el algoritmo de Horner, ver ejemplo seccion I.1. Para ver
la simplicidad de la determinacion del polinomio de interpolacion utilizando
diferencias divididas, y si la subdivision es uniforme, diferencias nitas se
tiene el siguiente:
Ejemplo
Se desea evaluar la raiz cuadrada de un numero positivo, por ejemplo
1 4. Para mostrar le ecacia y simplicidad, se va construir un polinomio
de interpolacion de grado 3, y con tal efecto se utiliza los puntos donde
la raiz cuadrada es exacta como una expresion decimal.
xi 1 00 1 21 1 44 1 69
yi 1 00 1 10 1 20 1 30
Por consiguiente, el esquema de diferencias divididas para el polinomio
de interpolacion, esta dado por
100 100
&4762
121 110
% &;0941
&4348% &0313
% & %
& 400 %;0725
144 120
169 130
%
III.1 Interpolacio n de Lagrange 111
de donde el polinomio de interpolacion es igual a
p(x) =1 + 0 476(x ; 1) ; 0 094(x ; 1)(x ; 1 21)
+ 0 031(x ; 1)(x ; 1 21)(x ; 1 44)
y p(1 4) = 1 183.
El Error de Interpolacion
Sea f (x) una funcion que cumple ciertas condiciones, se supone que se
hace pasar un polinomio de interpolacion por los puntos (xi f (xi )), la
pregunta natural es saber que error se comete con el calculo del polinomio
de interpolacion, es decir p(x) ; f (x) vale cuanto, para un x determinado.
Es por esta razon que los siguientes teoremas seran enunciados para tener
una idea del error cometido.
Teorema III.1.12.- Sea f (x) n-veces continuamente diferenciable y
yi = f (xi ), i = 0 : : : n los xi todos diferentes.
Entonces existe 2 (min xi max xi ) tal que
(n)
y#x0 x1 : : : xn ] = f n!( ) : (III:1:11)
Polinomios de Chebichef
La respuesta de la anterior interrogante, esta en el estudio de los polinomios
de Chebichef, que ya fueron tratados en la seccion II.4.
Denici on III.1.14.- El n-simo polinomio de Chebichef esta denido en el
intevalo #;1 1] por la siguiente relacion
Tn (x) = cos(n arccos x): (III:1:14)
para k = 0 1 : : : n ; 1:
Demostraci on.- El inciso a) se demuestra utilizando el hecho que
cos((n + 1)') = 2cos' cos(n') ; cos((n ; 1)'):
La primera parte del inciso b) es consecuencia de la denicion del n-si-
mo polinomio de Chebichef. Las dos ultimas relaciones provienen de las
ecuaciones cos n' = 0 y jcos n'j = 1.
114 III Interpolacio n
Finalmente, es facil observar que el coeciente del termino dominante
de Tn para n > 0 es igual a 2n;1 : Los polinomios de Chebichef T0 T1 T2 y
T3 pueden observarse en la gura III.1.3.
T0(x) T1 (x)
T2(x) T3 (x)
Figura III.1.3. Los cuatro primeros polinomios de Chebichef:
Teorema III.1.16.- Sea q(x) un polinomio de grado n con coeciente
dominante 2n;1 para n 1 y q(x) diferente a Tn(x). Entonces
max jq(x)j > x2max
x2;11]
jT (x)j = 1:
;11] n
(III:1:19)
Para construir una division optima para cualquier intervalo #a b], se
toma los puntos x^k denidos por
x^k = a +2 b + b ;2 a xk (III:1:20)
donde los xk son los ceros del n + 1-simo polinomio de Chebichef.
Estudio de los Errores de Redondeo
En esta subseccion, se estudiara la incidencia de los errores de redondeo
en la determinacion del polinomio de interpolacion, mas precisamente en
los polinomios de interpolacion de tipo Lagrange. Hay que recalcar que
los errores de redondeo en el calculo del polinomio interpolante esta muy
relacionado con el concepto de estabilidad del algoritmo de determinacion
del polinomio de interpolacion.
El problema es el siguiente: Dada una subdivision x0 : : : xn , determinar
p(x) de grado n tal que p(xi ) = yi , i = 0 : : : n. En el calculo se cometen
errores de redondeo por un lado, y por otro lado los datos iniciales tienen una
parte de error de redondeo. Para simplicar el estudio de la estabilidad del
polinomio de interpolacion, los errores de redondeo a considerar son aquellos
presentes en los yi , y se supone que no se comete errores de redondeo en
los calculos propiamente dichos y que los xi son considerados por su valor
exacto.
El teorema III.1.7 arma la existencia de un polinomio de interpolacion
de grado n de tipo Lagrange para (xi yi ), i = 0 : : : n y los xi diferentes,
116 III Interpolacio n
durante la demostracion de este teorema se vio de manera explcita la forma
que deba tener este polinomio, recordando se enuncia el siguiente teorema:
Teorema III.1.18.- Sean (xi yi), i = 0 1 : : : n, los xi diferentes entre si,
p(x) el polinomio de grado n que satisface p(xi ) = yi . Entonces
X
n
p(x) = yi li (x) (III:1:21)
i=0
Yn (x ; xj )
donde li (x) = (x ; x ) : (III:1:22)
j=0 i j
j6=i
Ejemplos
a) Para la division equidistante xj = ;1 + 2nj , j = 0 : : : n. Se puede
mostrar que la constante de Lebesgue se comporta asintoticamente,
cuando n ;! 1, como
n+1
+n en2 log n (III:1:24)
III.1 Interpolacio n de Lagrange 117
En el ejercicio 7 de esta seccion, se indica como se calcula numericamente
estas constantes, en la tabla III.1.1 estan los resultados deestos calculos.
b) Para la division con puntos de Chebichef xj = ; cos 22nj + +2
1 , se
puede mostrar que la constante de Lebesgue se comporta asintotica-
mente, cuando n ;! 1, como
+n 2 log n: (III:1:25)
n Division Division
Equidistante de Chebichef
10 29:900 2:0687
20 10987: 2:4792
30 6:6011 106 2:7267
40 4:6925 109 2:9044
50 3:6398 1012 3:0432
60 2:9788 1015 3:1571
70 2:5281 1018 3:2537
80 2:2026 1021 3:3375
90 1:9575 1024 3:4115
100 1:7668 1027 3:4779
0
−1 0 1 −1 0 1
0 0
−1 0 1 −1 0 1
−1 −1
1 1
n=30 n=40
0 0
−1 0 1 −1 0 1
−1 −1
M (b(n;+a)1)! ;;;;;
n+1n!1! 0:
R
Se verica facilmente las propiedades siguientes del modulo de continuidad:
i) la funcion h ! !(f h) denida sobre + es positiva, creciente y
N R
subaditiva, es decir: 8h1 h2 0 !(f h1 + h2 ) !(f h1 ) + !(f h2 ),
ii) si n 2 , !(f nh) n!(f h) si
2 + , !(f
h) (1 +
)!(f h),
R
iii) si f 2 C 0 #a b], hlim
sobre + ,
! 0
!(f h) = 0 y la funcion h ! !(f h) es continua
iv) si f 2 C 1 #a b], !(f h) h kf 0 k1 .
Teorema III.1.23.- Existe un real M , independientemente de n, a y b, tal
que para todo n 1 y toda f 2 C 0 #a b], se tiene
b ; a
En (f ) M! f : n (III:1:28)
R
Planteando g(t) = f (jcos tj), esta claro que g es una funcion par, continua
sobre y periodica de periodo , ademas !(g h) !(f h) porque jt ; t0 j
122 III Interpolacio n
h ) jjcos tj ; jcos tjj h. Continuando con la demostracion se introduce la
funcion Z Z
'n (s) = g(t)jn (s ; t)dt = g(s ; t)jn (t)dt
; ;
se tiene Z
g(s) ; 'n (s) = (g(s) ; g(s ; t))jn (t)dt
;
de donde
Z
jg(s) ; 'n (s)j j(g(s) ; g(s ; t))j jn (t)dt
Z; Z
!(g jtj)jn (t)dt = 2 !(g t)gn(t)dt
;Z 0
2 (1 + nt)jn (t)dt !(g 1=n) por la propiedad ii:
0
R
Corolario III.1.24.- Teorema de Weirstrass. Sea #a b] un intervalo cerrado
y acotado de , entonces el conjunto de las funciones polinomiales es denso
en C 0 #a b] para la topologa de la convergencia uniforme
Demostraci on.- En efecto, por la propiedad iii) del modulo de continuidad,
se tiene que b ; a
n!1
lim ! f n = 0
1 1 1 1
0 0 0 0
−1 0 1 −1 0 1 −1 0 1 −1 0 1
1 1 1 1
0 0 0 0
−1 0 1 −1 0 1 −1 0 1 −1 0 1
1 Z f (z ) c
f (x) = 2i z ; x dz:
C −1 1
2/e
1/e 1ó x
G(z)=2/e
−1 0 1
Ejercicios
1.- Demostrar por induccion
X
n Y 1
y#x0 : : : xn ] = yj ;
j =0 i6=j j xi
x
X n n
4ny0 = j yj (;1)n;j :
j =0
2.- Supongase conocidos los valores de la funcion de Bessel
Z
J0 (x) = 1 cos(x sin t)dt:
0
128 III Interpolacio n
para los puntos equidistantes xi = x + 0 + ih, i 2 . Z
a) >Para que h, el error de la interpolacion lineal es menor a 10;11?
b) La misma pregunta para la interpolacion cuadratica.
3.- Calcular el polinomio de interpolacion de grado n = 10 y n = 20, que
pasa por (xi f (xi )), i = 0 1 : : : n, donde f (x) = 1=(1 + 25x2 ).
a) xi = ;1 + 2ni .
b) xi = cos( 22ni ++ 12 ).
Hacer gracas, estudiar los errores.
4.- Sea p(x) el polinomio de interpolacion de grado 1 de una funcion f dos
veces continuamente derivable. Mostrar que el error satisface
Z x1
f (x) ; p(x) = G(x t)f 00 (t)dt ()
x0
con 81
>
< h (x ; x0 )(t ; x1) si x t
G(x t) = > :
: h1 (t ; x0)(x ; x1) si x t
Dibujar la funcion G(x ). Deducir de () el resultado del teorema
III.1.13.
Yn
5.- Sean x0 < x1 < < xn y li (x) = ((xx ;; xxj )) .
j=0 i j
j6=i
Vericar que la funcion
X
n
n (x) = jli (x)j
i=0
tiene un solo maximo local sobre cada #xi;1 xi ]
Xn
Indicacion: Sobre #xj;1 xj ] se tiene a
n (x) = i li (x) con = 1.
6.- Si la funcion f : #x0 x1 ] ;!
x0 < a < b < x1 , entonces
R i=0
tiene solamente un maximo local y si
si no
x1 = b b = a a = x1 ; d
x a 0 b x1
Ademas del interes del resultado del teorema que servira para la
estimacion del error, se tiene un medio simple para calcular las derivadas
de f en los puntos xi .
Demostraci on.- La demostracion del caso general es muy similar a la
del caso de los puntos equidistantes, aqu se mostrara el caso equidistante,
dejando al lector el caso general. La construccion del spline esta dada por
las ecuaciones
1 3
h (pi;1 + 4pi + pi+1 ) ; h2 (f (xi+1 ) ; f (xi;1 )) = 0: (III:2:14)
Se dene qi , i = 1 : : : n ; 1, por
; ;
qi = h1 f 0 (xi;1 ) + 4f 0 (xi ) + f 0 (xi+1 ) ; 32 f (xi+1 ) ; f (xi;1 ) (III:2:15)
h
III.2 Splines Cubicos 137
Por otra lado, utilizando el teorema de Taylor con resto en el punto xi
se tiene:
2 3
f (xi+1 ) = f (xi ) + hf 0(xi ) + h2! f 00 (xi ) + h3! f (3)(xi )
Z1
+ h4! f (4) (xi ) + h5 (1 ;4! t) f (5)(xi + th)dt
4 4
0
2 3
f 0 (xi+1 ) = f 0 (xi ) + hf 00 (xi ) + h f (3) (xi ) + h f (4) (xi )
Z 1 (12! ; t)3
3!
+ h4 (5)
3! f (xi + th)dt
0
de donde, introduciendo en (III.2.15), se obtiene
Z 1 ! (1 ; t)3 (1 ; t) (5) 4"
qi =h3 3! ; 3 4! f (xi + th)dt
0
Z 1 ! (1 ; t)3 (1 ; t)4 "
+ h3 3! ;3 4! f (5)(x ; th)dt:
i
0
Utilizando el teorema del valor medio y calculando la integral
Z 1 ! (1 ; t)3 "
; 3 (1 ;4! t) dt = 601
4
0 3!
se obtiene nalmente que
1 h3 f (5) ( ) + f (5)( )
qi = 60 i i
Ejercicios
1.- Considerar puntos equidistantes xi = x0 + ih, h > 0. Mostrar que existe
un unico spline llamado B-spline, tal que para un j jo se tiene:
s(xj ) = 1
s(x) = 0 si jx ; xj j 2h:
Dibujar.
2.- Desarrollar una formula para los splines periodicos.
Mostrar la existencia y la unicidad del spline que pasa por (xi yi ),
i = 0 : : : n, tal que
s0 (x0 ) = s0 (xn ) s00 (x0 ) = s00 (xn ):
3.- Escribir una subrutina SPLICO(N,X,Y,DY,P,A,B).
Los datos son N, X(0:N), Y(0:N) y P(0), P(N). La subrutina debe
dar como valores DY(0:N-1) diferencias divididas, P(0:N) los pi ,
A(0:N-1) los (pi ; y #xi;1 xi ]) y B(0:N-1) los (pi;1 ; y #xi;1 xi ]).
4.- Escribir una funcion SPLIVA(N,X,Y,DY,A,B,T) que calcula el valor del
spline en el punto T. Examinarla sobre varias funciones de su eleccion.
5.- Sea xi = x0 + ih, i = 0 : : : n, una division equidistante y lj (x) el spline
de tipo Lagrange que satisface
(
1 si i = j
0 sino
y lj0 (x0 ) = 0, lj0 (xn ) = 0. Para las pendientes pi = lj (xi ) mostrar:
; h3 < pj < h2
: : : pj;3 > 0 pj;2 < 0 pj;1 > 0 pj+1 < 0 pj+2 > 0 : : : :
144 III Interpolacio n
6.- Los splines lj (x) del anterior ejercicio no cambian de signo en ningun
intervalo #xi;1 xi ].
7.- Sobre el intervalo #xi;1 xi ]
X
n
jlj (x)j = ti (x)
i=0
es el spline que satisface
(
1 si j = i + 2k o j = i ; 2k ; 1 con k = 0 1 : : :
;1 sino.
8.- Utilizando SPLICO y SPLIVA de los ejercicios 3 y 4. Calcular para
xi = i=n, n = 20:
a) el spline l7 (x),
X
n
b) la funcion jli (x)j,
i=0
hacer dibujos. Vericar las propiedades de los ejercicios 5, 6 y 7.
III.3 Extrapolacion
R
es decir los enteros de la forma 2i y 3 2i .
Teorema III.3.3.- Sea f : (0 1] ;! , supongase que f tiene el desarrollo
asintotico por derecha en x = 0, para k = 0 1 2 : : : ko dado por
f (x) = a0 + a1 x + + ak xk + Rk+1 (x)
con jRk+1 (x)j Ck+1 xk+1 , para x > 0. Sea hj = 1=nj , con nj una sucesion
creciente de naturales, entonces el procedimiento de extrapolacion denido
por (III.3.8) verica la siguiente propiedad:
Si para todo j > 0 se tiene hj+1 =hj r < 1, entonces
8k con 0 k ko Tmk = a0 + O(hkm+1;k ): (III:3:9)
X
m Y
m hj =hi R (h ):
Tmk ; a0 = k+1 i
i=m;k j=m;k hj =hi ; 1
j6=i
III.3 Extrapolacio n 149
Si j < i, se mayora h h=hj =h;i 1 por 1 i;j , mientras que
j hi =h 1 ; rrj;i
si i < j , se mayora h =hj ;i 1 por , nalmente jRk+1 (hi )j por
; j i 1 ; r j ;i
Ck+1 ri;m+k hm;k k+1 , deduciendo
jTmk ; a0 j C (k r)Ck+1 hkm+1;k
donde C (k r) es una constante independiente de m.
La convergencia hacia a0 es obtenida en cada una de las columnas del
tablero, para la primera columna la convergencia es O(hm ), para la segunda
columna la velocidad de convergencia esta dada por O(h2m;1 ), y para la
k-esima columna la velocidad de convergencia es igual a O(hkm+1 ;k+1 ). Por
consiguiente, si a1 6= 0 la convergencia de la k-esima columna es k veces mas
rapida que de la primera columna.
Las sucesiones de Romberg y Bulirsch satisfacen las condiciones del
teorema III.3.3 con r = 1=2 y r = 3=4. Sin embargo la otra sucesion utilizada
ampliamente en las extrapolaciones numericas como ser la armonica no
cumple el requisito que hj+1 =hj r < 1. No obstante se tiene a disposicion
el siguiente teorema.
Teorema III.3.4.- Mismas hipotesis del teorema III.3.3 para la funcion f ,
se dene hn = 1=n. Entonces se tiene:
8k con 0 2k ko Tmk = a0 + O(hkm+1 ): (III:3:11)
Ejercicios
R
1.- Sea f : (0 1] ;! una funcion cuyo desarrollo asintotico por derecha
en x = 0 esta dado por
f (x) = a0 + a1 x2 + + ak x2k + O(x2k+2 ):
Modicar el algoritmo de Aitken-Naville, es decir el proceso de extra-
polacion, de manera que el numero de operaciones se redusca ostensi-
blemente.
2.- En esta seccion, se da un ejemplo de como acelerar la convergencia de
una sucesion para calcular . Suponiendo que el desarrollo asintotico
es par, como en el ejercicio 1, recalcule y compare.
3.- Utilizando el procedimiento de la seccion III.1 para determinar la
inuencia de los errores de redondeo en la determinacion del polinomio
de interpolacion. Estudie la inuencia de los errores de redondeo en
la extrapolacion, suponiendo que los unicos errores de redondeo que
se comete son aquellos relativos a la evaluacion de la funcion f a ser
extrapolada.
p
4.- p
Calcule p 2, utilizando unpprocedimiento p de extrapolaciop
n, por ejemplo
1 = 1, 1 21 = 1
p1 9881 = 1 41, : : :. 1, 1 44 = 1 2, 1 69 = 1 3 1 96 = 1 4
Captulo IV
Ecuaciones No Lineales
C
donde los ai son numeros reales o complejos.
R
Como es una extension del cuerpo , se puede suponer que el
C
problema consiste en determinar las raices o ceros de un polinomio p(x) 2
#x]. La existencia de las soluciones de una ecuacion polinomial esta dada
C
por el Teorema Fundamental del Algebra que se lo enuncia sin demostracion.
Teorema IV.1.1.- Fundamental del Algebra. Sea p(x) 2 #x] de grado n,
entonces p(x) tiene exactamente n ceros contando con su multiplicidad.
Comentando este teorema, se puede agregar que un polinomio a coe-
entes reales puede no tener ceros reales pero por el teorema Fundamental
C C
del Algebra, este tiene exactamente n raices contando con su multiplicidad.
Por otro lado, p(x) puede ser visto como una funcion de en , ahora
bien toda funcion polinomial es holomorfa, y si el polinomio es no nulo,
C
entonces los ceros forman un conjunto discreto, es decir que para todo cero
x0 , existe un r > 0 tal que p(x) 6= 0 para todo x 2 tal que 0 < jxj < r.
Ademas, la utilizacion del teorema de Rouche permite de determinar los
discos donde se encuentran los ceros y complementando esta informacion el
numero exacto de ceros.
Ecuaciones Resolubles por Radicales
Tal como se dijo en la introduccion de este captulo, se ha buscado inicial-
mente la manera de expresar la solucion de una ecuacion por medio de fun-
ciones elementales. En esta subseccion, se vera precisamente esta manera de
expresar las soluciones. Se comenzara con el caso mas simple, las ecuaciones
cuadraticas.
Ecuaciones cuadr aticas
Una ecuacion cuadratica o ecuacion polinomial de segundo grado es de la
forma
ax2 + bx + c = 0 con a 6= 0
ecuacion que es equivalente a
x2 + !bx + c! = 0 (IV:1:2)
IV.1 Ecuaciones Polinomiales 153
completando cuadrados se tiene
! 2 !2
x + 2b + c! ; b4 = 0
Sucesiones de Sturm
La utilizacion de sucesiones de Sturm en la resolucion de ecuaciones polino-
miales permite determinar las raices reales y no as las raices no reales. En
la mayor parte de los problemas, es solo importante conocer los ceros reales,
motivo por el cual los procedimientos que utilizan sucesiones de Sturm son
muy comunes en la resolucion de ecuaciones polinomiales
R
Denici on IV.1.6.- Una sucesion ff0 f1 : : : fng de funciones denidas en
R
con valores reales, continuamente derivables es una sucesion de Sturm, si:
a) f00 (x )f1 (x ) < 0 si f0 (x ) = 0, x 2 .
R
b) fj;1 (x )fj+1 (x ) < 0 si fj (x ) = 0, 1 j n ; 1.
c) fn (x) no cambia de signo sobre y es positiva
Teorema IV.1.7.- Sea ff0 f1 : : : fng una sucesion de Sturm, w(x) se
denota al numero de cambios de signo de ff0(x) f1 (x) : : : fn (x)g.
Entonces la funcion f0 (x) tiene exactamente w(b) ; w(a) ceros en el
intervalo #a b].
160 IV Ecuaciones No Lineales
Demostraci on.- w(x) puede cambiar de valor solamente si uno de los
fj (x) = 0. Por consiguiente, sea x un tal numero y supongase que
1 j n ; 1. Estudiando en un vecindario de x , la funcion w estara
determinada por los valores de las siguientes tablas:
x ; x x + x ; x x +
fj ;1 + + + fj;1 ; ; ;
fj 0 fj 0
fj+1 ; ; ; fj+1 + + +
x ; x x +
fn;1
fn + 0 +
de donde w(x + ) = w(x ; ) cuando fj (x ) = 0 para 1 j n.
Ahora bien, si f0 (x ) = 0, estudiando alrededor de un vecindario de x
se tiene las tablas:
x ; x x + x ; x x +
f0 + 0 ; f0 ; 0 +
f1 ; ; ; f1 + + +
de donde w(x + ) = w(x ; ) + 1.
Volviendo al problema original de encontrar los ceros reales de un
polinomio p(x) con raices simples, a coecientes reales (racionales), el
objetivo es construir una sucesion de Sturm de tal manera que f0 = p.
Se dene la siguiente sucesion de polinomios de manera recursiva utilizando
la division con resto, por
8 f (x) := p(x)
>
> 0
>
> f 0
1 (x) := ;p (x)
>
< f0(x) = g1(x)f1 (x) ; 12f2(x)
> f1 (x) = g2 (x)f2 (x) ; 22 f3 (x) (IV:1:22)
>
> ..
>
> .
: fn;1(x) = gn(x)fn(x):
La denicion de la sucesion (IV.1.22) es el algoritmo de Euclides para
determinar el mcd(p(x) p0 (x)). Se tiene el siguiente teorema.
IV.1 Ecuaciones Polinomiales 161
Teorema IV.1.8.- Supongase que p(x) solamente tiene raices simples,
entonces la sucesion denida por (IV.1.22) es una sucesion de Sturm.
Demostraci on.- Puesto que p(x) tiene raices simples, si p0(x ) = 0, se tiene
p(x ) 6= 0, de donde la condicion a) es satisfecha,
a) f00 (x )f1 (x ) = ;(f00 (x ))2 < 0:.
b) Se cumple esta condicion por construccion de la sucesion.
c) fn = mcd(p p0 ) = C .
Algoritmo
Con el algoritmo de biseccion se separa las raices realles de p(x), es decir
se divide en la mitad un intervalo original #a b] y se continua hasta tener
todas las raices localizadas en subintervalos #ai bi ]. Se puede continuar con
el algoritmo de biseccion hasta lograr la precision deseada, o si no se mejora
el resultado utilizando el metodo de Newton.
Ejercicios
1.- El polinomio x4 ; 8x3 + 24x2 ; 32x + a0 a0 = 16 posee una raiz
de multiplicidad 4 en el punto x = 2. >Como cambian las raices del
polinomio si se remplaza a0 por a!0 = a0 (1 + ) con jj eps? Calcular
las raices de este polinomio, >es un problema bien condicionado?
2.- Sea p(x) un polinomio de grado n a coecientes reales. Supongase que
todas las raices 1 2 n sean reales.
a) Mostrar que el metodo de Newton converge hacia 1 , si x0 > 1 .
Indicacion.- Para x > 1 los valores de p(x) p0 (x) p00 (x) tienen
el mismo signo que xlim !1 p(x). Mostrar que fxk g es una sucesion
monotona.
b) Si x0 es mucho mas grande que 1 , entonces el metodo de Newton
converge muy lentamente. (xk+1 xk (1 ; 1=h))
3.- Considerese el polinomio
f (x) = x6 ; 3x5 + 6x3 ; 3x2 ; 3x + 2:
Sin calcular las raices de este polinomio, determinar el numero de raices
distintas de f (x).
4.- Encontrar un algoritmo que, para un polinomio arbitrario f 2 #x],
permita calcular la factorizacion
Q
; ; ;
f (x) = f1 (x) (f2 (x) 2 (f3 (x) 3 (fk (x) k
162 IV Ecuaciones No Lineales
donde f1 : : : fk son primos entre si y donde cada polinomio fj (x) solo
tiene raices simples.
5.- Para un polinomio
C
f (x) = a0 xn + a1 xn;1 + an;1 x + an a0 6= 0
con coecientes en , mostrar que todas las raices satisfacen la
estimacion
( s s s )
j j 2 max a a : : : 1 ana;1 n 2aan : (IV:1:23)
a 1 a 1 n ;
0 0 0 0
Encontrar, para cada n, un polinomio tal que se tenga igualdad en
(IV.1.23)
6.- Considerese el polinomio
f (x) = x5 ; 5x4 + 3x3 + 3x2 + 2x + 8:
a) Determinar el numero de raices reales.
b) >Cuantas raices son complejas?
c)>Cuantas raices son reales y positivas?
Indicacion.- Utilizar una sucesion de Sturm.
R
7.- Sea f (p + 1) veces continuamente diferenciable en un vecindario de
2 y sea una raiz de multiplicidad p. Mostrar que la sucesion
fxk g, denida por
xk+1 = xk ; p ff0((xxk ))
k
converge hacia , si x0 es sucientemente proximo de , y que se tiene
xk+1 ; ;! f (p+1) ( ) :
(xk ; )2 p(p + 1)f (p+2) ( )
8.- El metodo de Newton, aplicado a z 3 ; 1 = 0, da la iteracion
zk+1 = ,(zk ) con ,(z ) = z ; z ;2 1 = 2z +2 1 :
3 3
C
Denotese por Aj = z0 2 zk ! e 2 ij= 3 3z 3z
, j = 0 1 2 los canales de
RR
atraccion. Mostrar:
a)A0 \ = ; f0 1 : : :g donde 0 = 0 y k;1 = ,(k ),
b)Aj+1 = e2i=3 Aj ,
C
c)Calcular ,;1 (0) y ,;2 (0) con la formula de Cardano. Esto muestra
que el sector fz 2 j j arg(z )j < =3g contiene puntos que no convergen
hacia 1.
N
d) Supongase que ,k (!z ) = 0 para un k 2 . Mostrar que U \ Aj 6=
(j = 0 1 2) para cada vecindario U de z!.
IV.2 Metodos Iterativos
R
con su algoritmo de resolucion incluido.
Teorema IV.2.1.- Sea f : I ;! continua y monotona, entonces
la ecuacion f (x) = 0 tiene () existen a < b 2 I , tales
una y una sola solucion que f (a)f (b) < 0.
Ademas si existiese la solucion, esta puede ser aproximada de manera
arbitraria con el algoritmo de la biseccion.
La primera observacion que se puede hacer al algoritmo de la biseccion
consiste en que este algoritmo construye subintervalos encajonados re-
duciendo la longitud de cada subintervalo de la mitad en cada iteracion.
Pero una de las interrogantes que uno se plantea, es cuando detener el al-
goritmo. En general, esto sucede cuando el valor absoluto de la funcion f
evaluada en las extremidades es menor a un valor de tolerancia prejado
con anterioridad. Ahora bien, si solamente se exige que f sea mononota y
continua puede pasar situaciones, como las del siguiente ejemplo.
IV.2 Metodos Iterativos 165
Ejemplo
R
Sea f : (;1 1) ;! denida por
f (x) = x100 g(x) (IV:2:4)
donde g es una funcion continua que no se anula en (;1 1). Es evidente
que, x = 0 es una raiz de la ecuacion f (x) = 0. Aplicando el algoritmo
de la biseccion con una tolerancia de 10;6 y tomando como puntos de
partida a = ;0 9 y b = 0:9 puede suceder que jf (x)j < TOL, dejando
una gran eleccion para escoger la raiz de f (x).
Por lo tanto, si no se tiene la hipotesis que f (x) sea derivable y que
f 0 (x) 6= 0 para x raiz de la ecuacion f (x) = 0, se debe tener mucho cuidado
en la determinacion de la solucion numerica del problema, para no cometer
grandes errores.
Metodo de la Falsa Posicion
En este paragrafo, se supondra que
f : #a b] ;! R
es dos veces continuamente derivable, que f 0 (x) no se anula en el intervalo
]a b# y ademas f (a)f (b) < 0.
La idea para obtener una valor aproximado de la raiz 0 de la ecuacion
f (x) = 0 en el intervalo I =]a b#, consiste en remplazar f por un polinomio
que toma los valores de f en determinados puntos de I . Como se ha visto en
la primera seccion de este captulo, las ecuaciones polinomiales mas simples
de resolver son las ecuaciones de primer grado y las ecuaciones cuadraticas.
Por razones de simplicidad en la formulacion, el metodo de la falsa posicion
sera estudiado tomando como polinomio, uno de primer grado. Sea L(x) el
polinomio de interpolacion de primer grado, tal que:
L(a) = f (a) L(b) = f (b) (IV:2:5)
ver en la gura IV.2.1.
y=L(x)
a ξ y=f(x) b
ξ0
R
Resolver el sistema no lineal para c1 c2 con el metodo iterativo.
4.- Sean J = #a b] un intervalo de en el cual la funcion dos veces
continuamente diferenciable f verica las relaciones jf 0 (x)j m,
jf 00 (x)j M , f (a)f (b) < 0. Mostrar que si 4Mm (b ; a) = q < 1 se
puede, por n aplicaciones sucesivas del metodo de la falsa posicion,
encontrar un intervalo de extremidades an , bn conteniendo la unica
raiz de f (x) = 0 en #a b], con
jbn ; an j 4Mm q2n :
IV.3 Metodo de Newton
R R R
velocidad de convergencia sea superior a los metodos anteriormente formu-
lados. Para tal efecto, considerese la funcion f : U n ;! n , U un
abierto de n , se supone ademas que f es continuamente derivable, y la
derivada en todo punto es inversible. Por consiguiente, se tiene el problema
f (x) = 0 (IV:3:1)
cuyas soluciones, si estas existen son localmente unicas, por el teorema de
las funciones inversas, dado en la seccion precedente. Supongase que este
problema tiene al menos una solucion, denotandola por x . Sea x 2 U
bastante proximo de x , aplicando la denicion de la derivada en el punto x
se obtiene
f (x ) = f (x) + f 0 (x)(x ; x) + O(kx ; xk2 )
de donde despreciando el termino que contiene O se obtiene la ecuacion lineal
dada por
f 0 (x)(x ; x) = ;f (x)
que por hipotesis tiene solucion y es unica. De donde, el metodo de Newton
tiene la formulacion siguiente, sea x0 un punto bastante proximo de la
IV.3 Metodo de Newton 175
solucion buscada x , xm se dene recursivamente, por las ecuaciones
f 0 (xm;1 )(xm ; xm;1 ) = ;f (xm;1 ): (IV:3:2)
Ejemplos
1.- Considerese la ecuacion de una sola variable dada por
f (x) = 2x ; tan x
para aplicar el metodo de Newton la derivada esta dada por
f 0 (x) = 2 ; 12
cos x
partiendo del punto inicial x0 = 1 2 se obtiene los siguientes valores
mediante el metodo de Newton.
Tabla IV.3.1. Valores obtenidos por el metodo de Newton.
k xk f (xk ) e2k =ek;1
0 1 2 ;0:172152
1 1:16934 ;1:69993 10;2
2 1:16561 ;0:213431 10;3 ;3:97664
3 1:16556 ;0:347355 10;07 ;3:44610
4 1:16556 ;:133227 10;14 ;3:38337
2.- Considerese el sistema de ecuaciones dado por
( 2 2
x +y ;4=0
:
xy ; 4 = 0
Las soluciones de este sistema de ecuaciones estan dadas por la inter-
seccion de una circunferencia de radio 2 y centro en el origen y una
hiperbola inclinada. Realizando un graco se puede observar que una
de las raices esta proxima al punto (0:5 2) que sera tomado como punto
inicial. La matriz derivada es igual a
f 0 (x y) = 2yx 2xy
utilizando el metodo de eliminacion de Gauss para calcular los valores
de (xk yk ) se obtiene la siguiente tabla con las primeras 23 iteraciones
del metodo de Newton.
176 IV Ecuaciones No Lineales
R R R
f : U n ;! n
donde U es un abierto de n , f es una funcion tres veces continuamente
derivable, cuya derivada es inversible para todo x 2 U . La derivada de f
en el punto x 2 U es una aplicacion lineal, cuya matriz respecto a la base
canonica esta dada por
0 @f1 @f1 1
B @x.. 1
f 0 (x ) = B
@xn C
.. C
@ @f.n . A
@fn
@x1 @xn
donde f1 : : : fn son las componentes de la funcion f la segunda derivada
de f en el punto x 2 U es una aplicacion bilineal simetrica, que respecto a
la base canonica, esta dada por
X 2f
f 00 (x)(h k) = @x@ @x (x)hi kj
R
ij i j
donde h k 2 n y los hi kj son las componentes de h y k respecto a las
bases naturales. Para mas detalle ver Cartan. El desarrollo de Taylor en x
esta dado por
f (x + h) = f (x) + f 0 (x)h + 12 f 00 (x)(h h) + O(khk3 ):
R R
Teorema IV.3.2.- Sean f : U n ;! n tres veces diferenciable, con
derivada inversible y x 2 U con f (x ) = 0. Si fxk g es la sucesion denida
por el metodo de Newton, entonces el error ek = xk ; x satisface
;
ek+1 = 12 f 0 (xk ) ;1 f 00 (xk )(ek ek ) + O(khk3 ): (IV:3:4)
Err de aprox
Err de redon.
R R
Teorema IV.3.3.- Newton-Misovski. Sean D n abierto y convexo,
f : D ;! n continuamente diferenciable, f 0 (x) inversible para todo x 2 D,
x0 2 D satisfaciendo las siguientes condiciones:
a) k4x0k , ;
b) (f 0 (y);1 f 0 x + t(x ; y) ; f 0 (x) (y ; x) !t ky ; xk2 , 8x y 2
D, t 2 #0 1]
c) := 21 ! < 1
d) := 1 ; < 1
R
e) B! (x0 ) = fx 2 n j kx ; x0 k g.
180 IV Ecuaciones No Lineales
Entonces:
i) La sucesion fxk g denida por el metodo de Newton se queda dentro
B (x0 ) y converge hacia una solucion x de f (x) = 0.
ii) Se tiene la estimacion k4xk k !2 k4xk;1 k2 .
iii) kxk ; x k ! 2
k k4xk;1 k :
2(1 ; )
2
Demostraci on.- Es claro por la denicion del metodo de Newton que si
fxk g es convergente, entonces el lmite de la sucesion es igual a x , donde
f (x ) = 0. Se mostraras la conclusiones por induccion. Se supone que
xk xk;1 2 D, para k 1, entonces
k4xk k !2 k4xk;1 k2
en efecto
k4xk k = (f 0 (xk ));1 f (xk )
#
= (f 0 (xk ));1 f (xk ) ; f (xk;1 ) ; f 0 (xk1 )4xk;1
Z 1
0
= f (xk ) f (xk;1 + t4xk;1 ) ; f (xk;1 ) 4xk;1 dt
0 0
0
Z 1
f 0 (xk ) f 0 (xk;1 + t4xk;1 ) ; f 0 (xk;1 ) 4xk;1 dt
Z01 2 ! 2
!t k4xk;1 k dt = 2 k4xk;1 k :
0
Se dene k recursivamente por
k = k2;1 0 = !2 = :
Si x0 x1 : : : xk 2 D, entonces
! k4x k
2 k k
R R
matriz M en lugar de f 0 (x), estan dadas por el siguiente teorema.
Teorema IV.3.4.- Newton-Kantorovich. Sean D n abierto y convexo,
f : D ;! n continuamente diferenciables, M (x0 ) inversible y x0 2 D.
Ademas:
a) M (x0 );1 f (x0 )
b) M (x0 );1 (f 0 (y) ; f 0 (x)) ! ky ; xk 8x y 2 D
c) M (x0 );1 (f 0 (x) ; M (x))
0 +
; 1 kx ; x0 k,
M (x0 );1(M (x) ; M (x0) kx ; x0k
d)
0 < 1, := max(! +
1 ) y
h= 1
(1 ;
0 )2 2
e) B (x0 ) D, con p
= 1 ; h1 ; 2h 1 ;
0
entonces:
i) M (x) es inversible para x 2 B (x0 ),
ii) La sucesion fxk g denida por (IV.3.10) se queda en B (x0 ) y converge
hacia una solucion x de f (x) = 0,
iii) Se dene !h = ! 2 = ! h,
(1 ;
0 )
p !
= 1 !h1 ; 2h 1 ;
0
entonces x 2 B (x0 ;) y no hay otra solucion de f (x) = 0 en
B (x0 + ) \ D.
186 IV Ecuaciones No Lineales
Antes de demostrar el teorema hay que remarcar que h! h cuya
vericacion es inmediata y tambien ; en efecto considerando los
desarrollos en serie de Taylor se tiene:
p X 1=2
1;x= j (;x)j = 1 ; x2 ; c2 x2 ; c3 x3 ;
j
0
con los cj 0,
p
1 ; 1 ; 2h = 1 + 4c h + 8c h2 + 16c h3 +
h 2 2 4
ρ_ D
x0 ρ
ρ
+
α α
α
1/μ 1/μ
ρ1 ρ2 1/μ
1 2 1 1 < 1 < 2 2 = 1
s0 = ky ; x0 k < + :
Se demuestra por induccion que:
kxk+1 ; xk k tk+1 ; tk
kxk ; x0 k tk
ky ; xk k sk ; tk
El siguiente paso en la demostracion consiste en estudiar las sucesiones ftk g
y sk . Se tiene:
tk+1 ; tk = !2 (t2k ; 2tk tk;1 + t2k+1 ) + !tk;1 (tk ; tk;1 ) +
0 (tk ; tk;1 )
tk+1 ; !2 t2k ;
0 tk = tk ; !2 t2k;1 ;
0 tk;1 =
sk ; tk = !2 (s2k;1 ; 2sk;1tk;1 + t2k;1 )+ !tk;1 (sk;1 ; tk;1 )+
0(sk;1 ; tk;1 )
sk ; !2 s2k;1 ;
0 sk;1 = tk ; !2 t2k;1 ;
0 tk;1 = :
192 IV Ecuaciones No Lineales
Deniendo la funcion -(t) por
-(t) = !2 t2 +
0 t +
entonces se obtiene, los resultados siguientes para sk y tk :
tk+1 = -(tk ) t0 = 0
sk = -(sk;1 ) s0 = ky ; x0 k < + :
Se tiene que, -0 (t) = !t +
0 0 si t 0, para estudiar la convergencia de
las sucesiones, se debe determinar los puntos jos de -, es decir resolver la
ecuacion ! t2 + (
; 1)t + = 0
2 0
las raices de esta, estan dadas por:
p !
! = 1 !h1 ; 2h
se puede observar, que la sucesion tk es creciente y tiende hacia ; , por otro
lado la sucesion sk es decrecientre y tiende hacia ;. Ver la gura IV.3.4
Ψ (t)
t
ρ ρ
− +
R
2 1
partiendo del punto (1 1) y tomando como dominio D = 2 , M (x) =
f 0 (x), es decir el metodo de Newton en su version no modicada, se
tiene:
= 0 37 ! = 1 2
0 = 0
1 = 0
= ! = 1 2:
Vericando y efectuando calculos se obtiene:
h = 0 444 1=2 = ; = 0 554 + = 0 981:
R 0 ;
R
con 0 <
1. La base teorica de esta modicacion esta dada por la:
Proposici on IV.3.5.- Sean D n , f : D ! 1
n continuamente diferen-
ciable, x0 2 D, f (x0 ) 6= 0 y p0 = ;(f (x0 )) f (x0 ). Entonces para toda
matriz A inversible, existe
0 > 0 tal que para todo
, 0 <
<
0 , se tiene
kAf (x0 +
p0 )k <
kAf (x0 )k :
194 IV Ecuaciones No Lineales
R R
Demostraci on.- Se dene la funcion g : ;! para una matriz A ja e
inversible, como
g(
) = kAf (x0 +
p0 )k22
= f (x0 +
p0 )t At Af (x0 +
p0 )
calculando la derivada de g, se obtiene:
g0 (
) = 2f (x0 +
p0 )t At Af 0 (x0 +
p0 )p0
g0 (0) = ;2f (x0)t At Af 0 (x0 )(f 0 (x0 ));1 f (x0 )
= ;2 kAf (x0 )k22 < 0
por consiguiente, existe
0 con las conclusiones requeridas por la proposicion.
R R
Otra de las motivaciones para modicar el metodo de Newton consiste
en el siguiente hecho. Sean D n , f : D ;! n continuamente
diferenciable con derivada inversible para todo x 2 D. Llamando p(x) =
;(f 0 (x));1 f (x) la direccion de Newton para la funcion f , se obtiene la
siguiente ecuacion diferencial
x0 = p(x): (IV:3:12)
Una manera de resolver numericamente esta ecuacion, ver Captulo VII,
consiste en aproximar la solucion mediante segmentos poligonales, es decir,
denir una sucesion de vertices, dados por
xk+1 = xk ;
k p(xk ) (IV:3:13)
este metodo de resolucion de ecuaciones diferenciales es conocido como el
metodo de Euler.
El metodo modicado se lo conococe como
-estrategia y su formulacion
es la siguiente:
.xk = ;(f 0 (xk ));1 f (xk ) (IV:3:14)
xk+1 = xk +
k .xk :
Si
k = 1 para todo k, se tiene el metodo de Newton usual. La otra situacion
es escoger
k , tal que
g(
) = kAf (xk +
k .xk )k ;! min (IV:3:15)
presentandose dos interrogantes:
>Como escoger la matriz A?
IV.3 Metodo de Newton 195
>Como calcular el mnimo de g(
)?
La eleccion de A, se la realiza considerando los siguientes hechos. Se
desea que
kxk +
k .xk ; x k ;! min
donde x es la solucion de f (x) = 0. No se conoce por el momento x , pero
se sabe f (x ) = 0. Se tiene, las siguientes aproximaciones:
f (x) ; f (x ) f 0 (x )(x ; x ) f 0 (xk )(x ; x )
con x = xk +
k .xk , de donde
xk +
k .xk ; x = (f 0 (xk ));1 f (xk +
.xk )
escogiendo, de esta manera
A = (f 0 (xk ));1 (IV:3:16)
Por lo tanto (IV.3.15), se convierte en g(
) = (f 0 (xk ));1 f (xk +
.xk ) y el
problema radica en determinar
, para que g(
) sea mnimo. A continuacion
se da un algoritmo simple que permite determinar este
:
Supongase que se conoce xk y una aproximacion
^k de
k . Se tiene dos
casos:
a) g(
^k ) 0, es decir xk +
^k es peor que xk .
Se busca el mas peque~no de los j > 1, tal que
g(
^k 2;j ) < g(0)
se plantea
k =
^k 2;j .
b) g(
^k ) < 0. Se busca el j > 0 mas peque~no tal que
g(2j+1
^k ) > g(2j
^k )
y se plantea
k = 2j
^k .
En ambos casos
k no debe ser mas grande que 1.
Finalmente surge la ultima interrogante, >Como determinar
^k ? Uti-
lizando un desarrollo de Taylor se tiene:
(f 0 (xk ));1 f (xk +
.xk ))
! 2 "
= (f 0 (xk ));1 f (xk ) +
f 0 (xk ).xk +
2 f 00 (xk )(.xk .xk ) + O(
3 )
196 IV Ecuaciones No Lineales
Por otro lado f (xk ) +
f 0 (xk ).xk = (1 ;
).xk y (f 0 (xk ));1 f (xk ) = .xk ,
de donde utilizando el desarrollo de Taylor, la desigualdad del triangulo y
las observaciones anteriores, se tiene
2
g(
) k.xk k (1 ;
+
2 hk + O(
3 ))
donde hk = (f 0 (xk ));1 f 00 (xk )(.xk .xk ) = k.xk k : Despreciando el ter-
mino O(
3 ), se obtiene un polinomio de grado 2, cuyo mnimo se encuentra
en
^k = h1 (IV:3:17)
k
faltando determinar hk . Como es practicamente imposible determinar con
exactitud hk solo se requiere encontrar una buena aproximacion de hk . Para
tal efecto, se supone que se ha efectuado k ; 1 iteraciones, teniendo:
.xk = ;(f 0(xk ));1 f (xk )
.d
xk = ;(f 0(xk;1 ));1 f (xk )
.d
xk ; .xk = (f 0 (xk;1 ));1 (f 0 (xk ) ; f 0 (xk;1 )).d
xk
0 ; 00
(f (xk;1 )) f (xk )(xk ; xk;1 .xk ):
1 d
Pasando a las normas se obtiene la siguiente relacion:
.dxk ; .xk k.hxkk k
k;1 k.xk;1 k .dxk
de donde
0 1
^k = min @1
k;1 k.xk;1 k k.xk k A : (IV:3:18)
.dxk ; .xk .dxk
Ejemplo
Considerese, la funcion f denida por
f (x) = ;29;+13xx1 ++ xx2((1
((5 ; x2 ) ; 2)
1 2 + x2 )x2 ; 14)
Tomando como valor inicial x1 = 0 5 y x2 = 2 24, se resolvera el
problema f (x) = 0, utilizando la
-estrategia, el metodo de Newton en
su version original. A continuacion se presentan los resultados obtenidos
para ambos:
IV.3 Metodo de Newton 197
Ejercicios
1.- Utilizando el teorema de Newton-Kantorovich encontrar > 0 tal que
la iteracion
zk+1 = zk ; ff0((zzk )) f (z ) = z 3 ; 1
CR
k
R
converge hacia 1, si z0 2 satisface jz0 ; 1j < .
2.- Sea D n y f : D ! n continuamente diferenciable. Para x0 2 D
supongase que f (x0 ) 6= 0 y que f 0 (x0 ) sea inversible. Mostrar que
p0 = ;f 0 (x0 );1 f (x0 )
es la unica direccion que tiene la propiedad siguiente:
para toda matriz inversible A existe
0 > 0 tal que para 0 <
<
0
kAf (x0 +
p0 )k2 < kAf (x0 )k2 :
3.- En el artculo
R.S. Dembo, S.C. Eisenstat & T. Steighaug(1982): Inexact Newton
methods. SIAM J. Numer. Anal., vol. 19,400-408.
200 IV Ecuaciones No Lineales
los autores consideran la modicacion siguiente del metodo de Newton:
f 0 (xk ).xk = ;f (xk ) + k
(IV:3:22)
xk+1 = x + l + .xk :
Las perturbaciones k pueden ser interpretadas como la inuencia de
los errores de redondeo, como el error debido a una aproximacion de
f 0 (xk ),... Supongase que k = (xk ) y que
k (x)k kf (x)k (IV:3:23)
con < 1.
R
a) Mostrar el resultado:
R
Sea D n abierto, f : D ! n y : D ! n continuamente R
diferenciables en D. Si la condicion (IV.3.23) es satisfecha con < 1
y si k.x0 k es sucientemente peque~no, entonces la iteracion (IV.3.21)
converge hacia una solucion de f (x) = 0.
b) El teorema precedente no es cierto, en general, si se remplaza < 1
por 1. Mostrarlo.
Indicacion. Encontrar una matriz M (x) tal que la iteracion (IV.3.21) se
vuelva equivalente a
M (xk ).xk = ;f (xk )
y aplicar el teorema de Newton-Kantorovich. Utilizar la norma
kukJ = kf 0 (x0 )uk :
4.- (U. Ascher & Osborne 1987). Considerar una funcion f :
satisfaga
R !R
2 2 que
p
1 4 p3 ; 3
f (0) = ; 10 ;4 3 ; 3 f 0 (0) = 10 01
1
4
1=p3 ;1=p3
f (u) = 5 ;3 0
f (u) = 1 1
donde u = ;f (0). Aplicar el metodo de Newton con el valor inicial
x0 = 0. Para la sucesion fxk g obtenida de esta manera mostrar:
a) xk+2 = xk para todo k 0
b) el test de monotonocidad
0 ;1
(f (xk )) f (xk+1 )2 < (f 0 (xk ));1f (xk )2
IV.3 Metodo de Newton 201
R R
es satisfecho en cada iteracion.
5.- Sea f : n ! n dos veces diferenciable. Mostrar que
kf 00 (x)(h k)k1 M khk1 kkk1
X X @ 2fi
donde M = max (x).
i j l @xj @xl
R
que el metodo de Newton converge hacia una solucion de f (x) = 0:
R
7.- Sean f : D ! n 3 veces continuamente diferenciable, Jk una aproxi-
macion de la matriz f 0 (xk ) y p 2 n p 6= 0. Para la aproximacion de
Broyden
t
Jk+1 = Jk + (f (xk + p) ; f (xk ) ; Jk p): pt
pp
se tiene:
a) (Jk+1 ; f 0 (x0 + p))p = (1 ; )(Jk ; f 0(xk ))p
+( 2 ; 1)f 00 (xk )(p p) + O(kpk3 ):
b) para 2 #0 2]
kJk+1 ; f 0 (x0 + p)k2 kJk ; f 0 (xk )k2 + kf 00 (xk )(p :)k2 + O(kpk2 ):
8.- Supongase que se conoce una aproximacion J0 de f 0 (x0 ), y su descom-
posicion LR. Considere la iteracion
Jk .xk ; = f (xk )
xk+1 = xk + .xk
donde Jk+1 (aproximacion de Broyden), esta denido por
Jk+1 .xk = Jk .xk + f (xk+1 )
Jk+1 p = Jk p si pt .xk = 0:
Sin calcular explicitamente J1 y J2 , encontrar formulas para .x1 y .x2 .
202
R R
IV Ecuaciones No Lineales
9.- Considerese una funcion f : n ! m donde m < n. El conjunto
E = x g(x) = 0g
fj
R R
representa una supercie en n .
Dado x^ 2 n . Proponer un algoritmo para calcular el punto de E el mas
proximo de x^. Estudiar las hipotesis para que el algoritmo converga.
10.- Considerese la ecuacion integrale de Fredholm (cf. Ejercicio 3 seccion
IV.3)
Z
y(x) = 2 (3 sin x sin t + 2 sin(2x) sin(2t))(y(t) + (y(t))3 )dt
R
0
(IV:3:24)
y(x) = 0 es solucion de (IV.3.24) para todo
2 . Con las ideas del
ejercicio 3 de la anterior seccion se puede escribir (IV.3.24) bajo la forma
G(c1 c2
) = 0:
Calcular los
, donde det @C @G (C 0) = 0:
Interpretar estos puntos con el teorema de las funciones implicitas.
(Soluciones:
1 = 2
2 = 3)
11.- Mostrar numericamente que para
1 =
1 + ( > 0) el problema
(IV.3.24) posee al menos 3 soluciones, para
1 >
2 al menos 5
soluciones.
Calcular tambien todas las soluciones de (IV.3.24) para
= 10, (hay
13).
IV.4 Metodo de Gauss Newton
R R
datos. El problema puede formularse de la siguiente manera. Sea
f : D n ! m con n m
el problema consiste en encontrar x 2 D, tal que
kf (x)k2 ;! min : (IV:4:1)
En el captulo II.5, se abordo el problema bajo su forma lineal, se
formulo el metodo QR para resolver este problema, y as mismo se introdujo
la nocion de pseudo-inversa de una matriz. Para el problema no lineal, se
R
sigue el mismo esquema. Pero antes de continuar en esa direccion, existe
una alternativa de solucion. Se dene la funcion g : D ! n de la manera
siguiente
g(x) = kf (x)k22 (IV:4:2)
de donde
g0 (x) = 2(f 0 (x))t f (x) (IV:4:3)
se busca, por consiguiente, los x 2 D tales que (f 0 (x))t f (x) = 0. En principio
se podra utilizar el metodo de Newton para resolver este problema, pero la
principal desventaja, consiste en calcular la segunda derivada de f . Este
algoritmo da los mnimos locales.
La otra alternativa de solucion de este problema, se la dio mas arriba,
es el metodo de Gauss-Newton. Al igual que en el metodo de Newton, la
idea principal de este metodo consiste en linearizar el problema. Sea x0 2 D
un valor inicial. Utilizando un desarrollo de Taylor en x0 se obtiene
kf (x)k22 = kf (x0 ) + f 0 (x0 )(x ; x0 ) + k22
considerando los terminos lineales del segundo miembro de la ecuacion se
obtiene, al igual que en el captulo II.5,
x ; x0 = ;f 0 (x0 )+ f (x0 ) (IV:4:4)
donde f 0(x0 )+ es la pseudo inversa de f 0 (x).
204 IV Ecuaciones No Lineales
Por lo tanto, se puede formular el metodo de Gauss-Newton, como:
.xk = ;f 0 (xk )+ f (xk ) (IV:4:5)
xk+1 = xk + .xk :
El calculo de .xk se lo realiza, utilizando la descomposicion QR dada en
el captulo II.5. Como se puede observar, la implementacion del metodo de
Gauss-Newton es muy simple, y al igual que el metodo de Newton existen
muchas variantes o modicaciones de este.
Convergencia del Metodo de Gauss-Newton
Sea, fxk g la sucesion denida por el metodo de Gauss-Newton, si esta
sucesion es convergente cuando k ! 1, se tiene
.xk ;! 0 f 0(x)+ f (xk ) ;! 0
supongase que klim
!1 k
x = x , que el rango de f 0 (x) es constante en un
vecindario de x , por que si no f 0 (x)+ no sera continua, ver teorema II.5.6,
entonces
f 0(x )+ f (x ) = 0: (IV:4:6)
Por otro lado, si x 2 D es un mnimo local de g(x) = kf (x)k22 , se tiene
!
@ X m
f ( x ) 2 = 2 X @fi (x) f (x) = 0 8j
m
@xj i=1 i i
i=1 @xj
de donde
f 0 (x)t f (x) = 0: (IV:4:7)
Los resultados (IV.4.6) y (IV.4.7) estan relacionados por el siguiente:
Proposici on IV.4.1.- Se tiene
f 0 (x)+ f (x) = 0 () f 0 (x)t f (x): (IV:4:8)
3.5
3.0
2.5
2.0
1.5
1.0
.5
.0
.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
Ejercicios
1.- Encontrar una elipse, una hiperbola, que pasa lo mejor posible por los
puntos (xi yi )i=1:::m . Por ejemplo m = 10 (;1=2 1), (;1=2 ;0:1),
(2:5 ;1), (1:5 1:5), (0:3 ;1:5), (0:5 ;2), (3 0:1), (3 ;0:3), (2:5 1),
(0:5 3:5).
Indicaciones.- Plantear
f (x y) = ax2 + 2bxy + cy2 + dx + ey + g
y encontrar a b c d e g tales que
X
m ;
f (xi yi ) 2 ;! min
i=1
bajo la condicion ac ; b2 = 1 para la elipse, y ac ; b2 = ;1 para la
hiperbola.
2.- Considerese el problema de localizar un barco en el oceano. Para
volver el calculo mas simple, se supondra que la curvatura terrestre
es despreciable y que todos los puntos estan situados en el sistema
de coordenadas rectangulares (x y). Sobre el barco, se mide el angulo
entre el eje x y las varias estaciones emisoras, cuyas coordenadas son
conocidas.
i xi yi i
1 8 6 42
2 ;4 5 158
3 1 ;3 248
212 IV Ecuaciones No Lineales
Teoricamente, la posicion (x y) del barco satisface la relacion
y ; yi
arctan x ; x = i 8i:
i
Encontrar la posicion probable de este. Las coordenadas aproximadas
del barco son x0 = 3 y0 = 2.
Atencion.- Hacer los calculos en radianes y utilizar siempre la misma
rama de la funcion arctan.
Captulo V
Calculo de Valores Propios
C C
Denici on V.1.1.- Sea A una matriz de n n a coecientes complejos o
reales.
2 es un valor propio, si existe x 2 n no nulo, tal que
Ax =
x: (V:1:1)
C C
Si este es el caso, x es un vector propio asociado al valor propio
.
Proposici on V.1.2.- Sea A 2 Mn( ),
2 es un valor propio, si y
solamente si
ker(A ;
I ) 6= f0g:
0
!1 0 1 0
1 1
BB
!2 0CCA BB@ 0
2 . . CCA
@ .. . .
!n 0
0
1
n 1 0
!1 0 1
=B
B 0
2 CC BB
!2 0C
CA
@ . .. A@ ...
0
n
!n
de donde
j
1 j2 = j
1 j2 + jj2 + + jj2
dando como resultado que la primera la fuera del coeciente de la diagonal
es nulo. Se continua con el mismo procedimiento hasta mostrar que B es
diagonal.
La condicion del Problema a Valores Propios
Sea, A una matriz cualquiera a coecientes complejos de orden n. Al igual que
en captulo II, es importante conocer la condicion del problema planteado,
es decir la determinacion de valores propios. Para tal efecto sea A! la matriz
con errores de redondeo de A, repasando la seccion II.1, se tiene que los
coecientes de A! satisfacen
a!ij = aij (1 + ij ) jij j eps
donde a!ij son los coecientes de A!, aij los coecientes de A y eps la precision
de la computadora. Por consiguiente, el estudio de los valores propios de A!
pueden estudiarse de manera, mas general, para A + C , con cij = eps ij de
donde jcij j jaij j. Deniendo
f (
) = det(A + C ;
I )
se tiene inmediatamente que
f (0
) = A (
):
Supongase que
1 es una raiz simple de A (
), entonces se tiene
f (0
1 ) = 0
@f (0
) 6= 0:
@
1
218 V Calculo de Valores Propios
Por el teorema de las funciones implcitas, se deduce que existe un vecindario
de (0
1 ) en el cual existe una funcion
(), tal que
f (
()) = 0
con
() =
1 +
01 + O(2 ):
Por consiguiente, se tiene el siguiente:
Teorema V.1.9.- Sea
1 una raiz simple de A(
), entonces para ! 0,
existe un valor propio
() de A + C , tal que
1
() =
1 + uu1Cv + O(2 ) (V:1:4)
1 v1
donde Av1 =
1 v1 y u1 A =
1 u1 , u y v no nulos.
Demostraci on.- Por el teorema, de las funciones implcitas se tiene
(A + C )v() =
()v()
mas precisamente
(A + C )(v1 + v10 + O(2 )) = (
1 +
01 + O(2 ))v1
comparando los terminos de igual grado en cada miembro de la ecuacion
anterior, se tiene:
0 : Av1 =
1 v1
1 : Av10 + Cv1 =
1 v10 +
01 v1
de donde
(A ;
1 I ) v10 = ;Cv1 +
01 v1
multiplicando esta ultima por u1 , se obtiene
0 = ;u1 Cv1 +
01 u1 v1 :
Ejemplos
1.- Se considera la matriz A denida por
1
A= 0 2 :
6.- Sea A una matriz simetrica. Para cada ndice i existe un valor propio
de A tal que sX 2
j
; aii j jaij j :
j 6=i
Indicacion.- Utilizar el ejercicio 5 con una matriz B conveniente.
V.2 Determinacion de Valores Propios
2 ,
k
1
donde Av1 =
1 v1 , Avj =
j vj ,
y0 = a1 v1 + a2 v2 + + an vn , y
T = (v1 vn ).
b) Se tiene el cociente de Rayleigh, dado por
!
yk Ayk =
+ O
2 k (V.2:2)
yk yk 1
1
si ademas, la matriz A es normal, entonces
!
yk Ayk =
+ O
2 2k : (V.2:3)
yk yk 1
1
224 V Calculo de Valores Propios
Demostraci on.- Los vectores v1 vn forman una base del espacio
de donde
C n,
y0 = a1 v1 + a2 v2 + + an vn
deduciendose
yk = a1
k1 v1 + a2
k2 v2 + + an
kn vn
por consiguiente
yk = a v + a
2 k v + + a
n k v
n
n
k1 1 1 2
1 2 1
con lo queda demostrado el punto a). Para la demostracion del punto b), se
tiene:
yk =
k1 a1 v1 +
k2 a2 v2 + +
kn vn
Ayk =
k1+1 a1 v1 +
k2+1 a2 v2 + +
kn+1 vn
X
yk yk =
!ki
kj vi vj a!i a!j
ij
X
y Ayk =
!k
k+1 v vj a!i a!j
k i j i
ij
obteniendo el cociente de Rayleigh, dado por
!
yk Ayk =
+ O
1 2
yk yk 1
2
ahora bien si A es normal, se tiene que vi vj = 0, si i 6= j obteniendo para
X
yk Ayk =
i j
i j2k vi vi
i
X
y yk = j
i j2k v vi :
k i
i
Ejemplo
Considerese, la matriz A denida por
02 1 0 0 01
B1 2 1 0 0C
A=B B@ 0 1 2 1 0CC
0 0 1 2 1A
0 0 0 1 2
V.2 Determinacio n de Valores Propios 225
utilizando el ejercicio 2 de la seccion V.1, se obtiene que el valor propio
mas grande esta dado por
p
1 = 2(1 + 23 ) 3 73205
Tomando y0 = (1 1 1 1 1)t, se obtiene los valores de
1 dadas en la
tabla V.2.1.
Tabla V.2.1. Valores de
1.
Iter.
1 Iter.
1
1 3:6 2 3:696969
3 3:721854 4 3:729110
5 3:731205 6 3:731808
7 3:731981 8 3:732031
9 3:732045 10 3:732049
11 3:732050 12 3:732051
13 3:732051 14 3:732051
Las componentes del valor propio respecto a
1 estan dados por
0 1:07735026 1
B 1:86602540 CC
v=B B@ 2:1547005 CA :
1:866025
1:07735026
Uno de los inconvenientes de utilizar el metodo de la potencia es que
la convergencia puede ser muy lenta si j
1 =
2 j 1. Sin embargo, existe una
modicacion del metodo de la potencia para acelerar la convergencia. Este
metodo es mas conocido como el:
M etodo de la Potencia Inversa
La modicacion consiste en aplicar el metodo de la potencia a
(I ; A);1
donde es una aproximacion del valor propio
buscado de la matriz A. La
justicacion teorica esta dada por la siguiente proposicion:
Proposici on V.2.2.-
es valor propio de A, si y solamente si,
1 (V:2:4)
;
O ;
:
1
2
Sea
! el valor propio mas grande de (I ; A);1 , entonces se tiene que
1 = ;
!1 : (V:2:5)
El metodo de la potencia da una relacion recursiva para los yk , que esta dada
por
yk+1 = (I ; A);1 yk
pero en lugar de calcular la inversa de la matriz, se puede resolver la ecuacion
(I ; A)yk+1 = yk (V:2:6)
utilizando para tal efecto el algoritmo de eliminacion de Gauss.
En el anterior ejemplo se tenia como valor de
1 = 3:697 despues de
2 iteraciones del metodo de la potencia inversa. Aplicando el metodo de la
potencia inversa con = 3:697, se obtiene despues de dos iteraciones:
! = ;232:83
1 = 3:7334052:
Puede suceder que la matriz A sea a coecientes reales, sin embargo, el
valor propio buscado no sea real si no que contenga una parte imaginaria.
Supongase que = + i sea una aproximacion del valor propio buscado.
Entonces aplicando el metodo de la potencia inversa, se tiene
;( + i)I ; Ay
k+1 = yk (V:2:7)
V.2 Determinacio n de Valores Propios 227
por otro lado los vectores yk pueden ser descompuestos en un vector real y
R
otro imaginario, de la manera siguiente
yk = uk + ivk uk vk 2 n
de donde, se obtiene una nueva formulacion para el metodo de la potencia
inversa, dada por
I ; A ;I u u
k+1 k
I I ; A vk+1 = vk
y el cociente de Rayleigh esta dado por
ykyk+1 = (utk ; ivkt )(uk+1 + ivk+1 )
yk yk utk uk + vkt vk
= (uk uk+1 + vk vkt+1 + i(utk vk+1 ; vk uk+1 ) :
t t t t
(V:2:8)
uk uk + vk vk
Formas Tridiagonales y Matrices de Hessenberg
El metodo de la potencia y su version de la potencia inversa son metodos
aplicables a matrices, donde el valor propio mas grande en valor absoluto
lo es estrictamente. Por otro lado es necesario darse un vector inicial cuya
proyeccion sobre el espacio propio, respecto a este valor propio sea no nula,
es decir se debe tener una idea clara de la posible ubicacion de los vectores
propios. Ahora bien, en muchos casos es necesario conocer los diferentes
valores propios, situacion que no es posible con las dos versiones del metodo
de la potencia estudiados mas arriba.
Una gran clase de metodos de calculo de valores propios estan dise~nados
para operar con matrices tridiagonales, sobre todo si estas son simetricas.
El objetivo de este paragrafo es construir algoritmos que permitan tridiago-
nalizar una matriz arbitraria, conservando las propiedades originales en los
casos en que sea posible.
Sea, A una matriz arbitraria de orden n n, se busca una transfor-
macion, T tal que
0 1
BB .. C
.C
T AT = H = B
;1 BB ... .. C
.C :
@ ... .. C
A
.
H es conocida bajo el nombre de matriz de Hessenberg. A continuacion, se
propone como algoritmo de reduccion a la forma de Hessenberg, utilizando
matrices de tipo L, del algoritmo de eliminacion de Gauss.
228 V Calculo de Valores Propios
Algoritmo 1.
1.- Sea A una matriz arbitraria,
se busca jak1 j = j=2
max j a j,
:::n j 1
se intercambia las las k y 2 y tambien las columnas k y 2,
se dene la matriz L2 por
01 01
BB 0 1 CC
L2 = B 0
B@ .. ; l 32 1 CC li2 = ai1 i = 2 : : : n
. .. A a21
.
0 ;ln2 1
se obtiene 0 1
BB CC
L2AL;2 1 = BB@ 0.. A(1)
CC :
. A
0
2.- Se aplica el paso 1 a la matriz A(1) , y se continua hasta obtener una
matriz de Hessenberg.
La principal desventaja de utilizar este primer algoritmo propuesto es
que, si A es una matriz simetrica, H no lo es en general. Recordando el
captulo II.5, existe el algoritmo QR para reducir una matriz A a la forma
triangular. Es facil vericar que H = Qt AQ es simetrica, si Q es ortogonal
y A es simetrica. Por consiguiente, el segundo algoritmo propuesto utiliza
matrices de Householder para convertir una matriz A en una matriz de
Hessenberg.
Algoritmo 2.
1.- Sea A una matriz arbitraria, que puede escribirse, como
A = aA110 aA10n
Se dene Q2 por
0
por consiguiente Ak 2 n; R
1 .
1
n
Q2 = 10 Q00
2
donde Q02 = I ; 2u2 ut2, u2 esta determinado por la condicion, ver
Captulo V.2,
0 2 1
BB 0. CC = signo a kA0 k
Q02 A01 = @ .. A 2 21 1 2
0
V.2 Determinacio n de Valores Propios 229
obteniendo 0 1
BB CC
Q2AQ2 = B
;1
B@ 0.. A(1) CC :
. A
0
2.- Se procede como en 1, hasta obtener la forma de Hessenberg.
Teorema de Sturm y Metodo de la Biseccion
Al utilizar el algoritmo 2, de la anterior subseccion, a una matriz A simetrica
se obtiene una matriz tridiagonal simetrica, que se la denota nuevamente por
A, para no cargar la notacion. Por consiguiente, A es de la forma
0 d1 e2 1
BB e2 d2 e3 CC
A=BBB e3 . . . ... CC :
C (V:2:9)
@ ... ... en A
en dn
Se dene, el polinomio p0 (x) por
p0 (x) = 1 (V:2:10)
y los polinomios pi (x) i = 1 : : : n, como
pi (x) = det(Ai ; xI ) (V:2:11)
donde
A = A0i 0
Ai es la matriz formada por las primeras i las y columnas de A. Por lo
tanto, se tiene
Pn (x) = det(A ; xI ): (V:2:12)
Por otro lado, los determinantes que denen estos polinomios cumplen la
siguiente relacion recursiva
det(Ai ; xI ) = (di ; x) det(Ai;1 ; xI ) ; e2i det(Ai;2 ; xI ) i = 2 3 : : : n
de donde
pi (x) = (di ; x)pi;1 (x) ; e2i pi;2 (x) i = 2 3 : : : n: (V:2:13)
230 V Calculo de Valores Propios
Teorema V.2.3.- Sea A una matriz tridiagonal y simetrica con los coe-
6 0 para i = 2 : : : n. Entonces:
cientes ei =
a) Las raices de pn (x) = A (x) son simples,
R R
b) p0n (
i ) pn;1 (
i ) < 0 si
i es una raiz de pn (x),
c) pj (x ) = 0 (1 j n ; 1 x 2 ) ) pj;1 (x )pj+1 (x ) < 0,
d) p0 (x) 0 para todo x 2 .
Demostraci on.- El punto d) se verica inmediatamente puesto que p0(x) =
1 por denicion.
La demostracion del punto c) se la realiza por el absurdo, en efecto,
si se tuviera pj (x ) = 0 y pj+1 (x ) = 0, utilizando (V.2.13), se tendra
p0 (x ) = 0 lo cual contradice el hecho que p0 (x ) = 1. Ahora bien, utilizando
nuevamente (V.2.13) se tiene en el caso en que pj (x ) = 0
pj;1 (x ) = ;e2n;j+1 pj+1 (x ):
El punto b) implica el punto a), ya que p0n (
i ) 6= 0 conduce a que
i sea
raiz simple. Solo queda el punto b) por demostrar.
Se dene, los polinomios:
qi (x) = (;1)i pi (x) e e 1 e i = 1 : : : n
2 3 i+1
q0 (x) = p0 (x)
donde en+1 = 1. Efectuando calculos sobre los polinomios qj (x), se tiene
(;1)i qi (x)e2 ei+1 =(di ; x)(;1)i;1 qi;1 (x)e2 ei
; e2i (;1)i;2 qi;2 (x)e2 ei;1
de donde
p0n (
i )pn;1 (
i ) < 0:
1 ,
2 : : :
n valores propios de A satisfacen
j
1 j > j
2 j > j
3 j j
n j :
Recordando el metodo de la potencia, se tiene la sucesion de los fyk g
denida por
yj+1 = Ayj
si y0 cumple ciertas condiciones, se tiene
j !
yj =
1 #a1 v1 + O
2
j
1
donde v1 es el vector propio asociado a
1 y a1 la componente de y0
respecto a v1 . Para evitar explosiones en los calculos de los yj se puede
mejorar el algoritmo de la potencia exigiendo que kyj k2 = 1, y ademas para
evitar oscilaciones en los yj , se plantea por consiguiente
Ay j
(Ayj )1
yj+1 = kAy k signo (y ) (V:2:18)
j 2 j 1
donde (yj )1 es la primera componente de yj . Puesto que los yj son de
norma igual a 1, haciendo referencia a vectores ortonormales, se cambia la
notacion de yj por qj , dando por consiguiente la siguiente denicion recursiva
para los qj :
234 V Calculo de Valores Propios
C
deniendo la aplicacion lineal f : V ;! V como f = p AjV donde p es
la proyeccion ortogonal de n en V , y AjV es la restriccion de A sobre el
espacio V se tiene el:
Teorema V.2.6.- Los valores propios de f son:
2 : : :
n, mas precisa-
mente se tiene
0
1 0 0 1
B
2 r22 r2n CC U v
f (v) = U B
@ ... A
n
donde v 2 V y 0
1 r12 r1n 1
B ... CC
U AU = B
B@ ... CA
n
es la descomposicion de Schur dada en teorema V.1.7.
V.2 Determinacio n de Valores Propios 235
Demostraci on.- Sea U = (u1 u2 : : : un) matriz unitaria con u1 = v1,
entonces cualquier elemento v 2 V se escribe, como
X
n
v= i ui
i=2
por consiguiente 001
B 2 CC
v = U con = B
@ .. A .
n
de donde f (v) = AU.
Ahora bien, si U es la matriz unitaria de la descomposicion de Schur de
A, se tiene 0
1 r12 r1n 1
B ... CC
f (v ) = U B
B@ ... CA U U
n
como U = v, se tiene despues de una simple vericacion que
0
1 0 0 1
B
2 r22 r2n CC U v:
f (v ) = U B
@ ... A
n
{z 2 }
Uj Uj+1
Rj+1
de donde planteando U0 = (q0 r0 ) con U0 U0 = 10 01 , el algoritmo de la
potencia generalizada, se expresa de manera matricial como
AUj = Uj+1 Rj+1
donde el segundo miembro no es nada mas que la descomposicion QR, pero
esta vez utilizando matrices unitarias.
Si la matriz A tiene sus n valores propios diferentes, y ademas que
verican
j
i j > j
2 j > > j
n j
V.2 Determinacio n de Valores Propios 237
el metodo de la potencia puede ser aplicado para calcular de manera
simultanea los n autovalores. Se toma U0 una matriz unitaria arbitraria
que puede ser por ejemplo U0 = I . Supongase que se ha calculado Rj y Uj ,
entonces se tiene
AUj = Uj+1 Rj+1 : (V:2:23)
Se puede demostrar que:
0
1 1
Rj ;! R = @ ... A
n
Uj ;! U
cuando j ! 1, donde AU = UR es la descomposicion de Schur.
El Metodo QR
Al nalizar la ultima subseccion, se dio una generalizacion del metodo de la
potencia. Por razones de presentacion, se vera en esta seccion un algoritmo
equivalente a este ultimo, conocido como el metodo QR.
La version simple del algoritmo QR es aplicable a matrices, cuyos valores
propios son reales y diferentes en valor absoluto, se lo dene recursivamente
de la siguiente manera:
A1 = A = Q1R1
(V:2:24)
Aj+1 = Rj Qj = Qj+1 Rj+1
donde Qj es una matriz ortogonal, y R es una matriz triangular superior. De
donde, este algoritmo es equivalente al metodo de la potencia generalizada.
En efecto, planteando
Uj = Q1 Qj
se tiene
Uj+1 Rj+1 = Q1 Q2 Qj Qj+1 Rj+1
| {z }
Rj Qj
llegando nalmente a
| {z1R}1 Q| 1Q2{z Q}j :
Uj+1 Rj+1 = Q
A Uj
Puesto que el metodo QR y el algoritmo de la potencia son equivalentes, es
facil ver que 0
1 1
Rj ;! R = @ ... A
n
Qj ;! I:
238 V Calculo de Valores Propios
Por otro lado, las matrices Aj+1 y Aj tienen los mismos valores propios, pues
Aj+1 = Qj Aj Qj
Indudablemente, el metodo QR es aplicable a toda matriz cuyos valores
propios son diferentes en modulo, sin embargo es conveniente reducir la
matriz A a una de tipo Hessenberg, ya que si A es una matriz de Hessenberg,
las matrices Ak construidas a partir del algoritmo QR lo son tambien, ver
ejercicio 5, ademas el costo de operaciones es menor.
El siguiente resultado, enunciado sin demostracion, indica la velocidad
de convergencia del metodo QR donde A es una matriz de tipo Hessenberg.
Esta relacion esta dada por
j +1)
a(nn
;1
n (V:2:25)
j)
a(nn ;1
n;1
es decir j !
a(j)
n
nn;1 = O
n;1 : (V:2:26)
Uno de los problemas con que se confronta es que la convergencia puede
ser demasiado lenta, sobre todo si j
n j j
n;1 j pero este inconveniente
puede superarse aplicando el algoritmo QR, en lugar de la matriz A, a
A ; pI (V:2:27)
donde p
n . p se lo conoce con el nombre de shift. En este caso la velocidad
de convergencia esta dada por
!
a(j)
n ; p j
nn;1 = O
n1 ; p : (V:2:28)
Ejercicios
1.- Calcular los valores propios y vectores propios de
02 1 1
A=B @ 10 21 122 1 CA
1 2
utilizando el metodo de la potencia inversa de Wielandt.
2.- Sea 0 88 ; 7p6 296 ; 169p6 ;2 + 3p6 1
B 360 p 1800p 225 p C
A=B 169 6 88 + 7 6 ;2 ; 3 6 C
B@ 296 +1800 360p 225 C A:
p
16 ; 6 16 + 6 1
36 36 9
Calcular
y una matriz T a coecientes reales, tal que
0 01
T ;1 = @ ; 0 A :
0 0
R R
Denici on VI.1.4.- Dada una funcion ' sobre un intervalo I de . Se dice
que una funcion : I ! es una primitiva de ' si, en todo punto x de I ,
R
la funcion es derivable y si 0 (x) = '(x).
Sea f : #a b] ! una funcion integrable en el sentido de Riemann, se
dene para todo x 2 #a b]
Zx
F (x) = f (t)dt:
a
Proposici on VI.1.5.- La funcion F es continua, ademas si la funcion
f es continua en un punto x de #a b], la funcion F es derivable en x y
F 0 (x) = f (x).
Corolario VI.1.6.- Una funcion continua sobre un intervalo compacto
admite una primitiva.
Las demostraciones de la proposicion y el corolario precedentes se las
puede encontrar en cualquier libro de Analisis. A continuacion, se enuncia
R
uno de los teoremas fundamentales del calculo.
Teorema VI.1.7.- Sea f : #a b] ! una funcion integrable en el sentido
de Riemann que, ademas admite una primitiva G. Para todo x 2 #a b], se
tiene: Zx
G(x) ; G(a) = f (t)dt:
a
Ahora bien, desde el punto de vista numerico, el calculo de primitivas
no tiene mayor utilidad practica, pues en la mayor parte de los casos
la determinacion analtica de estas es costosa en tiempo. El tratamiento
numerico que se realiza en el calculo de integrales esta basado en la misma
denicion de integral. Por consiguiente utilizando la denicion, se tiene que
8 > 0, existe S #a b] y i 2 #xi;1 xi ] tal que
X
n f (i )(xi ; xi;1 ) ; Z b f (x)dx <
i=1 a
de donde el enfoque numerico consiste en aproximar la integral utilizando,
sumas nitas de Riemann. Por otro lado, una de las tareas del Analisis
Numerico en lo que respecta el calculo de integrales, esta dada en la cons-
truccion de formulas de cuadratura con un costo razonable en operaciones,
y una precision aceptable en la determinacion de la integral.
246 VI Integracio n Numerica
A continuacion, se mostrara las formulas de cuadratura o de integracion
mas rudimentarias.
a) Regla del Punto Medio
Consiste en utilizar la suma de Riemann con i = xi;12+ xi , por
consiguiente
Xn x + x Zb
f i;12 i (xi ; xi;1 ) f (x)dx:
i=1 a
La regla del punto medio, da resultados exactos cuando f es un
polinomio de grado menor o igual a 1. Ver gura VI.1.1.
x0 x1 x2 x3 xn-1 xn
x0 x1 x2 x3 xn-1 xn
x0 x1
( xi;1 3+ 2xi f ( xi;1 3+ 2xi )) y (xi f (xi )). De la misma manera que en la
regla de Simpson, se calcula esta parabola cubica utilizando por ejemplo
la formula de Newton para determinar polinomios de interpolacion,
luego se integra para obtener
Z x1 ! "
f (x)dx 81 f (x0 )+ 38 f x0 + h31 + 83 f x0 + 2h3 1 + 18 f (x1 ) h1 :
x0
La regla de Newton es exacta para polinomios de grado menor o igual
a 3.
x0 x1
Formulas de Cuadratura
En los cuatro ejemplos precedentes de la anterior subseccion, puede obser-
varse claramente que las reglas de integracion formuladas tienen la misma
estructura, la cual dene tacitamente una formula de cuadratura. La mayor
R
parte de los metodos numericos estan basados en este principio.
Se desea integrar la funcion f : #a b] ! , donde f es Riemann
integrable. Para tal efecto se considera una subdivision
S = fa = x0 < x1 < < xn = bg :
La integral puede ser aproximada mediante la formula de cuadratura si-
guiente
Xn X s !
bi f (xj;1 + ci hj ) (VI:1:1)
j =1 i=1
los ci se llaman nudos de la formula de cuadratura y los bi son los coecientes
de la formula de cuadratura.
Para la regla del Trapecio, se tiene s = 2, b1 = b2 = 1=2 y c1 = 0, c2 = 1.
As mismo, para la regla de Simpson se tiene s = 3, b1 = b3 = j1=6, b = 4=6
y c1 = 0, c2 = 1=2, c3 = 1.
Dada una formula de cuadratura, uno de los objetivos principales es
medir la precision de esta. Por razones de simplicidad, es preferible estudiar
VI.1 Bases Teo ricas 249
R
la formula de cuadratura en una funcion f : #0 1] ! y considerar h1 = 1, es
decir integrar numericamente con un paso de integracion. Por consiguiente,
se analizara el problema
X
s Z1
bi f (ci ) f (x)dx:
i=0 0
R
Estimacion del Error
Dada una funcion f : #a b] ! , se quiere tener una estimacion del error
cometido por la utilizacion de una formula de cuadratura. Sea c1 : : : cs y
b1 : : : bs los coecientes y los nudos respectivamente, de una formula de
cuadratura dada. Por consiguiente, se tiene
Zb X
n X
s
f (x)dx = hj bi f (xj + ci hj ) =
a j =1 i=1
n "Z xj
X X
s #
h f (x)dx ; hj bi f (xj + ci hj ) :
j =1 xj;1 i=1
Para poder determinar el error, es decir la diferencia entre la integral y la
formula de cuadratura que aproxima la integral, se dene
Z x0+h X
s
E (f ) = f (x)dx ; h bi f (x0 + ci h): (VI:1:4)
x0 i=1
Habiendo denido E (f ), se puede determinar su valor, el cual esta dado en
el siguiente:
Teorema VI.1.12.- Sea f 2 C k #a b], es decir f k veces continuamente
derivable. Entonces, se tiene
;1 hj+1 " 1
kX X
s # Z1
E (f ) = j! j + 1 ; i=1 bi cji + hk+1 Pk (t)f (k) (x0 + th)dt
j =0 0
(VI:1:5)
VI.1 Bases Teo ricas 251
donde
k ;1 ! ( k;1 0
Pk (t) = E (x(k;;t)1)!
+ k;1 =
+ :
0 <0
c1 c2 cs 1
0
.6 .1 P2
P1
.4
.2
.0 .0
.0 .5 1.0 .0 .5 1.0
−.2
−.4
−.6 −.1
.01
P3 .004 P4
.003
.002
.001
.00 .000
.0 .5 1.0 .0 .5 1.0
−.001
−.002
−.003
−.004
−.01
10−10
Err
10−9
10−8
10−7
10−6
10−5
10−4
10−3
10−2
fe
10−1 0
10 101 102 103 104
Punto Medio Gauss de orden 4
Regla de Simpson
Regla de Newton
Ejercicios
1.- Calcular el orden de la regla de Newton:
(ci ) = (0 31 23 1) (bi ) = ( 81 38 38 18 ):
2.- Sean 0 c1 < c2 < < cs 1 dados. Mostrar que existe una formula
de cuadratura unica con nudos ci y con un orden s.
VI.1 Bases Teo ricas 257
3.- Mostrar que si la formula de cuadratura satisface
ci = 1 ; cs+1;i
y si es de orden s, entonces se tiene tambien
bi = bs+1;i :
4.- >Como se debe elegir c1 c2 ? para que la formula de cuadratura
b1 f (c1 ) + b2 f (c2 )
tenga un orden maximal. >Cual es el orden?, >La formula de cuadratura
es simetrica?
Z 2 dx
5.- Calcular = ln 2 mediante la regla del trapecio, la regla de Simpson
1 x
y la regla de Newton. >Cual formula es la mejor? Hacer un graco
logartmico para el numero de evaluaciones de la funcion f respecto
al error.
6.- Lo mismo que el ejercicio 5, pero para
Z 2
exp(sin x)dx:
0
7.- Calcular utilizando
Z 1 dx Z 1p
=4 2 y = 4 1 ; x2 dx:
0 1+x 0
>Por que el segundo resultado es menos bueno?
8.- Mostrar que el resultado obtenido por la regla del trapecio, o por la regla
de Simpson, es una suma de Riemann.
9.- Sean h = (b ; a)=n, xi = a + ih y
! "
T (h) = h 21 f (x0 ) + f (x1 ) + + f (xn;1 ) + 21 f (xn ) :
Demostrar que para f sucientemente derivable
Zb 2
f (x)dx ; T (h) = ; h12 (f 0 (b) ; f 0 (a)) + O(h3 ):
a
10.- Calcular los nucleos de Peano para la formula del ejercicio 4 y hacer sus
gracas.
11.- Calcular la expresion
R b
a f (x)dx ; T (h)
h2
para f (x) = 1=x, a = 1, b = 10 con varios valores de h. Vericar la
formula del ejercicio 9.
VI.2 Cuadraturas de Orden Elevado
Ejemplo
El ejercicio 4 de la seccion precedente demanda la construccion de una
formula de cuadratura del orden mas elevado posible. En consecuencia,
se dene
M (x) = (x ; c1 )(x ; c2 ):
Se tiene que la formula de cuadratura es de orden 3 si y solamente si
Z1
M (x)dx = 0
0
1 ; 1 (c + c ) + c c = 0
3 2 1 2 12
la formula de cuadratura es de orden mas grande o igual a 4, si ademas
Z0
xM (x)dx = 0
1
1 ; 1 (c + c ) + 1 c c = 0
4 3 1 2 212
obteniendo as un sistema de dos ecuaciones y dos incognitas. Una vez
determinados los ci , el siguiente paso es determinar los bi .
Polinomios Ortogonales
Uno de los mayores inconvenientes en la construccion de formulas de
cuadratura de orden elevado utilizando el teorema VI.2.1, consiste en el hecho
siguiente: se deben resolver sistemas de ecuaciones no lineales para determi-
nar los nudos de la formula de cuadratura. Esta claro que para formulas de
cuadratura con una cantidad no muy grande de nudos esto es posible, sin
embargo para s ya mas grande esto presenta una desventaja. En esta sub-
seccion se estudiaran polinomios ortogonales, cuyas raices son precisamente
los nudos.
260 VI Integracio n Numerica
R
Se iniciara esta subseccion, deniendo un conjunto de funciones particu-
lares. Sea ! : (a b) ! una funcion, llamada funcion de peso. Sea
(
E = f : (a b) ! j R Zb
a
!(x) jf (x)j2 dx < 1
)
: (VI:2:3)
Demostraci on.- Una vericacion simple sobre pk (x), muestra que se tratan
efectivamente de polinomios. Para la relacion de ortogonalidad con k dado,
es suciente mostrar que si q(x) es un polinomio de grado k ; 1 entonces
q ? pk . En efecto
Zb Z b dk
!(x)pk (x)q(x)dx = k !(x)(x ; a)k (b ; x)k q(x)dx
a a dx
k ;1 b
= d k;1 !(x)x ; a)k (b ; x)k q(x)
|dx {z a}
Z b dk;1 = 0
; !(x)x ; a)k (b ; x)k q0 (x)dx
a dxk;1
..
. Z b
=
!(x)x ; a)k (b ; x)k q(k) dx
a
= 0:
k Pk (x)
0 1
1 x
2 3 x2 ; 1
2 2
3 5 x3 ; 3 x
2 2
Puede observarse que si k es par, entonces Pk (x) = Q(x2 ) donde Q es un
polinomio de la misma manera si k es impar, se tiene que Pk (x) = xQ(x2 ).
Las Formulas de Cuadratura de Gauss
La vericacion del orden de una formula de cuadratura, se la realiza en el
intervalo #0 1]. Efectuando una transformacion afn, se tiene que M (x) del
teorema VI.2.1, es igual a
M (x) = (x ; c1 ) (x ; cs ) = Ps (2x ; 1) (VI:2:9)
con Ps el s-simo polinomio de Legendre, si se desea que orden de la formula
cuadratura sea al menos s. El siguiente teorema, tiene una importancia en
lo concerniente al orden de una formula de cuadratura.
Teorema VI.2.6.- El orden de una formula de cuadratura dada por (bi ci ),
i = 1 : : : s es menor o igual a 2s.
Demostraci on.- Por el absurdo. Supongase que existe una formula de
cuadratura de orden superior o igual a 2s +1, de donde para todo polinomio
l(x) de grado s, se tiene Z1
l(x)M (x)dx
0
VI.2 Cuadraturas de Orden Elevado 265
sin embargo, tomando l(x) = M (x) se tiene
Z1
M 2 (x)dx = 0
0
lo que conduce a una contradiccion
El objetivo, sera por consiguiente, encontrar una formula de cuadratura
de orden maximo, es decir 2s. Por la observacion hecha al inicio de esta
ultima subseccion, los nudos ci de la formula de cuadratura de orden s son
las raices de Ps (2x ; 1) polinomio de Legendre. Como consecuencia de lo
anteriormente expuesto se tiene el siguiente teorema formulado por Gauss
en 1814.
Teorema VI.2.7.- Una formula de cuadratura (ci bi), i = 1 : : : s es de
orden 2s si y solamente si c1 : : : cs son las raices de Ps (2x ; 1), Ps (t)
polinomio de Legendre y los bi estan determinados por
X
s
bi cqi ;1 = 1q q = 1 : : : s: (VI:2:10)
i=1
Por otro lado, debe observarse que los coecientes de una formula de
cuadratura de Gauss son extrictamente positivos, en efecto, se dene
Ys x ; cj
li (x) =
j=1 ci ; cj
j6=i
Ejercicios
1.- Para los polinomios de Legendre, demostrar que:
(k + 1)Pk+1 (x) = (2k + 1)xPk (x) ; kPk;1 (x)
(1 ; x2 )Pk0 (x) = ;kxPk (x) + kPk;1 (x):
268 VI Integracio n Numerica
2.- Los polinomios de Chebychef estan denidos por
Tk (x) = cos(k arccos x):
Vericar que:
T0 (x) = 1 T1 (x) = x
Tk+1 (x) = 2xTk (x) ; Tk;1 (x)
Z1 1
p Tk (x)Tj (x) para i 6= j:
;1 1 ; x2
3.- Calcular las raices de P8 (x) con un metodo iterativo, como por ejemplo
el metodo de la biseccion.
4.- Mostrar que el nucleo de Peano Pk (t) de una formula de cuadratura
satisface Z1 X
s
Pk (t)dt = k +1 1 ; bi cki :
0 i=1
5.- Sea p el orden de una formula de cuadratura y supongase que el nucleo
de Peano Pp (t) no cambia de signo sobre #0 1]. Mostrar que
Z x0+h X !
f (x)dx ; h
s
bi f (x0 + ci h) = hp+1 1 ;hXs
p (p)
x0 i=1 p + 1 i=1 bi ci f ( )
con 2 (x0 x0 + h).
Indicacion.- Utilizar el teorema VI.1.15 con k = p.
6.- Mostrar que para las formulas de cuadratura de Gauss de orden 2s, el
nucleo de Peano P2s (t) no cambia de signo.
VI.3 Implementacion Numerica
Ejemplo
Considerese, la funcion
(0)
;1
(0)
0
&
;1 ;;;;;;! (0)
(1)
% 1 & (0)
0 ;;;;;;! 2
(1)
100
k=0
−2
10
k=2
10−4
10−6 k=4
10−8 k=6
10−10
k=8
10−12
k=10
10−14
10−16
10−18
k=24 k=22
10−20
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Ejercicios
1.- Para una sucesion fSn gn
0 , el -algoritmo esta denido por:
(;n1) = 0
(0n) = Sn
(kn+1) = (kn;+1) 1 :
1 + (n+1)
k ; (kn)
Si la aplicacion del -algoritmo a fSngn
0 y a fS^n gn
0 = faSn + bg
proporciona respectivamente las cantidades (kn) y ^(kn) . Mostrar que
lim Sn0 ; S = 0:
n!1 S ; S
n
Indicacion.- Vericar que .Sn = ( ; 1 + n )(Sn ; S ) y encontrar una
formula similar para .2 Sn
VI.4 Transformacion de Fourier
R C
de convergencia que uno puede esperar obtener.
Teorema VI.4.2.- Dirichlet. Sea f : ! una funcion de clase C 1 por
R
trozos y periodica de periodo 2. La serie de Fourier de f es convergente en
todo punto de . En un punto x donde la funcion es continua, el lmite de
la serie es f (x). En un punto x donde f no es continua, la suma de la serie
es
1 (f (x ) + f (x )): (VI:4:5)
2 ; +
Ademas, la convergencia de la serie de Fourier de f es uniforme en todo
intervalo compacto que no contiene ningun punto de discontinuidad de f .
Demostraci on.- Una demostracion de este teorema puede encontrarse en
Gramain.
Con la formulacion de este teorema, se conoce la clase de funciones
de las cuales la serie de Fourier es igual a la funcion, en todo caso en los
puntos donde la funcion es continua. Es proposito de esta seccion estudiar
los metodos numericos que permitan calcular los coecientes de Fourier, y
por ende la serie de Fourier asociada. Una primera alternativa de calculo de
estos coecientes consiste en utilizar un metodo de integracion propuesto en
las secciones precedentes de este captulo. Sin embargo existen alternativas
C
menos costosas y mas simples que dan excelentes resultados.
Sea f : #0 2] ! , supongase que la funcion f (x) es conocida para los
x dados por la subdivision equidistante
xl = 2Nl l = 0 1 : : : N: (VI:4:6)
Como f (xN ) = f (x0 ) por hipotesis, el calculo de (VI.4.2) puede realizarse
mediante la regla del trapecio, obteniendo como aproximacion de f^(k)
NX
;1
f^N (k) = N1 f (xl )e;ikxl : (VI:4:7)
l=0
286 VI Integracio n Numerica
Ahora bien, (VI.4.7) induce las deniciones siguientes.
C
Considerese, el espacio de las sucesiones N -periodicas
PN = f(yk )k2Zjyk 2 yk+N = yk g: (VI:4:8)
Denici on VI.4.3.- La transformada discreta de Fourier (DFT) de y 2 PN
es la sucesion (zk )k2Z, donde
1 NX;1 1 NX;1
zk = N yl e; ikxl =N yl !;kl con ! = e2i=N :
l=0 l=0
Se la denota z = FN y.
Proposici on VI.4.4.- La transformada discreta de Fourier satisface las
siguientes propiedades:
a) Para y 2 PN , se tiene que FN y 2 PN .
b) La aplicacion Fn : PN ! PN es lineal y biyectiva.
c) La aplicacion inversa de FN esta dada por
FN;1 = N F!N (VI:4:9)
donde NX;1
! 1
(FN z )k := (FN z!)k = N zl !kl : (VI:4:10)
l=0
Demostraci on.- Utilizando el hecho que !N = e2i = 1 y !;lN =
(!N );l = 1, se obtiene
NX
;1 NX
;1
zk+N = N1 yl !;(k+N )l = N1 yl !;kl = zk
l=0 l=0
mostrando as la periocidad de zk . La linearidad de FN resulta de una
vericacion inmediata. Para mostrar la biyectividad y al mismo tiempo la
formula (VI.4.10), se calcula
1 NX;1
!
(FN FN y)j = N (FN y)k !kj
k=0
NX ;1 NX;1
= 12 y !;kl !kj
N k=0 l=0 l
1 NX ;1 1 NX ;1 !
= 2 y ! k ( j ;l )
N l=0 l N k=0
= N1 yj :
VI.4 Transformacio n de Fourier 287
La ultima igualdad de este calculo, es consecuencia de
NX
;1 NX
;1 N si m = 0modN
!km = (! m )k = !mN ;1
k=0 k=0 !m ;1 = 0 si no.
yl = f (xl ) xl = 2Nl l = 0 1 : : : N
R C
para una funcion f : ! que es 2-periodica. La formula siguiente des-
cribe como la transformada de Fourier discreta dada por (VI.4.7) aproxima
los coecientes de Fourier dados por (VI.4.2).
X
Teorema VI.4.5.- Si la serie f^(k) es absolutamente convergente, en-
k2Z
tonces X
f^n (k) ; f^(k) = f^(k + jN ): (VI:4:11)
j2 Z
j6=0
= 0 si no N
X
= f^(k + jN )
j 2Z
R C
Corolario VI.4.6.- Sea f : ! , p veces continuamente derivable (p 2)
y 2-periodica. Entonces,
R C
explicadas posteriormente.
X
Teorema VI.4.8.- Sea f : ! una funcion 2-periodica tal que f^(k)
R
k2Z
sea absolutamente convergente. Entonces, el polinomio trigonometrico dado
por (VI.4.15), para yl = f (xl ) satisface para todo x 2
X 0 ^
jpN (x) ; f (x)j 2pN (x) = f (k) : (VI:4:16)
jkj
N=2
Aplicaciones de la FFT
La transformada rapida de Fourier, tiene una gran cantidad de aplicaciones,
desde el calculo de espectrogramas, resolucion de ecuaciones diferenciales
ordinarias o a derivadas parciales, hasta la solucion de sistemas lineales.
Deniendo el producto de convolucion de dos sucesiones N -periodicas
y 2 PN y z 2 Pn , por
NX
;1
(y z )k = yk;l zl : (VI:4:20)
l=0
Se tiene la siguiente propiedad, ver ejercicio 1,
FN (y z ) = N FN y FN z (VI:4:21)
de donde (VI.4.20) puede ser calculado mediante O(N log2 N ) operaciones.
La resolucion de un sistema lineal con una matriz de Toeplitz circular
puede ser resuelto utilizando FFT. En efecto, un tal sistema es de la forma
0 a0 aN ;1 aN ;2 a1 1 0 x0 1 0 b0 1
BB a1 a0 aN ;1 a2 CC BB x1 CC BB b1 CC
BB a2 a1 a0 a3 CC BB x2 CC = BB b2 CC : (VI:4:22)
@ ... ..
. . .. A @ .. A @ .. A
.. . . .
aN ;1 aN ;2 aN ;3 a0 xN ;1 bN ;1
VI.4 Transformacio n de Fourier 293
Evidentemente, el sistema lineal (VI.4.22) es equivalente a a x = b, si se
considera (ai ), (xi ) y (bi ) como sucesiones de PN .
La multiplicacion de una matriz de Toeplitz arbitraria con un vector
0 a0 a;1 a;2 a;N +1 1 0 x0 1 0 b0 1
BB a1 a0 a;1 a;N +2 C B x1 C B b1 C
BB a2 a1 a0 aN +3 C CC BBB x2 CCC = BBB b2 CCC (VI:4:23)
@ ... ..
.
..
.
.. A @ .. A @ .. A
. . .
aN ;1 aN ;2 aN ;3 a0 xN ;1 bN ;1
puede ser resuelta utilizando FFT, considerando las sucesiones en P2N
a = (a0 a1 : : : aN ;1 0 a;N +1 a;N +2 : : : a;1 )
x = (x0 x1 : : : xN ;1 0 0 : : : 0):
Se puede vericar facilmente que el resultado del producto (VI.4.23) es la
primera mitad del producto de convolucion a x. Por consiguiente, el calculo
con FFT da un algoritmo rapido para efectuar el producto (VI.4.23).
Ejercicios
1.- Mostrar que
Fn (y z ) = N FN y FN z
para el producto de convolucion
NX
;1
(y z )k = yk;l zl
l=0
de dos suceciones N -periodicas. Deducir que
y z = N FN;1 (FN y FN z ):
R
En este captulo I , I0 designan intervalos abiertos de no reducidos a un
R R R
punto y t0 un punto jo de I0 se da una funcion f denida y continua sobre
I0 m con valores en m , un elemento y0 2 m , y se desea encontrar una
funcion y continua y derivable sobre el intervalo I0 , con valores en m , tal R
que:
y0 (t) = f (t y(t)) 8t 2 I0 (VII:1:1)
y(t0 ) = y0 : (VII:1:2)
Este problema se lo conoce con el nombre de problema de Cauchy para el
sistema diferencial (VII.1.1) la condicion (VII.1.2) se llama una condicion
de Cauchy. Una funcion y que satisface el sistema (VII.1.1) es llamada una
integral del sistema (VII.1.1). En numerosos ejemplos fsicos, la variable t
representa el tiempo, el instante t0 , es por consiguiente, llamado instante
inicial y la condicion (VII.1.2) llamada condicion inicial.
Se puede remarcar que si se denota por y1 y2 : : : ym las componentes
de y, por f1 (t y1 : : : ym) : : : fm (t y1 : : : ym) las componentes de f (t y)
la ecuacion (VII.1.1) es equivalente al sistema
8 y10 (t) = f1(t y1(t) : : : ym(t))
>
>
< y20 (t) = f2(t y1(t) : : : ym(t))
> .. : (VII:1:3)
> .
: y0 (t) = f (t y (t) : : : y (t))
m m 1 m
Las ecuaciones del sistema VII.1.3 son de primer orden, pues en estas, el
orden de derivacion mas alto que aparece es el primero. Considerese ahora
un problema diferencial de orden p, de la forma
y(p) (t) = f (t y(t) y0 (t) : : : y(p;1) ) (VII:1:4)
el cual puede convertirse en problema de la forma (VII.1.1), planteando
z1(t) = y(t) z2 (t) = y0 (t) : : : zp (t) = y(p;1) (t)
el problema diferencial (VII.1.4), por consiguiente es equivalente al sistema
8 z0 (t) = z (t)
> 1 2
>
< ..
. :
>
> z 0
p ;1 = zp (t)
( t )
>
: zp0 (t) = f (t z1(t) : : : zp(t))
VII.1 Generalidades 297
de donde planteando
z = (z1 z2 : : : zp )t y F (t z ) = (z2 : : : zp f (t z1 : : : zp ))t
se tiene
z 0(t) = F (t z (t)): (VII:1:5)
La condicion de Cauchy para el problema (VII.1.5) esta dada por
y(t0 ) y0 (t0 ) : : : y(p;1) (t0 ).
Ahora bien, en este captulo no sera tratado el problema diferencial
general de orden p, dado por
F (t y(t) y0 (t) : : : y(n)(t)) = 0 8t 2 I0 : (VII:1:6)
Cuando se puede aplicar el teorema de las funciones implicitas, (VII.1.6) es
localmente equivalente a la ecuacion de la forma (VII.1.4) y la teora que
sera desarrollada en este captulo podra ser aplicada a este tipo de problema
sin inconvenientes. Si el teorema de las funciones implicitas no es aplicable,
serias dicultades matematicas y numericas pueden aparecer, en este caso se
habla de ecuaciones diferenciales algebraicas, para saber mas sobre este tipo
de ecuaciones referirse a Hairer & Wanner.
Finalmente es necesario remarcar que, si bien I0 es un intervalo abierto,
el estudio de las soluciones de los problemas diferenciales permite considerar
los intervalos de la forma #t0 t0 + T ) y (t0 ; T t0], obteniendo el intervalo
abierto por recolamiento de ambos subintervalos semiabiertos.
Teoremas de Existencia y Unicidad
En esta subseccion se supondra que la terminologa basica es conocida por
el lector. No obstante, se enunciara dos teoremas muy importantes en lo que
concierne el analisis numerico de ecuaciones diferenciales. El primer teorema
a enunciarse da condiciones sucientes para asegurar la existencia y unicidad
de las soluciones de los problemas a valores iniciales. El segundo teorema
esta relacionado con la condicion misma del problema, pues cuando se trata
numericamente un problema es de suponer que se trabaja con una solucion
aproximada del problema.
R
Teorema VII.1.1.- Cauchy-Lipschitz. Supongase que f es continua sobre
I0 m y que satisface una condicion de Lipschitz, es decir que existe un
R
real L tal que
kf (t z ) ; f (t y)k L kz ; yk 8(t y) y (t z ) 2 I0 m (VII:1:7)
entonces el problema (VII.1.1,2) admite una solucion y una sola.
R
Demostraci on.- Se dara una demostracion directa que tiene la ventaja de
ser valida cuando se remplaza n por un espacio de Banach.
298 VII Ecuaciones Diferenciales
Paa jar las ideas, supongase que I0 = #t0 t + t0 ] y considerese la
aplicacion , que a y 2 C 0 (#t0 t + t0 ]) asocia ,(y) 2 C 0(#t0 t + t0 ]) denida
por Zt
,(y)(t) = y0 + f (s y(s))ds:
t0
Introduciendo la norma
kykL = max
s2I
(e;2L(s;t0 ) ky(s)k)
0
que dota C 0 (I0 ) de una estructura de espacio de Banach. Se tiene
Zt
k(,(y) ; ,(y ))(t)k kf (s y(s)) ; f (s y (s))k ds
Zt0t
Le2L(s;t0 ) ds ky ; y kL
t0
21 e2L(t;t0) ky ; y kL
deduciendose
k,(y) ; ,(y )kL 12 ky ; y kL :
El teorema del punto jo implica que , tiene un solo punto jo en C 0 (I0 ),
de donde se tiene el resultado.
R
Teorema VII.1.2.- Sea f : V ! n continua, donde V n+1 abierto. R
Supongase que: y(x) es una solucion de y0 = f (x y) sobre #x0 x!], tal que
y(x0 ) = y0
v(x) una solucion aproximada de la ecuacion diferencial sobre
#x0 x!0 ] tal que
kv0 (x) ; f (x v(x))k l
(VII:1:8)
y f satisface una condicion de Lipschitz sobre un conjunto que contenga
f(x y(x)) (x z (x))g, es decir
kf (x y) ; f (x z )k L ky ; z k : (VII:1:9)
Entonces
ky(x) ; v(x)k ky0 ; v(x0 )k eL(x;x0) + L
eL(x;x0) ; 1 : (VII:1:10)
R
y(x) = y(x + T ):
d) Determinar el parametro
2 p de la ecuacion
y0 = f (x y
)
R R
donde la solucion buscada verica y(a) = ya y g(y(a)) con g : n ! p .
Ahora bien, este problema puede expresarse como el problema diferencial
equivalente
y0 = f (x y
)
0 = 0
con condiciones de frontera
y(a) = ya
g(y(b)) = 0:
e) Problemas a frontera libre, son de la forma
y(0) = A
y00 = f (x y y0 ) y(l) = B
y0 (l) = 0
con l desconocido. Este problema mediante una transformacion afn de
x, puede expresarse de la siguiente forma
z0
00 2
z = l f lt z l
l 0 = 0
con condiciones de borde dadas por
z (0) = A z (1) = B z 0 (1) = 0:
En base a los ejemplos expuestos mas arriba, el problema diferencial con
valores en la frontera puede expresarse como
y0 = f (x y)
(VII:1:15)
r(y(a) y(b))
302
RR R R R R
VII Ecuaciones Diferenciales
donde f : n ! y r : n n ! n .
Por consiguiente la funcion r en los diferentes ejemplos, sera igual a:
y(a) y(b)) =y(a) ;
r( ya ejemplo a)
y 1 ( a ) y 1 ( b )
r y (a) y (b) = y (b) ; B y 1 ( a) ; A ejemplo b)
2 2 1
r(y(x0 ) y(x0 + T )) = y(x0 ) ; y(x0 + T ) ejemplo c)
Introduciendo la notacion siguiente
y(x a ya ) (VII:1:16)
para expresar la solucion y(x) que satisface y(a) = ya , el problema diferencial
con condiciones en la frontera consiste en encontrar ya , tal que
r(ya y(b a ya)) = 0: (VII1:17)
R R
Deniendo la funcion F : n ! n por
F (ya ) = r(ya y(b a ya)) (VII:1:18)
resumiendose el problema diferencial con valores en la frontera a encontrar
ya tal que
y0 = f (x y)
(VII:1:19)
F (ya ) = 0:
Supongase que y(x) sea una solucion de (VII.1.19), es decir ya = y (a),
ademas que F 0 (ya ) sea inversible, por el teorema de la inversion local la
solucion ya es localmente unica y por consiguiente y (x) lo es tambien.
La ecuacion F (ya ) se resuelve generalmente por un metodo iterativo,
si F no es lineal, se utiliza por ejemplo el metodo de Newton. Para poder
aplicar el metodo de Newton es necesario conocer F 0 (ya ). Ahora bien, se
tiene
@r (y y(b a y )) + @r (y y(b a y )) @y (b a y ): (VII:1:20)
F 0 (ya ) = @y a a @yb a a @y a
a a
R
i=1
donde los ei son los vectores de la base canonica de n . La matriz R(x x0 )
se llama el nucleo resolvente o la resolvente de la ecuacion (VII.1.22). Es
facil de vericar que
@y (x x y ) = R(x x ) (VII:1:24)
@y 0 0 0
0
Para el caso no lineal la situacion es un poco mas complicada. Se tiene
@y
@x (x x0 y0) = f (x y(x x0 y0 )) (VII:1:25)
suponiendo que @y=@y0 existe y el orden de derivacion conmuta, se obtiene
@ @y
@f
@y
@x @y0 (x x0 y0 ) = @y (x y(x x0 y0 )) @y0 (x x0 y0 )
con
@y
@y0 (x0 x0 y0 ) = I
@y (x x y ) es la resolvente de la ecuacion diferencial lineal
de donde @y 0 0
0
-0 = @f
@y (x y(x x0 y0 ))-: (VII:1:26)
Shooting Simple
Retomando el problema con valores en la frontera formulado bajo la forma
de las ecuaciones (VII.1.18) y (VII.1.19) puede ser resuelto utilizando el
metodo conocido como shooting simple, que en sntesis es utilizar un metodo
304 VII Ecuaciones Diferenciales
numerico para resolver (VII.1.19). Este metodo puede ser Newton u otro
metodo numerico adaptado al problema. Sin pretender dar una teora que
justique tal metodo, para tal efecto referirse a Stoer, se mostrara este
metodo implementado en ejemplos.
Ejemplos
a) Considerese el problema con valores en la frontera dado por:
y00 = ;ey
y(0) = 1 (VII:1:27)
y(1) = 21 :
Utilizando la notacion de la subseccion precedente, se plantea
y(x )
la solucion del problema diferencial a valores iniciales
y00 = ;ey
y(0) = 1 (VII:1:27b)
y0 (0) = :
El problema (VII.1.27) se traduce en encontrar , tal que
y(1 ) = 12 :
En la gura VII.1.1, puede observarse en la graca los valores de y(1) en
funcion de .
2 y(1)
0
0 2 4 6 8 10
α
−1
4 4
3 3
2 2
1 1
0 0
0 1
0
−3 −2 −1 0 1 2 3
−1
−2
−3
3
iter=0
2
0
0 20 40 60 80 100
3
iter=1
2
0
0 20 40 60 80 100
3
iter=2
2
0
0 20 40 60 80 100
3
iter=3
2
0
0 20 40 60 80 100
3
iter=4
2
0
0 20 40 60 80 100
3
iter=11
2
0
0 20 40 60 80 100
Por la simetra del problema, se puede deducir que el silo es una supercie
de revolucion, por lo tanto el problema puede expresarse de la manera
siguiente: Encontrar una funcion y(x), tal que
Z 10 p
y 1 + y02 dx ;! min
0
Z 10
y2 dx = 550
0
y(0) = 5
y(10) = 2:5:
Planteando
p
L(
y y0) = y 1 + y02 ;
y2 ; 55
el problema es equivalente, por los Multiplicadores de Lagrange a
Z 10
L(
y y0 )dx ! min :
0
Ejercicios
1.- Resolver: p
y0 = ;x signo(y) jxj
y0 = exp(y) sin(x)
y0 = (x ; y + 3)2 :
Dibujar los campos de vectores.
2.- Dibujar el campo de vectores de la ecuacion
p
xy0 = x2 ; y2 + y:
Encontrar una formula explicita para las soluciones.
3.- La ecuacion de un cuerpo en caida libre esta dada por
r00 = ; M2 r(0) = R r0 (0) = v0 : (VII:1:39)
r
312 VII Ecuaciones Diferenciales
Plantear r0 = p(r), deducir una ecuacion diferencial para p y resolverla.
Encontrar una condicion para v0 , tal que r(t) ! 1 si t ! 1. Calcular las
soluciones de (VII.1.39) que tienen la forma a(b x) .
4.- Transformar la ecuacion de Bernoulli
y0 + 1 +y x + (1 + x)y4 = 0
en una ecuacion lineal. Plantear y(x) = z (x)q con q conveniente.
5.- Resolver la ecuacion de Riccati
y 0 = y 2 + 1 ; x2 : (VII:1:40)
Dibujar el campo de vectores considerando las curvas donde y0 = cons,
las isoclinas. Deducir una solucion particular (x) de (VII.1.40). Calcular
las otras soluciones mediante la transformacion z (x) = y(x) ; (x):
6.- Encontrar la solucion de
0 x =2
y00 ; 3y0 ; 4y = g(x) g(x) = cos0x =2 x
que satisface y(0) = y0(0) = 0.
7.- Resolver las ecuaciones lineales
y0 = ;32 ;63 y y0 = 14 ;1
;3 :
VII.2 Metodo de Euler
y(x)
x1 x2 x3 x4 x5 x6
R R
La unicidad del punto c) ha sido ya demostrada en el corolario VII.1.12
Corolario VII.2.4.- f : U ! n (U n ) continuamente diferenciable.
D = f(x y)jx0 x x0 + ky ; y0 k bg U :
VII.2 Metodo de Euler 317
(x y) L, @f (x y) M .
Sobre D se tiene kf (x y)k A, @f
@y @x
Entonces
ky(x) ; yh(x)k M +L AL eL(x;x0) ; 1 jhj (VII:2:10)
donde y(x) es solucion de y0 = f (x y), y(x0 ) = y0 .
Demostraci on.- Remontando la demostracion del teorema precedente, se
tiene L(x;x0)
kyh(x) ; y(x)k e L ; 1 :
Puesto que f es diferenciable, se tiene
kf (x y) ; f (!x y!)k L ky ; y!k + M jx ; x!j
A jhj + jhj
de donde planteando = (LA + M ) jhj se tiene (VII.2.10).
Efectos de los Errores de Redondeo
Generalmente no se puede calcular la solucion exacta del esquema (VII.2.4)
se calcula solamente la solucion del esquema perturbado dado por
yn +1 = yn + hn f (tn yn ) + hn n + %n (VII:2:11)
donde n designa el error con el cual es calculado la funcion f y %n los errores
de redondeo cometidos por la computadora. Se supondra que jn j y
j%n j %.
Con la hipotesis suplementaria que f es continuamente diferenciable,
como en en el corolario VII.2.4, se tiene planteando en = yn ; yn y
sustrayendo (VII.2.11) con (VII.2.4),
en+1 = en + hn #f (tn yn ) ; f (tn yn )] + hn n + %n : (VII:2:12)
Puesto que f es diferenciable, se obtiene de (VII.2.12) el siguiente esquema
en+1 = en + hn # @f 2
@y (tn yn)en ] + hn n + %n + O(kenk ): (VII:2:13)
h
Figura VII.2.2. Error de Redondeo en el Metodo de Euler.
La pregunta natural que surge es: >Cual es el h mnimo que se puede
tomar sin que el error de redondeo sea preponderante? La respuesta a esta
VII.2 Metodo de Euler 319
pregunta tiene dos fuentes, la primera que radica en la practica numerica,
y la segunda en un analisis sobre el origen de los otros errores que ocurren
durante la implementacion del metodo. Ambos estudios llegan a la conclusion
de
hmin C peps (VII:2:16)
donde eps es la precision de la computadora.
Las mayoraciones que se acaban de dar son por lo general demasiado
pesimistas, por ser rigurosos matematicamente, uno se situa en la situacion
mas desfavorable posible. Por otro lado si se toma h muy peque~no, inferior
a eps, el algoritmo se mantiene estacionario.
Estabilidad del Metodo de Euler
En la anterior subseccion se pudo observar la incidencia directa del error de
redondeo. En esta parte se analizara la propagacion del error de redondeo
en la solucion numerica. Considerese el problema siguiente
y0 =
y y(0) = y0 : (VII:2:17)
El metodo de Euler con paso constante, da el siguiente esquema
yn+1 = yn + h
yn (VII:2:18)
supongase que en lugar de y0 , se introduce una aproximacion y!0 , planteando
en = y!n ; yn donde y!n es la solucion numerica de la ecucion (VII.2.17) con
valor inicial y!0 . Los en verican la siguiente relacion:
en+1 = en + h
en e0 = (!y0 ; y0 )
de donde
en = (
h + 1)n e0 : (VII:2:19)
Por consiguiente, el esquema (VII.2.17) sera estable siempre y cuando
lim e = 0
n!1 n
situacion que sucede cuando j
h + 1j < 1. Por consiguiente, para obtener un
metodo estable es necesario que
hmax = j
2j : (VII:2:20)
Por lo expuesto en la anterior subseccion y en esta, se tiene necesariamente
que la longitud de paso esta acotada inferiormente e superiormente. La
cota inferior impide que el error de redondeo distorsione completamente
320 VII Ecuaciones Diferenciales
la solucion numerica del problema, mientras que la cota superior en los
problemas lineales impide que el metodo diverga. La idea de estabilidad
puede generalizarse a problemas diferenciales lineales de mayor dimension.
Por ejemplo, considerese el problema
y0 = Ay y(0) = y0 :
Con el procedimiento utilizado anterioremente e introduciendo normas en
los lugares apropiados es facil mostrar que el metodo de Euler es estable si
(A + I )h < 1 (VII:2:21)
donde (A + I ) es el radio espectral de la matriz A + I . Planteando z =
h,
se tiene estabilidad en el metodo, si y solamente si jz + 1j < 1. De donde, se
tiene denida una region de estabilidad, dada en la gura VII.2.3, la parte
achurada del crculo corresponde a la region donde el metodo es estable.
−1 1
−i
Ejercicios
1.- Aplicar el metodo de Euler al problema
y0 = y2 y(0) = 1:
Evaluar y(1=4).
Utilizar pasos constantes, (por ejemplo h=1/6). Estimar el error con el
corolario VII.2.4. Comparar esta estimacion con el error exacto.
2.- Demostrar el resultado siguiente: Si el problema
R R
y0 = f (x y) y(x0 ) = y0
con f : U ! n continua, U n abierto y (x0 y0 ) 2 U posee una
y una sola solucion sobre el intervalo I , entonces los polgonos de Euler
yh (x) convergen uniformemente sobre I hacia esta solucion.
3.- Aplicar el metodo de Euler al sistema
y10 = ;y2 y1 (0) = 1
y20 = y1 y2 (0) = 0:
Utilizar pasos constantes para encontrar una aproximacion de la solucion
en el punto x = 0:4. Estimar el error como en el ejercicio 1 y compararla
con el error exacto. La solucion exacta es y1 (x) = cos x, y2 (x) = ; sin x.
VII.3 Metodos de Runge-Kutta
x0 x0 +h/2 x 0 +h
Figura VII.3.1 Metodo de Runge
Kutta en 1901, generalizo la idea de Runge, conduciendo a la denicion
siguiente de los metodos que llevan sus nombres.
Denici on VII.3.1.- Un metodo de Runge-Kutta a s pisos, esta dada por:
k1 = f (x0 y0)
k2 = f (x0 + c2 h y0 + ha21 k1 )
k3 = f (x0 + c3 h y0 + h(a31 k1 + a32 k2 ))
.. (VII:3:6)
.
ks = f (x0 + cs h y0 + h(as1 k1 + + ass;1 ks;1 ))
y1 = y0 + h(b1 k1 + + bs ks )
VII.3 Metodos de Runge-Kutta 325
donde los ci aij bj son coecientes. El metodo se representa por el esquema
c1 = 0
c2 a21
c3 a31 a32
.. .. .. . . (VII:3:7)
. . . .
cs as1 as2 ass;1
b1 b2 bs;1 bs
Los metodos de Euler, como tambien los metodos de Runge y Heun estan
dados en la tabla III.3.1
Tabla III.3.1. Primeros metodos de Runge-Kutta
0
0 1=3 1=3
0 1=2 1=2 2=3 0 2=3
1 0 1 1=4 0 3=4
Euler Runge Heun
Por razones de cuadratura, se supondra siempre que los ci satisfacen siempre
X
i;1
c1 = 0 ci = aij i = 2 : : : s: (VII:3:8)
j =1
La denicion de orden de cuadratura para las formulas de cuadratura,
puede extenderse a los metodos de Runge-Kutta de la siguiente manera.
Denici on VII.3.2.- Se dice que el metodo de Runge-Kutta dado por
(VII.3.6) tiene el orden p si, para cada problema y0 = f (x y), y(x0 ) = y0
con f sucientemente derivable, el error despues de un paso satisface
y1 ; y(x0 + h) = O(hp+1 ) cuando h ! 0: (VII:3:9)
La diferencia (VII.3.9) se llama error local del metodo.
El metodo de Euler es un metodo de orden 1, por que
y(x0 + h) = y0 + hy0 (x0 ) + O(h2 ) = y0 + hf (x0 y0 ) + O(h2 ) = y1 + O(h2 ):
326 VII Ecuaciones Diferenciales
El metodo de Runge esta basado sobre la formula del punto medio que es
una formula de cuadratura de orden 2:
y(x0 + h) = y0 + hf (x0 + h=2 y(x0 + h=2)) + O(h3 ):
Remplazando y(x0 + h=2) por el valor y0 + (h=2)f (x0 y0 ) del metodo de
Euler, se agrega un termino de tama~no O(h3 ). Entonces, este metodo tiene
orden p = 2.
El metodo de Heun, ver tabla VII.3.1, se obtiene a partir de la formula
de cuadratura
h
2h 2 h
y(x0 + h) = y0 + 4 f (x0 y0 ) + 3f x0 + 3 y(x0 + 3 ) + O(h4 )
si se remplaza y(x0 + 2h=3) por la aproximacion del metodo de Runge. De
donde el metodo de Heun tiene el orden p = 3.
Utilizando la suposicion (VII.3,8) que es una condicion simplicadora,
se tiene la siguiente proposicion.
Proposici on VII.3.3.- La condicion (VII.3.8) implica que es suciente
considerar problemas autonomos de la forma y0 = f (y) para vericar la
condicion de orden.
Demostraci on.- Se supone que (VII.3.9) es satisfecha para los problemas
autonomos de la forma y0 = F (y), y(x0 ) = y0 .
Considerese un problema de la forma y0 = f (x y), y(x0 ) = y0 , el cual es
equivalente al problema
y_ = f (x y) y(0) = y0
x_ = 1 x(0) = 0
obteniendo as
x 1
0
Y = F (Y ) donde Y = y F (Y ) = f (x y) (VII:3:10)
con valor inicial Y0 = (x0 y0 )t . La aplicacion del metodo de Runge-Kutta al
problema (VII.3.10) da
0 1 x
X
i;1 X
s
Ki = F @Y0 + h aij Kj A = k1 Y1 = Y0 + h bi Ki = y1
j =1 i i=1 1
Metodos Encajonados
Para resolver un problema realista, un calculo a paso constante es en
general ineciente. Existen diversas causas para esta ineciencia: la primera
es que se debe conocer a priori una estimacion del error local cometido,
lo cual es complicado en general ocasionando una perdida de generalidad
en los programas a implementarse. La otra razon fundamental que existen
intervalos donde los pasos de integracion pueden ser de longitud mayor. El
principal problema reside en como escoger los pasos de integracion. La idea
que puede resolver satisfactoriamente estos problemas consiste en escoger
pasos de integracion de manera que el error local sea en todo caso inferior o
igual a Tol dado por el utilizador. Motivo por el cual es necesario conocer
una estimacion del error local. Inspirados en el programa GAUINT descrito
en VI.3, se construye un metodo de Runge-Kutta con y^1 como aproximacion
numerica, y se utiliza la diferencia y^1 ; y1 como estimacion del error local
del metodo menos preciso.
Se da un metodo de orden p a s pisos, con coecientes ci aij bj . Se busca
un metodo de orden p^ < p que utiliza las mismas evaluaciones de f , es decir
y^1 = y0 + h(^b1 k1 + + ^bs ks ) (VII:3:19)
VII.3 Metodos de Runge-Kutta 331
donde los ki estan dados por (VII.3.3). Para tener mas libertad, se agrega a
menudo un termino que contenga f (x1 y1 ) a la formula (VII.3.19), de todas
maneras se debe calcular f (x1 y1 ) para el paso siguiente, determinando as
y^1 , como
y^1 = y0 + h(^b1 k1 + + ^bs ks + ^bs+1 f (x1 y1 )): (VII:3:20)
Un tal metodo encajonado puede ser representado en forma de un esquema,
ver la tabla VII.3.3.
Tabla VII.3.3. Metodos encajonados
c1 = 0
c2 a21
c3 a31 a32
.. .. .. ...
. . .
cs as1 as2
ass;1
(1) b1 b2 bs;1 bs
^b1 ^b2 ^bs;1 ^bs (^bs+1 )
El siguiente paso es la determinacion del h optimal. Si se aplica el metodo
con un valor h, la estimacion del error satisface
y1 ; y^1 = (y1 ; y(x0 + h)) + (y(x0 + h) ; y^1) = O(hp+1 ) + O(hp^+1 ) Chp^+1 :
(VII:3:21)
El h optimal, denotado por hopt , es aquel donde esta estimacion es proxima
de Tol, es decir
Tol Chpopt
^+1 : (VII:3:22)
Eliminando C de las dos ultimas formulas, se obtiene
s
hopt = 0:9 h p^+1 Tol : (VII:3:23)
ky1 ; y^1 k
El factor 0:9 se lo agrega para volver el programa mas seguro.
Algoritmo para la selecci on autom atica de paso.
Al iniciar los calculos, el utilizador provee una subrutina que calcule el valor
de f (x y), los valores iniciales x0 y0 y una primera eleccion de h.
A) Con h, calcular y1 , err = ky1 ; y^1 k y hopt dado por (VII.3.23).
B) Si err Tol, el paso es aceptado, entonces
x0 := x0 + h y0 := y1 h := min(hopt xend ; x0 )
332 VII Ecuaciones Diferenciales
si no el paso es rechazado
h := hopt:
C) Si x0 = xend se ha terminado, si no se recomienza por (A) y se calcula
el paso siguiente.
La practica numerica muestra que es aconsejable remplazar (VII.3.23)
por
hopt = h min 5 max(0:2 0:9(Tol=err)1=p^+1 :
Para la norma dada en la relacion (VII.3.23), se utiliza en general
v
u n y ; y^ 2
u X
ky1 ; y^1 k = t 1 i1 i1 donde sci = 1 + max(jyi0 j jyi1 j):
n i=1 sci
(VII:3:24)
En la literatura especializada, estos metodos encajonados con control
de paso automatico, se los denota por RKpp^ donde RK son las iniciales
de Runge-Kutta y p, p^ son los ordenes de los metodos encajonados. En la
actualidad la utilizacion de tales metodos es muy comun. En la tabla VII.3.4
se da el esquema del metodo de Dormand-Prince RK54 este metodo es
analizado minuciosamente en Hairer & Wanner.
Tabla VII.3.4. Metodo Dormand-Prince 5(4)
0
1 1
5 5
3 3 9
10 40 40
4 44 ; 56 32
5 45 15 9
8 19372 ; 25360 64448 ; 212
9 6561 2187 6561 729
1 9017 355 46732 49 ; 5103
3187 ; 33 5247 176 18656
35 500 125 2187 11
1 384 0 1113 192 ; 6784 84
y1 38435 0 500 125 ; 2187 11 0
1113 192 6784 84
5179
y^1 57600 0 7571 393 ; 92097 187 1
16695 640 339200 2100 40
VII.3 Metodos de Runge-Kutta 333
En el ejemplo siguiente se detallara la construccion de un metodo
encajonado con seleccion de paso automatico. Por razones de simplicidad, se
considerara un metodo RK32.
Ejemplo
Tomese un metodo de orden p = 3 a s = 3 pisos, que en este caso sera el
metodo de Heun, ver tabla VII.1.1 y se buscara un metodo encajonado de
orden p^ = 2 de la forma (VII.3.20), es decir se aumenta s de 1, agregando
un (s + 1)-emo piso con los coecientes as+1i , para i = 1 : : : s.
De esta manera se obtiene el siguiente sistema de ecuaciones para los
coecientes ^bi , el cual esta dado por:
^b1 + ^b2 + ^b3 + ^b4 = 1
1 ^b + 2 ^b + ^b = 1 :
32 33 4 2
Puedo observarse que para que el metodo encajonado tenga un orden
igual a 2, se requieren 2 condiciones, quedando as dos grados de libertad.
Al igual que en el metodo de Heun, puede plantearse ^b2 = 0, ^b4 puede
escogerse libremente, por ejemplo ^b4 = 1=2 de donde por la segunda
ecuacion se deduce facilmente que ^b3 = 0 y por la primera ecuacion
^b1 = 1=2. Por lo tanto se obtiene el esquema dado en la tabla VII.3.5.
Soluciones Continuas
Uno de los incovenientes mayores de los metodos formulados en esta seccion
consiste en el hecho que estos dan las soluciones en un conjunto discreto
de puntos. Una primera alternativa es unir estas soluciones con polgonos,
si los puntos donde el metodo ha dado las soluciones. El resultado no es
satisfactorio desde varios puntos de vista. Si el metodo es de orden elevado
la interpolacion lineal, vista en el Captulo III, tiene como efecto la perdida
de precision. Desde el punto de vista graco las soluciones dejan de ser
334 VII Ecuaciones Diferenciales
lisas. Debido a estas dos razones expuestas es necesario complementar estos
metodos con alternativas que permitan dar soluciones densas.
Existen varias alternativas validas que permiten subsanar esta falencia
de los metodos de Runge-Kutta. La primera consiste en la construccion de los
metodos de Runge-Kutta Continuos. Para tal efecto, se considera un metodo
de Runge-Kutta dado de antemano. Se desea evaluar utilizando este esquema
en el punto x = x0 + h con 0 < 1. Los coecientes de este metodo
se los denota por ci () aij () bj (). Ahora bien, el metodo sera interesante
desde el punto de vista numerico, si los coecientes ci (), aij () no dependen
de coincidiendo de esta manera con los del metodo dado de antemano. Sin
embargo no es nada raro que el metodo obtenido a partir de los bi () tenga
un orden inferior. Esto se debe a que los aij ci ya estan prescritos. Para
ilustrar esta construccion considerese el ejemplo siguiente.
Ejemplo
Se considera nuevamente el metodo de Heun dado en la tabla VII.3.1.
Utilizando el teorema VII.3.4, remplazando y(x0 + h) por y(x0 + h) se
obtienen las siguientes condiciones de orden para los coecientes bi ():
b1 + b2 + b3 =
1 b + 2 b = 2
32 33 2
1 b + 4 b = 3
92 93 3
4 b = 3 :
93 6
Como puede observarse es imposible que los coecientes bi puedan
satisfacer las condiciones para obtener un metodo de orden 3, por lo
tanto, uno debe contentarse con obtener un metodo de orden 2 para
diferente de 1 y para = 1 un metodo de orden 3. Tomando las dos
primeras ecuaciones y planteando b2 = 0, como en el metodo de Heun,
se tiene para b3 = 43 2 y para b1 = ( ; 34 ). obteniendo as, el esquema
dado en la tabla VII.5.6.
y(xn )
y0 En
e1 e n−1 E n−1
e
2
E1
y
x0 x1 x2 x 3 xn
Figura VII.3.2. Estimacion del error global.
La desigualdad del triangulo, as como (VII.3.30) da, ver la gura VII.3.3,
para la estimacion de la suma
X
n X
n
ky(xn ) ; yn k kEi k hpi;+11 e(xn ;xi )
i=1 i=1
;
Chp h0 e(xn;x1 ) + + hn;2 e(xn;xn;1 ) + hn;1
Z xn p
Chp e(xn;t) dt = Ch + e (xn ;x0 ) ; 1 :
x0
Λ( x n −x)
e
x0 x1 x2 x n−1 xn
106
fe
105
104
103
102
101
err glob
100 0
10 10−1 10−2 10−3 10−4 10−5 10−6 10−7 10−8 10−9 10−10
Metodo de Euler
Metodo de Runge
Metodo de Heun
Metodo de Kutta
Metodo 3/8
5 y2
4
1 y1
0 5 10
100
10−1
10−2
0 5 Error global 10
10−3
−4
10
10−5
10−6
10−7
yn+1
yn
q(t)
yn−k+1 yn−1
Estabilidad
A simple vista la relacion (VII.4.25) permite formular metodos multipaso con
un numero dado de pasos con un orden optimal. Sin embargo la experiencia
VII.4 Metodos Multipasos 349
numerica mostro que los resultados obtenidos no siempre eran validos. Es
por eso necesario introducir una nueva nocion en el estudio de estos metodos.
Esta nocion esta intimamente ligada a la estabilidad del metodo. Para
comprender mejor el problema que se plantea con los metodos multipaso,
es necesario referirse al siguiente ejemplo enunciado por Dahlquist en 1956.
Se plantea k = 2 y se construye un metodo explicito, 2 = 0, 2 = 1
con un orden maximal. Utilizando las condiciones dadas por (VII.4.25) con
p = 3, se llega al siguiente esquema:
yn+2 + 4yn+1 ; 5yn = h(4fn+1 + 2fn): (VII:4:26)
0
Una aplicacion a la ecuacion diferencial y = y con y(0) = 1 da la formula
de recurrencia
yn+2 + 4(1 ; h)yn+1 + (5 + 2h)yn = 0: (VII:4:27)
Para resolver la ecuacion precedente, se calcula el polinomio caracterstico
de esta, obteniendo
2 + 4(1 ; h) ; (5 + 2h) = 0 (VII:4:28)
ecuacion de segundo grado cuyas soluciones son
1 = 1 + h + O(h2 ) 2 = ;5 + O(h):
La solucion de (VII.4.27) tiene la forma
yn = C1 1n + C2 2n (VII:4:29)
donde las constantes C1 y C2 estan determinadas por y0 = 1 y y1 = eh. Para
n grande, el termino C2 2n C2 (;5)n es dominante y sera muy dicil que
la solucion numerica converga hacia la solucion exacta. Ver gura VII.4.4.
h=0.01 h=0.05
3.0
2.0
.0 .5 1.0
E1
y
x0 x1 x2 x 3 xn
Figura VII.3.2. Estimacion del error global para metodos multipaso.
Ejercicios
1.- Para los coecientes del metodo de Adams explcito, demostrar la
formula de recurrencia siguiente:
m + 21 m;1 + 31 m;2 + + m 1+ 1 0 = 1:
Indicacion.-Introducir la serie
X
1 Z 1 ;s
G(t) = j tj j = (;1)j j ds
j =0 0
y demostrar que
Z1
G(t) = (1 ; t);s ds y ; log(1t ; t) G(t) = 1 ;
1
t
0
enseguida, desarrollar la segunda formula en serie de Taylor y comparar
los coecients de tm .
2.- Considerese la identidad
Z xn+1
y(xn+1 ) = y(xn;1 + f (t y(t))dt
xn;1
para la solucion de la ecuacion diferencial y0 = f (x y).
354 VII Ecuaciones Diferenciales
a) Remplazar en la identidad la funcion desconocida f (t y(t)) por el
polinomio p(t), como se ha hecho para construir el metodo de Adams
explcito. Deducir la formula de Nystron
kX
;1
yn+1 = yn;1 + h j rj fn :
j =0
b) Calcular los primeros j .
c) Vericar la identidad j = 2j ; j;1 , donde j son los coecientes
del metodo de Adams explcito.
3.- Mostrar que el metodo BDF a k pasos tiene orden k.
4.- Calcular el orden para la formula de Nystron, ver ejercicio 2.
5.- Un metodo multipaso se dice simetrico, si
j = ;k;j j = k;j :
Mostrar que un metodo simetrico siempre tiene un orden par.
6.- Dado un predictor de orden p ; 1
X
k kX
;1
Pi yn+1 = h iP fn+1 (P )
i=0 i=0
y un corrector de orden p
X
k X
k
i yn+1 = h i fn+1 : (C )
i=0 i=0
a) Escribir el metodo P (EC )M E bajo la forma
Yn+1 = AYn + h,(xn Yn h):
b) Mostrar que este metodo es convergente de orden p, si el corrector es
estable, no es necesario que el predictor sea estable.
Bibliografa
ecuaciones factorizacion,
con derivadas parciales, 59 incompleta de Cholesky, 77
cuadraticas, 152 fenomeno de Runge, 124
cubicas, 153 FFT, 290
de grado cuarto, 154 Fibonacci, busqueda, 129
diferenciales, 296 formas tridiagonales, 227
Euler-Lagrange, 310 formula
no resolubles por radicales, 155 de Cardano, 154
resolubles por radicales, 152 de Newton, 107
eciencia, 3 de Nystrom, 354
-algoritmo, 278 de Rodrguez, 262
error formula de cuadratura, 248
de aproximacion, 5 error, 250
de la aproximacion spline, 136 Gauss,
de interpolacion, 111 264{266
del metodo, 5 orden, 249
de truncacion, 4 orden elevado, 259
formula de cuadratura, 250 simetrica, 249
extrapolacion, 149 Fourier
metodo gradiente, 68 error, 287
metodo gradiente condicionado, 72 serie de, 284
metodo Gauss-Newton, 205, transformada, 284
metodo Multipaso, 346 transformada discreta, 286
metodo Newton, 176 transformada rapida, 290
transformada discreta de Fourier, funcion
287 integrable, 244
errores de redondeo, 115 modelo, 83
estabilidad ortogonal, 260
algoritmo de Gauss, 41,42,43 peso, 259
backward analysis, 13 funciones con oscilaciones, 281
forward analysis, 12
metodo de Euler, 319 Galois, teorema, 155
metodo de Euler explcito, 322 GAUINT, 272
metodo multipaso, 348 Gauss,
numericamente estable, 12 algoritmo de eliminacion, 36, 37
Euler formulas de cuadratura,
efecto de los errores de redondeo, 264{266
317 convergencia Gauss-Newton, 204
estabilidad, 319 metodo Gauss-Newton, 203
metodo, 313 Gerschgorin, teorema, 156, 232
metodo implcito, 321 grado de aproximacion, 120
polgono, 313 grafo dirigido, 49
extrapolacion
polinomial, 145 Hermite, 104, 138
tablero, 147 Heun, 325
error, 149
Indice Alfabetico 363
! optimal, 58
Sturm, 159
sucesiones
armonica, 148
Bulirsch, 148
Romberg, 148
Sturm, 159
Sylvester, 232
tablero de extrapolacion, 147
teorema
Cauchy-Lipschitz, 297, 315
Chebichef, 74
Dirichlet, 285
del Muestreo, 289
Fundamental del Algebra, 152
Galois, 155
Gerschgorin, 156, 232
Jordan, 219
Newton-Kantorovich, 185
Newton-Misovski, 179
Pearson, 99
Perron-Frobenius, 52
punto jo, 169
Schur, 215
Sylvester, 232
Weirstrass, 124
Wilkinson, 42
Wynn, 278
transformada
discreta de Fourier, 286
rapida de Fourier, 290
valor absoluto de un vector, 26
valor propio, 215
valores singulares, 94
Van der Pol, 305
vector propio, 215
Weirstrass, 124
Wilkinson, 42
Wynn, 278
366 Indice Alfabetico