P. 1
calculo numerico

calculo numerico

|Views: 27|Likes:
Publicado poreddiey

More info:

Published by: eddiey on Jan 14, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/12/2011

pdf

text

original

Sections

  • Introducci´on
  • 1.1 Clasificaci´on de los problemas en matem´atica nu-
  • 1.2 Tutor´ıas
  • 1.3 Requisitos previos
  • 1.4 Sistema de evaluaci´on
  • 1.4.1 Normas del examen de C´alculo Num´erico
  • 2.1 Introducci´on
  • 2.2 Teorema de la aplicaci´on contractiva
  • 2.3 Aplicaci´on a la resoluci´on de ecuaciones
  • 2.3.1 Estudios de convergencia local
  • 2.4 Estimaciones del error en funci´on del n´umero de
  • 2.5 Interpretaci´on gr´afica de los m´etodos iterativos
  • 2.6 Relajaci´on de un esquema de aproximaciones su-
  • 2.7 M´etodo de Newton-Raphson
  • 2.7.3 Interpretaci´on geom´etrica del m´etodo de Newton
  • 2.8 Resoluci´on de sistemas de ecuaciones no lineales
  • 2.8.1 Convergencia local
  • 2.10 Resumen
  • 2.11 Referencias recomendadas para este tema
  • Resoluci´on de sistemas lineales
  • 3.1 Matrices y normas matriciales
  • 3.1.1 Matrices
  • 3.1.2 Autovalores
  • 3.1.3 Normas matriciales
  • 3.2 Condicionamiento de un sistema lineal
  • 3.3 M´etodos directos
  • 3.3.1 Eliminaci´on gaussiana
  • 3.3.2 Descomposici´on LU
  • 3.3.4 M´etodo de Gauss-Jordan
  • 3.4 M´etodos iterativos
  • 3.4.1 Convergencia
  • 3.4.2 Esquema general
  • 3.4.3 M´etodo iterativo de Jacobi
  • 3.4.4 M´etodo iterativo de Gauss-Seidel
  • 3.4.5 Test de parada
  • 3.5 Referencias recomendadas para este tema
  • Interpolaci´on
  • 4.1 El problema general de interpolaci´on
  • 4.1.1 Casos particulares del problema general de interpolaci´on
  • 4.2 Interpolaci´on polinomial
  • 4.2.1 Interpolaci´on de Lagrange
  • 4.2.2 Estimaciones del error en la interpolaci´on de Lagrange
  • 4.2.3 Diferencias divididas
  • 4.2.4 Interpolaci´on simple de Hermite u osculatriz
  • 4.3 Interpolaci´on polinomial a trozos
  • 4.3.1 Interpolacion parab´olica a trozos
  • 4.3.2 Error en la interpolacion parab´olica a trozos
  • 4.3.3 Interpolaci´on a trozos de grado 3 usando interpolaci´on
  • 4.4 Interpolaci´on polinomial a trozos: Splines
  • 4.4.1 Bases de splines asociadas a un problema de interpo-
  • 4.5 Interpolaci´on spline con bases de soporte m´ınimo:
  • 4.5.2 B-splines de grado 1. k = 1, r = 2
  • 4.5.3 B-splines de grado k. r = k + 1
  • 4.5.4 B-splines de grado 2 en una partici´on equiespaciada. k =
  • 4.5.5 B-splines de grado 3 en una partici´on equiespaciada. k =
  • 4.5.6 Partici´on de la unidad
  • 4.5.7 Interpolaci´on con B-splines
  • 4.6 Interpolaci´on en varias variables
  • 4.6.1 Interpolaci´on en recintos rectangulares
  • 4.7 Referencias recomendadas para este tema
  • Aproximaci´on de funciones
  • 5.1 Introducci´on
  • 5.2 El problema general de aproximaci´on
  • 5.3 Mejor aproximaci´on
  • 5.4 Existencia y unicidad de una mejor aproximaci´on
  • 5.4.1 Sucesi´on minimizante en T
  • 5.5 Aproximaci´on lineal
  • 5.6 Aproximaci´on en espacios prehilbertianos
  • 5.6.1 General
  • 5.6.2 Caracterizacion de la mejor aproximaci´on
  • 5.6.3 Error cuadr´atico medio
  • 5.6.4 Polinomios ortogonales
  • 5.6.5 Desarrollo en serie de Fourier de una funci´on peri´odica
  • 5.6.6 Aproximaci´on discreta: m´ınimos cuadrados
  • 5.7 Referencias recomendadas para este tema
  • Integraci´on num´erica
  • 6.1 Introducci´on
  • 6.2 Exposici´on del problema
  • 6.3 F´ormulas de cuadratura de tipo interpolaci´on
  • 6.4 F´ormulas de Newton-Cotes
  • 6.4.1 Evaluaci´on del error en las f´ormulas de Newton-Cotes
  • 6.4.2 F´ormulas abiertas de Newton-Cotes
  • 6.5 Estabilidad
  • 6.6 Convergencia
  • 6.7 M´etodos compuestos
  • 6.7.1 General
  • 6.7.2 M´etodo compuesto de los trapecios
  • 6.7.3 M´etodo compuesto de Simpson
  • 6.7.4 Mayoraci´on del error en los m´etodos compuestos
  • 6.7.5 Selecci´on del paso de integraci´on
  • 6.7.6 Estabilidad de los m´etodos compuestos
  • 6.8 F´ormulas de Gauss
  • 6.8.1 Introducci´on
  • 6.8.2 M´etodo de Gauss
  • 6.9 Integraci´on multidimensional
  • 6.10 Resumen
  • 6.11 Referencias recomendadas para este tema
  • Derivaci´on num´erica
  • 7.1 Introducci´on
  • 7.2 Exposici´on del problema
  • 7.3 Derivaci´on num´erica por interpolaci´on polin´omi-
  • 7.3.1 F´ormula de dos puntos
  • 7.3.2 Error en la f´ormula de dos puntos
  • 7.3.3 F´ormula de tres puntos
  • 7.3.4 Error en la f´ormula de tres puntos
  • 7.3.5 F´ormula de cuatro puntos
  • 7.3.6 F´ormula de tres puntos para estimar la derivada segunda
  • 7.4 Estabilidad
  • 7.5 Derivadas parciales
  • 7.6 Resumen
  • 7.7 Referencias recomendadas para este tema
  • Ecuaciones diferenciales ordinarias
  • 8.1 Introducci´on
  • 8.3 M´etodos discretos de un paso para edos
  • 8.3.1 Principios de los m´etodos de un paso
  • 8.3.2 Ejemplo: M´etodo de Euler
  • 8.3.3 Esquema general
  • 8.3.4 Error de discretizaci´on. Orden de un m´etodo
  • 8.3.5 Selecci´on del paso de integraci´on
  • 8.4 Diferentes m´etodos de un paso
  • 8.4.1 M´etodo de Euler
  • 8.4.2 Orden del m´etodo de Euler
  • 8.4.3 M´etodo de Euler: error de discretizaci´on
  • 8.4.4 M´etodo de Taylor
  • 8.4.5 M´etodos de Runge-Kutta
  • 8.5 M´etodos de paso multiple
  • 8.5.1 Introducci´on a los m´etodos de paso m´ultiple
  • 8.5.2 M´etodos de Adams-Bashforth
  • 8.5.3 M´etodos de Adams-Moulton
  • 8.5.4 M´etodos predictor-corrector
  • 8.5.5 M´etodos de Milne-Simpson
  • 8.6 Edos de orden mayor que uno y sistemas de edos
  • 8.7 Resumen
  • 8.8 Referencias recomendadas para este tema
  • 9.1 Introducci´on
  • 9.2 Ecuaciones parab´olicas
  • 9.3 Ecuaciones el´ıpticas
  • 9.3.1 Discretizaci´on del operador de Laplace con contornos irre-
  • 9.4 Resumen
  • 9.5 Referencias recomendadas para este tema
  • Bibliograf´ıa

Apuntes de C´ alculo Num´erico.

Antonio Souto Iglesias
Ju´ an Miguel S´ anchez.
Every phenomenon affects and is
affected by every other phenomenon.
Any phenomenon which we choose to examine
is to us conditioned by what we see and know.
We exclude deliberately all other conditions,
but nature does not exclude them.
T.A.Cook
The curves of life. 1914
El progreso t´ecnico deja un problema sin
resolver: la debilidad de la naturaleza humana.
J. Gray
´
Indice General
1 Introducci´ on. 8
1.1 Clasificaci´ on de los problemas en matem´ atica num´erica. . . . . . . . . . . 9
1.2 Tutor´ıas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Requisitos previos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Sistema de evaluaci´ on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Normas del examen de C´ alculo Num´erico. . . . . . . . . . . . . . 12
2 Ecuaciones y sistemas de ecuaciones no lineales. 13
2.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Teorema de la aplicaci´ on contractiva. . . . . . . . . . . . . . . . . . . . . 14
2.3 Aplicaci´ on a la resoluci´ on de ecuaciones. . . . . . . . . . . . . . . . . . . 16
2.3.1 Estudios de convergencia local. . . . . . . . . . . . . . . . . . . . 16
2.4 Estimaciones del error en funci´ on del n´ umero de iteraciones. . . . . . . . 17
2.5 Interpretaci´ on gr´ afica de los m´etodos iterativos. . . . . . . . . . . . . . . 18
2.6 Relajaci´ on de un esquema de aproximaciones sucesivas. . . . . . . . . . . 18
2.7 M´etodo de Newton-Raphson. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.7.1 Obtenci´ on del m´etodo de Newton a partir del factor ´ optimo de
relajaci´ on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.2 Obtenci´ on del m´etodo de Newton a partir de un desarrollo en serie
de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Interpretaci´ on geom´etrica del m´etodo de Newton. . . . . . . . . . 21
2.7.4 Obtenci´ on del m´etodo de Newton a partir de las ideas de conver-
gencia local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.8 Resoluci´ on de sistemas de ecuaciones no lineales. . . . . . . . . . . . . . . 24
2.8.1 Convergencia local. . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.9 M´etodo de Newton-Raphson para sistemas de ecuaciones no lineales. . . 26
2.10 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.11 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 26
3 Resoluci´ on de sistemas lineales. 27
3.1 Matrices y normas matriciales. . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.3 Normas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Condicionamiento de un sistema lineal. . . . . . . . . . . . . . . . . . . . 31
4
3.3 M´etodos directos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.1 Eliminaci´ on gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.2 Descomposici´ on LU. . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 Descomposici´ on de Cholesky, A = LL
t
. . . . . . . . . . . . . . . . 37
3.3.4 M´etodo de Gauss-Jordan. . . . . . . . . . . . . . . . . . . . . . . 37
3.4 M´etodos iterativos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.1 Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.2 Esquema general. . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.3 M´etodo iterativo de Jacobi. . . . . . . . . . . . . . . . . . . . . . 39
3.4.4 M´etodo iterativo de Gauss-Seidel. . . . . . . . . . . . . . . . . . . 41
3.4.5 Test de parada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 43
4 Interpolaci´ on. 44
4.1 El problema general de interpolaci´ on . . . . . . . . . . . . . . . . . . . . 44
4.1.1 Casos particulares del problema general de interpolaci´ on . . . . . 44
4.2 Interpolaci´ on polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.1 Interpolaci´ on de Lagrange . . . . . . . . . . . . . . . . . . . . . . 47
4.2.2 Estimaciones del error en la interpolaci´ on de Lagrange . . . . . . 49
4.2.3 Diferencias divididas . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.4 Interpolaci´ on simple de Hermite u osculatriz. . . . . . . . . . . . . 53
4.3 Interpolaci´ on polinomial a trozos. . . . . . . . . . . . . . . . . . . . . . . 54
4.3.1 Interpolacion parab´ olica a trozos . . . . . . . . . . . . . . . . . . 54
4.3.2 Error en la interpolacion parab´ olica a trozos . . . . . . . . . . . . 56
4.3.3 Interpolaci´ on a trozos de grado 3 usando interpolaci´ on Hermite. . 56
4.4 Interpolaci´ on polinomial a trozos: Splines . . . . . . . . . . . . . . . . . . 57
4.4.1 Bases de splines asociadas a un problema de interpolaci´ on. . . . . 60
4.5 Interpolaci´ on spline con bases de soporte m´ınimo: B-splines . . . . . . . 61
4.5.1 B-splines de grado 0. k = 0, r = 1 . . . . . . . . . . . . . . . . . . 64
4.5.2 B-splines de grado 1. k = 1, r = 2 . . . . . . . . . . . . . . . . . . 64
4.5.3 B-splines de grado k. r = k + 1 . . . . . . . . . . . . . . . . . . . 64
4.5.4 B-splines de grado 2 en una partici´ on equiespaciada. k = 2, r = 3 65
4.5.5 B-splines de grado 3 en una partici´ on equiespaciada. k = 3, r = 4 65
4.5.6 Partici´ on de la unidad . . . . . . . . . . . . . . . . . . . . . . . . 66
4.5.7 Interpolaci´ on con B-splines . . . . . . . . . . . . . . . . . . . . . . 66
4.6 Interpolaci´ on en varias variables. . . . . . . . . . . . . . . . . . . . . . . 66
4.6.1 Interpolaci´ on en recintos rectangulares . . . . . . . . . . . . . . . 67
4.7 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 67
5 Aproximaci´ on de funciones. 68
5.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 El problema general de aproximaci´ on. . . . . . . . . . . . . . . . . . . . . 68
5.3 Mejor aproximaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.4 Existencia y unicidad de una mejor aproximaci´ on . . . . . . . . . . . . . 71
5.4.1 Sucesi´ on minimizante en T . . . . . . . . . . . . . . . . . . . . . . 71
5
5.5 Aproximaci´ on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.6 Aproximaci´ on en espacios prehilbertianos. . . . . . . . . . . . . . . . . . 72
5.6.1 General. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.6.2 Caracterizacion de la mejor aproximaci´ on. . . . . . . . . . . . . . 73
5.6.3 Error cuadr´ atico medio . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.4 Polinomios ortogonales . . . . . . . . . . . . . . . . . . . . . . . . 76
5.6.5 Desarrollo en serie de Fourier de una funci´ on peri´ odica. . . . . . . 79
5.6.6 Aproximaci´ on discreta: m´ınimos cuadrados. . . . . . . . . . . . . 82
5.6.7 Desarrollo en serie de Fourier de se˜ nales peri´ odicas definidas de
modo discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.7 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 87
6 Integraci´ on num´erica 88
6.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2 Exposici´ on del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.3 F´ ormulas de cuadratura de tipo interpolaci´ on . . . . . . . . . . . . . . . 89
6.4 F´ ormulas de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.4.1 Evaluaci´ on del error en las f´ ormulas de Newton-Cotes . . . . . . . 92
6.4.2 F´ ormulas abiertas de Newton-Cotes . . . . . . . . . . . . . . . . . 93
6.5 Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.6 Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.7 M´etodos compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.7.1 General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.7.2 M´etodo compuesto de los trapecios . . . . . . . . . . . . . . . . . 95
6.7.3 M´etodo compuesto de Simpson . . . . . . . . . . . . . . . . . . . 95
6.7.4 Mayoraci´ on del error en los m´etodos compuestos . . . . . . . . . . 96
6.7.5 Selecci´ on del paso de integraci´ on . . . . . . . . . . . . . . . . . . 96
6.7.6 Estabilidad de los m´etodos compuestos . . . . . . . . . . . . . . . 97
6.8 F´ ormulas de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.8.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.8.2 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.9 Integraci´ on multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.10 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.11 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 100
7 Derivaci´ on num´erica 101
7.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2 Exposici´ on del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.3 Derivaci´ on num´erica por interpolaci´ on polin´ omica. . . . . . . . . . . . . . 102
7.3.1 F´ ormula de dos puntos. . . . . . . . . . . . . . . . . . . . . . . . . 102
7.3.2 Error en la f´ ormula de dos puntos . . . . . . . . . . . . . . . . . . 102
7.3.3 F´ ormula de tres puntos . . . . . . . . . . . . . . . . . . . . . . . . 104
7.3.4 Error en la f´ ormula de tres puntos. . . . . . . . . . . . . . . . . . 105
7.3.5 F´ ormula de cuatro puntos. . . . . . . . . . . . . . . . . . . . . . . 105
7.3.6 F´ ormula de tres puntos para estimar la derivada segunda. . . . . . 106
6
7.4 Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.5 Derivadas parciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.6 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.7 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 109
8 Ecuaciones diferenciales ordinarias. 111
8.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.2 Ideas b´ asicas para la resoluci´ on num´erica de problemas de valor inicial . . 113
8.3 M´etodos discretos de un paso para edos. . . . . . . . . . . . . . . . . . . 114
8.3.1 Principios de los m´etodos de un paso. . . . . . . . . . . . . . . . . 114
8.3.2 Ejemplo: M´etodo de Euler. . . . . . . . . . . . . . . . . . . . . . 115
8.3.3 Esquema general. . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.3.4 Error de discretizaci´ on. Orden de un m´etodo. . . . . . . . . . . . 118
8.3.5 Selecci´ on del paso de integraci´ on. . . . . . . . . . . . . . . . . . . 118
8.4 Diferentes m´etodos de un paso. . . . . . . . . . . . . . . . . . . . . . . . 119
8.4.1 M´etodo de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.4.2 Orden del m´etodo de Euler. . . . . . . . . . . . . . . . . . . . . . 119
8.4.3 M´etodo de Euler: error de discretizaci´ on. . . . . . . . . . . . . . . 120
8.4.4 M´etodo de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.4.5 M´etodos de Runge-Kutta. . . . . . . . . . . . . . . . . . . . . . . 121
8.5 M´etodos de paso multiple. . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.5.1 Introducci´ on a los m´etodos de paso m´ ultiple. . . . . . . . . . . . . 126
8.5.2 M´etodos de Adams-Bashforth. . . . . . . . . . . . . . . . . . . . . 127
8.5.3 M´etodos de Adams-Moulton. . . . . . . . . . . . . . . . . . . . . 128
8.5.4 M´etodos predictor-corrector. . . . . . . . . . . . . . . . . . . . . . 132
8.5.5 M´etodos de Milne-Simpson. . . . . . . . . . . . . . . . . . . . . . 134
8.6 Edos de orden mayor que uno y sistemas de edos. . . . . . . . . . . . . . 135
8.7 Resumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
8.8 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 137
9 Ecuaciones diferenciales en derivadas parciales: M´etodo de las diferen-
cias finitas 138
9.1 Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.2 Ecuaciones parab´ olicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.3 Ecuaciones el´ıpticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.3.1 Discretizaci´ on del operador de Laplace con contornos irregulares. . 141
9.4 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.5 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . 142
Bibliograf´ıa 143
7
Cap´ıtulo 1
Introducci´ on.
1
La matem´ atica num´erica o computacional estudia m´etodos para la resoluci´ on num´erica
y en general aproximada, de problemas propuestos matem´ aticamente. De un modo ge-
neral se pueden distinguir dos aspectos distintos en la matem´ atica num´erica:
1. Metodolog´ıa, se refiere a al construcci´ on de algoritmos espec´ıficos para cada pro-
blema, discutir su efectividad y suministrar las herramientas adecuadas para su
tratamiento con el ordenador.
2. An´ alisis o estudio de los principios matem´ aticos que subyacen a los m´etodos, los
teoremas de convergencia, las mayoraciones de los errores, etc.
En la mayor´ıa de los cursos de iniciaci´ on al c´ alculo num´erico, se insiste fundamentalmente
en la metodolog´ıa exponiendo al alumno a una avalancha de m´etodos que aparentemente
no tienen nada en com´ un. La realidad es otra. La matem´ atica num´erica est´ a fundamen-
tada en unos pocos principios b´ asicos, de modo que en la base de muchos algoritmos,
aparentemente distintos, subyace el mismo principio. Entender ese principio ayuda a
aclarar las ideas, lo que influye beneficiosamente en la b´ usqueda y construcci´ on de nuevos
m´etodos de resoluci´ on de problemas. Trataremos de mantener el equilibrio entre ambos
aspectos:
1. Enunciaremos los teoremas m´ as importantes omitiendo su demostraci´ on cuando
´esta sea excesivamente larga o t´ecnica.
2. Analizaremos de modo especial algunos de los algoritmos m´ as importantes y sumi-
nistraremos informaci´ on sobre sus variantes y otros algoritmos menos importantes.
3. Propondremos problemas y ejercicios de aplicaci´ on, principalmente aquellos que
hayan sido propuestos en ex´ amenes de la asignatura.
El programa de c´ alculo num´erico se desarrolla teniendo como motivo ordenador la si-
guiente clasificaci´ on, muy amplia, de los problemas que se suelen encontrar en matem´ atica
num´erica.
1
Se agradece de modo muy especial la colaboraci´on de Donato Mart´ınez, sin la cual no hubiese sido
posible la reorganizaci´on de todos estos apuntes.
1.1 Clasificaci´ on de los problemas en matem´atica nu-
m´erica.
Muchos de los problemas que surgen en matem´ atica aplicada se pueden enunciar formal-
mente as´ı :
Resolver la ecuacion
f(x) = y (1.1)
donde x ∈ E e y ∈ F, con E y F espacios vectoriales normados reales o complejos, y
f : E → F es un operador, lineal o no, cualquiera.
En el lenguaje de la ingenier´ıa de sistemas x, y, f representan la entrada, la salida y el
sistema en s´ı, respectivamente.
La observaci´ on de la ecuaci´ on [1.1] permite reconocer tres tipos de problemas distintos:
1. El problema directo. Dados f y x, hallar y. Se intenta determinar la salida de un
sistema dado, producida por una entrada conocida. Un ejemplo ser´ıa el c´ alculo de
una integral definida.
2. El problema inverso. Dados f e y, hallar x. Se busca la entrada que genera
una salida conocida en un sistema dado. Ejemplos de problemas inversos son la
resoluci´ on de sistemas de ecuaciones lineales o no lineales, as´ı como la resoluci´ on
de ecuaciones diferenciales tanto ordinarias como en derivadas parciales y la de
ecuaciones integrales.
3. El problema de identificacion. Dados x e y, hallar f. Se buscan las leyes que
gobiernan el sistema a partir del conocimiento de ciertas relaciones entre la en-
trada y la salida. En general, s´ olo se conoce un n´ umero finito de parejas (x
n
, y
n
)
entrada-salida. En su forma m´ as simple el problema de identificaci´ on es la teor´ıa
de aproximaci´ on de funciones - f es una funci´ on de una variable y se pide hallar la
o una funci´ on cuya gr´ afica pasa por o pasa cerca de un conjunto de puntos (x
n
, y
n
).
Cada tipo de problemas plantea sus propias cuestiones espec´ıficas, genera sus propios
algoritmos e incluso el ´exito en desarrollar una teor´ıa general var´ıa dependiendo de cu´ al
de ellos consideremos.
Los problemas directos se tratan con relativa facilidad; su ejemplo m´ as importante, la
integraci´ on num´erica, es hoy un problema bien comprendido. Existen todav´ıa problemas
abiertos y dificultades, pero el problema es conceptualmente simple con una teor´ıa general
no muy complicada.
El problema inverso ocupa por su importancia un puesto central en an´ alisis num´erico.
El caso lineal se ha estudiado extensamente y posee una teor´ıa general bien desarrollada.
El problema no lineal es m´ as dif´ıcil, y con un cuerpo de teor´ıa menos satisfactorio.
El problema de identificaci´ on en su marco m´ as general es bastante dif´ıcil. Pretender
descifrar las leyes que gobiernan un proceso desconocido del conocimiento de un n´ umero
9
finito de observaciones es generalmente imposible si no se tiene adem´ as alg´ un tipo de
informaci´ on de la estructura del proceso. El problema ya citado de la aproximaci´ on
de un operador de una variable conociendo un n´ umero finito de parejas (x
n
, y
n
) carece
en general de soluci´ on ´ unica salvo que restrinjamos la clase de las funciones admisibles
eligiendo una forma conveniente de f dependiente de ciertos par´ ametros que se calculen
de modo que expliquen mejor las observaciones entrada-salida efectuadas.
El linde entre los problemas directo e inverso es difuso, en ciertos casos, el problema
inverso se puede transformar en un problema directo. Si f posee inversa conocida f
−1
,
pasar´ıamos de [1.1] a x = f
−1
(y), por ejemplo el problema de Cauchy:
dx
dt
= ζ(t)x, x(0) = 1
se puede expresar mediante separaci´ on de variables en la forma:
x(t) = e

t
0
ζ(s)ds

Para un matem´ atico, el problema estar´ıa resuelto aunque desde un punto de vista estric-
tamente num´erico, sea m´ as conveniente resolver el problema en su forma original.
Esta observaci´ on es bastante general, la determinaci´ on expl´ıcita de la inversa no ayuda
num´ericamente aunque su conocimiento sea valioso por la informaci´ on cualitativa que
puede suministrar sobre el comportamiento de la soluci´ on que no se podr´ıa obtener de
ning´ un otro modo.
Puede parecer que la formulaci´ on [1.1] es muy restrictiva porque a veces no s´ olo se tiene
una ecuaci´ on que resolver sino que tambi´en hay condiciones adicionales, iniciales o de
contorno, que satisfacer, pero ello no es cierto. Usando el concepto de espacio producto
podemos incluir esas condiciones como veremos en el siguiente ejemplo:
dx
dt
= ζ(t, x), 0 ≤ t ≤ 1
con la condici´ on inicial x(0) = α.
Sea F = C[0, 1] IR . Definamos f : C
1
[0, 1] → F poniendo
f(x) =

dx
dt
−ζ(t, x), x(0)

y el problema planteado se puede escribir en la forma correspondiente al problema inverso
f(x) = (0, α)
En este libro hemos huido de los ejemplos y ejercicios resueltos. Esto se debe a que es
un libro orientado a su utilizaci´ on durante el examen, y adem´ as se complementa con un
texto donde aparecen resueltos algunos de los ejercicios propuestos en ex´ amenes.
El an´ alisis num´erico de un problema es, en la mayor´ıa de los casos, la ´ unica la aproxi-
maci´ on factible al mismo. Casi todos los modelos anal´ıticos de la realidad son irresolubles,
10
y hay que hacer aproximaciones con mayor o menor ´exito. Por eso, esta asignatura es
muy importante, y hacerla bien os deja en una posici´ on ventajosa para muchos retos
futuros. Ejemplos abundantes encontrar´eis en la realizaci´ on de vuestro proyecto fin de
carrera interpolando datos para hacer estimaciones razonables de valores desconocidos,
o integrando num´ericamente curvas para sacar pares adrizantes, o usando un paquete de
c´ alculo de estructuras por elementos finitos integrando las ecuaciones de la din´ amica de
medios continuos para chequear una parte delicada de la estructura, y muchas otras cosas
que us´ ais sin daros cuenta pero que est´ an escondidas en los programas de arquitectura
naval o de CAD que us´eis. En la vida profesional, algunos de vosotros abordar´eis pro-
blemas similares. Otros jam´ as tendr´eis que escribir un n´ umero, y algunos otros, tendr´eis
que completar este curso por insuficiente.
Nos parece importante comentar a los alumnos que est´ an cursando de nuevo la asignatu-
ra, que ´esta cambia un poco cada a˜ no, y que deben conseguir el material nuevo de este
a˜ no. Caso de no hacerlo as´ı, es posible que en el examen se encuentren con un problema
que no tengan ni idea de c´ omo abordar, como ya ha pasado muchas veces.
1.2 Tutor´ıas
Para las tutor´ıas existe un horario oficial que cambia cada a˜ no en funci´ on del horario
de clases. Independientemente de las tutor´ıas oficiales, se me localiza en el canal (tlf.
3367156) y estar´e encantado de atenderos fuera de las horas oficiales a no ser que pun-
tualmente est´e muy ocupado. Os ruego que me mandeis un mail a la direcci´ on de correo
electr´ onico asouto@etsin.upm.es para crear una lista de distribuci´ on de correo y poderos
mandar mensajes cuando salgan las notas, con ejercicios o avisos, y con mis datos y el
horario de tutor´ıas de este curso. Tambi´en se dispone de una p´ agina web de la asignatu-
ra donde pod´eis recoger las hojas de ejercicios, expresar vuestras opiniones en un foro,
navegar por enlaces interesantes, etc. La direcci´ on es:
http://canal.etsin.upm.es/web_cnum
1.3 Requisitos previos
Para que al estudiante le cueste menos seguir la asignatura, es importante que haya
cursado ya las otras asignaturas del ´ area de matem´ aticas, especialmente
´
Algebra Lineal
con ´enfasis en formas lineales, espacios duales, sistemas lineales, y normas matriciales.
Tambi´en se usar´ an conceptos de c´ alculo en una variable, topolog´ıa b´ asica y ecuaciones
diferenciales de primer orden.
1.4 Sistema de evaluaci´ on.
Al terminar la asignatura se procede a la realizaci´ on de un examen por curso que consta
normalmente de dos a cuatro problemas. Esta estructura de examen se repite en todas
las convocatorias oficiales.
11
1.4.1 Normas del examen de C´alculo Num´erico.
Con estas normas lo ´ unico que se pretende es que los medios de los que dispong´ ais a la
hora de realizar los ejercicios sean iguales para todos, y que al mismo tiempo no teng´ ais
que hacer un esfuerzo de memorizaci´ on de contenidos que a estas alturas consideramos
est´eril. Es por eso que no permitimos apuntes personales, porque despu´es hay l´ıos con que
si esto es un ejemplo, no un problema, con que si estas f´ ormulas me las dio mi abuelito
que sab´ıa mucho de esto,....
El que pone el examen, decide los problemas teniendo en cuenta el material del que el
estudiante dispone, y consideramos que un planteamiento razonable pasa por disponer
del material trabajado en clase, y nada m´ as. Se han ensayado ya varias posibilidades, y
se ha llegado a la conclusi´ on de que para esta asignatura, esta posibilidad es la menos
mala. Adem´ as, a la gente que lo considere necesario se le dar´ a la posibilidad de usar
Matlab en el examen. Matlab es un programa de c´ alculo que usaremos durante el curso.
Si hay m´ as gente que puesto reduciremos el tiempo de cada problema para que vuelva
a la sala general los estudiantes que crean que van a obtener pocas ventajas del uso de
Matlab.
1. El material que se permite usar durante el examen es:
• Este texto.
• Calculadora que puede ser programable o n´ o.
2. No se permitir´ a :
• Tener ning´ un tipo de problema resuelto.
• Tener apuntes personales.
• Ordenadores personales.
3. El alumno traer´ a como identificaci´ on su carnet de identidad.
12
Cap´ıtulo 2
Ecuaciones y sistemas de ecuaciones
no lineales.
2.1 Introducci´ on
Uno de los problemas matem´ aticos que suelen aparecer m´ as a menudo en la pr´ actica es
la resoluci´ on de ecuaciones del tipo f(x) = 0 donde f se supone al menos continua, es
decir, el c´ alculo del valor o valores de x para los cuales se verifca:
f(x) = 0 (2.1)
Aunque en alg´ un caso muy sencillo haya procedimientos de resoluci´ on directa de esta
ecuaci´ on (que f sea por ejemplo un polinomio de primer o segundo grado), en general
nos veremos obligados a recurrir a m´etodos iterativos que permitan ir obteniendo valores
que se espera que sean cada vez m´ as pr´ oximos a x, a partir de los cuales y por nueva
aplicaci´ on del m´etodo, obtenemos otro m´ as pr´ oximo, y as´ı sucesivamente. Lo primero
que hay que hacer encontrar un intervalo donde vaya a haber una raiz, para lo cual, lo
m´ as sencillo es directamente buscar un cambio de signo en la gr´ afica de f.
La gran mayor´ıa de estos m´etodos se basan en la transformaci´ on de 2.1 en una ecuaci´ on
equivalente del tipo:
x = g(x) (2.2)
para despu´es construir una sucesi´ on en la forma:
x
n+1
= g (x
n
) (2.3)
La forma para obtener g depende de cada m´etodo, incluso caso en particular.
Comenzaremos estudiando las condiciones que se tienen que dar para que la sucesi´ on
2.3 converja a la soluci´ on buscada. Estudiaremos despu´es una variante muy interesante
de construcci´ on de la funci´ on g que es el m´etodo de Newton-Raphson, para finalmente
aplicar estos conceptos a la resoluci´ on de sistemas completos de ecuaciones no lineales.
2.2 Teorema de la aplicaci´ on contractiva.
Como base del estudio de los m´etodos iterativos de resoluci´ on de 2.1 o 2.2 est´ a el teorema
de la aplicaci´ on contractiva o del punto fijo, que vamos a presentar en una de sus m´ as
sencillas versiones.
Sea X un espacio m´etrico completo. Sea d(x, y) la distancia entre dos puntos. Recorde-
mos que una sucesi´ on de Cauchy x
n
es aquella en la que se verifica que
∀ > 0 ∃m() ∈ N / ∀p ≥ m, q ≥ 0, d (x
p
, x
p+q
) <
Un espacio m´etrico es completo si toda sucesi´ on de Cauchy converge dentro del espacio.
Todos los espacios vectoriales normados reales o complejos de dimensi´ on finita son espa-
cios completos. Por tanto, IR
n
es un espacio m´etrico completo.
Por otro lado, sea ahora T una aplicaci´ on de X en si mismo. Se dice que x es un punto
fijo de T si verifica
T(x) = x (2.4)
Se dice que T es una contracci´ on de X si existe un n´ umero k ∈ [0, 1) tal que:
d (T(x), T(y)) ≤ kd (x, y) ∀x, y ∈ X (2.5)
Teorema 2.2.1 Si T es una contracci´on de un espacio m´etrico completo X, existe un
´ unico punto fijo x en X para la funci´on T, que adem´as es el l´ımite de la sucesi´on x
n+1
=
T (x
n
) para cualquier x
0
∈ X.
Demostraci´ on:
Si k = 0 es evidente que hay un ´ unico punto fijo, ya que en este caso, todo elemento de
X se transforma en un ´ unico punto x de X; luego ´este es el ´ unico punto fijo.
Si k > 0, sea x
0
un elemento cualquiera de X y formemos una sucesi´ on x
n
, como:
x
n+1
= T (x
n
) para n ≥ 0 (2.6)
Para cualesquiera p y q se tiene, por la desigualdad triangular,
d (x
p
, x
p+q
) ≤
p+q−1
¸
j=p
d (x
j
, x
j+1
) (2.7)
y por 2.5 y 2.6, se tiene
d (x
j
, x
j+1
) = d (T (x
j−1
) , T (x
j
)) ≤ kd ((x
j−1
) , (x
j
)) ≤ ≤ k
j
d ((x
0
) , (x
1
)) (2.8)
luego, sustituyendo en 2.7
d (x
p
, x
p+q
) ≤
p+q−1
¸
j=p
k
j
d (x
0
, x
1
) <
k
p
1 −k
d (x
0
, x
1
) (2.9)
14
por ser 0 < k < 1, ya que:
1
p+q−1
¸
j=p
k
j
<

¸
j=p
k
j
=
k
p
1 −k
(2.10)
Por tanto x
n
es una sucesi´ on de Cauchy, ya que tomando m suficientemente grande como
para que:
k
m
1 −k
d (x
0
, x
1
) < (2.11)
para todo p mayor que m se tendr´ a
d (x
p
, x
p+q
) <
k
p
1 −k
d (x
0
, x
1
) <
k
m
1 −k
d (x
0
, x
1
) < (2.12)
Por la completitud de X la sucesi´ on tendr´ a un l´ımite x en X y como
d (T (x
n
) , T(x)) ≤ kd (x
n
, x) (2.13)
al tender n a ∞ a ambos lados de la desigualdad
lim
n→∞
d (T (x
n
) , T(x)) ≤ lim
n→∞
kd (x
n
, x) = 0 (2.14)
Por tanto
lim
n→∞
d (T (x
n
) , T(x)) = 0 (2.15)
o, lo que es lo mismo
lim
n→∞
T (x
n
) = T(x) (2.16)
Pero por ser T (x
n
) = x
n+1
, y al haber demostrado la convergencia de la sucesi´ on ¦x
n
¦,
tambi´en se tiene:
lim
n→∞
T (x
n
) = lim
n→∞
x
n+1
= lim
n→∞
x
n
= x (2.17)
y por tanto
x = T (x) (2.18)
La demostraci´ on nos proporciona una forma de encontrar x como l´ımite de la sucesi´ on
2.6
x
n+1
= T (x
n
) para n ≥ 0
Una vez demostrada la existencia, la unicidad es inmediata. Supongamos que hubiese
otro punto fijo x, se tendr´ıa
d(x, x) = d (T (x) , T (x)) ≤ kd(x, x) < d(x, x) (2.19)
lo cual es absurdo. Por tanto, el punto fijo es ´ unico y es el l´ımite de la sucesi´ on 2.6, como
quer´ıamos ver.
1
Recordamos la suma de una serie geom´etrica de raz´on r:
N−1
¸
j=0
r
j
=
1 − r
N
1 − r
15
2.3 Aplicaci´ on a la resoluci´ on de ecuaciones.
Retomemos la ecuaci´ on 2.2.
Teorema 2.3.1 Sea g una funci´on real definida en [a, b] tal que:
1. g(x) ∈ [a, b] ∀x ∈ [a, b]
2. Existe L < 1 tal que [g(x) −g(y)[ ≤ L[x −y[ ∀x, y ∈ [a, b]
2
Entonces existe una ´ unica raiz de 2.2 que se obtiene como l´ımite de la sucesi´on x
n+1
=
g (x
n
) donde x
0
es un punto cualquiera de [a, b].
Para demostrar este teorema, hay que pensar que los cerrados de un completo, y IR lo
es, son completos, y la segunda propiedad equivale a decir que g es una contracci´ on. Por
tanto se verifican las hip´ otesis del teorema de la aplicaci´ on contractiva.
A menudo es muy dif´ıcil demostrar que la funci´ on g es lipschitziana de constante menor
que la unidad. Sin embargo, si g es de clase C
1
[a, b] y [g

(x)[ ≤ L < 1 ∀x ∈ [a, b],
podemos decir que g es lipschitziana de constante menor que la unidad. Ello es una
consecuencia del teorema del valor medio, pues ´este garantiza que
∀x, y ∈ [a, b] ∃ζ ∈ (x, y) g(x) −g(y) = g

(ζ)(x −y)
y por tanto,
[g(x) −g(y)[ = [g

(ζ)(x −y)[ ≤ L[x −y[ ∀x, y ∈ [a, b]
2.3.1 Estudios de convergencia local.
Los teoremas que acabamos de ver hablan de una convergencia global, en el sentido de
que la convergencia tiene lugar para cualquier valor inicial x
0
. El teorema es muy fuerte
y constructivo en el sentido de que proporciona un m´etodo para encontrar la soluci´ on al
problema, pero las hip´ otesis dif´ıcilmente pueden ser verificables. Sin embargo, cuando se
conoce la existencia de una raiz s de 2.2 en un cierto intervalo, las hip´ otesis se pueden
debilitar, para dar en alg´ un caso convergencia de tipo local, es decir, s´ olo cuando se parte
de un x
0
suficientemente pr´ oximo a s. Enunciemos esta idea.
Teorema 2.3.2 Si existe una raiz s de la ecuaci´on 2.2 en un intervalo [a, b] en el cual g
es de clase C
1
[a, b] y [g

(s)[ < 1, entonces existe > 0 tal que si [x
0
−s[ < , la sucesi´on
x
n
con x
n+1
= g (x
n
) converge a s, o sea:
lim
n→∞
x
n
= s
Demostraci´ on:
Por ser g

continua en [a, b] existir´ a un entorno de s, de radio > 0, en el cual
[g

(x)[ ≤ L < 1
2
Cuando una funci´on verifica esta propiedad, independientemente de que L sea menor que la unidad,
se dice que la funci´on es lipschitziana en [a, b] de constante L.
16
entonces, si [x
0
−s[ < , por el teorema del valor medio, se tiene
[1
0
−s[ = [g (x
0
) −g(s)[ ≤ L[x
0
−s[ < [x
0
−s[ <
y repitiendo el razonamiento, en general se tendr´ a
[x
n
−s[ ≤ L[x
n−1
−s[ ≤ ≤ L
n
[x
0
−s[ < [x
0
−s[ <
como L < 1, de [x
n
−s[ ≤ L
n
[x
0
−s[ se deduce la convergencia de x
n
hacia s.
Este es un concepto local, pero muy importante. La idea es que si en la zona de la raiz
la funci´ on g se comporta como contractiva, si somos astutos buscando el hu´esped inicial
suficientemente pr´ oximo a ella conseguiremos que nuestro esquema converja.
2.4 Estimaciones del error en funci´ on del n´ umero de
iteraciones.
Teorema 2.4.1 Bajo las condiciones de cualquiera de los teoremas anteriores se tiene:
[x
n
−s[ ≤
L
n
1 −L
[x
1
−x
0
[
Demostraci´ on:
Llamando u
k
= x
k
−x
k−1
si k ≥ 1, con u
0
= x
0
es f´ acil ver que:

¸
k=0
u
k
= s (2.20)
pues
m
¸
k=0
u
k
= x
m
(2.21)
Por tanto:
[x
n
−s[ =


¸
k=n+1
u
k

(2.22)
y como
[u
k
[ ≤ L[u
k−1
[ ≤ L
k−1
[u
1
[
tendremos:
[x
n
−s[ =


¸
k=n+1
u
k



¸
k=n+1
[u
k
[ ≤

¸
k=n+1
L
k−1
[u
1
[ = [u
1
[

¸
k=n+1
L
k−1
= [u
1
[

¸
k=1
L
k+n−1
=
L
n
1 −L
[u
1
[ =≤
L
n
1 −L
[x
1
−x
0
[ (2.23)
17
2.5 Interpretaci´ on gr´afica de los m´etodos iterativos.
Es muy interesante ver la construcci´ on gr´ afica de la sucesi´ on x
n
de los m´etodos de apro-
ximaciones sucesivas que hemos visto anteriormente. Supongamos que la gr´ afica de la
funci´ on g es la que aparece en la figura 2.1. Buscar el -los- punto fijo de g equivale a
hallar la intersecci´ on de la gr´ afica de y = g(x), con la de la recta y = x. Comencemos
con un x
0
arbitrario en [a, b]. De x
0
se pasa a g (x
0
) y a x
1
= g (x
0
) como se ve f´ acilmente
en la figura 2.1. Construido x
1
se pasa a g (x
1
) y a x
2
= g (x
1
) y as´ı sucesivamente.
El caso dibujado corresponde a aquel en que la derivada g

(x) est´ a comprendida entre 0
y -1, con lo que se da la convergencia hacia el punto fijo. An´ alogamente puede verse la
convergencia en el caso en que est´ a comprendida entre 0 y 1, y que en cambio, si g

(s) > 1
o g

(s) < −1 no se puede esperar que haya convergencia en general.
y
x
y=x
y=g(x)
a
0
x
1 s x
2
x
0
b
b
Figura 2.1: Interpretaci´ on gr´ afica del esquema de aproximaciones sucesivas.
2.6 Relajaci´ on de un esquema de aproximaciones su-
cesivas.
Consideremos un problema del tipo 2.2,
x = g(x)
que conduce a un esquema divergente debido a que en el entorno de la raiz s, la apli-
caci´ on g no es contractiva. Supongamos que g es de clase C
1
, y veamos como podemos
transformar el esquema para converger a la soluci´ on. Buscamos un n´ umero real w = 0.
18
Por tanto, al ser w = 0, la ecuaci´ on 2.2 es equivalente a:
wx = wg(x) (2.24)
sumando x a ambos lados
x +wx = x +wg(x) (2.25)
y tenemos un nuevo problema de punto fijo:
x = (1 −w)x +wg(x) (2.26)
con su correspondiente esquema iterativo:
x
n+1
= (1 −w)x
n
+wg (x
n
) (2.27)
que podemos escribir de este modo:
x
n+1
= (1 −w)x
n
+wˆ x
n+1
(2.28)
con
ˆ x
n+1
= g (x
n
) (2.29)
Es como si nos qued´ asemos con una parte de la iteraci´ on anterior, (1 −w) y tom´ asemos
s´ olo w de la siguiente g (x
n
).
Si sucediese que en la raiz [g

(s)[ ≥ 1, entonces, la nueva funci´ on de aproximaciones
sucesivas relajada
h(x) = (1 −w)x +wg(x) (2.30)
tiene como derivada
h

(x) = (1 −w) +wg

(x) (2.31)
Podemos elegir w que haga que [h

(x)[ < 1 en un entorno de la raiz, e incluso buscar
que sea cero, que ser´ıa el ´ optimo de convergencia. A veces no es f´ acil estimar la derivada
de la funci´ on g. Un estimaci´ on grosera en ese entorno, podr´ıa ser obtenida a partir del
propio esquema:
g

(x) ≈
g (x
1
) −g (x
0
)
x
1
−x
0
(2.32)
Con esta estimaci´ on es f´ acil ajustar un valor razonable para w.
0 = (1 −w) +wg

(x) (2.33)
w =
1
1 −g

(x)
(2.34)
2.7 M´etodo de Newton-Raphson.
Expondremos diferentes formas de deducir el m´etodo de Newton-Raphson
3
, el cual es
fundamental en la resoluci´ on de ecuaciones y sistemas de ecuaciones no lineales.
3
Joseph Raphson (1648 Middlesex, Inglaterra- 1715). No hay mucha informaci´on sobre su vida. Se
licenci´o en la Universidad de Cambridge en 1692, aunque entr´o en la Royal Society en 1691, un a˜ no
19
2.7.1 Obtenci´ on del m´etodo de Newton a partir del factor ´ op-
timo de relajaci´ on.
Consideremos de nuevo la ecuaci´ on 2.1
f(x) = 0
y supongamos que se intenta encontrar su raiz o ra´ıces en un intervalo [a, b]. Como ya
hemos comentado, el procedimiento habitual consiste en la transformaci´ on de 2.1 en una
ecuaci´ on equivalente, de iguales ra´ıces, y que sea del tipo 2.2.
x = g(x)
Una forma muy sencilla de conseguir esto puede ser sumar x a la parte derecha e izquierda
2.1
x +f(x) = x (2.35)
y definir g en la forma
g(x) = x +f(x) (2.36)
Si relajamos este esquema
h(x) = (1 −w)x +wg(x) = (1 −w)x +w(x +f(x)) = x +wf(x) (2.37)
Si foramos derivada nula para h, tendremos
h

(x) = 0 = 1 +wf

(x) (2.38)
y por tanto
w =
−1
f

(x)
(2.39)
con lo que
h(x) = x −
f(x)
f

(x)
(2.40)
y el esquema iterativo
x
n+1
= x
n

f(x
n
)
f

(x
n
)
(2.41)
que es el m´etodo de Newton.
antes de su licenciatura, lo cual era muy raro. Su elecci´on para la Royal Society se bas´o en su libro
Analysis aequationum universalis, publicado en 1690, que contiene el m´etodo de Newton-Raphson para
aproximar las raices de una ecuaci´on.
En Method of Fluxions Newton describe el mismo m´etodo, y como ejemplo, encuentra la raiz de x
3

2x − 5 = 0 que est´a entre 2 y 3. Aunque Newton escribi´o este art´ıculo en 1671, no fue publicado hasta
1736. Por tanto, Raphson public´o el mismo resultado casi 50 a˜ nos antes.
No se sabe mucho de la relaci´on entre Newton y Raphson, aunque parece que era importante. Se cree
que Raphson era una de las pocas personas a las que Newton mostraba sus art´ıculos, y particip´o en
algunas de las disputas entre Newton y Leibniz, pero esta es otra historia.
20
2.7.2 Obtenci´ on del m´etodo de Newton a partir de un desar-
rollo en serie de Taylor.
Supongamos que f es de clase C
1
[a, b] y f

(x) = 0 en [a, b]. Supongamos que estamos
en el paso n de nuestro esquema de aproximaciones sucesivas y buscamos ∆x tal que
x
n+1
= x
n
+ ∆x sea la raiz del problema. Haciendo un desarrollo en serie de f en torno
a x
n
hasta el primer t´ermino tendremos:
0 = f(x
n+1
) = f(x
n
+ ∆x) = f(x
n
) +f

(x
n
)∆x +O(∆x
2
) (2.42)
De aqu´ı obtenemos ∆x
∆x = −
f(x
n
)
f

(x
n
)
(2.43)
y por tanto, tendremos ya el esquema buscado:
x
n+1
= x
n
+ ∆x = x
n

f(x
n
)
f

(x
n
)
(2.44)
2.7.3 Interpretaci´ on geom´etrica del m´etodo de Newton.
La interpretaci´ on es clara. Cuando se calcula x
1
como
x
1
= x
0

f(x
0
)
f

(x
0
)
(2.45)
lo que se est´ a haciendo es tomar la tangente a la curva y = f(x) en el punto (x
0
, f(x
0
))
y hallar la intersecci´ on de esa recta con el eje OX.
En efecto, la tangente tiene por ecuaci´ on
y −f(x
0
) = f

(x
0
)(x −x
0
) (2.46)
y al cortar con el eje OX haciendo y = 0 resulta
x = x
0

f(x
0
)
f

(x
0
)
(2.47)
es decir x
1
. O sea, la idea es ir acerc´ andose a la raiz a trav´es de las tangentes de la curva,
ver figura 2.2. La idea es muy buena, y el m´etodo de Newton, como ya coment´ abamos,
cuando funciona, lo hace muy bien. Por otro, lado, con esta interpretaci´ on geom´etrica es
f´ acil ver los problemas que surgen cuando llegamos a un punto de tangente horizontal.
2.7.4 Obtenci´ on del m´etodo de Newton a partir de las ideas de
convergencia local
Consideremos de nuevo la ecuaci´ on 2.1
f(x) = 0
21
x
1
x
0
X
b a
y=f(x)
Figura 2.2: Interpretaci´ on geom´etrica del m´etodo de Newton
y supongamos que se intenta encontrar su raiz o ra´ıces en un intervalo [a, b]. Como ya
hemos comentado, el procedimiento habitual consiste en la transformaci´ on de 2.1 en una
ecuaci´ on equivalente, de iguales ra´ıces, y que sea del tipo 2.2.
x = g(x)
Una forma de conseguir esto puede ser definir g en la forma
g(x) = x +F (f(x)) (2.48)
donde F es una funci´ on real de variable real que s´ olo se anule en el origen:
F (t) = 0 ⇔ t = 0 (2.49)
En efecto, si x = s es una raiz de 2.1, se tendr´ a f(s) = 0, y por tanto F (f(s)) y
s = s +F (f(s)) = g(s) (2.50)
y por tanto s es raiz de 2.2. Rec´ıprocamente, si s verifica 2.50, ha de ser F (f(s)) = 0 y
por 2.49 se tendr´ a f(s) = 0.
En principio hay plena libertad para la elecci´ on de F, pero la forma usual de tomarla,
para la obtenci´ on de ra´ıces de 2.1 es
F (f(s)) = h(x)f(x) (2.51)
donde h es una funci´ on definida en [a, b] que no se anule en [a, b].
22
Supongamos que f es de clase C
1
[a, b] y f

(x) = 0 en [a, b]. Como hemos visto ya al
estudiar la convergencia local, si s es raiz de f en [a, b], interesa que [g

(s)[ < 1, y ser´ıa
mejor si g

(s) = 0, pues la convergencia ser´ıa m´ as r´ apida. Veamos la forma de h para
poder conseguir esto. Tomando h es de clase C
1
[a, b], tendremos que g tendr´ a la misma
clase. Adem´ as:
g

(x) = 1 +h

(x)f(x) +h(x)f

(x) (2.52)
En partircular en la raiz de f, s,
g

(s) = 1 +h(s)f

(s) (2.53)
Si se desea que g

(s) = 0, bastar´ a con que
h(s) = −
1
f

(s)
(2.54)
La elecci´ on m´ as l´ ogica ser´ıa tomar como h(x) la constante
h(x) = −
1
f

(s)
(2.55)
con lo cual ser´ıa
g(x) = x −
f(x)
f

(s)
(2.56)
pero esto no es pr´ actico porque naturalmente se desconoce en principio s y, por tanto,
tambien f

(s). De ah´ı que interese m´ as tomar
h(x) = −
1
f

(x)
(2.57)
Sin embargo, para que h ∈ C
1
[a, b], al haberla definido as´ı necesitaremos subir la clase
de f a 2. Por tanto, se tendr´ a
g(x) = x −
f(x)
f

(x)
(2.58)
y el m´etodo de Newton ser´ a por tanto
x
n+1
= x
n

f(x
n
)
f

(x
n
)
(2.59)
La elecci´ on de x
0
es muy importante, dadas las caracter´ısticas de convergencia local sobre
las que hemos construido el m´etodo. De hecho, el m´etodo de Newton, caso de converger
lo hace muy r´ apidamente, pero caso de diverger tambi´en lo hace muy r´ apidamente. De
hecho, tal como hemos construido el m´etodo siempre se tendr´ a convergencia local si se
elige adecuadamente el hu´esped inicial. La convergencia global, m´ as dif´ıcil de demostrar,
se estudia desde las hip´ otesis del teorema de la aplicaci´ on contractiva, y no aporta gran
cosa.
23
2.8 Resoluci´ on de sistemas de ecuaciones no lineales.
Consideremos ahora el problema de hallar una soluci´ on s ∈ IR
n
de un sistema de n
ecuaciones con n inc´ ognitas.
f
1
(x
1
, x
2
, , x
n
) = 0
f
2
(x
1
, x
2
, , x
n
) = 0

f
n
(x
1
, x
2
, , x
n
) = 0
(2.60)
donde f
1
, f
2
, f
n
son las funciones componentes de f. El problema se puede plantear en
t´erminos an´ alogos a los de los temas anteriores, usando notaci´ on vectorial. Si denotamos
por x al vector de IR
n
de componentes (x
1
, x
2
, , x
n
), podemos escribir la ecuaci´ on
anterior en forma vectorial.
f(x) = 0 (2.61)
que podemos transformar en
x = g(x) (2.62)
x
1
= g
1
(x
1
, x
2
, , x
n
)
x
2
= g
2
(x
1
, x
2
, , x
n
)

x
n
= g
n
(x
1
, x
2
, , x
n
)
(2.63)
y a la que podemos intentar aplicar el teorema de la aplicaci´ on contractiva, buscando el
vector soluci´ on x como l´ımite de una sucesi´ on
x
(m+1)
= g

x
(m)

(2.64)
Teorema 2.8.1 Sea g una funci´on real definida en D =
¸
n
i=1
[a
i
, b
i
] con valores en IR
n
,
tal que:
1. g(x) ∈ D ∀x ∈ D
2. Existe L < 1 tal que | g(x) −g(y) |≤ L | x −y | ∀x, y ∈ D
Entonces existe una ´ unica raiz de 2.64 que se obtiene como l´ımite de la sucesi´on x
(m+1)
=
g

x
(m)

donde x
0
es un punto cualquiera de D.
Para demostrar este teorema, hay que pensar que los cerrados de un completo, y IR
n
lo
es, son completos, y la segunda propiedad equivale a decir que g es una contracci´ on. Por
tanto se verifican las hip´ otesis del teorema de la aplicaci´ on contractiva.
En varias variables, casi siempre es muy dif´ıcil demostrar que la funci´ on g es lipschitziana
de constante menor que la unidad. Esta condici´ on puede ser sustituida a veces por otras
condiciones m´ as f´ aciles de comprobar. Por ejemplo, si todas las funciones g
i
que aparecen
en 2.63 son C
1
(D), es decir, continuas y con derivadas parciales continuas en D, y si se
verifica

∂g
i
(x)
∂x
j


L
n
∀x ∈ D (2.65)
24
con L < 1, para todos los i, j = 1, 2, , n, entonces se cumple el teorema de la aplicaci´ on
contractiva si normamos IR
n
con la norma 1 o ∞.
Demostraci´ on:
Haciendo un desarrollo en serie de Taylor de la funci´ on de varias variables g, tenemos
que existen n
2
valores ζ
ij
tales que:
g
i
(x) −g
i
(y) =
n
¸
j=1
∂g
i

ij
)
∂x
j
(x
j
−y
j
) (2.66)
y por 2.65
[g
i
(x) −g
i
(y)[ ≤
L
n
n
¸
j=1
[x
j
−y
j
[ (2.67)
Si tomamos la norma 1, y sumamos, tendremos.
| g(x) −g(y) |
1
=
n
¸
j=1
[g
i
(x) −g
i
(y)[ ≤ L
n
¸
j=1
[x
j
−y
j
[ = L | x −y |
1
(2.68)
que es lo que quer´ıamos ver. Se deja como ejercicio la comprobaci´ on para la norma ∞.
Existe una versi´ on m´ as general de este teorema que pasamos a enunciar:
Teorema 2.8.2 Sea g una funci´on real diferenciable definida en un conjunto cerrado
acotado convexo D, y tal que cualquiera de las normas inducidas del jacobiano de g en
todos los puntos de D sea menor que la unidad, o el radio espectral del jacobiano de g
sea menor que la unidad para todos los puntos de D, entonces existe una ´ unica raiz de
2.64 que se obtiene como l´ımite de la sucesi´on x
(m+1)
= g

x
(m)

donde x
0
es un punto
cualquiera de D.
2.8.1 Convergencia local.
Las ideas sobre convergencia local admiten una extensi´ on sencilla a varias variables,
siempre usando la norma 1 o la norma ∞. As´ı, si s es la raiz buscada, y

∂g
i
(s)
∂x
j

<
1
n
∀i, j = 1, 2, , n (2.69)
tendremos convergencia si el hu´esped inicial est´ a suficientemente cerca de la raiz. Con la
cota del error sucede lo mismo cambiando el valor absoluto por la norma correspondiente.
De hecho, es suficiente con que |J
g
(s)| < 1 para cualquier norma inducida, y eso es lo
mismo que decir que el radio espectral de la matriz jacobiana sea menor que la unidad,
ρ(J
g
(s)) < 1.
25
2.9 M´etodo de Newton-Raphson para sistemas de
ecuaciones no lineales.
Supongamos que f es de clase C
1
(D) y J
f
(x) no es singular en D, siendo D un conjunto
cerrado acotado convexo D. Supongamos que estamos en el paso n de nuestro esquema
de aproximaciones sucesivas y buscamos ∆x, tal que x
n+1
= x
n
+ ∆x sea la raiz del
problema. Haciendo un desarrollo en serie de f en torno a x
n
hasta el primer t´ermino
tendremos, dado que el jacobiano es la aproximaci´ on lineal:
0 = f(x
n+1
) = f(x
n
+ ∆x) = f(x
n
) +J
f
(x
n
)∆x +O(∆x
2
) (2.70)
De aqu´ı obtenemos ∆x
∆x = −J
−1
f
(x
n
)f(x
n
) (2.71)
y por tanto, tendremos ya el esquema buscado
4
J
f
(x
n
)∆x = −f(x
n
) (2.72)
x
n+1
= x
n
+ ∆x (2.73)
Otra vez, la convergencia local est´ a garantizada si el jacobiano no es singular en la raiz,
pero la convergencia global es de dificil´ısima demostraci´ on.
2.10 Resumen
1. Lo primero que hay que hacer para resolver una ecuaci´ on o sistema no lineal es
acotar una zona donde exista al menos una raiz. Si podemos asegurar que ser´ a s´ olo
una, mucho mejor.
2. Lo siguiente es reformular el problema como uno de punto fijo, y lanzar el esquema
para ver si converge a la raiz buscada.
3. Caso de que no haya convergencia, es bueno intentar un esquema de relajaci´ on.
4. Si la funci´ on es f´ acilmente derivable, podemos intentar un esquema de Newton-
Raphson, de convergencia rap´ıdisima caso de darse.
5. Estas consideraciones valen tanto para ecuaciones como para sistemas de ecuaciones
no lineales.
2.11 Referencias recomendadas para este tema.
[14], [5].
4
Lo ponemos en este modo, pues para resolver un sistema lineal, hemos aprendido que no es necesario
invertir la matriz del sistema, que es un problema bastante m´as complejo.
26
Cap´ıtulo 3
Resoluci´ on de sistemas lineales.
3.1 Matrices y normas matriciales.
Antes de entrar en los aspectos centrales referidos a la resoluci´ on de sistemas lineales
conviene recordar conceptos b´ asicos que hemos estudiado en Algebra Lineal y sin los
cuales es imposible entender los problemas que vamos a resolver. Para este repaso y en
general para todos estos m´etodos recomendamos como referencia los textos de G. Golub,
y en particular el [6].
3.1.1 Matrices.
Teorema 3.1.1 Para una matriz cuadrada A de n n, las siguientes afirmaciones son
equivalentes:
1. A
−1
existe.
2. det A = 0.
3. El sistema lineal Ax = 0 tiene solamente la soluci´on x = 0.
4. Para cualquier vector b, el sistema lineal Ax = b tiene soluci´on ´ unica.
5. Las filas y columnas de A son linealmente independiente.
6. El rango de la matriz A es n.
Definici´ on 3.1.1 Se dice que una matriz cuadrada A de n n es diagonalmente domi-
nante por filas (o diagonalmente dominante) si:
[a
ii
[ ≥
j=n
¸
j=1,j=i
[a
ij
[, i = 1, n (3.1)
Definici´ on 3.1.2 Se dice que una matriz cuadrada A de n n es diagonalmente estric-
tamente dominante por filas (o diagonalmente estrictamente dominante) si:
[a
ii
[ >
j=n
¸
j=1,j=i
[a
ij
[, i = 1, n (3.2)
27
Teorema 3.1.2 Si la matriz cuadrada A de n n es diagonalmente estrictamente do-
minante, entonces es regular.
3.1.2 Autovalores
Es importante tambi´en tener presente los resultados referidos a la descomposici´ on espec-
tral o conjunto de autovalores de una matriz.
Teorema 3.1.3 Si la matriz cuadrada A de n n tiene como autovalores λ
1
, , λ
n
,
entonces, para cualquier entero positivo m, λ
m
1
, , λ
m
n
son autovalores de A
m
. Adem´as,
cualquier autovector de A es tambi´en autovector de A
m
.
Teorema 3.1.4 Si la matriz cuadrada A de nn tiene como autovalores λ
1
, , λ
n
, en-
tonces, para cualquier entero positivo m, λ
−1
1
, , λ
−1
n
son autovalores de A
−1
. Adem´as,
cualquier autovector de A es tambi´en autovector de A
−1
.
Teorema 3.1.5 Los autovalores de una matriz sim´etrica son reales.
Definici´ on 3.1.3 Se dice que una matriz cuadrada A de n n es definida positiva si
x
t
Ax > 0 ∀x = 0.
Teorema 3.1.6 Los autovalores de una matriz sim´etrica son positivos si y solo si la
matriz es definida positiva.
Definici´ on 3.1.4 Se dice que dos matrices cuadradas A y B de nn son semejantes si
existe una matriz regular P tal que:
B = PAP
−1
(3.3)
Teorema 3.1.7 Una matriz A de n n es semejante a una matriz diagonal si y solo si
tiene n autovectores linealmente independientes.
Teorema 3.1.8 Si una matriz A de nn tiene n autovalores distintos entre si, entonces
es semejante a una matriz diagonal.
Definici´ on 3.1.5 Sea A una matriz cuadrada de n n que tiene como autovalores λ
1
,
, λ
n
. Se define como radio espectral de la matriz A y se nota ρ(A) al valor:
ρ(A) = max
1≤i≤n

i
[ (3.4)
28
3.1.3 Normas matriciales
Dentro de este repaso conviene recordar tambi´en resultados y definiciones correspon-
dientes a normas matriciales y vectoriales. Todo este tema est´ a muy bien tratado en la
referencia [4], y de ah´ı lo hemos tomado. Sea A ∈ M
m×n
(IK), espacio vectorial de las
matrices de mn de coeficientes reales o complejos. IK ser´ a el cuerpo de los complejos
o los reales, aunque se trabajar´ a casi siempre con reales. Denotaremos por A
t
la matriz
traspuesta, y por A
+
la matriz adjunta. Es decir, para A = (a
i
j
), A
t
= (a
j
i
) y A
+
= (a
j
i
).
Definici´ on 3.1.6 Dadas normas | |
IK
n
, | |
IK
m
, definimos en M
m×n
(IK) una norma
inducida,
1
| | : M
m×n
(IK) → IR
A → |A|
, |A| = max
x=1
|Ax|
Estas normas inducidas por una norma vectorial verifican dos propiedades muy intere-
santes:
|AB| ≤ |A| |B|, A ∈ M
m×n
, B ∈ M
n×p
,
|Ax| ≤ |A| |x|, A ∈ M
m×n
, x ∈ IK
n
.
A la primera propiedad la llamaremos compatibilidad con el producto de matrices, a la
segunda, compatibilidad con la norma vectorial | |. Obviamente, seg´ un variemos las
normas vectoriales en los espacios IK
n
y IK
m
, obtendremos diferentes normas inducidas
en M
m×n
(IK), todas ellas equivalentes ya que este es un espacio de dimensi´ on finita. De
hecho, tomando norma p, p = 1 . . . , ∞, en IK
n
y IK
m
, tendremos las siguientes normas
inducidas en M
m×n
(IK),
|A|
p
:= max
x
p
=1
|Ax|
p
.
Los casos m´ as interesantes son p = 1, 2, ∞. Se puede demostrar que la norma | |
1
es el
m´ aximo de las sumas de las columnas de la matriz:
|A|
1
= max
1≤j≤n

m
¸
i=1
[a
i
j
[
¸
, A = (a
i
j
) ∈ M
m×n
(IK).
y que la norma eucl´ıdea, | |
2
, de una matriz
|A|
2
=

ρ(A
+
A) = µ
max
,
donde µ
max
es el mayor valor singular de A, es decir, la ra´ız cuadrada del mayor autovalor
de A
+
A. Por tanto, en el caso de una matriz sim´etrica o herm´ıtica, A, y, por tanto,
diagonalizable, ρ(A) =

ρ(A
+
A) = |A|
2
.
1
Es l´ıcito sustituir el supremo por el m´aximo, ya que, al ser IK
n
un espacio de dimensi´on finita,
{x ∈ IK
n
: x = 1} es un compacto y, por tanto, la funci´on Ax, continua, presenta m´aximo y
m´ınimo.
29
La norma | |

, por su parte, es el m´ aximo de las sumas de las filas de la matriz
|A|

= max
1≤i≤m

n
¸
j=1
[a
i
j
[

, A = (a
i
j
).
No obstante, tambi´en existen normas matriciales no inducidas por ninguna norma en
IK
n
, por ejemplo, la norma de Schur, | |
S
, no es inducida por ninguna norma vectorial,
|A|
S
=

Tr (A
+
A) =

m
¸
i=1
n
¸
j=1
[a
i
j
[
2
, A = (a
i
j
) ∈ M
m×n
(IK),
pero, a pesar de ello, verifica que |AB|
S
≤ |A|
S
|B|
S
.
Una propiedad interesante de las normas inducidas es que la matriz identidad tiene norma
unidad, ya que,
|II| = max
x=1
|IIx| = max
x=1
|x| = 1,
Teorema 3.1.9 Sea | | una norma compatible con el producto de matrices en M
n
(IK).
Entonces, ρ(A) ≤ |A|, para toda A ∈ M
n
(IK).
Teorema 3.1.10 Sea A ∈ M
n
(IK) una matriz fija. Sea ε > 0. Entonces existe una
norma inducida | |
ε
tal que |A|
ε
≤ ρ(A) +ε.
Un corolario interesante es el siguiente:
Corolario 3.1.1 ρ(A) = inf

|A|∀A ∈ M
n
(IK), es decir, que al recorrer las diferentes
normas de A compatibles con el producto, ρ(A) proporciona el valor ´ınfimo.
Que es cota inferior es trivial por el teorema 3.1.9. Que es ´ınfimo, tambi´en, ya que, por
el teorema anterior, hay valores de |A| tan pr´ oximos a ρ(A) como queramos.
En general, ρ(A), pese a ser el ´ınfimo de |A| al recorrer las distintas normas matri-
ciales compatibles con el producto, no es el m´ınimo. Lo vemos con un contraejemplo.
Consideremos la matriz,
A =

0 1
0 0

Esta matriz tiene un ´ unico autovalor doble, el cero. Luego su radio espectral es nulo. En
cambio, no puede haber ninguna norma en la que |A| = 0, ya que no es la matriz nula.
En cambio, hemos visto que, para una matriz cuadrada sim´etrica o herm´ıtica, s´ı existe
m´ınimo, ya que, ρ(A) = |A|
2
.
Conviene recordar tambi´en el siguiente teorema relativo a la exponenciaci´ on de matrices.
Teorema 3.1.11 Para una matriz cuadrada A de nn, las siguientes afirmaciones son
equivalentes:
1. lim
k→∞
A
k
= 0.
2. lim
k→∞
| A
k
|= 0.
3. ρ(A) < 1.
30
3.2 Condicionamiento de un sistema lineal.
Tenemos el sistema lineal
Ax = b (3.5)
con
A =

¸
¸
¸
¸
10 7 8 7
7 5 6 5
8 6 10 9
7 5 9 10
¸

(3.6)
b =

¸
¸
¸
¸
32
23
33
31
¸

(3.7)
cuya soluci´ on es un vector de componentes unitarias. Normalmente estos sistemas lineales
se obtienen a partir de c´ alculos previos que producen errores tanto en los coeficientes del
sistema con en los del t´ermino independiente. A su vez, los datos con los que se realizan
esos c´ alculos previos podr´ıan estar afectados de errores por proceder de experimentos, u
otros c´ alculos a su vez. Por tanto, el sistema lineal resultante en realidad no ser´ a ese, sino
que ser´ a un sistema lineal perturbado tanto en la matriz del sistema como en el t´ermino
independiente. El sistema lineal perturbado podr´ıa tener el siguiente aspecto
A + ∆A =

¸
¸
¸
¸
10 7 8.1 7.2
7.08 5.04 6 5
8 5.98 9.89 9
6.99 4.99 9 9.98
¸

(3.8)
b + ∆b =

¸
¸
¸
¸
32.01
22.99
33.01
30.99
¸

(3.9)
y por tanto ∆A y ∆b, las perturbaciones, tendr´ıan los siguientes valores:
∆A =

¸
¸
¸
¸
0 0 0.1 0.2
0.08 0.04 0 0
0 −0.02 −0.11 0
−0.01 −0.01 0 −0.02
¸

(3.10)
∆b =

¸
¸
¸
¸
0.01
−0.01
0.01
−0.01
¸

(3.11)
Estudiemos c´ omo var´ıa la soluci´ on del sistema lineal cuando perturbamos la matriz del
sistema y cuando perturbamos s´ olo el t´ermino independiente. Resolvamos primero el
sistema lineal:
A(x + ∆x) = b + ∆b (3.12)
31
x + ∆x =

¸
¸
¸
¸
1.82
−0.36
1.35
0.79
¸

→ ∆x =

¸
¸
¸
¸
0.82
−1.36
0.35
−0.21
¸

(3.13)
Hemos perturbado el t´ermino independiente:
| ∆b |

| b |

= 3.03 10
−4
(3.14)
y esta perturbaci´ on induce una variaci´ on en la soluci´ on:
| ∆x |

| x |

= 1.36 (3.15)
El error se ha amplificado por tanto unas 4500 veces. Part´ıamos de una perturbaci´ on
relativa del orden de 3.03 10
−4
y obtenemos un error relativo del orden de 1.36.
Estudiemos este fen´ omeno desde el punto de vista te´ orico:
A(x + ∆x) = b + ∆b (3.16)
Ax +A∆x = b + ∆b (3.17)
pero Ax = b, y por tanto
A∆x = ∆b (3.18)
∆x = A
−1
∆b (3.19)
Como las normas que utilizamos son inducidas, se verificar´ a que:
| ∆x |=| A
−1
∆b |≤| A
−1
|| ∆b | (3.20)
Aplicando similar desigualdad a Ax = b e invirtiendo ambos factores:
1
| A || ∆x |

1
| b |
(3.21)
multiplicando estas dos desigualdades t´ermino a t´ermino entre si tendremos:
| ∆x |
| x |
≤| A || A
−1
|
| ∆b |
| b |
(3.22)
Por tanto el error relativo en la soluci´ on se mayora respecto al error relativo en la pertur-
baci´ on mediante el factor | A || A
−1
|. Este n´ umero se denomina condicionamiento de
la matriz A, K(A) o cond(A) y cuanto m´ as peque˜ no sea este n´ umero, menos afectar´ an a
la soluci´ on perturbaciones en el t´ermino independiente. Comprobemos esta desigualdad
en el ejemplo anterior:
cond

(A) =| A |

| A
−1
|

= 33 136 = 4488 (3.23)
y por tanto, se debe dar que:
1.36 ≤ 4488 3.0303 10
−4
= 1.36
32
Si ahora perturbamos la matriz del sistema, ´este quedar´ a como:
(A + ∆A)(x + ∆x) = b (3.24)
x + ∆x =

¸
¸
¸
¸
−81
137
−34
22
¸

→ ∆x =

¸
¸
¸
¸
−82
136
−35
21
¸

(3.25)
La perturbaci´ on de la matriz del sistema:
| ∆A |

| A |

=
0.3
33
≈ 0.01 (3.26)
y esta perturbaci´ on induce una variaci´ on en la soluci´ on:
| ∆x |

| x |

= 136 (3.27)
El error se ha amplificado por tanto unas 13600 veces. Part´ıamos de una perturbaci´ on
relativa del orden de 0.01 y obtenemos un error relativo del orden de 136.
Estudiemos este fen´ omeno desde el punto de vista te´ orico:
(A + ∆A)(x + ∆x) = b (3.28)
A∆x + ∆A(x + ∆x) = 0 (3.29)
∆x = A
−1
∆A(x + ∆x) (3.30)
y mayorando y, multiplicando y dividiendo por | A |
| ∆x |
| x + ∆x |
≤| A || A
−1
|
| ∆A |
| A |
(3.31)
Ahora, con otra medida del error relativo, vuelve a ser el condicionamiento de la matriz A
el factor que mayora los errores en las perturbaciones respecto a los errores en la soluci´ on.
Por su definici´ on est´ a claro que el condicionamiento de una matriz depende de la norma
elegida. Una propiedad interesante es que el condicionamiento tiene como cota inferior
a la unidad. Esto es consecuencia de que la norma inducida de la matriz identidad es
siempre 1.
1 =| I |=| AA
−1
|≤| A || A
−1
| (3.32)
Otra propiedad muy interesante es la que relaciona el condicionamiento con el radio
espectral de la matriz del sistema caso de que esta sea sim´etrica. Si la matriz es sim´etrica
su norma 2, es su radio espectral. Por tanto:
cond
2
(A) =| A |
2
| A
−1
|
2
= ρ(A)ρ(A
−1
) =

max
[

min
[
(3.33)
33
Este resultado tiene una versi´ on general ahora en t´erminos de los valores singulares, que
nos permite decir que una matriz estar´ a mejor condicionada cuanto m´ as parecidos en
m´ odulo sean entre si su espectro de autovalores o su espectro de valores singulares. De
hecho, la matriz 3.6 del ejemplo anterior es sim´etrica. Su espectro de autovalores es:
Sp(A) =

¸
¸
¸
¸
0.0102
0.8431
3.8581
30.2887
¸

(3.34)
Como vemos, los autovalores son muy diferentes entre si. Al ser sim´etrica, su condi-
cionamiento en la norma 2, ser´ a:
cond
2
(A) =
30.2887
0.0102
= 2984 (3.35)
Otra forma de ver el condicinamiento es pensar que resolver un sistema lineal equivale
a encontrar una combinaci´ on lineal de vectores que nos permitan escribir otro vector, el
t´ermino independiente. Si los vectores columna que forman el sistema lineal a´ un siendo
linealmente independientes est´ an casi en un mismo hiperplano (recta en 2D, plano en
3D, etc), dicha combinaci´ on lineal ser´ a geom´etricamente mucho m´ as delicada.
Ejercicio 3.2.1 Cambiar alguno del coeficientes del sistema lineal 3.6 manteniendo la
simetr´ıa, y repitiendo todo este an´alisis. Se pretende que comprob´eis que con un condi-
cionamiento menor o mayor, los errores en las soluciones de los sistemas perturbados
verifican las nuevas cotas respondiendo a este nuevo condicionamiento.
3.3 M´etodos directos.
Una vez que tenemos claro que aunque resolvamos nuestro sistema lineal la soluci´ on que
obtengamos puede tener errores significativos respecto al resultado esperado, procede
estudiar c´ omo podemos resolver del modo m´ as r´ apido y preciso el sistema en cuesti´ on.
En ese sentido hay dos grandes familias de m´etodos: los directos y los iterativos. Los
directos se caracterizan porque conducen a la soluci´ on exacta
2
mediante un n´ umero finito
(aunque muy grande) de operaciones. Los iterativos consisten en generar una sucesi´ on
cuyo l´ımite sea la soluci´ on del sistema lineal. El ´ unico problema que plantean los m´etodos
iterativos es que esta sucesi´ on convergente es dif´ıcil de obtener y a menudo dicha sucesi´ on
diverger´ a. En cualquier caso, siempre que consigamos poder resolver nuestro sistema
mediante un m´etodo iterativo esto ser´ a m´ as eficiente. Estudiemos primero los m´etodos
directos.
3.3.1 Eliminaci´ on gaussiana.
El m´ as conocido de los m´etodos directos es la eliminaci´ on gaussiana. Se ha estudiado ya
en los cursos de ´ algebra lineal pero conviene recordarlo. Para ello nos basaremos en un
2
salvo errores de redondeo que pueden ser minimizados mediante t´ecnicas de pivotaje cuyo estudio
detallado escapa al contenido del curso
34
ejemplo, e iremos dando los pasos en dicho ejemplo para entender c´ omo funciona:

¸
¸
1 2 3 6
2 3 4 9
−1 0 −1 −2
¸

(3.36)
haciendo transformaciones elementales utilizando la primera fila, hacemos cero todos los
elementos de la primera columna excepto el diagonal.

¸
¸
1 2 3 6
0 −1 −2 −3
0 2 2 4
¸

(3.37)
Ahora hacemos lo mismo con el elemento diagonal de la segunda fila, y hacemos cero
todos los elementos de la segunda columna por debajo del diagonal.

¸
¸
1 2 3 6
0 −1 −2 −3
0 0 −2 −2
¸

(3.38)
Con esto tenemos ya un sistema triangular superior que se resuelve f´ acilmente por susti-
tuci´ on hacia atr´ as.
x
3
= 1 (3.39)
−x
2
−2x
3
= −3 → x
2
= 1 (3.40)
x
1
+ 2x
2
+ 3x
3
= 6 → x
1
= 1 (3.41)
Existen diferentes estrategias para minimizar los errores de redondeo tratando de que los
elementos diagonales sean en valor absoluto lo m´ as grandes posibles (pivotaje), aunque
su estudio detallado escapa al contenido del curso.
3.3.2 Descomposici´ on LU.
Consiste en factorizar la matriz del sistema lineal como producto de una triangular inferior
y otra superior, por lo que resolver el sistema lineal
Ax = b
se transforma en resolver:
LUx = b (3.42)
Una vez obtenida esta descomposici´ on, resolvemos dos sistemas lineales triangulares:
Ly = b (3.43)
Ux = y (3.44)
y ya tenemos el vector x soluci´ on buscada.
Existen muchas formas de realizar esta descomposici´ on. Explicaremos la m´ as sencilla, el
35
algoritmo de Crout, que funciona siempre que todos los menores principales sean distintos
de cero. Los menores principales son los determinantes de las submatrices principales.
La submatriz principal A
i
es la que tiene como elementos a
jk
con 1 ≤ j, k ≤ i. En la
descomposici´ on de Crout se supone que la matriz triangular superior U tiene una diagonal
formada por elementos unidad. Resolvamos el sistema lineal del apartado anterior con
este m´etodo.

¸
¸
1 2 3
2 3 4
−1 0 −1
¸

=

¸
¸
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
¸

¸
¸
1 u
12
u
13
0 1 u
23
0 0 1
¸

(3.45)
Para calcular estos coeficientes procedemos sucesivamente por identificaci´ on:
l
11
= 1
l
11
u
12
= 2 → u
12
= 2
l
11
u
13
= 3 → u
13
= 3
l
21
= 2
l
21
u
12
+l
22
= 3 → l
22
= −1
l
21
u
13
+l
22
u
23
= 4 → u
23
= 2
l
31
= −1
l
31
u
12
+l
32
= 3 → l
32
= 2
l
31
u
13
+l
32
u
23
+l
33
= −1 → l
33
= −2
Y ya tenemos todos los coeficientes. Podemos comprobar que A = LU. Pasamos a
resolver los dos sistemas triangulares:
Ly =

¸
¸
6
9
−2
¸

¸
¸
1 0 0
2 −1 0
−1 2 −2
¸

¸
¸
y
1
y
2
y
3
¸

=

¸
¸
6
9
−2
¸

(3.46)
Este primero se resuelve por sustituci´ on hacia adelante.
y
1
= 6
2y
1
−y
2
= 9 → y
2
= 3
−y
1
+ 2y
2
−2y
3
= −2 → y
3
= 1
Y ahora resolvemos el triangular superior Ux = y por sustituci´ on hacia atr´ as.
Ux =

¸
¸
6
3
1
¸

¸
¸
1 2 3
0 1 2
0 0 1
¸

¸
¸
x
1
x
2
x
3
¸

=

¸
¸
6
3
1
¸

(3.47)
x
3
= 1
x
2
+ 2x
3
= 3 → x
2
= 1
x
1
+ 2x
2
+ 3x
3
= 6 → x
1
= 1
Cuando una matriz no tiene ninguna estructura especial (sim´etrica, con muchos ceros,
etc), y no converge para los m´etodos iterativos disponibles, la descomposici´ on LU es el
m´etodo m´ as aconsejable.
36
3.3.3 Descomposici´ on de Cholesky, A = LL
t
.
A menudo los sistemas lineales tienen como matriz del sistema la matriz de Gramm de
un producto escalar. Estas matrices y otras son sim´etricas y definidas positivas (x
t
Ax >
0 ∀x = 0). Para este tipo de matrices existe una descomposici´ on LU especial, la
descomposici´ on de Cholesky. En esta descomposici´ on U = L
t
, y la matriz L se obtiene
otra vez por identificaci´ on, igual que en el algoritmo de Crout. Se deja como ejercicio
resolver de este modo el sistema lineal 3.5.
3.3.4 M´etodo de Gauss-Jordan.
El m´etodo de Gauss-Jordan es el m´etodo directo ´ optimo para encontrar la inversa de
una matriz cuando ´esta no tiene ninguna estructura particular. Es un error de concepto
invertir una matriz para resolver un sistema lineal, pues en realidad calcular la inversa
es como resolver n sistemas lineales. El m´etodo de Gauss-Jordan consiste en realizar
eliminaci´ on gaussiana poniendo en la parte derecha la identidad, y realizando transfor-
maciones elementales hasta tener a la izquierda la identidad, y a la derecha tendremos
entonces la inversa. Ve´ amoslo con el mismo ejemplo.

¸
¸
1 2 3 1 0 0
2 3 4 0 1 0
−1 0 −1 0 0 1
¸

¸
¸
1 2 3 1 0 0
0 −1 −2 −2 1 0
0 2 2 1 0 1
¸

Normalizamos la segunda fila dividiendo por el elemento diagonal, hacemos cero el resto
de los elementos de la segunda columna.

¸
¸
1 2 3 1 0 0
0 1 2 2 −1 0
0 2 2 1 0 1
¸

¸
¸
1 0 −1 −3 2 0
0 1 2 2 −1 0
0 0 −2 −3 2 1
¸

Normalizamos la tercera fila dividiendo por el elemento diagonal, hacemos cero el resto
de los elementos de la tercera columna.

¸
¸
1 0 −1 −3 2 0
0 1 2 2 −1 0
0 0 1 1.5 −1 −0.5
¸

¸
¸
1 0 0 −1.5 1.0 −0.5
0 1 0 −1.0 1.0 1.0
0 0 1 1.5 −1.0 −0.5
¸

3.4 M´etodos iterativos.
3.4.1 Convergencia.
Los m´etodos iterativos responden a la misma filosof´ıa que utilizamos para resolver de
modo iterativo problemas no lineales. De lo que se trata es de transformar el problema
en uno de punto fijo para despu´es aplicar el teorema de la aplicaci´ on contractiva.
Si tenemos que resolver Ax = b, podr´ıamos por ejemplo tratar de resolver iterando
37
x = (I − A)x + b. En general, los esquemas iterativos a que haremos referencia ser´ an
todos del tipo:
x
(k+1)
= Bx
(k)
+c (3.48)
donde B ∈ M
n
(IK) y c ∈ IK
n
. En el l´ımite
x = Bx +c (3.49)
y por tanto, ha de ser que:
c = (I −B)A
−1
b (3.50)
Una vez que c verifica esa condici´ on, la convergencia depende del radio espectral de la
matriz B. Enunci´emoslo como un teorema.
Teorema 3.4.1 Un esquema iterativo para resolver sistema lineales del tipo 3.48 con-
verge si y solamente si el radio espectral de la matriz B es estrictamente menor que la
unidad.
”→”
Supongamos que el esquema converge. Se tendr´ a por tanto que la sucesi´ on x
(k)
−x debe
tender a cero. por tanto:
x
(k+1)
−x = Bx
(k)
+c −(Bx +x) = B(x
(k)
−x) = B
k+1
(x
(0)
−x)
O sea que para cualquier x
(0)
esa sucesi´ on tiende a cero. Dicho de otro modo, indepen-
dientemente del vector v,
lim
k→∞
B
k
v = 0
Esto s´ olo es posible si el radio espectral de la matriz B es menor que uno. Este resultado
es fundamental en ´ algebra lineal. Su demostraci´ on general es algo complicada. Si la
matriz es diagonalizable es m´ as f´ acil de intuir que si alguno de los autovalores λ fuese
de modulo igual o superior a uno, tomando el autovector correspondiente como vector v
esta claro que esa sucesi´ on nunca tender´ıa a cero, por ser Bv = λv.
La inversa es una consecuencia directa del teorema de la aplicaci´ on contractiva. Si
ρ(B) < 1, existe alguna norma matricial inducida en la que | B |< 1. Por tanto, y
dado que | B(x − y) |≤| B || x − y | tendremos que la aplicaci´ on T(x) = Bx + c
verificar´ a la condici´ on de Lipschitz y por tanto, ser´ a una contracci´ on de IK
n
, con lo que
la sucesi´ on converger´ a a un punto fijo que ser´ a la soluci´ on del sistema lineal. Adem´ as
esa convergencia es independiente del hu´esped inicial, al ser una contracci´ on en todo el
espacio, aunque ser´ a m´ as r´ apida si el hu´esped inicial est´ a correctamente elegido y sobre
todo si ρ(B) es bastante menor que la unidad.
3.4.2 Esquema general.
Dentro de los m´etodos iterativos estudiaremos aquellos que se basan en una descomposi-
ci´ on de la matriz A del tipo A = M −N con M invertible, que son los m´ as habituales y
que conducen a esquemas iterativos del tipo.
Mx
(k+1)
= Nx
(k)
+b (3.51)
38
Se trata de elegir M de tal forma que ese sistema lineal en cada paso sea sencillo de
resolver.
Se debe tener que c = M
−1
b verifique la condici´ on 3.50
c = (I −B)A
−1
b = (I −M
−1
N)A
−1
b = M
−1
M(I −M
−1
N)A
−1
b (3.52)
= M
−1
(M −N)A
−1
b = M
−1
b cqv
3.4.3 M´etodo iterativo de Jacobi.
Se basa en una descomposici´ on de la matriz A del tipo A = M − N, con M = D,
parte diagonal de la matriz A, y N = L + U, siendo L, U las partes inferior y superior
respectivamente de la matriz A cambiadas de signo. Obliga a resolver un sistema diagonal
en cada paso. Para definir estas matrices D, L y U se puede hacer utilizando bloques de
varios elementos, aunque nosotros utilizaremos aqu´ı siempre bloques elementales. Veamos
con un ejemplo c´ omo funciona el esquema 3.51 en la descomposici´ on de Jacobi de la matriz
A.
Se trata de resolver el sistema lineal:

¸
¸
4 1 0
1 4 1
0 1 4
¸

¸
¸
x
1
x
2
x
3
¸

=

¸
¸
−3
10
1
¸

(3.53)
cuya soluci´ on es el vector:

¸
¸
x
1
x
2
x
3
¸

=

¸
¸
−1.5
3
−0.5
¸

(3.54)
Procedamos a realizar la descomposici´ on de la matriz del sistema:
M = D =

¸
¸
4 0 0
0 4 0
0 0 4
¸

L =

¸
¸
0 0 0
−1 0 0
0 −1 0
¸

U =

¸
¸
0 −1 0
0 0 −1
0 0 0
¸

(3.55)
con
N = L +U (3.56)
La elecci´ on del hu´esped inicial no influye en la convergencia, pero s´ı en el n´ umero de
iteraciones que daremos en el esquema para llegar a una soluci´ on aceptable. Si se tiene
una estimaci´ on de la soluci´ on, se usar´ a ´esta como hu´esped inicial. Caso de que no sea
as´ı, se puede tomar como hu´esped inicial el formado por el t´ermino independiente, o uno
de componentes todas iguales a 1. Nosotros tomaremos por ejemplo uno que har´ıa que
se cumpliese la primera l´ınea del sistema lineal:
x
(0)
=

¸
¸
¸
x
(0)
1
x
(0)
2
x
(0)
3
¸

=

¸
¸
−1
4
−1
¸

(3.57)
39
Para comprobar si estamos convergiendo a la soluci´ on es conveniente disponer de un buen
criterio de convergencia. Demostraremos m´ as adelante un resultado que nos permite
garantizar que si controlamos el valor de la norma del residuo r
(k)
= b −Ax
(k)
estaremos
controlando el error e
(k)
= x −x
(k)
.
As´ı, en este ejemplo:
| r
(0)
|

= 4 (3.58)
Demos el primero paso del esquema:
Dx
(1)
= Nx
(0)
+b = (L +U)x
(0)
+b (3.59)

¸
¸
4 0 0
0 4 0
0 0 4
¸

x
(1)
=

¸
¸
0 −1 0
−1 0 −1
0 −1 0
¸

¸
¸
−1
4
−1
¸

+

¸
¸
−3
10
1
¸

(3.60)
Y tendremos por tanto que resolver el sistema diagonal:

¸
¸
4 0 0
0 4 0
0 0 4
¸

x
(1)
=

¸
¸
−7
12
−3
¸

(3.61)
x
(1)
=

¸
¸
−1.75
3
−0.75
¸

(3.62)
con
| r
(1)
|

= 1 (3.63)
Por tanto, el residuo ha disminuido. Si seguimos iterando:
x
(2)
=

¸
¸
−1.5
3.125
−0.5
¸

| r
(2)
|

= 0.5 (3.64)
x
(5)
=

¸
¸
−1.5039
3.0000
−0.5039
¸

| r
(5)
|

= 0.0156 (3.65)
etc... Vamos a enunciar un teorema de convergencia muy interesante pues se refiere a
un tipo de matrices, las diagonal estrictamente dominante que aparecen a menudo al
resolver num´ericamente ecuaciones diferenciales en derivadas parciales.
Teorema 3.4.2 Supongamos que una matriz A sea diagonal estrictamente dominante:
[a
ii
[ >
¸
j=i
[a
ij
[, i = 1, n
Entonces, el m´etodo de Jacobi converge para esta matriz.
40
La demostraci´ on es bastante sencilla:
B = M
−1
N = D
−1
(L +U) = −

¸
¸
¸
¸
¸
1
a
11
0 0
0 0
0 0
0 0
1
a
nn
¸

¸
¸
¸
¸
0 a
12
a
1n
a
21
0 a
2n

a
n1
a
nn−1
0
¸

= −

¸
¸
¸
¸
¸
0
a
12
a
11

a
1n
a
11
a
21
a
22
0
a
2n
a
22

a
n1
a
nn

a
nn−1
a
nn
0
¸

Si calculamos la norma de esta matriz:
|B|

= max
i=1,n
¸
j=i
[a
ij
[
[a
ii
[
(3.66)
Este cociente es siempre inferior a la unidad al ser la matriz diagonal estrictamente
dominante, por tanto:
|B|

< 1 (3.67)
Pero al ser esta una norma inducida, se tiene tambi´en que ρ(B) < 1, y por tanto el
m´etodo es convergente.
3.4.4 M´etodo iterativo de Gauss-Seidel.
Se basa en una descomposici´ on de la matriz A del tipo A = M − N, con M = D − L,
y N = U . Obliga a resolver un sistema triangular por sustituci´ on hacia adelante en
cada paso. Por tanto, cada paso es m´ as complicado que en el m´etodo de Jacobi, pero la
velocidad de convergencia es superior en cierto tipo de matrices. Ve´ amos c´ omo funciona
con el mismo ejemplo 3.53.
Mx
(1)
= Nx
(0)
+b = Ux
(0)
+b (3.68)

¸
¸
4 0 0
1 4 0
0 1 4
¸

x
(1)
=

¸
¸
0 −1 0
0 0 −1
0 0 0
¸

¸
¸
−1
4
−1
¸

+

¸
¸
−3
10
1
¸

(3.69)
Y tendremos por tanto que resolver el sistema triangular superior:

¸
¸
4 0 0
−1 4 0
0 −1 4
¸

x
(1)
=

¸
¸
−6.1875
10.5469
1.0000
¸

(3.70)
que se resuelve por sustituc´ı´ on hacia adelante:
x
(1)
=

¸
¸
−1.7500
3.1875
−0.5469
¸

(3.71)
41
con
| r
(1)
|

= 0.8125 (3.72)
Por tanto, el residuo ha disminuido. Si seguimos iterando:
x
(2)
=

¸
¸
−1.5469
3.0234
−0.5059
¸

| r
(2)
|

= 0.1641 (3.73)
x
(5)
=

¸
¸
−1.5001
3.0000
−0.5000
¸

| r
(5)
|

= 0.0003 (3.74)
Como vemos, el residuo en el paso quinto es muy inferior al correspondiente al m´etodo
de Jacobi, 0.0003 frente a 0.01. Respecto a la convergencia enunciamos un resultado
equivalente al ya referido en el m´etodo de Jacobi.
Teorema 3.4.3 Supongamos que una matriz A sea diagonal estrictamente dominante:
[a
ii
[ >
¸
j=i
[a
ij
[, i = 1, n
Entonces, el m´etodo de Gauss-Seidel converge para esta matriz.
Aunque el teorema es el mismo que el enunciado para el m´etodo de Jacobi, su de-
mostraci´ on no es tan sencilla y por tanto no la haremos.
3.4.5 Test de parada.
Lo importante es parar en una iteraci´ on k tal que el error:
| e
(k)
|=| x −x
(k)
|<
1
(3.75)
O sea, tal que la diferencia en norma entre la soluci´ on x y la estimaci´ on de ese valor
en la iteraci´ on k sea menor que un valor
1
dado. Dado que no sabemos por supuesto
x, tendremos que llegar a esa conclusi´ on de un modo indirecto. El m´ as interesante es
analizar el residuo
r
(k)
= b −Ax
(k)
(3.76)
Vamos a demostrar que:
Teorema 3.4.4 Si
r
(k)

b
< , entonces
e
(k)

x
< cond(A)
Demostraci´ on:
e
(k)
= x −x
(k)
= x −A
−1

b −r
(k)

= A
−1
r
(k)
(3.77)
Por tanto
| e
(k)
|≤| A
−1
|| r
(k)
|≤| A
−1
|| b | ≤| A
−1
|| A || x | ≤ | x | cond(A) (3.78)
42
De donde la conclusi´ on. Es interesante ver este peque˜ no teorema como que cu´ anto peor
(mayor) sea el condicionamiento de una matriz, las mayoraciones en el residuo conducen
a mayoraciones en el error multiplicadas por ese condicionamiento. Sin embargo, si una
matriz tiene un condicionamiento bajo, acotar el residuo es casi equivalente a acotar el
error total.
En el ejemplo que hemos utilizado para mostrar los m´etodos de Jacobi y Gauss-Seidel,
cond

(A) = 2.5714
| r
(5)
|
| b |
= 0.0016
| e
(5)
| = | x −x
(5)
|= 0.0039 →
| e
(5)
|
| x |
= 0.0013
y 0.0013 ≤ 2.5714 0.0016, con lo que se verifica la cota dada por el teorema.
Seleccionar el valor de
1
depender´ a en cada caso del problema real que estemos resolvien-
do, y depender´ a tambi´en de las estimaciones que podamos tener del condicionamiento de
la matriz del sistema. Otro posible test de parada es establecer que la diferencia en nor-
ma entre dos iteraciones consecutivas no debe superar un valor dado. Podemos combinar
ambos tests para tener un test conjunto que nos garantice que estamos suficientemente
cerca de la soluci´ on y que no necesitamos continuar trabajando.
3.5 Referencias recomendadas para este tema.
El texto de Golub y Ortega[6] es muy bueno. El libro de apuntes de C´ alculo Num´erico[14]
cuando la daba J.M. S´ anchez hace un estudio exhaustivo de esta parte.
43
Cap´ıtulo 4
Interpolaci´ on.
4.1 El problema general de interpolaci´ on
Sea E un R-e.v. de funciones de dimensi´ on finita n y E su dual. El problema general de
interpolaci´ on se plantea del modo siguiente:
Dadas n formas lineales L
i
∈ E

y n n´ umeros reales w
i
(i = 1, . . . , n), determinar un
vector f ∈ E tal que
< f, L
i
>= w
i
i = 1, ..., n (4.1)
Lema 4.1.1 Sean E un R-e.v. de dimensi´on n y (e
i
)
i=1,...,n
una de sus bases. La familia
de n formas lineales (L
i
)
i=1,...,n
es libre en E

si
det(< e
j
, L
i
>) = 0
Teorema 4.1.1 El problema de interpolaci´on general (4.1) tiene soluci´on ´ unica si las n
formas lineales (L
i
) son linealmente independientes en E

.
En efecto, sea B = (e
j
) una base de E, el sistema lineal
L
i

¸
n
¸
i=j
a
j
e
j
¸

= w
i
i = 1, . . . , n (4.2)
tiene como matriz asociada (L
i
(e
j
) =< e
j
, L
i
> i, j = 1, . . . , n y si la familia (L
i
) es libre,
det(< e
j
, L
i
>) = det(L
i
(e
j
)) = 0.
Se llama a det(L
i
(e
j
)) el determinante generalizado de Gram.
La demostraci´ on anterior de tipo constructiva, contiene un m´etodo de resoluci´ on del
problema (4.1). La soluci´ on x tiene como componentes a
i
, las n soluciones del sistema
lineal (4.2).
4.1.1 Casos particulares del problema general de interpolaci´ on
Interpolaci´ on polinomial
El espacio E es un espacio de polinomios o construido con polinomios. Es el caso m´ as
interesante y el ´ unico que estudiaremos con detalle.
Interpolaci´on de Lagrange
El problema de la determinaci´ on de un polinomio P ∈ P
n
(IR) que toma en n + 1 puntos
distintos x
0
, . . . , x
n
de un subconjunto de S de IR , los n + 1 valores w
0
, . . . , w
n
previa-
mente asignados, se denomina problema de interpolaci´ on de Lagrange.
Tomando E = P
n
(IR), IR-e.v. de los polinomios de una variable de grado n y definiendo
las (n + 1) formas lineales
L
i
(P) = P(x
i
) = w
i
(i = 0, 1, . . . , n)
se constata que este problema es un caso particular de (4.1). Si tomamos como base B
de P
n
la can´ onica, e
i
= ¦x
i
¦i = 0, 1, . . . , n, el determinante de Gram es:
det(L
i
(e
j
)) =

1 x
0
x
2
0
. . . x
n
o
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
n
n

determinante del tipo de Vandermonde, que es distinto de cero si todos los x
i
son distintos.
Por tanto, El problema de interpolaci´ on de Lagrange siempre tiene soluci´ on ´ unica.
Comentarios:
• Este sistema lineal de Vandermonde s´ olo tiene significado te´ orico, ya que su resolu-
ci´ on por m´etodos num´ericos es un peque˜ no compendio de comportamientos nega-
tivos (alto coste computacional, alta exigencia de almacenamiento y baja exacti-
tud).
• Las n + 1 formas lineales L
i
asociadas a los n + 1 puntos distintos x
0
, . . . , x
n
son
linealmente independientes en P

n
dual de P
n
, luego describen una base B de este
IR-e.v.. Los n´ umeros w
i
= P(x
i
) representan las componentes del polinomio in-
terpolador P respecto de la base B = (l
j
) de P
n
dual de la anterior y que viene
definida como es habitual, por las relaciones L
i
(l
j
) = l
j
(x
i
) = δ
ij
. Estos polinomios
l
j
son los polinomios fundamentales o de Lagrange asociados a los puntos x
0
, . . . , x
n
y ser´ an determinados despu´es.
• Si se busca un polinomio de grado m mayor que n, la b´ usqueda es m´ as simple ya
que existe un n´ umero arbitrario de polinomios de esas caracter´ısticas que interpolen
un conjunto dado de n + 1 puntos distintos x
0
, . . . , x
n
. En efecto, llamando
H(x) =
n
¸
i=0
(x −x
i
)
el polinomio P ∈ P
m
, m > n satisface P(x
i
) = w
i
i = 0, 1, . . . , n si tiene la forma
P(x) =
ˆ
P(x) +H(x)Q(x)
donde
ˆ
P ∈ P
n
si es la soluci´ on ´ unica del problema de Lagrange y Q es un polinomio
arbitrario de P
m−n−1
.
45
• El polinomio
ˆ
P ∈ P
n
soluci´ on ´ unica del problema de Lagrange descrito, es exac-
tamente de grado n, cuando ˆ a
n
= 0, lo que no siempre sucede. El problema de
interpolar la funci´ on sin en


π
2
,
π
2

, en los puntos−
π
2
, 0,
π
2
da como soluci´ on ´ unica
el polinomio P(x) =
2x
π
, con ˆ a
2
= 0. Otro ejemplo todav´ıa m´ as llamativo es el caso
P(x
i
) = 1, i = 0, 1, . . . , n cuya ´ unica soluci´ on es el polinomio constante 1.
• En muchos casos, los valores w
i
son las im´ agenes en los puntos x
i
de una cierta
funci´ on f definida en S. Las formas lineales L
i
estar´ an entonces definidas en un
espacio funcional m´ as amplio que P
n
para que tenga sentido L
i
(f) = f(x
i
). El pro-
blema de interpolaci´ on planteado, matem´ aticamente id´entico al antes considerado,
consiste en determinar un polinomio P que coincide con f en los puntos x
i
.
Interpolaci´on general de Hermite
Dados n + 1 puntos distintos x
0
, . . . , x
n
y las N + 1 formas lineales en C
N
(S) definidas
por:
f −→ L
ν,j
(f) = f
(j)
(x
ν
)
0 ≤ ν ≤ n, 0 ≤ j ≤ m
ν
con N = m
0
+ m
1
+ + m
n
+ n, veremos que la interpolaci´ on
en P
N
relativa a estas formas lineales tiene soluci´ on ´ unica. Por tanto, siempre es posible
hallar un polinomio cuya imagen y las de sus derivadas sucesivas hasta un cierto orden,
est´e prefijadas en puntos distintos. Este caso particular de (4.1) , se denomina problema
de interpolaci´ on polinomial general de Hermite. M´ as tarde escribiremos de modo expl´ıcito
el polinomio de grado 2n + 1 soluci´ on de este problema cuando
m
0
= m
1
= = m
n
= 1 ⇒ N = 2n + 1
que se llama problema simple u osculatriz de Hermite.
Interpolaci´ on trigonom´etrica
Supongamos ahora que E es el espacio de dimensi´ on 3 engendrado por las tres funciones
¦1, cos, sin¦ y que deseamos determinar f ∈ E tal que
L
1
(f) = f


π
2

L
2
(f) = f(0) L
3
(f) = f

π
2

El determinante de Gram del problema de interpolaci´ on planteado es

L
1
(1) L
1
(sin) L
1
(cos)
L
2
(1) L
2
(sin) L
2
(cos)
L
3
(1) L
3
(sin) L
3
(cos)

=

1 sin


π
2

cos


π
2

1 sin(0) cos(0)
1 sin

π
2

cos

π
2

=

1 −1 0
1 0 1
1 1 0

= 2 = 0
por tanto, siempre podemos hallar una funci´ on ´ unica
f(t) = a
0
+a
1
sin t +a
2
cos t
que toma valores dados en−
π
2
, 0 y
π
2
. Si por ejemplo
L
1
(f) = −1, L
2
(f) = 0, L
3
(f) = 1
46
estar´ıamos determinando f ∈ E interpolante de la funci´ on seno.
En general, E es la envoltura lineal de la familia de las 2m + 1 funciones linealmente
independientes
¦1, cos x, sin x, . . . , cos mx, sin mx¦.
E es un R-e.v. de dimensi´ on 2m+ 1 y para las 2m + 1 formas lineales
< f, L
i
>= f(x
i
) = w
i
, −π ≤ x
0
< x
1
< < x
2m
≤ π
el problema de interpolaci´ on (4.1) tiene soluci´ on ´ unica.
Ejemplo de un problema de interpolaci´ on sin soluci´ on.
No todo problema de interpolaci´ on es necesariamente resoluble. He aqu´ı un ejemplo sin
soluci´ on ´ unica. Supongamos que deseamos hallar un polinomio de segundo grado cuyos
valores en 1 y -l y cuya derivada en 0 son datos. Con
L
1
(f) = f(−1), L
2
(f) = f(1), L
3
(f) = f

(0)
y e
i
= x
i−1
con i = 1, 2, 3. Se tiene que:
det(< e
j
, L
i
>) =

1 −1 1
1 1 1
0 1 0

= 0
y el problema no puede tener soluci´ on ´ unica, aunque podr´ıa tener infinitas soluciones.
4.2 Interpolaci´ on polinomial
4.2.1 Interpolaci´ on de Lagrange
Ya hemos introducido este problema en 4.1.1 pero ahora lo veremos con detalle.
Se dan n+1 puntos distintos x
i
de un subconjunto S de IR(nodos) y n+1 valores reales
w
i
(i = 0, 1, . . . , n) y se busca un polinomio P de grado ≤ n, P ∈ P
n
tal que
P(x
k
) = w
k
k = 0, 1, . . . , n
A menudo los datos w
k
son las im´ agenes de una cierta funcion f, funci´ on que se pretende
interpolar, en los nodos x
k
.
Polinomios de Lagrange
Como vimos, ese problema tiene soluci´ on ´ unica
1
P ya que las n + 1 formas lineales
L
i
(P) = P(x
i
) = w
i
(i = 0, 1, . . . , n) describen una base B

de P

n
. Su base dual B en P
n
1
En el apartado 4.1.1 llam´abamos
ˆ
P a este polinomio para no confundir. Aqu´ı no hay confusi´on
posible y nos referiremos a ´el como P.
47
est´ a descrita por los polinomios l
j
de Lagrange asociados a los puntos x
0
, . . . , x
n
y que
como es habitual est´ an definidos por las relaciones L
i
(l
j
) = δ
ij
, es decir
l
j
(x
i
) =

0 si i = j
1 si i = j
luego l
j
tiene n ra´ıces x
i
(i = j) y toma el valor 1 cuando x = x
j
. Es claro que:
l
j
(x) =
n
¸
(x −x
i
)
i=0
i=j
n
¸
(x
j
−x
i
)
i=0
i=j
(4.3)
Descomponiendo el polinomio de interpolaci´ on soluci´ on P respecto de esta base ten-
dremos
P =
n
¸
j=0
k
j
l
j
de donde para i = 0, 1, . . . , n
w
i
= P(x
i
) =
n
¸
j=0
k
j
l
j
(x
i
) =
n
¸
j=0
k
j
δ
ij
= k
i
por tanto las componentes de la expresi´ on del polinomio
P =
n
¸
j=0
w
j
l
j
es decir,
P(x) =
n
¸
j=0
w
j
l
j
(x)
Ejercicio 4.2.1 Sea
V =

1 x
0
x
2
0
. . . x
n
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
n
n
¸
¸
¸
¸
la matriz de Vandermonde asociada a los nodos x
0
, . . . , x
n
, matriz del sistema que define
los coeficientes del polinomio soluci´on respecto de la base can´onica de P
n
. Los coeficientes
del polinomio de Lagrange l
k
respecto de dicha base son los elementos de la k-´esima
columna de V
−1
matriz inversa de V . ¿ Por qu´e?.
Ejemplo 4.2.1
48
Si x
0
= 1, x
1
= 2, x
3
= 4
V =

1 1 1
1 2 4
1 4 16
¸
¸
¸ y V
−1
=

8
3
−2
1
3
−2
5
2

1
2
1
3

1
2
1
6
¸
¸
¸
con lo que
l
0
(x) =
8
3
−2x +
1
3
x
2
=
1
3
(x
2
−6x + 8)
l
1
(x) = −2 +
5
2
x −
1
2
x
2
= −
1
2
(x
2
−5x + 4)
l
2
(x) =
1
3

1
2
x +
1
6
x
2
=
1
6
(x
2
−3x + 2)
4.2.2 Estimaciones del error en la interpolaci´ on de Lagrange
En el caso habitual, en que los valores w
i
son las im´ agenes en los puntos x
i
de una cierta
funci´ on f, interesa investigar la separaci´ on entre el polinomio interpolante P y f, lo que
nos obligar´ a a asumir que f satisface ciertas propiedades.
Teorema 4.2.1
Sea f ∈ C
n+1
[a, b] y P el polinomio de P
n
(IR) interpolador de Lagrange de f en la nube
x
0
, , x
n
con x
i
∈ [a, b], i = 0, n. Entonces a cada punto x en [a, b] le corresponde un
punto ξ(x) con
min(x
0
, , x
n
, x) < ξ(x) < max(x
0
, , x
n
, x)
para el cual
f(x) −P(x) =
H(x)
(n + 1)!
f
(n+1)
(ξ(x)) (4.4)
con
H(x) =
n
¸
i=0
(x −x
i
) (4.5)
Demostraci´ on.
Supongamos sin p´erdida de generalidad que a ≤ x
0
< x
1
< < x
n
≤ b. Elijamos un
n´ umero x en [a, b]. Si x es uno de los nodos x
i
, la igualdad 4.4 es v´ alida elijamos como
elijamos ξ. Si x no es uno de los nodos definimos λ tal que:
λ =
f(x) −P(x)
H(x)
(4.6)
Definimos la funci´ on auxiliar:
φ(t) = f(t) −P(t) −λH(t) (4.7)
Es f´ acil
2
ver que φ conserva la clase de f. Es f´ acil ver que la funci´ on φ tiene al menos
n + 2 ceros en [a, b], los correspondientes a los nodos x
i
y al valor x.
Sabemos por aplicaci´ on del teorema de Rolle que si una funci´ on continua y diferenciable
2
Por ser P y H polinomios y por tanto de clase C

49
tiene m ra´ıces en [a, b], su derivada f

tiene al menos m−1 ra´ıces en [a, b].
Aplicando este razonamiento de modo sucesivo a las derivadas de la funci´ on φ, llegamos
a la conclusi´ on de que φ
(n+1)
tiene al menos una raiz en [a, b]. Sea ξ esa raiz. La derivada
(n + 1) de un polinomio de grado n es 0, y la de H(t) es (n + 1)!. Por tanto:
0 = f
(n+1)
(ξ) −λ(n + 1)! (4.8)
de donde:
λ =
f
(n+1)
(ξ)
(n + 1)!
(4.9)
y entrando en 4.6 obtenemos 4.4.
Corolario 4.2.1 Estimaciones del error.
Supuesto que f cumple que |f
(n+1)
|

≤ M
n+1
tendremos
[f(x) −P(x)[ ≤
[H(x)[
(n + 1)!
M
n+1
(4.10)
de la que se deduce la f´ ormula general de estimaci´ on del error en interpolaci´ on
|f −P| ≤
M
n+1
(n + 1)!
|H|
v´ alida para todas las normas | . |
p
, 1 ≤ p ≤ n.
Corolario 4.2.2
En el caso en que | | = | |

, si x ∈ [x
0
, x
n
] se puede deducir una estimaci´ on muy
´ util del error de interpolaci´ on de |f −P|. Para ello utilizamos la mayoraci´ on
|H|

= max
x∈[x
0
,x
n
]
[(x −x
0
)(x −x
1
) (x −x
n
)[ ≤
n!
4
h
n+1
donde h es la m´ axima de las distancias entre puntos x
i
y x
i+1
adyacentes.
Si x ∈ [x
i
, x
i+1
], se tiene que
[(x −x
i
)(x −x
i+1
)[ ≤
h
2
4
y haciendo una estimaci´ on directa del tama˜ no de los otros t´erminos que aparecen en H
se obtiene esa mayorante de |H|

.
Ejercicio 4.2.2 Obtener esa mayorante.
Combinando lo anterior, se obtiene la cota del error con norma uniforme
|f −P|


|f
(n+1)
|
4(n + 1)
h
n+1
Para interpretar correctamente esta cota de error debemos pensar en P como funci´ on de
h para n fijo. Con ello, se deduce de esa estimaci´ on que la exactitud es del orden O(h
n+1
)
cuando se var´ıa el intervalo de interpolaci´ on [x
0
, x
n
].
50
4.2.3 Diferencias divididas
Hay dos problemas importantes cuando usamos la base de Lagrange para interpolar una
tabla de valores. El primero es que hay que realizar un n´ umero alto de operaciones
aritm´eticas. Sin embargo, el problema m´ as importante nace del hecho de que si necesi-
tamos a˜ nadir o quitar un punto al conjunto que se ha usado para construir el polinomio,
tenemos que empezar los c´ alculos desde el principio. Con el m´etodo de las diferencias
divididas este problema desaparece.
El planteamiento de las diferencias divididas es el de la interpolaci´ on de Lagrange, o sea,
se supone que conocemos una funci´ on en un soporte de valores para la x.
x
0
f
0
x
1
f
1
x
2
f
2
x
3
f
3
.
.
.
.
.
.
x
n
f
n
En esta tabla no es necesario suponer que las exis est´ an equiespaciadas; ni siquiera que
est´ an dadas en alg´ un orden.
Consideremos el polinomio de grado n
P(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)(x −x
1
) + +a
n
(x −x
0
)(x −x
1
) (x −x
n−1
)
Elijamos los coeficientes a
i
, de tal modo que este polinomio ajuste la tabla de datos
dada
3
. Veremos que estos coeficientes se determinan f´ acilmente usando las diferencias
divididas de los valores tabulados. Usamos una notaci´ on especial para las diferencias
divididas
f[x
i
, x
j
] =
f
j
−f
i
x
j
−x
i
(4.11)
A este n´ umero se le llama la diferencia dividida de primer orden correspondiente a [x
i
, x
j
].
Es importante darse cuenta de que f[x
i
, x
j
] = f[x
j
, x
i
]. Esta conmutabilidad se mantiene
aunque el orden de las diferencias sea m´ as alto. Las diferencias divididas de segundo
orden y de ´ ordenes superiores se obtienen a partir de las diferencias divididas de ´ ordenes
anteriores:
f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] −f[x
0
, x
1
]
x
2
−x
0
f[x
0
, x
1
, . . . , x
i
] =
f[x
1
, x
2
, . . . , x
i
] −f[x
0
, x
1
, . . . , x
i−1
]
x
i
−x
0
3
En realidad lo que hacemos es escoger otra base para los polinomios de grado n:
{1, (x − x
0
), (x − x
0
)(x − x
1
), . . . , (x − x
0
)(x − x
1
) · · · (x − x
n−1
)}
51
Estamos ya en posici´ on de establecer que los coeficientes a
i
est´ an dados por esas diferen-
cias. Obtengamos la imagen de cada punto del soporte por dicho polinomio.
P(x
0
) = a
0
= f
0
P(x
1
) = a
0
+a
1
(x
1
−x
0
)
P(x
2
) = a
0
+a
1
(x
2
−x
0
) +a
2
(x
2
−x
0
)(x
2
−x
1
)
. . .
P(x
n
) = a
0
+a
1
(x
n
−x
0
) +a
2
(x
n
−x
0
)(x
n
−x
1
) + +
+a
n
(x
n
−x
0
)(x
n
−x
1
) (x
n
−x
n−1
)
Si hacemos a
1
= f[x
0
, x
1
], entonces:
P(x
1
) = f
0
+
f
1
−f
0
x
1
−x
0
(x
1
−x
0
) = f
1
Si hacemos a
2
= f[x
0
, x
1
, x
2
], entonces:
P(x
2
) = f
0
+
f
1
−f
0
x
1
−x
0
(x
2
−x
0
) +
f
2
−f
1
x
2
−x
1

f
1
−f
0
x
1
−x
0
x
2
−x
0
(x
2
−x
0
)(x
2
−x
1
) = f
2
Podr´ıamos ver de modo similar que cada P
n
(x
i
) = f
i
si a
i
= f[x
0
, x
1
, . . . , x
i
].
Ejemplo 4.2.2
Una t´ıpica tabla de diferencias divididas podr´ıa ser la siguiente
x
i
f
i
f[x
i
, x
i+1
] f[x
i
, . . . , x
i+2
] f[x
i
, . . . , x
i+3
] f[x
0
, . . . , x
5
]
3, 2 22, 0
2, 7 17, 8 8, 400
1, 0 14, 2 2, 118 2, 856
4, 8 38, 3 6, 342 2, 012 −0, 528
5, 6 51, 7 16, 750 2, 263 0, 0865 0, 256
El peque˜ no ejercicio que se os propone consiste en que valid´eis esta tabla de valores.
Tambi´en pod´eis construir el polinomio de interpolaci´ on de diferencias divididas corres-
pondiente a esta tabla de valores. Despu´es con vuestra calculadora pod´eis calcular el
polinomio de interpolaci´ on expresado en la base can´ onica de los polinomios de grado
cuatro, y comprobar que los dos tienen la misma imagen en un punto cualquiera (ej
x = 3.8).
Es interesante ver 4.11 como que la diferencia dividida de primer orden es una estimaci´ on
de la derivada de la funci´ on f en x
i
, dado que si x
j
, tiende a x
i
lo que tenemos es precisa-
mente esa derivada. Si conocemos alguna derivada de la funci´ on, podemos duplicar ese
nodo en la lista y sustituir la diferencia dividida correspondiente a esos dos nodos por la
derivada.
Teorema 4.2.2
52
Si f es n veces continuamente diferenciable en [a, b] y x
0
, . . . , x
n
, son puntos distintos de
[a, b], entonces hay un punto ξ en (a, b) que verifica que
f[x
0
, x
1
, . . . , x
n
] =
f
(n)
(ξ)
n!
Ejercicio 4.2.3
Demostrar que si la funci´ on que queremos aproximar es un polinomio de grado k, en-
tonces, para n > k
f[x
0
, x
1
, . . . , x
n
] = 0
4.2.4 Interpolaci´ on simple de Hermite u osculatriz.
Dados n + 1 puntos distintos x
0
, . . . , x
n
se busca el polinomio P que cumpla las 2n + 2
condiciones
P(x
i
) = f(x
i
) i = 0, 1, . . . , n
P

(x
i
) = f

(x
i
) i = 0, 1, . . . , n
Las 2n + 2 formas lineales L
i
y M
i
son en este caso
f −→ L
i
(f) = f(x
i
) y f −→ M
i
(f) = f

(x
i
)
Se trata del caso particular del problema general de Hermite cuando
m
0
= m
1
= = m
n
= 1 ⇒ N = 2n + 1
La soluci´ on del problema de interpolaci´ on simple de Hermite es ´ unica si todos los nodos
x
0
, . . . , x
n
son distintos
4
y viene dada en funci´ on de los polinomios fundamentales de
Lagrange por:
P(x) =
n
¸
j=0
[1 −2l

j
(x
j
)(x −x
j
)]l
2
j
(x)f(x
j
) +
n
¸
j=0
(x −x
j
)l
2
j
(x)f

(x
j
) (4.12)
Se comprueba simplemente sustituyendo y derivando
P(x
i
) =
n
¸
j=0
[1 −2l

j
(x
j
)(x
i
−x
j
)]l
2
j
(x
i
)f(x
j
) +
n
¸
j=0
(x
i
−x
j
)l
2
j
(x
i
)f

(x
j
) =
=
n
¸
j=0
l
2
j
(x
i
)f(x
j
) −
n
¸
j=0
2l

j
(x
j
)(x
i
−x
j
)l
2
j
(x
i
)f(x
j
) +
n
¸
j=0
(x
i
−x
j
)l
2
j
(x
i
)f

(x
j
) = f(x
i
)
Para i = j los tres sumandos son nulos por ser l
j
(x
i
) = δ
ij
,. El segundo y tercer sumando
son nulos para i = j por serlo el factor (x
i
−x
j
). Luego s´ olo nos queda el primer sumando
distinto de cero si i = j, por tanto, P(x
i
) = f(x
i
) i = 0, 1, . . . , n. An´ alogamente derivando
P

(x) =
n
¸
j=0
−2l

j
(x
j
)l
2
j
(x)f(x
j
) + [1 −2l

j
(x
j
)(x −x
j
)]2l
j
(x)l

j
(x)f(x
j
)+
4
No lo demostraremos.
53
+
n
¸
j=0
[l
2
j
(x)f

(x
j
) + 2(x −x
j
)l
j
(x)l

j
(x)f

(x
j
)].
y haciendo x = x
i
P

(x
i
) =
n
¸
j=0
−2l

j
(x
j
)l
2
j
(x
i
)f(x
j
) + [1 −2l

j
(x
j
)(x
i
−x
j
)]2l
j
(x
i
)l

j
(x
i
)f(x
j
)+
+
n
¸
j=0
[l
2
j
(x
i
)f

(x
j
) + 2(x
i
−x
j
)l
j
(x
i
)l

j
(x
i
)f

(x
j
)] =
= −2l

i
(x
i
)f(x
i
) + 2l

i
(x
i
)f(x
i
) +f

(x
i
).
Es decir
P

(x
i
) = f

(x
i
) i = 0, 1, . . . , n
4.3 Interpolaci´ on polinomial a trozos.
La construcci´ on de polinomios de interpolaci´ on de grado alto aunque justificable te´ o-
ricamente plantea muchos problemas. Por un lado, la forma de la funci´ on polin´ omica
de grado alto a menudo no responde al fen´ omeno debido al gran n´ umero de extremos e
inflexiones. Por otro lado, su c´ alculo es muy complicado, tedioso y a veces con grandes
errores de rendodeo por mal condicionamiento de algunas matrices. Ello limita su utilidad
en an´ alisis num´erico. Es a menudo mucho m´ as ´ util dividir el intervalo en subintervalos
m´ as peque˜ nos y usar en cada subintervalo polinomios de grados relativamente bajos.
Definici´ on 4.3.1 Polinomios a trozos de grado k
Sea [a, b] un intervalo finito y ¦x
0
, x
1
, . . . , x
n
¦ los nodos de una subdivisi´ on Ω de [a, b]
estrictamente creciente (a ≤ x
0
< x
1
< < x
n
≤ b).
Supongamos por conveniencia que esa subdivisi´ on es uniforme, es decir, que los nodos
est´ an equiespaciados x
i+1
− x
i
= h, y que x
0
= a y x
n
= b. Un polinomio a trozos de
grado k en Ω es una funci´ on cuya restricci´ on a cada uno de los subintervalos [x
i
, x
i+1
] es
un polinomio de grado k.
4.3.1 Interpolacion parab´ olica a trozos
Consideremos una subdivisi´ on de tres nodos ¦x
0
, x
1
, x
2
¦. Pretendemos encontrar la
par´ abola P (de eje vertical)
P(x) = a +bx +cx
2
x ∈ [x
0
, x
2
]
que toma en esos nodos los valores w
0
, w
1
, w
2
. Suponemos x
1
= 0 de modo que x
0
= −h
y x
2
= h. El sistema
w
0
= a −bh +ch
2
w
1
= a
w
2
= a +bh +ch
2
54
da como ´ unica solucion:
a = w
1
, b =
w
2
−w
0
2h
, c =
w
2
−2w
1
+w
0
2h
2
y
P(x) = w
1
+
w
2
−w
0
2h
x +
w
2
−2w
1
+w
0
2h
2
x
2
con c = 0 si los puntos (x
0
, w
0
), (x
1
, w
1
), (x
2
, w
2
) no son colineales. La f´ ormula es tambi´en
v´ alida si esos puntos estan alineados en cuyo caso c = 0 y se reduce al caso lineal.
Dada la subdivisi´ on Ω = ¦x
0
, . . . , x
n
¦ con n par, y los valores correspondientes w
0
, . . . , w
n
se llama funci´ on de interpolaci´ on parab´ olica a trozos de la funci´ on discreta f(x
i
) = w
i
a
un polinomio P
n,2
de grado 2 a trozos cuyas restricciones a los subintervalos [x
i−1
, x
i+1
]
son par´ abolas, como la antes determinada, que pasan por los puntos (x
i−1
, w
i−1
), (x
i
, w
i
),
(x
i+1
, w
i+1
) i = 1, 3, 5, . . . , n −1, es decir
P
n,2
(x) = w
i
+
w
i+1
−w
i−1
2h
(x −x
i
) +
w
i+1
−2w
i
+w
i−1
2h
2
(x −x
i
)
2
x
i−1
≤ x ≤ x
i+1
con i = 1, 3, 5, . . . , n −1.
Si se usa la f´ ormula de Lagrange para determinar el polinomio de segundo grado que
interpola los puntos (x
i−1
, w
i−1
), (x
i
, w
i
), (x
i+1
, w
i+1
) tendremos la siguiente expresi´ on
de P
n,2
P
n,2
(x) =
(x −x
i
)(x −x
i+1
)
2h
2
w
i−1

(x −x
i−1
)(x −x
i+1
)
h
2
w
i
+
(x −x
i−1
)(x −x
i
)
2h
2
w
i+1
(4.13)
con x
i−1
≤ x ≤ x
i+1
con i = 1, 3, 5, . . . , n −1.
Esta expresi´ on se deduce de la ya estudiada, usando la base de Lagrange:
P
n,2
(x) = l
i−1
(x)w
i−1
+l
i
(x)w
i
+l
i+1
(x)w
i+1
(4.14)
donde
l
i−1
(x) =
(x −x
i
)(x −x
i+1
)
(x
i−1
−x
i
)(x
i−1
−x
i+1
)
=
(x −x
i
)(x −x
i+1
)
2h
2
l
i
(x) =
(x −x
i−1
)(x −x
i+1
)
(x
i
−x
i−1
)(x
i
−x
i+1
)
= −
(x −x
i−1
)(x −x
i+1
)
h
2
(4.15)
l
i+1
(x) =
(x −x
i−1
)(x −x
i
)
(x
i+1
−x
i−1
)(x
i+1
−x
i
)
= −
(x −x
i−1
)(x −x
i
)
2h
2
de donde el resultado.
55
4.3.2 Error en la interpolacion parab´ olica a trozos
Si la funci´ on a interpolar f ∈ C
3
([a, b]), del teorema de estimaci´ on del error obtenemos
la desigualdad
[f(x) −P
n,2
(x)[ ≤
[(x −x
i−1
)(x −x
i
)(x −x
i+1
)[
6
M
3
(4.16)
donde
M
3
= sup
a≤x≤b

f
(3)
(x)

(4.17)
Como x
i−1
≤ x ≤ x
i+1
podemos escribir
[f(x) −P
n,2
(x)[ ≤
2h
3
6
M
3
=
(b −a)
3
3n
3
M
3
estimaci´ on muy pesimista f´ acilmente mejorable.
De todo ello se sigue que
lim
n→∞
|f −P
n,2
|

= 0
con un orden 3 de convergencia
5
.
La construcci´ on de un polinomio a trozos interpolante de grado k se hace de un modo
an´ alogo. Si la funci´ on interpolada f pertenece a C
(k+1)
([a, b]), dicho polinomio converge a
f con orden k+1. Podemos alcanzar una alta calidad de aproximaci´ on mientras manten-
emos el grado del polinomio razonablemente bajo. No obstante, no todo es tan positivo,
las aproximaciones as´ı obtenidas son continuas pero tienen en general derivadas discon-
tinuas en los nodos. En algunas aplicaciones ese inconveniente no tiene consecuencias,
pero a menudo es muy deseable obtener aproximaciones de cierta clase. Un modo de
hacerlo es usar polinomios interpolantes de Hermite que cumplan en los subintervalos las
condiciones exigidas respecto a las derivadas.
4.3.3 Interpolaci´ on a trozos de grado 3 usando interpolaci´ on
Hermite.
Construyamos por Hermite un polinonio de tercer grado en cada uno de los subintervalos
[x
i
, x
i+1
], es decir, utilizamos la f´ ormula de Hermite simple para construir en [x
i
, x
i+1
] un
polinomio P
n,3
de grado 3 que ajuste los valores de una funci´ on y de su derivada en cada
uno de los nodos, o sea, tal que:
P
n,3
(x
i
) = f(x
i
), P
n,3
(x
i+1
) = f(x
i+1
)
P

n,3
(x
i
) = f

(x
i
) P

n,3
(x
i+1
) = f

(x
i+1
)
luego
P
n,3
(x) = [1 −2l

i
(x
i
)(x −x
i
)]l
2
i
(x)f(x
i
) + (x −x
i
)l
2
i
(x)f

(x
i
)
+ [1 −2l

i+1
(x
i+1
)(x −x
i+1
)]l
2
i+1
(x)f(x
i+1
)
+ (x −x
i+1
)l
2
i+1
(x)f

(x
i+1
) (4.18)
5
Por ser el error una potencia c´ ubica de h.
56
con
l
i
(x) =
x −x
i+1
x
i
−x
i+1
= −
x −x
i+1
h
⇒ l

i
(x) = −
1
h
(4.19)
l
i+1
(x) =
x −x
i
x
i+1
−x
i
=
x −x
i
h
⇒ l

i
(x) =
1
h
(4.20)
y sustituyendo en 4.18
P
n,3
(x) =
¸
1 +
2
h
(x −x
i
)

x −x
i+1
h

2
f(x
i
)
+ (x −x
i
)

x −x
i+1
h

2
f

(x
i
)
+
¸
1 −
2
h
(x −x
i+1
)

x −x
i
h

2
f(x
i+1
)
+ (x −x
i+1
)

x −x
i
h

2
f

(x
i+1
) (4.21)
Ahora P
n,3
es de clase C
1
([a, b]) y para f ∈ C
(4)
([a, b]), la convergencia es de orden 4.
La interpolaci´ on de Hermite, permite incrementar la suavidad de la funci´ on aproximante,
pero la expresi´ on final a la que llegamos incluye los valores que debe tener la funci´ on f

en los nodos, lo que a menudo no es deseable. Para aproximar f tenemos tabulados los
valores de f pero en general carecemos de informaci´ on sobre f

. Si f es la inc´ ognita a
determinar, la introducci´ on de sus derivadas en el problema incrementa la complejidad
de la b´ usqueda de soluci´ on.
4.4 Interpolaci´ on polinomial a trozos: Splines
Surge de modo natural la siguiente pregunta. ¿Es posible construir aproximaciones poli-
nomiales a trozos de cierta clase simplemente exigiendo que la funci´ on a aproximar tenga
ciertas propiedades de continuidad en los nodos sin necesidad de asignar expl´ıcitamente
en los nodos los valores de las derivadas?
Esas dudas nos llevan a considerar aproximaciones polinomiales a trozos P
n,k
de grado
k y de clase C
p
en [a, b] con p > 0. En general nos interesan aquellas cuya clase es es-
trictamente inferior al grado (p < k) ya que para p = k el polinomio que se obtiene es el
mismo en todos los subintervalos
6
. De particular inter´es es el caso en el que obtenemos
la aproximaci´ on m´ as suave, p = k −1.
Definici´ on 4.4.1 Se llama spline de grado k a todos los polinomios a trozos de grado k
y de clase C
k−1
, o sea, con derivadas continuas hasta el orden k −1.
Aqu´ı estamos interesados en el uso de splines para interpolaci´ on, es decir, splines que
tomen en los nodos valores previamente asignados. Hasta ahora no hemos garantizado
6
Es especialmente importante entender esta afirmaci´on. Por reducci´on al absurdo se obtiene que
todos los tramos son el mismo polinomio.
57
la existencia de esos splines de interpolaci´ on. De hecho, se sabe que hay ciertos tipos de
problemas de splines de interpolaci´ on que carecen de soluci´ on. Nos limitaremos al caso
k = 3 de los splines c´ ubicos por ser el m´ as importante en la pr´ actica. Con ´el exploraremos
sin complicaciones excesivas, las caracter´ısticas fundamentales de la aproximaci´ on con
splines.
Definici´ on 4.4.2 Sean [a, b] un intervalo finito, Ω = ¦x
0
, x
1
, . . . , x
n
¦ una partici´on equi-
espaciada
7
de [a, b] estrictamente creciente a ≤ x
0
< x
1
< . . . < x
n
≤ b y w
i
un conjunto
n + 1 numeros reales.
Se llama spline de interpolaci´on c´ ubica a una funci´on s : [a, b] → IR que posee las sigu-
ientes propiedades:
• s(x
i
) = w
i
i = 0, 1, . . . , n.
• s ∈ C
2
([a, b]).
• La restricci´on s
i
de s a cada subintervalo [x
i
, x
i+1
] es una polinomio de grado 3.
Antes de analizar el problema de la existencia y unicidad de los splines c´ ubicos, comence-
mos con un ejemplo:
Ejemplo 4.4.1
Hallar dos polinomios de tercer grado
s
0
(x) = a
0
+b
0
x +c
0
x
2
+d
0
x
3
s
1
(x) = a
1
+b
1
x +c
1
x
2
+d
1
x
3
tales que
s
0
(a) = w
0
, s
0
(x
1
) = w
1
= s
1
(x
1
), s
1
(b) = w
2
,
s

0
(x
1
) = s

1
(x
1
), s

0
(x
1
) = s

1
(x
1
)
Tenemos 6 condiciones y ocho par´ ametros a determinar. Si existe soluci´ on no es ´ unica.
Para eliminar la ambig¨ uedad, debemos a˜ nadir dos condiciones, por ejemplo las derivadas
en a y b.
La situaci´ on que se da en este ejemplo es semejante a la existente en general con los splines
c´ ubicos; para conseguir que la soluci´ on sea ´ unica, debemos imponer dos condiciones extra.
Estas condiciones adicionales se pueden fijar de modo m´ as o menos arbitrario aunque lo
habitual es pedir que se cumplan ciertas exigencias en los extremos del intervalo.
Teorema 4.4.1 Existe un spline c´ ubico ´ unico S tal que
S(x
i
) = w
i
i = 0, 1, . . . , n
S

(x
0
) = s
0
, S

(x
n
) = s
n
7
El que sea equiespaciada obedece a que permite una mayor simplicidad en los desarrollos, pero no
introduce ning´ un aspecto te´orico nuevo
58
Demostraci´ on:
Consideremos S
i
definido en x
i
≤ x ≤ x
i+1
por:
S
i
(x) =
¸
(x −x
i+1
)
2
h
2
+
2(x −x
i
)(x −x
i+1
)
2
h
3
¸
w
i
+
¸
(x −x
i
)
2
h
2

2(x −x
i+1
)(x −x
i
)
2
h
3
¸
w
i+1
+
(x −x
i
)(x −x
i+1
)
2
h
2
s
i
+
(x −x
i
)
2
(x −x
i+1
)
h
2
s
i+1
(4.22)
construido usando la misma filosof´ıa que para los polinomios a trozos de grado 3 y clase
1, obtenidos mediante la base de Hermite que utilizamos en 4.3.3. De este modo, es
trivial ver que:
S
i
(x
i+1
) = S
i+1
(x
i+1
) = w
i+1
S

i
(x
i+1
) = S

i+1
(x
i+1
) = s
i+1
luego S
i
define una c´ ubica a trozos continua con derivadas continuas que toma los valores
preasignados w
i
en los nodos. Como s
0
y s
n
son datos, s´ olo necesitamos hallar los s
i
,
i = 1, 2, . . . , n−1 tales que S
i
tenga tambi´en derivadas segundas continuas en los nodos.
Diferenciando dos veces la expresi´ on 4.22, tendremos:
S

i
(x
i+1
) =
6
h
2
w
i

6
h
2
w
i+1
+
2
h
s
i
+
4
h
s
i+1
(4.23)
S

i+1
(x
i+1
) = −
6
h
2
w
i+1
+
6
h
2
w
i+2

4
h
s
i+1

2
h
s
i+2
(4.24)
e igualando obtenemos el sistema
s
i
+ 4s
i+1
+s
i+2
=
3
h
(w
i+2
−w
i
) i = 0, 1, . . . , n −2. (4.25)
Podemos escribir este sistema desarrollado:

¸
¸
¸
¸
¸
¸
¸
4 1 0 0 0
1 4 1 0 0
0 1 4 1 0 0

0 1 4
¸

¸
¸
¸
¸
¸
¸
¸
¸
s
1
s
2
s
3
.
.
.
s
n−1
¸

¸
¸
¸
¸
¸
¸
¸
¸
3
h
(w
2
−w
0
) −s
0
3
h
(w
3
−w
1
)
3
h
(w
4
−w
2
)
.
.
.
3
h
(w
n
−w
n−2
) −s
n
¸

(4.26)
Este sistema tridiagonal y diagonalmente dominante de n − 1 ecuaciones con n − 1
inc´ ognitas s
1
,. . . ,s
n−1
tiene soluci´ on ´ unica que define S
i
para todo i, luego el spline
c´ ubico interpolador S de clase C
2
S(x) = S
i
(x) x
i
≤ x ≤ x
i+1
S es ´ unico porque si hubiera dos, su diferencia ser´ıa un spline c´ ubico id´enticamente nulo,
ya que se anula en los nodos x
i
(w
i
= 0) lo que implica que los s
i
tambi´en son nulos, sin
59
m´ as que entrar en el sistema 4.25.
Tambi´en se pueden introducir las dos condiciones extras siguientes
S

(x
0
) = S

(x
n
) = 0
con las que se obtiene el llamado spline natural.
Ejercicio 4.4.1 Demostrar que existe un spline natural c´ ubico ´ unico.
Teorema 4.4.2 Si f ∈ C
(4)
([a, b]), entonces
max
1≤i≤n

sup
x∈[x
i
,x
i+1
]

f
(p)
(x) −S
(p)
(x)

¸

K
p
n
4−p
M
4
0 ≤ p ≤ 3 (4.27)
donde
K
0
=
5
384
, K
1
=

3
216
, K
2
=
5
12
, K
3
= 1 M
4
= |f
(4)
|

.
Se deduce de lo enunciado en este teorema que el spline c´ ubico no s´ olo converge a f, sino
que tambi´en sus derivadas, hasta el orden 3, convergen a las correspondientes derivadas
de f.
Teorema 4.4.3 Sea U el conjunto de todas las funciones ϕ de clase C
2
en [a, b] tales
que
ϕ(x
i
) = w
i
i = 0, 1, . . . , n
y sea S el spline c´ ubico natural que satisface las mismas condiciones de interpolaci´on,
entonces:
x
n
x
0
[S

(x)]
2
dx ≤

x
n
x
0

(x)]
2
dx (∀ϕ ∈ U) (4.28)
Este ´ ultimo teorema asegura que de todas las funciones de interpolaci´ on que satisfacen
ciertas condiciones en los extremos del intervalo, los splines c´ ubicos naturales son los
m´ as suaves en el sentido de que minimizan la norma | |
2
de la segunda derivada.
En t´erminos de energ´ıa potencial (proporcional a (|S

|
2
) los splines c´ ubicos naturales
minimizan dicha energia.
Se pueden obtener los splines resolviendo el sistema tridiagonal (4.25) sustituyendo des-
pu´es los valores de los s
i
en la expresi´ on de S
i
(x), pero por motivos te´ oricos interesa
tener una representaci´ on expl´ıcita del spline similar a la representaci´ on del polinomio de
interpolaci´ on en funci´ on de la base de polinomios de Lagrange.
4.4.1 Bases de splines asociadas a un problema de interpo-
laci´ on.
Vamos a calcular una base de splines c´ ubicos, utilizando la idea de que esta base sea
la dual a las formas lineales que definen un problema de interpolaci´ on en un espacio
vectorial de splines con soluci´ on ´ unica.
60
Sea S
3
(Ω) el espacio vectorial de los splines c´ ubicos correspondientes a la partici´ on Ω.
Sea S

3
(Ω) su dual. Definimos las n + 3 formas lineales:
L
i
(S) = S(x
i
), i = 0, n
L
n+1
(S) = S

(x
0
)
L
n+2
(S) = S

(x
n
)
Como ya hemos visto, estas formas lineales definen un problema de interpolaci´ on de
soluci´ on ´ unica, y son por tanto una base de S

3
(Ω). Podemos tratar de encontrar su base
dual c
i
. Los elementos de esta base son facilmente calculables resolviendo el sistema 4.25,
pues sabemos que:
L
i
(c
j
) = δ
ij
Cualquier spline del que sepamos sus valores en los nodos, y las derivadas en los nodos
extremos, puede ser escrito como combinaci´ on lineal de esa base de modo sencillo:
S(x) =
n
¸
j=0
w
j
c
j
(x) +s
0
c
n+1
(x) +s
n
c
n+2
(x) (4.29)
Hemos construido por tanto una base un poco especial de un espacio vectorial de splines.
Ejercicio 4.4.2 Determinar la base de S

3
(Ω) para el caso n = 2 con x
0
= 0, x
1
= 0.5
x
2
= 1, correspondiente al problema de interpolaci´on anterior.
4.5 Interpolaci´ on spline con bases de soporte m´ınimo:
B-splines
Sea Ω una partici´ on del intervalo [a, b], ¦a = t
0
, t
1
, . . . , t
n−1
, t
n
= b¦. Un polinomio de
interpolaci´ on a trozos de grado k est´ a definido por n polinomios de grado k en cada uno
de los intervalos [t
i
, t
i+1
]. Sea p la clase de este polinomio a trozos. Por tanto, por un
lado el n´ umero de par´ ametros a definir es n (k +1), y el n´ umero de condiciones se refiere
a la continuidad de orden p en los enlaces (p + 1) (n + 1). Por tanto la dimensi´ on de
este espacio vectorial de funciones polin´ omicas a trozos de clase p y grado k es:
n (k + 1) −(p + 1) (n −1)
Si lo que tenemos es un spline de grado k, entonces su clase es p = k −1. Por tanto, la
dimensi´ on de ese espacio de splines est´ a dada por:
n (k + 1) −(k −1 + 1) (n −1) = n +k
Bases de este espacio hay muchas. Hemos estudiado en 4.4.1 c´ omo construirlas asociadas
a problemas de interpolaci´ on con soluci´ on ´ unica. Una vez que tenemos escrito nuestro
polinomio de interpolaci´ on como combinaci´ on lineal de una base y queremos evaluarlo
en un punto cualquiera, nos planteamos una serie de posibles mejoras:
P
n,k
(t) =
n+k−1
¸
i=0
a
i
e
i
(t) (4.30)
61
Ser´ıa conveniente que los e
i
(t) fuesen sencillos de evaluar (en el sentido de que su image
fuese nula en el mayor n´ umero posible de valores de t). Ser´ıa bueno tambi´en que si se
conocen ciertos valores de la funci´ on a interpolar, los ¦f
i
¦, la relaci´ on entre los coeficientes
a
i
y estos valores fuese mediante expresiones lo m´ as sencillas posibles. Una respuesta a
esto ´ ultimo son las bases (duales de las formas lineales que definen el problema de inter-
polaci´ on) las cuales permiten escribir el polinomio soluci´ on habitualmente del siguiente
modo:
P
n,k
(t) =
n
¸
i=0
f
i
e
i
(t) +
n+k−1
¸
i=n+1
a
i
e
i
(t) (4.31)
donde los coeficientes a
i
i = n + 1, . . . , n + k − 1, depender´ an del tipo de condiciones
adicionales elegidas, que se pueden referir a ciertos valores de la derivada, o de la segunda
derivada, etc.
Pero este tipo de planteamiento, que es fenomenal para calcular los coeficientes a
i
, tiene el
inconveniente de que las funciones de base cardinales e
i
(t) tienen un soporte
8
muy grande.
Ello obliga a que, independientemente del punto t donde queramos evaluar P
n,k
(t), haya
que extender los sumatorios desde i = 0 hasta i = n+k −1, con el consiguiente consumo
de recursos, como podemos observar en la figura 4.1.
Lo ideal ser´ıa que las funciones e
i
(t), siendo splines de grado k, tengan soporte m´ınimo,
e
t t t
t
t t
3
1 0 4
5
6 2 t
(t)
3
Figura 4.1: Dual de L
3
tal que L
3
(S) = S(t
3
).
o sea, que sean nulas en el mayor n´ umero posible de tramos [t
i
, t
i+1
] (ver figura 4.2).
A estos splines de soporte m´ınimo se les llama B-splines. Elegidos de modo adecuado,
e
t t t t t
t
3
1 0 4 5 6
2 t
(t)
3
Figura 4.2: Spline con soporte peque˜ no.
forman una base del espacio vectorial de los splines de grado k definidos sobre la partici´ on
¦a = t
0
, t
1
, t
2
, . . . , t
n−1
, t
n
= b¦.
8
El soporte de una funci´on son aquellos elementos de su dominio de imagen no nula.
62
Definici´ on 4.5.1 Orden r de un B-spline es el n´ umero de tramos en los que el B-spline
es no nulo.
e
t t t t t
t
3
1 0 4 5 6
2 t
(t)
3
Figura 4.3: Spline que no puede ser spline.
Calculemos el orden
9
r de un B-spline en funci´ on de su grado k. Si el spline es no nulo
en r tramos, en principio hay r + k par´ ametros libres (como si la partici´ on en la que
estuviese definido fuese ¦t
0
, t
1
, t
2
, . . . , t
n−1
, t
n
¦). Por continuidad hasta el orden p = k −1
del spline en los dos extremos donde se hace nulo, tenemos 2 k condiciones m´ as, con lo
que el n´ umero de par´ ametros se reduce de r + k a r − k. Si r −k = 0, el B-spline ser´ıa
nulo
10
, por tanto el m´ınimo r con sentido
11
es r = k + 1.
Definici´ on 4.5.2 Dado el conjunto de nodos
t
−r+1
< < t
−1
< a = t
0
< t
1
< t
2
< < t
n−1
< t
n
= b
Un B-spline de orden r = k + 1, asociado a los mismos es una funci´on polin´omica a
trozos de grado k, de clase k −1 en [a, b] y de soporte m´ınimo.
Construiremos una base de este espacio vectorial de polinomios, siguiendo las siguientes
convenciones
12
:
t ∈ [t
i
, t
i+r
) ⇒ B
k
i
(t) ≥ 0
t / ∈ [t
i
, t
i+r
) ⇒ B
k
i
(t) = 0
9
Cuando hablamos de un B-spline manejamos siempre tres ideas. Dos de ellas proceden del hecho de
que sea un spline:
grado grado k de cada uno de los tramos polinomiales que forman el spline.
clase si es un spline de grado k, su clase p es k- 1.
orden n´ umero r de tramos en los cuales el spline es no nulo.
10
Por ejemplo, si lo que tenemos es un spline parab´olico, no podemos conseguir con s´olo dos tramos
que sea distinto de cero, y luego vuelva a ser cero con continuidad en la funci´on y en su derivada. Me
explico. En el primer tramo, tenemos una par´abola, que viene definida por tres coeficientes a, b, y c.
El primer punto de esa par´abola vale cero y tiene derivada nula. Si adem´as queremos que la imagen
del ´ ultimo tramo sea distinta de cero y valga no se cuanto, ya tendremos completamente definida la
par´abola, y por tanto su derivada en ese punto valdr´a lo que valga. Una vez fijado el valor de la funci´on
en ese punto de enganche, a su vez el segundo tramo, tendr´a en su punto final derivada nula y valo nulo,
con lo que s´olo quedar´a un par´ametro libre: el valor de la funci´on en el enganche. Si adem´as queremos
que haya continuidad en la derivada, que ya viene fija por el otro tramo, creo que es demasiado pedirle a
una par´abola; no os parece?. Parece por la figura 4.3 que lo hemos conseguido, pero fijaos bien en cada
uno de los tramos. desde cuando una par´abola tiene un punto de inflexi´on?.
11
Por tanto el orden r de un spline parab´olico -k = 2- es r = k + 1 = 3
12
Esta forma de construcci´on de una base de B-splines del grado que sea no es la ´ unica posible. Sin
embargo, las expresiones que damos son de muy com´ un uso, y permiten abordar de modo sencillo los
problemas de interpolaci´on spline con este tipo de funciones de base.
63
4.5.1 B-splines de grado 0. k = 0, r = 1
B
t
[ [
a=t
t t=b
t
i
0
1
1
0
n-1 n
i t
(t)
i+1
Figura 4.4: B-spline de grado 0.
B
0
i
(t) =

0, t / ∈ [t
i
, t
i+1
)
1 t ∈ [t
i
, t
i+1
)
(4.32)
4.5.2 B-splines de grado 1. k = 1, r = 2
El soporte de cada elemento de la familia es de dos tramos. La base estar´ a formada por
n+k = n+1 splines. A˜ nadimos un punto antes
13
, para completar los nodos en los cuales
se van a apoyar los splines que formar´ an nuestra base
14
B
B B
t t
t t
t
i
-1 n-1
1
1 1
-1
1
0
n-1 n
i t t
(t)
(t) (t)
i+1 i+2
t
1
1 1
Figura 4.5: B-spline de grado 1.
B
1
i
(t) =

0, t / ∈ [t
i
, t
i+2
)
t−t
i
t
i+1
−t
i
, t ∈ [t
i
, t
i+1
)
t
i+2
−t
t
i+2
−t
i+1
, t ∈ [t
i+1
, t
i+2
)
(4.33)
4.5.3 B-splines de grado k. r = k + 1
Disponemos de una formulaci´ on recurrente que nos permite obtener la expresi´ on de una
base de B-splines de grado k en funci´ on de la correspondiente a k −1.
B
k
i
(t) =

t −t
i
t
i+k
−t
i

B
k−1
i
(t) +

t
i+k+1
−t
t
i+k+1
−t
i+1

B
k−1
i+1
(t) (4.34)
13
El valor t
−1
correspondiente a ese nodo adicional es arbitrario.
14
Los B-splines de grado cero coinciden en cierta medida con una base de splines cardinales. Si os
fij´ais B
0
i
(t
j
) = δ
i
j
y B
1
i
(t
j
) = δ
i+1
j
. Para grados m´as altos, esto no pasa, como luego veremos.
64
4.5.4 B-splines de grado 2 en una partici´ on equiespaciada. k =
2, r = 3
Usando esa f´ ormula recurrente, y teniendo en cuenta que la partici´ on consta de nodos
equiespaciados entre si -[h = t
i+1
−t
i
]-, podemos obtener f´ acilmente la expresi´ on corres-
pondiente a un elemento de un sistema de B-splines de este tipo.
B
2
i
(t) =

0, t / ∈ [t
i
, t
i+3
)
1
2h
2
(t −t
i
)
2
, t ∈ [t
i
, t
i+1
)
1
2h
2
[h
2
+ 2h(t −t
i+1
) −2(t −t
i+1
)
2
], t ∈ [t
i+1
, t
i+2
)
1
2h
2
(t
i+3
−t)
2
, t ∈ [t
i+2
, t
i+3
)
(4.35)
B
t
t
i
2
1/2
3/4
i+4
i
t
t t
(t)
i+1
i+2 i+3
t
i-1
Figura 4.6: B-spline de grado 2.
4.5.5 B-splines de grado 3 en una partici´ on equiespaciada. k =
3, r = 4
Se puede usar otra vez la f´ ormula recurrente para obtener la expresi´ on anal´ıtica de cada
uno de los cuatro tramos del B-spline c´ ubico gen´erico, pero nos limitaremos a dar en la
figura 4.7 sus valores en los nodos. En cada caso cada uno de estos tramos se obtiene
f´ acilmente.
t t t t t t
t
i
3
B
i i+1 i+2 i+3 i+4 i+5
i-1
1/6
1/6
2/3
Figura 4.7: B-spline de grado 3.
65
4.5.6 Partici´ on de la unidad
Para construir una base de B-splines c´ ubicos, se har´ıa de modo similar. Se puede de-
mostrar que este sistema de splines cumple una propiedad muy importante: son una
partici´ on de la unidad. 0 sea,:
n−1
¸
i=−r+1
B
k
i
(t) = 1 (4.36)
4.5.7 Interpolaci´ on con B-splines
Un problema t´ıpico de interpolaci´ on de Lagrange, nos conduce a plantear el siguiente
sistema de ecuaciones.
j−1
¸
i=j−r+1
a
i
B
k
i
(t
j
) = f
i
, j = 0, . . . , n (4.37)
Se tienen (n + k) inc´ ognitas, los a
i
; y (n + 1) ecuaciones. Si k = 1, el sistema es
determinado, y la soluci´ on es ´ unica. Si k > 1 hay que imponer condiciones adicionales,
sobre la funci´ on o sus derivadas hasta el orden que convenga en cada problema.
Ejercicio 4.5.1
Dada la siguiente tabla de valores
15
:
x
0
x
1
x
2
x
3
x
4
x
4
f
0
f
1
f
2
f
3
f
4
f

4
se pide encontrar los coeficientes a
i
que permiten escribir de modo ´ unico el spline pa-
rab´ olico de interpolaci´ on de esa tabla como combinaci´ on lineal de la base de B-splines
estudiada en el curso.
Soluci´ on:
a
−2
= 2(f
0
−f
1
+f
2
−f
3
) +f
4

h
2
f

4
a
−1
= 2(f
1
−f
2
+f
3
) −f
4
+
h
2
f

4
a
0
= 2(f
2
−f
3
) +f
4

h
2
f

4
a
1
= 2f
3
−f
4
+
h
2
f

4
a
2
= f
4

h
2
f

4
a
3
= f
4
+
h
2
f

4
4.6 Interpolaci´ on en varias variables.
La generalizaci´ on a varias variables se puede hacer de modo natural teniendo en cuenta la
teor´ıa general. Por ejemplo, el espacio E donde se busca la soluci´ on al problema puede ser
un espacio de polinomios en varias variables, y se le imponen determinadas condiciones
a un polinomio que pueden dar lugar o no a una soluci´ on ´ unica.
15
Propuesto por J. L´azaro Redondo.
66
4.6.1 Interpolaci´ on en recintos rectangulares
Podemos hacer un an´ alisis interesante en dos variables planteando el problema de in-
terpolaci´ on de Lagrange en una malla rectangular en cuyos nodos se sabe el valor de la
funci´ on a interpolar f: Sea
G = ¦(x, y) ∈ IR
2
[a ≤ x ≤ b, c ≤ y ≤ d¦
y sean dos familias de nodos
a = x
0
< x
1
< < x
m
= b, c = y
0
< y
1
< < y
n
= d
Esto define (m+1)(n+1) nodos (x
i
, y
j
) que est´ an dentro del recinto rectangular. Entonces
el problema de interpolaci´ on de Lagrange consiste en buscar un polinomio en dos variables
P ∈ P
mn
tal que:
P(x
i
, y
j
) = f(x
i
, y
j
), 0 ≤ i ≤ m, 0 ≤ j ≤ n
Se puede demostrar bastante f´ acilmente que este problema tiene soluci´ on y esa soluci´ on
es ´ unica, y adem´ as se escribe en funci´ on de la base de Lagrange para cada una de las
variables y su familia de nodos correspondiente.
P(x, y) =
¸
0≤i≤m,0≤j≤n
f(x
i
, y
j
)l
i
(x)l
j
(y) (4.38)
Cuando el recinto no es rectangular o las condiciones son m´ as complicadas, el tratamiento
de cada problema es diferente.
4.7 Referencias recomendadas para este tema.
El libro de H¨ ammerlin et al.[7] cubre bien la parte de splines y el texto de Kincaid[8]
hace una aproximaci´ on cl´ asica al problema de interpolaci´ on.
67
Cap´ıtulo 5
Aproximaci´ on de funciones.
5.1 Introducci´ on
Nuestro objetivo fundamental ser´ a investigar la aproximaci´ on de funciones, elementos de
espacios funcionales de dimensi´ on infinita (fundamentalmente C([a, b])) mediante fun-
ciones m´ as simples, que var´ıan en general en espacios de dimensi´ on finita.
Para el analista num´erico las funciones de aproximaci´ on deben poseer ciertas propiedades.
• Dada una funci´ on, debe ser posible aumentar arbitrariamente la bondad de las apro-
ximaciones, incrementando adecuadamente la dimensi´ on del espacio de las funciones
de aproximaci´ on.
• Las funciones de aproximaci´ on deben ser simples en el sentido de que puedan ser
manipuladas (integradas, diferenciadas, etc.) con facilidad.
• Debe existir un cuerpo de teor´ıa bien desarrollado que permita el an´ alisis de los
algoritmos num´ericos que resulten de su uso.
El teorema cl´ asico de aproximaci´ on de Weierstrass establece la utilidad y potencia de
los polinomios como herramienta para la aproximaci´ on de funciones continuas, y los
convierte en una elecci´ on ideal de funciones de aproximaci´ on. Sus diferentes extensiones
(polinomios a trozos, splines...), enriquecen las familias de funciones que se usan en
aproximaci´ on. Pero hay otras familias que cumplen satisfactoriamente las tres exigencias
anteriores, por ejemplo, las funciones trigonom´etricas.
5.2 El problema general de aproximaci´ on.
Se formula el problema general de aproximaci´ on en espacios vectoriales normados ya que
la m´etrica asociada a la norma permite medir la calidad de la aproximaci´ on. Como ya
hemos comentado, el espacio de base es C([a, b]) al que se le suministrar´ an diferentes
normas. La norma | |

de la convergencia uniforme o de Chebyshev, las normas | |
p
p ≥ 1 de las que | |
2
es de espacio prehilbertiano (espacio vectorial con un producto
escalar definido positivo) y otras normas asociadas a distintos productos escalares con
”peso”
w : (a, b) → R, w(x) > 0 para x ∈ (a, b)
con
0 <

b
a
w(x)dx < ∞
definidos por
< f, g >=

b
a
w(x)f(x)g(x)dx
y cuya norma asociada es
|f| =

b
a
w(x)f
2
(x)dx
Las normas estrictas ser´ an importantes. Recordemos que estas normas poseen la propie-
dad siguiente:
Si f, g ∈ (V, | |) f = 0, g = 0 cumplen que
|f +g| = |f| +|g|
entonces existe λ ∈ K(= Ro C) con g = λf.
Se comprueba que λ es siempre real y positivo y se verifican adem´ as las siguientes
propiedades:
• (C([a, b]), | |) no est´ a estrictamente normado f(x) = 1 y g(x) = x (∀x ∈ [a, b])
satisfacen
|f +g| = 1 +b = |f| +|g|
y son linealmente independientes.
• | |
2
es una norma estricta en I C
n
.
• (R
3
, | |

) no est´ a estrictamente normado x = (1, 0, 0), y = (1, 1, 0) linealmente
independientes, cumplen
|x|

= 1, |y|

= 1 y |x +y|

= 2
• (C([a, b]), | |
1
) tampoco est´ a estrictamente normado. Con las mismas f y g de
antes
|1 +x|
1
=

1
0
(1 +x)dx =
3
2
= |1|
1
+|x|
1
=

1
0
dx +

1
0
xdx = 1 +
1
2
Teorema 5.2.1 Toda norma asociada a un producto escalar es estricta ya que en la
desigualdad de Schwarz, < f, g >≤ |f||g| se produce la igualdad cuando f y g son
linealmente dependientes e igual sucede con la desigualdad triangular.
69
5.3 Mejor aproximaci´ on
Sea (V, | |) un espacio vectorial normado, T una parte arbitraria de V y v un elemento
de V que se desea aproximar mediante elementos de T. Parece razonable decir que u ∈ T
es una buena aproximaci´ on de v si la distancia |v −u| es peque˜ na.
Definici´ on 5.3.1 Un elemento ˆ u ∈ T es una mejor aproximaci´on (m.a.) de v si
|v − ˆ u| ≤ |v −u| (∀u ∈ T)
Ejemplo 5.3.1
Supongamos V = R
2
, | | = | |
2
y sea T = ¦x ∈ V : |x| ≤ 1¦. Para todo y ∈ R
2
−T
existe un solo ˆ x ∈ T tal que
|y − ˆ x|
2
≤ |y −x|
2
(∀x ∈ T).
Ejemplo 5.3.2
Si T es una bola abierta de centro (0, 0) y radio unidad, no existe ning´ un ˆ x ∈ T tal que
para todo x de T, |y − ˆ x|
2
≤ |y −x|
2
.
Ejemplo 5.3.3
Sean (V, | |) = (C([0, 1]), | |

) y T = ¦u ∈ V ; u(x) = exp(βx), β > 0¦. Sea v la
funci´ on constante v(x) =
1
2
. Hallar una m.a. ˆ u ∈ T de v equivale a hallar
ˆ
β > 0 tal que:
|v − ˆ u|

=
max
x ∈ [0, 1]

1
2
−exp(
ˆ
βx)

sea m´ınimo para todo u ∈ T, pero
|v −u|

=
max
x ∈ [0, 1]

1
2
−exp(βx)

= exp(β) −
1
2
para un β fijo esa diferencia es mayor cuando x = 1 y el m´ınimo de exp(β) −
1
2
para
β > 0 no existe (si β ≥ 0 el m´ınimo se alcanzar´ıa para β = 0) luego al igual que en
el ejemplo 5.3.2 no existen mejores aproximaciones. La diferencia entre los ejemplos
anteriores radica en si T posee o no la propiedad de compacidad.
Definici´ on 5.3.2 Se define la distancia de v a T o separaraci´on m´ınima de v y T, que
denotaremos como es habitual d(v, T), como
d(v, T) =
inf
u ∈ T
|v −u|
Este n´ umero que siempre existe ya que el conjunto ¦|v −u|, u ∈ T¦ est´ a minorado por
cero.
Definici´ on 5.3.3 Un elemento ˆ u ∈ T es la mejor aproximaci´on de v en T si
|v − ˆ u| ≤ d(v, T)
En el ejemplo 5.3.2 , d(y, T) = |y| − 1 aunque no haya ˆ x ∈ T donde se alcance esa
distancia. En el ejemplo 5.3.3, d(v, T) =
1
2
.
70
5.4 Existencia y unicidad de una mejor aproximaci´ on
La posible existencia de una m. a. as´ı como su eventual unicidad dependen de las
propiedades que posea T. Como veremos, la compacidad y la convexidad estricta, son
propiedades clave para el an´ alisis de esos problemas.
5.4.1 Sucesi´ on minimizante en T
Una sucesi´ on de elementos ¦u
n
¦
n∈IN
de elementos de T ⊆ V se dice que es minimizante
para v ∈ V si
lim
n→∞
|v −u
n
| = d(v, T)
Por la forma de definir la distancia d(v, T) siempre va a existir una sucesi´ on minimizante,
pero la convergencia de |v −u
n
| a d(v, T) no exige en conjuntos T arbitrarios que ¦u
n
¦
converja a un elemento de T ni aun siquiera a uno de V , pero en un compacto T, toda
sucesi´ on ¦u
n
¦ y en particular toda sucesi´ on convergente a un valor de adherencia u

de
¦u
n
¦ que est´ a en T, luego u

es una m.a. de v en T.
Teorema 5.4.1 Si T es compacto en v, siempre existe una m.a. de v en T.
Ejemplo 5.4.1
Consideremos ahora
ˆ
T = T −T

con
T

= ¦x ∈ T : x
1
> 0; x
2
> 0¦
(0, 1) y (1, 0) son mejores aproximaciones en
ˆ
T de (1, 1) ∈ R
2
.
En los distintos ejemplos hemos vistos casos con dos soluciones, soluci´ on ´ unica y sin
soluci´ on. El an´ alisis de la unicidad de la m. a. exige considerar las propiedades de
convexidad estricta de T. Recordemos que T es convexo si dados dos puntos u
1
y u
2
cualesquiera de T, todos los puntos del segmento que los une [u
1
, u
2
] = ¦λu
1
+ (1 −
λ)u
2
; 0 ≤ λ < 1¦ est´ an en T. T es adem´ as estrictamente convexo, si todos los elementos
de [u
1
, u
2
] son puntos interiores a T (no hay segmentos [u
1
, u
2
] contenidos en la frontera
de T).
Teorema 5.4.2 Si T es compacto y estrictamente convexo en V , para todo v ∈ V existe
un ´ unico ˆ u ∈ T mejor aproximaci´on de v en T.
5.5 Aproximaci´ on lineal
El caso m´ as importante y ´ unico que vamos a considerar a partir de ahora es cuando
T = U subespacio vectorial de V de dimensi´ on finita envoltura lineal de la familia libre
¦u
1
, . . . , u
n
¦.
El problema de hallar una m.a. de v ∈ V en U, se reduce a hallar
ˆ u =
n
¸
i=1
α
i
u
i
71
tal que
d(α
1
, . . . , α
n
) = d(v, ˆ u) =

v −
n
¸
i=1
α
i
u
i

sea m´ınima para todo (α
1
, . . . , α
n
) ∈ R
n
.
El concepto de acotaci´ on (mucho m´ as simple que los conceptos de compacidad y convex-
idad estricta antes usados) es aqu´ı suficiente para analizar las sucesiones minimizantes
en U.
Lema 5.5.1 Toda sucesi´on minimizante en U est´a acotada
Teorema 5.5.1 Existencia de una m.a. en la aproximacion lineal.
Si U es un subespacio de V de dimensi´on finita, para cada elemento v ∈ V existe al
menos una mejor aproximaci´on ˆ u ∈ U.
Consecuencia del lema anterior y de que U es cerrado, luego ¦u
n
¦ tiene al menos un valor
de adherencia que est´ a en U.
Teorema 5.5.2 Unicidad de la m.a. en subespacios de dimension finita.
Si V est´a estrictamente normado, la mejor aproximaci´on de v ∈ V desde un subespacio
arbitrario de dimensi´on finita es ´ unica.
Corolario 5.5.1 En un e.v.n. cualquiera podemos asegurar en general que la m.a. de
v ∈ V en U o bien es ´ unica o bien existen infinitas.
A pesar de su importancia, (C([a, b]), | |

) no est´ a estrictamente normado por lo que no
podremos establecer conclusiones de unicidad basadas exclusivamente en las propiedades
de las normas. Sin embargo, existen subespacios vectoriales de dimensi´ on finita de
(C([a, b]), | |

) para los que la mejor aproximaci´ on es ´ unica.
Corolario 5.5.2 En un espacio prehilbertiano V , el problema de la determinaci´on de
una mejor aproximaci´on ˆ u ∈ U de v ∈ V tiene soluci´on ´ unica.
Este corolario se deduce de 5.5.2 y del teorema 5.2.1. Por otro lado, se puede demostrar
que I C
n
con la | |
p
est´ a estrictamente normado, as´ı como L
p
([a, b]) y C([a, b]) para | |
p
con 1 < p < ∞ (excluimos los casos p = 1 y p = 2).
5.6 Aproximaci´ on en espacios prehilbertianos.
5.6.1 General.
Adem´ as de las aproximaciones en la norma del m´ aximo que consideraremos m´ as ade-
lante, en las que el objetivo es conseguir que la m´ axima desviaci´ on entre la funci´ on y su
aproximaci´ on sea lo m´ as peque˜ na posible, es importante considerar las aproximaciones
en la norma | |
2
en las que el error global es importante y conllevan un proceso de
suavizado (reducci´ on del efecto de errores aleatorios, aspecto m´ as suave de la funci´ on
entre nodos, etc.)
72
5.6.2 Caracterizacion de la mejor aproximaci´ on.
Sea V un espacio vectorial provisto de un producto escalar <, > y de su norma | . |
asociada y sea U un subespacio vectorial de dimensi´ onfinita de V .
Seg´ un hemos establecido antes, en un espacio prehilbertiano V , el problema de la deter-
minaci´ on de una mejor aproximaci´ on ˆ u ∈ U de v ∈ V tiene soluci´ on ´ unica.
Teorema 5.6.1 Teorema de Caracterizaci´on.
La mejor aproximaci´on
ˆ
f de f ∈ V en U se caracteriza por < f −
ˆ
f, g >= 0 para todo
g ∈ U (f −
ˆ
f ∈ U

).
Si < f −
ˆ
f, g >= 0 para todo g ∈ U, descompongamos g en la forma
g =
ˆ
f +g

(g

= g −
ˆ
f)
como
|(f −
ˆ
f) −g

|
2
= '(f −
ˆ
f) −g

, (f −
ˆ
f) −g

`
y
'(f −
ˆ
f), g

` = 0
por hip´ otesis, entonces
|f −g|
2
= |(f −
ˆ
f) −g

|
2
= |f −
ˆ
f|
2
+|g

|
2
luego
|f −
ˆ
f|
2
≤ |f −g|
2
(∀g ∈ U)
La unicidad es consecuencia de la propiedad estricta de la norma.
Supongamos que U = L(g
1
, . . . , g
n
) y
ˆ
f =
¸
n
j=1
ˆ c
j
g
j
. Falta comprobar que esas condi-
ciones de ortogonalidad permiten calcular f. En efecto, ˆ c = (ˆ c
1
, . . . , ˆ c
n
) debe ser soluci´ on
del sistema de ecuaciones ecuaciones normales:
<
ˆ
f −f, g
k
>=<
n
¸
j=1
ˆ c
j
g
j
−f, g
k
>= 0 k = 1, . . . , n
que se pueden escribir en la forma
n
¸
j=1
ˆ c
j
< g
j
, g
k
>=< f, g
k
>
La soluci´ on de las ecuaciones normales es siempre ´ unica ya que la independencia lineal
de los vectores g
1
, . . . , g
n
implica que la matriz de Gram asociada es regular.
73
f
$
$ f c g
j j
= × å
c g
j j
× å
U
f
$
$ f c g
j j
= × å
c g
j j
× å
U
Figura 5.1: Proyecci´ on ortogonal
Comentarios
• La soluci´ on ´ unica del problema de aproximaci´ on planteado es la proyecci´ on ortog-
onal de f sobre U (completo por ser de dimensi´ on finita).
• En (L
2
([0, 1]), | |
2
). Para g
j
= x
j−1
< g
i
, g
j
>=
1
i +j −1
y la matriz asociada a las ecuaciones normales es la archifamosa mal condicionada
matriz de Hilbert. Para n > 5 ´ o 6, el tratamiento del problema mediante las
ecuaciones normales es desde el punto de vista computacional intratable.
Un caso especialmente favorable se produce cuando esa base ortoqonal. Las ecuaciones
normales se reducen entonces a
ˆ c
k
< g
k
, g
k
>=< f, g
k
>
por lo que
ˆ c
k
=
< f, g
k
>
< g
k
, g
k
>
k = 1, . . . , n
Utilizando el metodo de Gram-Schmidt siempre podemos construir una base ¦g
1
, . . . , g
n
¦
de U ortonormada. En este caso la soluci´ on de las ecuaciones normales es simplemente
ˆ c
k
=< f, g
k
> k = 1, . . . , n
Como ˆ c
k
no depende de los valores anteriores ˆ c
l
(l < k) nos planteamos el problema de
aproximaci´ on dejando la dimension de U indeterminada, dimensi´ on que lueqo fijamos en
base a la exactitud deseada.
Corolario 5.6.1 El error |
ˆ
f −f| satisface la relaci´on
|
ˆ
f −f|
2
= |f|
2
−|
ˆ
f|
2
74
En efecto, |f|
2
= |(f −
ˆ
h) +
ˆ
h|
2
concluye recordando que
< f −
ˆ
f,
ˆ
f >= 0
Ese error |
ˆ
f −f| se puede calcular f´ acilmente usando el corolario y la igualdad
|
ˆ
f|
2
=<
ˆ
f −f +f,
ˆ
f >=<
ˆ
f −f,
ˆ
f > + < f,
ˆ
f >
de modo que (f −
ˆ
f es ortogonal a f ∈ U)
|
ˆ
f −f|
2
= |f|
2
−|
ˆ
f|
2
= |f|
2
− < f,
`
f >
luego
|
ˆ
f −f| =

|f|
2

n
¸
i=1
ˆ c
j
< f, g
j
>
1
2
5.6.3 Error cuadr´atico medio
(C([a, b]), | |
2
) es un espacio prehilbertiano. Se suele aqu´ı promediar el error |
ˆ
f −f|
2
2
sobre todo el intervalo. La cantidad resultante
µ =
|
ˆ
f −f|
2

b −a
se llama el error cuadr´ atico medio. La f´ ormula de la desviaci´ on
|
ˆ
f −f| =

|f|
2

n
¸
i=1
ˆ c
j
< f, g
j
>
1
2
implica la desigualdad
0 ≤

|f|
2

n
¸
i=1
ˆ c
j
< f, g
j
>
1
2
Si ¦g
1
, . . . , g
n
¦ es una base ortonormada de U, ˆ c
k
=< f, g
k
>, k = 1, . . . , n luego:
0 ≤ |f|
2

n
¸
i=1
ˆ c
2
j
y
n
¸
i=1
ˆ c
2
j
≤ |f|
2
desigualdad v´ alida tambi´en para sistemas ortonormados infinito numerables. En este
caso se llama desigualdad de Bessel.

¸
i=1
ˆ c
2
j
≤ |f|
2
75
5.6.4 Polinomios ortogonales
Polinomios de Legendre
En C([−1, 1]) definimos el producto escalar habitual
< f, g >=

1
−1
f(x)g(x)dx
(relativo a la funci´ on peso w(x) = 1 en [−1, 1]).
La familia de polinomios que se obtienen cuando aplicamos el m´etodo de ortonormal-
izaci´ on de Gram-Schmidt a la familia libre
g
j
(x) = x
j−1
(j = 1, 2, . . . , n)
se denominan polinomios de Legendre.
Buscamos un sistema ¦L
j
¦ de polinomios con L
j
∈ P
j
que satisfacen las condiciones
< L
i
, L
j
>= δ
ij
para i, j = 1, 2, . . . , n.
No entraremos aqu´ı en el proceso de la determinaci´ on de los polinomios de Legendre
L
n
, pero incluiremos la f´ ormula de Rodrigues que nos da los polinomios de Legendre
normalizados
L
n
(t) =
1
2
n
n!

2n + 1
2
d
n
(t
2
−1)
n
dt
n
Por ejemplo,
L
0
(t) =
1

2
, L
1
(t) =

3
2
t
L
2
(t) =
1
2

5
2
(3t
2
−1), L
3
(t) =
1
2

7
2
(5t
3
−3t),
etc. Si consideramos el problema de hallar el polinomio ˆ p en P
n−1
que mejor aproxime
al monomio x
n
en [−1, 1] respecto a la norma | |
2
andamos buscando el polinomio
ˆ p = ˆ c
1
g
1
+ + ˆ c
n
g
n
cuyos coeficientes ˆ c
i
son soluci´ on de las ecuaciones normales
< f −(ˆ c
1
g
1
+ + ˆ c
n
g
n
), g
k
>= 0, 1 ≤ k ≤ n
La ´ unica soluci´ on de este sistema es el polinomio de Legendre con m´ aximo coeficiente 1.
ˆ
L
n
= f −(ˆ c
1
g
1
+ + ˆ c
n
g
n
)
y por tanto, ˆ p = f −
ˆ
L
n
. Dos comentarios interesantes sobre estos polinomios:
• El polinomio
ˆ
L
n
tiene norma m´ınima en el sentido que
|
ˆ
L
n
|
2
≤ |p|
2
para todos los polinomios p de ε
n
donde
ε
n
= ¦p ∈ P
n
: p(x) = x
n
+a
n−1
x
n−1
+ +a
0
¦
• Los polinomios de Legendre con coeficiente m´ aximo 1. son la mejor aproximaci´ on
de la funci´ on nula en [−1, 1] respecto a la norma | |
2
.
76
Los polinomios de Chebychev revisados
En C([−1, 1]) definimos el producto escalar
< f, g >=

1
−1
f(x)g(x)

1 −x
2
dx (5.1)
(relativo a la funci´ on peso
w(x) =
1

1 −x
2
en [−1, 1]).
Los polinomios de Chebychev se definen en [−1, 1] por
T
n
(x) = cos(narccos x)
son ortogonales respecto a ese producto escalar5.1, m´ as precisamente,
< T
i
, T
j
>=

0 si i = j
π
2
si i = j = 0
π si i = j = 0
En efecto, pongamos x = cos ϕ
< T
i
, T
j
>=

1
−1
T
i
(x)T
j
(x)

1 −x
2
dx =

π
0
cos iϕcos jϕdϕ = 0
si i = j y
< T
i
, T
j
>=

1
−1
T
i
(x)T
j
(x)

1 −x
2
dx =

π
0
cos
2
iϕdϕ =

π si i = 0
π
2
si i = 0
si i = j, luego |T
0
|
2
= π y |T
i
|
2
=
π
2
si i = 0. Obtenemos una familia ortonormal
completa relativa al producto escalar de peso
1

1−x
2
poniendo:

T
0
|T
0
|
,
T
i
|T
i
|
¸
es decir,

1

π
T
0
,

π
2
T
i
¸
forma un sistema ortonormado completo en [−1, 1] respecto a la funci´ on peso
1

1−x
2
. Los
polinomios de Chebychev se definen recursivamente como:
T
0
(x) = 1
T
1
(x) = x
T
n+1
(x) = 2xT
n
(x) −T
n−1
(x) para n ≥ 1
77
Las formas expl´ıcitas para los primeros T
n
son las siguientes:
T
2
(x) = 2x
2
−1
T
3
(x) = 4x
3
−3x
T
4
(x) = 8x
4
−8x
2
+ 1
T
5
(x) = 16x
5
−20x
3
+ 5x
T
6
(x) = 32x
6
−48x
4
+ 18x
2
−1
y la expresi´ on de los monomios de menor grado en funci´ on de la base de Chebychev es
la siguiente.
1 = T
0
x = T
1
x
2
=
1
2
(T
0
+T
2
)
x
3
=
1
4
(3T
1
+T
3
)
x
4
=
1
8
(3T
0
+ 4T
2
+T
4
)
x
5
=
1
16
(10T
1
+ 5T
3
+T
5
)
x
6
=
1
32
(10T
0
+ 15T
2
+ 6T
4
+T
6
)
x
7
=
1
64
(35T
1
+ 21T
3
+ 7T
5
+T
7
)
x
8
=
1
128
(35T
0
+ 56T
2
+ 28T
4
+ 8T
6
+T
8
)
x
9
=
1
256
(126T
1
+ 84T
3
+ 36T
5
+ 9T
7
+T
9
)
• Insistamos en que toda funci´ on f ∈ C([−1, 1]) admite un desarrollo en serie de
Fourier del tipo
f =
c
0
2
+
¸
n∈IN
c
n
T
n
donde la sucesi´ onde sumas parciales,
ˆ
f
n
(x) =
c
0
2
+
n
¸
k=1
c
k
T
k
(x)
con
c
k
=
2
π

1
−1
f(x)T
k
(x)

1 −x
2
dx
=
2
π

π
0
f(cos ϕ) cos kϕdϕ
=
1
π

π
−π
f(cos ϕ) cos kϕdϕ
78
suministra aproximaciones a f que convergen en la norma asociada al producto
escalar con peso w considerado.
• Con la hip´ otesis, f ∈ C
2
([−1, 1]), se prueba que esta sucesi´ on de aproximaciones
converge a f respecto a | |

. Este resultado es de especial inter´es ya que, dada
una funci´ on f ∈ C
2
([−1, 1]), se puede obtener una buena estimaci´ on de la m.a. en
la norma del m´ aximo ˆ p ∈ P
n
tomando la suma parcial
ˆ
f
n
(x) =
c
0
2
+
n
¸
k=1
c
k
T
k
(x)
Este m´etodo es particularmente ´ util cuando los c
k
son f´ acilmente calculables. En la
pr´ actica, dichos coeficientes nunca se calculan mediante integraci´ on expl´ıcita, sino
utilizando t´ecnicas de integraci´ on num´erica.
5.6.5 Desarrollo en serie de Fourier de una funci´ on peri´ odica.
General
Vamos a estudiar el desarrollo en serie de Fourier de una funci´ on peri´ odica como un caso
particular de aproximaci´ on en espacios prehilbertianos. Una funci´ on se dice peri´ odica de
periodo T si
f(x +T) = f(x)
El menor de los periodos se llama periodo fundamental, y su frecuencia asociada, fre-
cuencia fundamental.
w
0
=

T
El espacio ambiente es E = L
2
([0, T], I C), funciones de cuadrado integrable, que toman
valores en los complejos. Se consideran solamente en el periodo [0, T], aunque es indifer-
ente la selecci´ on del periodo considerado [x, x +T]
El producto escalar del que se deriva la norma:
'f, g` =

T
0
f(t)g(t)dt
El subespacio vectorial donde se busca la mejor aproximaci´ on ser´ a:
T = L(φ
k
(t))
k=0,±1,±2,···,±n
φ
k
(t) = e
jkw
0
t
= cos (kw
0
t) +jsen(kw
0
t)
Ortogonalidad de la base.
Vamos a ver que este es un sistema ortogonal cuando usamos el producto escalar anterior:

k
, φ
m
` =

T
0
φ
k
(t)φ
m
(t)dt =

T
0
e
jkw
0
t
e
−jmw
0
t
dt =

T
0
e
j(k−m)w
0
t
dt
79
=

¦k = m¦ ;

T
0
dt = T
¦k = m¦ ;
1
j(k−m)w
0
e
j(k−m)w
0
t

T
0
= ¦w
0
T = 2π¦ = 0
Se deja como ejercicio el que comprob´eis que si el intervalo de integraci´ on para el pro-
ducto escalar se traslada, la familia de funciones sigue siendo ortogonal. O sea, el nuevo
producto escalar ser´ıa:
'f, g` =

x+T
x
f(t)g(t)dt
A partir de ahora, al trabajar con las integrales, las extenderemos a un periodo, inde-
pendientemente del punto en el que empiece, y lo notaremos as´ı.
'f, g` =

T
f(t)g(t)dt
C´alculo de la mejor aproximaci´ on.
Para aproximar una funci´ on f ∈ E en T, como E es prehilbertiano, y T tiene dimensi´ on
finita, 2n + 1, la mejor aproximaci´ on existe, es ´ unica y es la proyecci´ on ortogonal de f
sobre T, f

.
Se trata de encontrar los coeficientes c
k
que permiten expresar f

en la base de T.
f

=
n
¸
m=−n
c
m
φ
m
Como f

es la proyecci´ on ortogonal de f sobre T, entonces, para −n ≤ k ≤ n:
'f −f

, φ
k
` = 0 ⇔ 'f

, φ
k
` = 'f, φ
k
` ⇔ '
n
¸
m=−n
c
m
φ
m
, φ
k
` = 'f, φ
k
`
Y usando la bilinealidad del producto escalar y la ortogonalidad del sistema, llegamos a
que:
c
k
=
1
T

T
f(t)e
−jkw
0
t
dt
Condici´ on para que la mejor aproximaci´ on sea real.
f

ser´ a real si y solamente si:
f

= f

⇔ f

−f

= 0
n
¸
k=−n
c
k
φ
k

n
¸
k=−n
c
k
φ
k
=

φ
k
= φ
−k
¸
=
n
¸
k=−n
c
k
φ
k

n
¸
k=−n
c
k
φ
−k
=
n
¸
k=−n
c
k
φ
k

n
¸
k=−n
c
−k
φ
k
80
=
n
¸
k=−n
(c
k
−c
−k
) φ
k
= 0
⇔ c
k
= c
−k
C´ omo es la mejor aproximaci´ on si f es real.
Veamos, si como parece razonable, la mejor aproximaci´ on es entonces real:
c
k
=
1
T

T
f(t)e
−jkw
0
t
dt
c
−k
=
1
T

T
f(t)e
jkw
0
t
dt
=
1
T

T
f(t)cos (kw
0
t) dt +j

T
f(t)sen(kw
0
t) dt
=
1
T

T
f(t)cos (kw
0
t) dt −j

T
f(t)sen(kw
0
t) dt
=
1
T

T
f(t)e
−jkw
0
t
dt
= c
k
Por tanto, c
−k
= c
k
, y su serie de Fourier es tambi´en real. O sea, que la serie de Fourier
de una se˜ nal real es tambi´en real. Veamos en qu´e se convierte dicha serie de Fourier.
c
k
=
1
T

T
f(t)e
−jkw
0
t
dt
=
1
T

T
f(t)cos (kw
0
t) dt −j

T
f(t)sen(kw
0
t) dt
= A
k
+jB
k
Por tanto:
A
k
=
1
T

T
f(t)cos (kw
0
t) dt
B
k
= −
1
T

T
f(t)sen(kw
0
t) dt
Como c
−k
= c
k
, c
−k
= A
k
−jB
k
, y por tanto:
f

(t) =
n
¸
k=−n
c
k
φ
k
(t)
= c
0
+
1
¸
k=−n
c
k
φ
k
(t) +
n
¸
k=1
c
k
φ
k
(t)
= c
0
+
n
¸
k=1
c
−k
φ
−k
(t) +
n
¸
k=1
c
k
φ
k
(t)
= c
0
+
n
¸
k=1
c
k
φ
−k
(t) +
n
¸
k=1
c
k
φ
k
(t)
81
= c
0
+
n
¸
k=1

(A
k
−jB
k
) e
−jkw
0
t
+ (A
k
+jB
k
) e
jkw
0
t

= c
0
+
n
¸
k=1

A
k

e
jkw
0
t
+e
−jkw
0
t

+jB
k

e
jkw
0
t
−e
−jkw
0
t

= c
0
+ 2
n
¸
k=1
[A
k
cos (kw
0
t) −B
k
sen(kw
0
t)]
En suma:
f

(t) =
1
T

T
f(t)dt
+
2
T
n
¸
k=1
¸
cos (kw
0
t)

T
f(u)cos (kw
0
u) du

+
2
T
n
¸
k=1
¸
sen(kw
0
t)

T
f(u)sen(kw
0
u) du)

Que es el t´ıpico desarrollo en serie de senos y cosenos de la funci´ on f.
5.6.6 Aproximaci´ on discreta: m´ınimos cuadrados.
Hasta ahora hemos aproximado funciones definidas anal´ıticamente mediante otras fun-
ciones anal´ıticas m´ as sencillas. Sin embargo, lo m´ as habitual es que la funci´ on que se
pretende aproximar no se conozca de modo anal´ıtico, sino a trav´es de una definici´ on
puntual. Es muy com´ un conocer datos de un determinado experimento. A este tipo de
problema nos dedicaremos en esta secci´ on.
Vamos a abordar el m´etodo de aproximaci´ on por m´ınimos cuadrados que todos conoc´eis,
discuti´endolo como un caso particular de aproximaci´ on en un espacio prehilbertiano ade-
cuado. Se tienen (x
i
, y
i
)
i=0,n
, n+1 pares de valores con abscisas distintas. Buscamos una
funci´ on f ∈ L(g
1
, . . . , g
m
), cuyos valores en (x
0
, . . . , x
n
) aproximen los valores (y
0
, . . . , y
n
)
tan bien como sea posible. A esa familia de funciones (g
j
)
j=0,n
, s´ olo les vamos a exigir
que sean continuas. Para estudiar la bondad de la aproximaci´ on definimos la siguiente
medida del error. Buscamos f ∈ U = L(g
1
, . . . , g
m
), tal que:
n
¸
i=0
[y
i
−f (x
i
)[
2

n
¸
i=0
[y
i
−g (x
i
)[
2
∀g ∈ U
Como ya hemos comentado, para utilizar todo lo que sabemos de aproximaci´ on, debemos
formular nuestro problema en un espacio prehilbertiano adecuado. Ese espacio va a ser
IR
n+1
, con el producto escalar habitual en los espacios vectoriales:
'a, b` =
n
¸
i=0
a
i
b
i
∀a, b ∈ IR
n+1
Este producto escalar induce la norma eucl´ıdea tambi´en habitual.
| a |
2
=

'a, a` =

n
¸
i=0
a
2
i
∀a ∈ IR
n+1
82
Vamos a jugar, por tanto, simult´ aneamente con funciones continuas, elementos de un
espacio vectorial de dimensi´ on infinita, y con elementos de IR
n+1
, de dimensi´ on finita.
Estos elementos van a ser las im´ agenes de estas funciones en los n+1 puntos del soporte.
Usaremos la siguiente notaci´ on:
g
j
∈ C[a, b] j = 1, m
g
j
∈ IR
n+1
j = 1, m con
g
j
= (g
j
(x
0
) , . . . . . . , g
j
(x
n
))
Por tanto, cualquier elemento de la envoltura lineal de estos vectores se escribe como:
g =
m
¸
j=1
α
j
g
j
Ahora ya no nos interesa encontrar una funci´ on continua que pertenezca a U, envoltura
lineal de las funciones (g
j
)
j=0,n
, sino un vector
ˆ
f ∈ T = L(g
1
, . . . , g
m
) , tal que:
| y −
ˆ
f |
2
≤| y −g |
2
∀g ∈ T = L(g
1
, . . . , g
m
) con y = (y
0
, . . . , y
n
)
Escribimos ese vector como:
ˆ
f ==
m
¸
j=1
ˆ α
j
g
j
=

¸
m
¸
j=1
ˆ α
j
g
j
(x
0
) , . . . ,
m
¸
j=1
ˆ α
j
g
j
(x
n
) ,
¸

Si el n´ umero de funciones, m, es mayor que la dimensi´ on del espacio, n +1, entonces los
vectores g
1
, . . . , g
m
son linealmente dependientes, y la expresi´ on de
ˆ
f no es ´ unica. S´ olo
tiene por tanto sentido estudiar el caso en que m ≤ n + 1.
En un problema de aproximaci´ on en un espacio prehilbertiano, la soluci´ on viene dada
por la proyecci´ on ortornormal del vector que queremos aproximar sobre el subespacio T
donde estamos buscando su mejor aproximaci´ on.
'y −
ˆ
f, g` = 0 ∀g ∈ T = L(g
1
, . . . , g
m
)
Escribiendo
ˆ
f como combinaci´ on lineal de los vectores g
1
, . . . , g
m
, y sabiendo que esa
comprobaci´ on es suficiente hacerla en una base de T, llegamos al sistema de ecuaciones
normales, que tiene soluci´ on si su determinante es distinto de cero. Para ello, los vectores
g
1
, . . . , g
m
deben ser linealmente independientes en IR
n+1
. Para que esto suceda, no
basta con que las funciones g
1
, . . . , g
m
lo sean en C[a, b]. Hay otras condiciones que
garantizan esa independencia. Estas funciones deben formar lo que se llama un sistema
de Chebychev de funciones, pero el tratar con suficiente precisi´ on este tema se escapa a
nuestros contenidos, as´ı que no nos liamos con esto. O sea, que la conclusi´ on es que el
problema tiene soluci´ on ´ unica cuando ese determinante es distinto de cero. Un conjunto
de funciones donde estos problemas siempre tienen soluci´ on ´ unica son la base polinomial
formada por monomios, y es con ellos con los que vamos a montar el ejemplo.
Ejemplo 5.6.1
83
Se tienen (x
i
, y
i
)
i=0,n
, n+1 pares de valores con abscisas distintas. Buscamos una funci´ on
ˆ
f ∈ L(g
1
, g
2
), cuyos valores en (x
0
, . . . , x
n
) aproximen los valores (y
0
, . . . , y
n
) tan bien
como sea posible. Esas dos funciones van a ser los monomios de grado 0 y 1: g
1
(x) = 1
y g
2
(x) = x. Por tanto:
g
1
= (g
1
(x
0
) , . . . . . . , g
1
(x
n
)) = (1, . . . , 1))
g
2
= (g
2
(x
0
) , . . . . . . , g
2
(x
n
)) = (x
0
, . . . , x
n
))
que son claramente linealmente independientes. El sistema de ecuaciones normales queda
como:
'y −
ˆ
f, g
j
` = 0 con j = 1, 2
O lo que es lo mismo:
'
ˆ
f, g
j
` = 'y, g
j
` con j = 1, 2
Como
ˆ
f = ˆ α
1
g
1
+ ˆ α
2
g
2
Desarrollando esta expresi´ on para j = 1 y para j = 2 llegamos al sistema lineal de dos
ecuanciones con dos inc´ ognitas.
ˆ α
1
(n + 1) + ˆ α
2

n
¸
i=0
x
i
=
n
¸
i=0
y
i
ˆ α
1

n
¸
i=0
x
i
+ ˆ α
2

n
¸
i=0
x
2
i
=
n
¸
i=0
y
i
x
i
que resueltas convenientemente nos dan los valores ˆ α
1
y ˆ α
2
buscados. La funci´ on
ˆ
f es la
recta de m´ınimos cuadrados.
Ejercicio 5.6.1 Demostrar que el centro de gravedad de esta nube de puntos esta en la
recta
ˆ
f = ˆ α
1
+ ˆ α
2
x as´ı obtenida.
5.6.7 Desarrollo en serie de Fourier de se˜ nales peri´ odicas defi-
nidas de modo discreto.
General
Vamos a estudiar el desarrollo en serie de Fourier de una funci´ on peri´ odica definida de
modo discreto como un caso particular de aproximaci´ on por m´ınimos cuadrados. Para
entender esta parte, se supone que se ha seguido el razomiento general, no insisti´endose
sobre esos conceptos previos.
Imaginemos que tenemos una muestra discreta equiespaciada. Dicha muestra discreta
1
y
m
, se dice de periodo N si:
y
m+N
= y
m
1
el sub´ındice m no coincide en general con la abscisa x
m
correspondiente al valor y
m
.
84
N=4
Figura 5.2: Muestra discreta peri´ odica equiespaciada.
w
0
=

N
Vamos a aproximar por m´ınimos cuadrados esta se˜ nal con funciones de la familia:
φ
k
(t) = e
jkw
0
t
= cos (kw
0
t) +jsen(kw
0
t)
con k ∈ Z. Su representaci´ on discreta es un vector con el siguiente aspecto:
φ
k
= ( , φ
k
(−N), , φ
k
(m), , φ
k
(N), )
Es f´ acil ver que esta se˜ nal discreta tiene como periodo N
φ
k
(m+N) = e
jkw
0
(m+N)
= e
jkw
0
m
e
jkw
0
N
= e
jkw
0
m
e
jk2π
= e
jkw
0
m
= φ
k
(m)
Por tanto, basta con considerar este vector en un periodo, por ejemplo:
φ
k
= (φ
k
(m), , φ
k
(m+N −1))
Por la misma raz´ on resulta que s´ olo hay N vectores distintos:
φ
k+N
= (φ
k+N
(m), , φ
k+N
(m+N −1))
=

e
j(k+N)w
0
(m)
, , e
j(k+N)w
0
(m+N−1)

=

e
jkw
0
(m)
e
jNw
0
(m)
, , e
jkw
0
(m+N−1)
e
jNw
0
(m+N−1)

=

e
jkw
0
(m)
e
j2π(m)
, , e
jkw
0
(m+N−1)
e
j2π(m+N−1)

=

e
jkw
0
(m)
, , e
jkw
0
(m+N−1)

= φ
k
Por tanto, el subespacio donde se buscar´ a la mejor aproximaci´ on ser´ a la envolvente de
a lo sumo N de estas funciones consecutivas, que podemos indexar, por comodidad, del
mismo modo que lo hicimos con el desarrollo de Fourier continuo:
T = L(φ
k
(t))
k=0,±1,±2,···,±n
Caso interesante es el de interpolaci´ on, o sea, cuando el n´ umero de funciones coincide
con el de puntos que definen cada periodo discreto, o sea se aproxima con N funciones
φ
k
. En ese caso las funciones se suelen indexar as´ı:
Si N es par, k varia en


N
2
, , 0, ,
N
2
−1
¸
Si N es impar, k varia en

N
2

, , 0, ,

N
2
¸
donde [ ] denota la parte entera de un
n´ umero.
85
Ortogonalidad del sistema
La matriz del sistema lineal, usando

para representar el conjugado de un complejo,
tendr´ a como elementos:
a
lk
= 'φ
l
, φ
k
` = φ
l
φ
k

a
lk
= (φ
l
(m), , φ
l
(m+N −1)) (φ
k
(m)

, , φ
k
(m+N −1)

)
=

e
jlw
0
(m)
, , e
jlw
0
(m+N−1)

e
−jkw
0
(m)
, , e
−jkw
0
(m+N−1)

= e
j(l−k)w
0
(m)
+ +e
j(l−k)w
0
(m+N−1)
=
m+N−1
¸
n=m
e
j(l−k)w
0
n
=

¦l = k¦
¸
m+N−1
n=m
1 = N
¦l = k¦
¸
m+N−1
n=m

e
j(l−k)w
0

n
Vamos con este ´ ultimo t´ermino:
m+N−1
¸
n=m

e
j(l−k)w
0

n
=
m+N−1
¸
n=m

e
j(l−k)w
0

n
=
m+N−1
¸
n=m
r
n
=
1 −r
N
1 −r
r
m
=
1 −e
j(l−k)w
0
N
1 −r
r
m
=
1 −e
j(l−k)2π
1 −r
r
m
= 0 (5.2)
Por tanto:
a
lk
=

N si ¦l = k¦
0 si ¦l = k¦
Por tanto, los vectores son ortogonales, la matriz del sistema lineal es diagonal, y la
funci´ on soluci´ on f,
f =
¸
k
a
k
φ
k
cuya forma vectorial f es la proyecci´ on ortogonal de y sobre L

φ
k
¸
. Como el sistema es
ortogonal,
a
k
=
'y, φ
k
`
N
=
1
N
m+N−1
¸
n=m
y
n
e
−jk
(

N
)
n
Ejercicio 5.6.2 Condici´on para que la mejor aproximaci´on
ˆ
f sea real.
Ejercicio 5.6.3 ¿C´omo es la mejor aproximaci´on si los elementos del vector y son
reales?
86
5.7 Referencias recomendadas para este tema.
Un estudio exhaustivo de la aproximaci´ on de funciones peri´ odicas definidas de modo
discreto la tenemos en el texto de Oppenheim et al. [11]. Sin embargo, este texto tiene
un nivel muy alto y puede ser suficiente con el [17]. Respecto al problema general, el
texto de Hammerlin et al.[7] hace un estudio muy bueno partiendo del problema en su
formulaci´ on m´ as general.
87
Cap´ıtulo 6
Integraci´ on num´erica
6.1 Introducci´ on
El c´ alculo num´erico de integrales definidas es uno de los problemas m´ as antiguos en
matem´ aticas. Este problema, que en su formulaci´ on m´ as antigua se traduc´ıa en encon-
trar el ´ area de regiones limitadas por l´ıneas curvas, ha sido tratado durante miles de a˜ nos,
mucho antes de que se desarrollase el concepto de integral, dentro del marco del an´ alisis
matem´ atico all´ a en los siglos XVII y XVIII. Sin lugar a dudas, el ejemplo m´ as conocido
de este problema fue el de calcular el ´ area contenida en un c´ırculo, que r´ apidamente
se relacion´ o con el n´ umero π y su c´ alculo. Usando un m´etodo num´erico basado en la
aproximaci´ on de un c´ırculo por pol´ıgonos inscritos y circunscritos, Arqu´ımedes (287-212
a.C.) fue capaz de dar las sorprendentes cotas 3
10
71
< π < 3
1
7
.
Muchas veces se usa cuadratura num´erica en vez de integraci´ on num´erica. Esta nomen-
clatura procede del problema que hemos explicado, de calcular el ´ area del c´ırculo, que
puede ser visto como encontrar un cuadrado de igual superficie.
Vamos a describir ahora cuatro situaciones para las que es necesario aproximar integrales
definidas. La primera es el caso en el que no se puede evaluar anal´ıticamente la primitiva
de una funci´ on. Ejemplos t´ıpicos de esta situaci´ on son evaluar la integral


0
exp(−x
2
)dx,
o encontrar la longitud de una elipse. La segunda situaci´ on es que la funci´ on admita pri-
mitiva, pero ´esta sea muy dif´ıcil de calcular. La tercera situaci´ on, la m´ as com´ un, consiste
en que se conozcan s´ olo ciertos puntos de la funci´ on. La ´ ultima posibilidad consiste
en que, a veces, se necesitan m´etodos de cuadratura para el tratamiento num´erico de
ecuaciones diferenciales o integrales. Muchos m´etodos para discretizar esas ecuaciones se
apoyan en m´etodos de integraci´ on num´erica.
Insistiendo en la tercera posibilidad, si se proporcionan los valores de una funci´ on f en
ciertos puntos, digamos x
0
, x
1
, . . . , x
n
, ¿se puede usar esta informaci´ on para obtener una
estimaci´ on de c´ omo es su derivada f

(c) o una integral

b
a
f(x)dx? La respuesta es un s´ı
rotundo.
Si se parte exclusivamente de los valores f(x
0
), f(x
1
), . . . , f(x
n
), es imposible decir
mucho acerca de f a menos que tambi´en sepamos que f forma parte de una familia re-
lativamente peque˜ na de funciones. As´ı, si se permite que f sea una m´ as en la familia de
todas las funciones continuas de variable real, conocer los valores f(x
i
) resulta casi irre-
levante. La figura 6.1 muestra varias funciones continuas que tienen los mismos valores
en cinco puntos.
Por otra parte, si sabemos que f es un polinomio de grado n, entonces los valores en
2
x
3
x
4
x
2
f
0
x
1
x
1
f
Figura 6.1:
n+1 puntos determinan completamente a f seg´ un vimos en la teor´ıa de interpolaci´ on. En
este caso recuperamos f exactamente, y podemos entonces calcular con absoluta certeza
f

(c) ´ o

b
a
f(x)dx. Sin embargo, en la mayor parte de las situaciones, la informaci´ on que
se tiene disponible no determina completamente a f y cualquier estimaci´ on num´erica
de su derivada o de su integral deber´ a tomarse con escepticismo, a menos que venga
acompa˜ nada de alguna cota para los errores cometidos.
6.2 Exposici´ on del problema
Sea la integral I(f) =

b
a
f(x)dx. Deseamos encontrar un valor aproximado de esta inte-
gral mediante sumas finitas. M´ as precisamente, nosotros llamamos f´ ormula de cuadratura
de (n + 1) puntos a una expresi´ on del tipo siguiente:
I
n
(f) =
n
¸
k=0
A
n
k
f(x
k
) (6.1)
donde A
n
k
no depende para nada de la funci´ on f. O sea, 6.1 es una f´ ormula que permite
estimar esa integral I(f) mediante una suma ponderada de im´ agenes de la funci´ on f en
una serie de puntos.
6.3 F´ ormulas de cuadratura de tipo interpolaci´ on
Hemos visto ya que se puede aproximar una funci´ on f mediante un polinomio de in-
terpolaci´ on P
f
. La idea va a ser reemplazar el c´ alculo de I(f) por el c´ alculo de I(P
f
).
Las f´ ormulas de cuadratura que usan esta idea se llaman f´ ormulas de cuadratura de tipo
89
interpolaci´ on. Esto lo haremos por dos razones. La primera es que la integraci´ on de
polinomios es muy sencilla, y no se necesitan m´ as que las cuatro operaciones elementales.
Adem´ as sucede frecuentemente que para las curvas experimentales no se conoce la fun-
ci´ on f sino que se conocen ciertos puntos de la funci´ on: f(x
k
), k = 0, . . . , n. Supongamos
por tanto, para empezar, que conocemos la funci´ on en esos puntos, y s´ olo en esos. 0 sea,
que las abscisas nos vienen impuestas, y no podemos elegirlas. El proceso consistir´ıa en
integrar el polinomio de interpolaci´ on construido a partir del conocimiento del valor de
la funci´ on en una serie de puntos f(x
k
), k = 0, . . . , n
I(f) =

b
a
f(x)dx ≈

b
a
P
f
(x)dx =
n
¸
k=0

b
a
l
k
(x)dx

f(x
k
)
con
l
k
(x) =
¸
n
j=0,j=k
(x −x
j
)
¸
n
j=0,j=k
(x
k
−x
j
)
Se tendr´ a por tanto una f´ ormula de cuadratura de tipo interpolaci´ on si dentro de la
f´ ormula
I
n
(f) =
n
¸
k=0
A
n
k
f(x
k
)
se toma
A
n
k
=

b
a
l
k
(x)dx
Se define el error
1
R(f) = I(f) −I
n
(f) =

b
a
f(x)dx −
n
¸
k=0
A
n
k
f(x
k
)
R(f) =

b
a
[f(x) −P
f
(x)]dx =

b
a
H(x)
(n + 1)!
f
(n+1)
(ξ)dx
H(x) = (x −x
0
)(x −x
1
) (x −x
n
)
a ≤ min(x, x
0
) < ξ < max(x, x
n
) ≤ b
Definici´ on 6.3.1 Una f´ormula de cuadratura se dice exacta sobre un conjunto V si
∀f ∈ V, R(f) = 0
Teorema 6.3.1 Una f´ormula de cuadratura de (n+1) puntos es exacta sobre el espacio
vectorial P
n
de los polinomios de grado menor o igual que n, si y solamente si es del tipo
de interpolaci´on de (n + 1) puntos.
1
Una justificaci´on de esta estimaci´on del error de la interpolaci´on polinomial se encuentra en el
cap´ıtulo 4.
90
Demostraci´ on:

b
a
P(x)dx =
n
¸
k=0
A
n
k
P(x
k
) (∀P ∈ P
n
)
en particular, esto ser´ a valido para l
j
(x)

b
a
l
j
(x)dx =
n
¸
k=0
A
n
k
l
j
(x
k
) = A
n
j
y por tanto,
A
n
j
=

b
a
l
j
(x)dx
con lo cual, la f´ ormula de integraci´ on, es del tipo interpolaci´ on en (n + 1) puntos.

Supongamos ahora que la f´ ormula es de interpolaci´ on en (n + 1) puntos. Lo que sucede
es que un polinomio de grado n es igual a su polinomio de interpolaci´ on de grado n, y
por tanto la f´ ormula es exacta para esos polinomios, que es de lo que se trata.
Definici´ on 6.3.2 Se dice que una f´ormula de cuadratura tiene grado de precisi´on n si
la f´ormula es exacta para x
k
, k = 0, 1, . . . , n, pero no es exacta para x
k+1
.
Aplicaci´ on del Teorema 6.3.1
Este teorema nos da otro medio para el c´ alculo de los coeficientes, el m´etodo de los
coeficientes indeterminados, que ilustramos en el ejemplo siguiente.
Ejemplo 6.3.1 Calcular los coeficientes que intervienen en la f´ormula de cuadratura de
tipo interpolaci´on siguiente:

1
−1
f(x)dx = A
1
0
f(−1) +A
1
1
f(1) +R(f)
La f´ ormula de cuadratura es de tipo interpolaci´ on a dos puntos, siendo por tanto su grado
de precisi´ on uno. Por tanto debe ser exacta para los polinoniios P
0
(x) = 1 y P
1
(x) = x.
Forcemos a que se cumplan estas condiciones:

1
−1
1 dx = A
1
0
+A
1
1

1
−1
x dx = A
1
0
(−1) +A
1
1
1
De donde obtenemos el sistema lineal:
A
1
0
+A
1
1
= 2
−A
1
0
+A
1
1
= 0
cuya soluci´ on es A
1
0
= A
1
1
= 1.
91
6.4 F´ ormulas de Newton-Cotes
Supongamos una subdivisi´ on uniforme del intervalo [a, b]. Ponemos
h =
(b −a)
n
(6.2)
Sea x
j
= a +j h, con 0 ≤ j ≤ n, x
0
= a y x
n
= b. Con estas hip´ otesis, se tiene:

b
a
f(x)dx ≈ (b −a)
n
¸
j=0
B
n
j
f(a +j h) (6.3)
con
B
n
j
=
1
b −a

b
a
l
j
(x)dx (6.4)
Estas f´ ormulas se llaman las f´ ormulas cerradas de Newton Cotes, que son muy usadas
cuando la naturaleza del problema nos permite conocer los valores de la funci´ on sobre
un soporte equiespaciado, pues en ese caso, el valor aproximado de la integral se obtiene
muy r´ apidamente ya que esos coeficientes ´ unicamente dependen del n´ umero de puntos que
utilizamos para integrar. Los coeficientes del sumatorio cumplen adem´ as la propiedad
B
n
j
= B
n
n−j
.
Calculemos por ejemplo B
1
0
. Si hacemos el cambio de variable en la integral y =
(x−a)
h
,
llegamos a:
B
n
j
=
(−1)
n−j
j!(n −j)!n

n
0
n
¸
k=0,k=j
(y −k)dy (6.5)
por tanto, por ejemplo:
B
1
0
= B
1
1
=
(−1)
1
0!(1)!1

1
0
ydy =
1
2
La f´ ormula de Newton-Cotes de grado 1 se llama la f´ ormula del trapecio

b
a
f(x)dx ≈ (b −a)
¸
1
2
f(a) +
1
2
f(b)

La f´ ormula de Newton-Cotes de grado 2 se llama la f´ ormula de Simpson

b
a
f(x)dx ≈ (b −a)
¸
1
6
f(a) +
4
6
f

a +b
2

+
1
6
f(b)
¸
En la tabla 6.1 tenemos los valores de B
n
j
hasta n igual a 6.
6.4.1 Evaluaci´ on del error en las f´ ormulas de Newton-Cotes
F´ ormula del trapecio
Se quiere evaluar:
R(f) =

b
a
f(x)dx −

b −a
2

[f(a) +f(b)]
92
n B
n
0
B
n
1
B
n
2
B
n
3
1 1/2
2 1/6 4/6
3 1/8 3/8
4 7/90 32/90 12/90
5 19/288 75/288 50/288
6 41/840 216/840 27/840 272/840
Tabla 6.1: Coeficientes de las f´ ormulas de Newton-Cotes
R(f) =

b
a
(x −a)(x −b)
2
f

(ξ)dx ξ = ξ(x) ∈ (a, b)
como (x −a)(x −b) no cambia de signo en [a, b], se puede usar una de las formulaciones
del teorema del valor medio del c´ alculo integral para escribir que:
R(f) =
f

(α)
2

b
a
(x −a)(x −b)dx, α ∈ [a, b]
R(f) = −
h
3
12
f

(α) α ∈ [a, b]
De aqu´ı se deduce la siguiente cota al error de la aproximaci´ on:
[R(f)[ ≤
h
3
12
max
x∈[a,b]
[f

(x)[
6.4.2 F´ ormulas abiertas de Newton-Cotes
Las f´ ormulas de cuadratura se dicen abiertas cuando no se utilizan los extremos del
intervalo como abscisas de interpolaci´ on. Esto es necesario cuando la funci´ on es por
ejemplo singular en los extremos, o cuando se quiere extrapolar una integral fuera de los
puntos en los que tenemos definida la funci´ on a integrarl. La f´ ormula de Newton-Cotes
abierta de un punto es:

b
a
f(x)dx ≈ (b −a)f

a +b
2

b
a
f(x)dx ≈

b −a
2

[f(x
1
) +f(x
2
)]
x
1
= a +h; x
2
= a + 2h = b −h; h =
b −a
3
6.5 Estabilidad
A un m´etodo de integraci´ on se le pide que sea poco sensible a los errores de c´ alculo en
los puntos que definen la funci´ on de un modo discreto. Por tanto, veamos c´ omo influye
93
un c´ alculo efectuado con valores perturbados:
n
¸
k=0
A
n
k
(f
k

k
) −
n
¸
k=0
A
n
k
f
k
=
n
¸
k=0
A
n
k
ε
k
Definici´ on 6.5.1 Una f´ormula de cuadratura de la forma
I
n
(f) =
n
¸
k=0
A
n
k
f(x
k
)
se dice estable si ∀(ε
0
, ε
1
, . . . , ε
n
) existe M independiente de n tal que:

n
¸
k=0
A
n
k
ε
k

≤ M max[ε
k
[ (6.6)
El estudio de la estabilidad se facilita por el teorema siguiente:
Teorema 6.5.1 Una f´ormula de cuadratura de la forma
I
n
(f) =
n
¸
k=0
A
n
k
f(x
k
)
es estable si y s´olo si existe M independiente de n tal que
n
¸
k=0
[A
n
k
[ ≤ M (6.7)
Prueba:

n
¸
k=0
A
n
k
ε
k


n
¸
k=0
[A
n
k
ε
k
[ ≤
n
¸
k=0
[A
n
k
[ max[ε
k
[ ≤ M max[ε
k
[

Supongamos que no existiese esa constante M independiente de n verificando la condici´ on
(6.7). En ese caso tendr´ıamos que
lim
n→∞
n
¸
k=0
[A
n
k
[ = +∞
y eligiendo ε
k
=
A
n
k
|A
n
k
|
con A
n
k
= 0, entonces

n
¸
k=0
A
n
k
ε
k

=

n
¸
k=0
(A
n
k
)
2
[A
n
k
[

=
n
¸
k=0
[A
n
k
[
y, por tanto, pasando
lim
n→∞

n
¸
k=0
A
n
k
ε
k

= +∞
con lo que la f´ ormula no ser´ıa estable.
Teorema 6.5.2 Las f´ormulas de Newton-Cotes son inestables.
94
6.6 Convergencia
Es otro criterio que permite calibrar la bondad de una aproximaci´ on a una determinada
integral. Las f´ ormulas de integraci´ on se expresan en funci´ on del n´ umero de puntos n.
Parece razonable pensar que si se aumenta n se obtendr´ a un resultado m´ as preciso, y que
en consecuencia, en el l´ımite se obtendr´ a el valor exacto.
Definici´ on 6.6.1 Se dice que una aproximaci´on L
n
(f) =
¸
n
k=0
A
n
k
f(x
k
) converge sobre
un conjunto V , si cualquiera que sea f ∈ V , se tiene:
lim
n→∞
¸
n
¸
k=0
A
n
k
f(x
k
)
¸
=

b
a
f(x)dx
Teorema 6.6.1 Una condici´on necesaria y suficiente para que los m´etodos de cuadratura
de tipo interpolaci´on sean convergentes en C[a, b] es que las f´ormulas sean estables.
6.7 M´etodos compuestos
6.7.1 General
La idea consiste en aplicar a subintervalos de (a, b) una f´ ormula de Newton-Cotes de
grado q con q fijo y peque˜ no. Es equivalente a interpolar la funci´ on con un polinomio a
trozos e integrar dicho polinomio.
6.7.2 M´etodo compuesto de los trapecios
En el m´etodo compuesto de los trapecios, el n´ umero de puntos que se utiliza en cada
subintervalo es de 2, y por tanto el grado del polinomio de aproximaci´ on q es 1. Es
equivalente a interpolar con un polinomio a trozos de grado 1 y clase 0 e integrar ´este.

b
a
f(x)dx =
n−1
¸
k=0

a+(k+1)h
a+k·h
f(x)dx

n−1
¸
k=0
h
¸
1
2
f(a +k h) +
1
2
f(a + (k + 1) h)

= h
¸
1
2
f(a) +f(a +h) +f(a + 2h) + +
1
2
f(b)

6.7.3 M´etodo compuesto de Simpson
En el m´etodo compuesto de Simpson, el n´ umero de puntos que se utiliza en cada subin-
tervalo es de 3, y por tanto el grado del polinomio de aproximaci´ on q es 2. Se elige un
soporte con un n´ umero impar de puntos:
(a, a + 2h), (a + 2h, a + 4h), . . . , (a + (n −2)h, b)
95
En cada intervalo se aplica la forma de Newton-Cotes de Simpson.

a+h
a
f(x)dx ≈ 2h
¸
1
6
f(a) +
4
6
f(a +h) +
1
6
f(a + 2h)

a+4h
a+2h
f(x)dx ≈ 2h
¸
1
6
f(a + 2h) +
4
6
f(a + 3h) +
1
6
f(a + 4h)

b
a+(n−2)h
f(x)dx ≈ 2h
¸
1
6
f(a + (n −2)h) +
4
6
f(a + (n −1)h) +
1
6
f(b)

Sumando todos estos t´erminos, se obtiene que:

b
a
f(x)dx ≈
h
3
¦f(a) +f(b)
+ 2[f(a + 2h) +f(a + 4h) + +f(a + (n −2)h)]
+ +4[f(a +h) +f(a + 3h) + +f(a + (n −1)h)]¦
6.7.4 Mayoraci´ on del error en los m´etodos compuestos
M´etodo compuesto de los trapecios
Se ha visto ya que en el caso del m´etodo de los trapecios:
[R(f)[ =

b
a
f(x)dx −

b −a
2

[f(a) +f(b)]


h
3
12
max
x∈[a,b]
[f

(x)[
Por tanto, en el caso de los m´etodos compuestos:

b
a
f(x)dx −h
¸
1
2
f(a) +f(a +h) + +
1
2
f(b)


h
3
12
¸
max
x∈[a,a+h]
[f

(x)[ + + max
x∈[a+(n−1)h,b]
[f

(x)[
¸

n
h
3
12
max
x∈[a,b]
[f

(x)[ =
(b −a)
3
12n
2
max
x∈[a,b]
[f

(x)[ =
b −a
12
max
x∈[a,b]
[f

(x)[h
2
6.7.5 Selecci´ on del paso de integraci´ on
En las f´ ormulas de tipo compuesto se desea elegir el paso h para que el error [R(f)[ =
[I − I
n
(h)[ sea inferior a una cota dada , sin necesidad de entrar en consideraciones
sobre las derivadas de la funci´ on original f pues ´estas son desconocidas y normalmente,
dif´ıciles de acotar. El proceso para elegirlo ser´ a el siguiente:
1. Se integra con un paso h
0
, y se obtiene I
h
0
.
2. Se integra con un paso 2h
0
, y se obtiene I
2h
0
.
96
3. Suponiendo que el error est´ a en funci´ on de h
p
-p = 2 para el m´etodo compuesto de
los trapecios, por ejemplo- se tendr´ a que:
I
h
0
−I ≈ M h
p
0
I
h
0
−I
2h
0
= I
h
0
−I +I −I
2h
0
≈ M h
p
0
−M (2h
0
)
p
M h
p
0

I
h
0
−I
2h
0
1 −2
p
,
y tenemos el sistema:
M h
p
0

I
h
0
−I
2h
0
1 −2
p
M h
p
≈ (6.8)
y por tanto:
h ≈ h
0
¸
(1 −2
p
)
I
h
0
−I
2h
0
¸1
p
6.7.6 Estabilidad de los m´etodos compuestos
Para valores de q suficientemente peque˜ nos, y cuando aproximamos integrales de fun-
ciones suficientemente regulares, los m´etodos compuestos son estables y convergentes.
6.8 F´ ormulas de Gauss
6.8.1 Introducci´ on
En cierto tipo de experimentos podemos fijar el valor de las abscisas de la funci´ on que
pretendemos conocer. En estos casos, Gauss nos proporciona un criterio para elegir estas
abscisas que aumenta notablemente el grado de precisi´ on de las f´ ormulas de integraci´ on
de tipo interpolaci´ on. La idea consiste en aproximar I(f) por:
I
n
(f) =
n
¸
k=0
A
n
k
f(x
n
k
)
y considerar A
n
k
y x
n
k
como desconocidos. Veamos c´ omo lo conseguimos.
97
6.8.2 M´etodo de Gauss
Como se puede observar en la f´ ormula anterior, el n´ umero de par´ ametros libres es 2n+2.
Trataremos por tanto, de que nuestra f´ ormula sea exacta en P
2n+1
espacio vectorial de
polinomios de coeficientes reales de grado menor o igual que 2n+1. Exigiremos por tanto
que:

b
a
p(x)dx =
n
¸
k=0
A
n
k
p(x
n
k
) (∀p ∈ P
2n+1
)
Sea p

∈ P
n
tal que p

(x
n
k
) = p(x
n
k
), k = 0, . . . , n, o sea el polinomio de grado n de
interpolaci´ on de la nube de puntos (x
n
k
, p(x
n
k
)), k = 0, . . . , n. Como p tambi´en interpola
esa misma nube de puntos, lo podremos escribir de la siguiente forma:
p(x) = p

(x) + (x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)
con q ∈ P
n
. Si ahora escribimos p

en la base de Lagrange tendremos que:
p

(x) =
n
¸
k=0
p(x
n
k
)l
k
(x)
y por tanto:

b
a
p(x)dx =

b
a
[p

(x) + (x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)]dx
=
n
¸
k=0
¸

b
a
l
k
(x)dx
¸
p(x
n
k
)
+

b
a
(x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)dx
=
n
¸
k=0
A
n
k
p(x
n
k
)
Si elegimos como polinomio p uno tal que p(x
n
k
) = 0, k = 0, . . . , n, entonces su polinomio
de interpolaci´ on de grado n en esos nodos ser´ a nulo.
p

= 0
y por tanto,
p(x) = (x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)
Entonces, por un lado:

b
a
p(x)dx =
n
¸
k=0
A
n
k
p(x
n
k
) =
n
¸
k=0
A
n
k
0 = 0
y por otro

b
a
p(x)dx =

b
a
[p

(x) + (x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)]dx
=

b
a
[0 + (x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)]dx
=

b
a
(x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)dx
98
que debe ser 0. En suma

b
a
(x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)dx = 0
Como para cualquier q, el polinomio p vale 0 en los nodos, esta igualdad tiene que darse
independientemente del polinomio q, o sea:

b
a
(x −x
n
0
)(x −x
n
1
) (x −x
n
n
) q(x)dx = 0 (∀q ∈ P
n
)
0 sea, que si hacemos [a, b] = [−1, 1], estamos buscando una serie de nodos (x
n
k
), k =
0, . . . , n tales que el polinomio (x−x
n
0
)(x−x
n
1
) (x−x
n
n
) sea ortogonal, seg´ un el producto
escalar < p, q >=

1
−1
p(x)q(x)dx, a todos los polinomios q de P
n
. 0 sea, estamos buscando
el polinomio de Legendre
2
de grado n + 1.
Por tanto, para que (x−x
n
0
)(x−x
n
1
) (x−x
n
n
) sea igual a
ˆ
L
n+1
(x), debemos escoger los
valores (x
n
k
), k = 0, . . . , n, abscisas de los nodos, como los ceros de
ˆ
L
n+1
(x), polinomio de
Legendre de grado n + 1. Una vez que ya sabemos cu´ ales deben ser los nodos, debemos
preguntarnos el valor de la familia de coeficientes (A
n
k
), k = 0, . . . , n. Para ello, elegimos
ahora como polinomio p uno tal que p(x
n
k
) = δ
n
k
, k = 0, . . . , n, y tendremos que:
A
n
k
=

1
−1
l
k
(x)dx, (∀k = 0, . . . , n)
Si el intervalo no es [−1, 1] se hace el t´ıpico cambio de variable:
t =
2(x −a)
b −a
−1
que transforma [a, b] en [−1, 1].
6.9 Integraci´ on multidimensional
Las t´ecnicas de integraci´ on num´erica m´ as sencillas para integrales dobles o triples se
basan en la sustituci´ on de la funci´ on a integrar por su polinomio en varias variables4.6.
Si el recinto es rectangular, la aplicaci´ on es directa. Si no es as´ı, hay que estudiar de
modo independiente cada caso.
6.10 Resumen
1. Que aproximar la integral de una funci´ on se puede hacer a partir de un n´ umero de
puntos dados, sustituyendo la funci´ on a integrar por una aproximaci´ on pofin´ omica
a la misma.
2
En realidad, el polinomio de Legendre es cualquiera de estos, pero normalizado, por definici´on. Ello
es debido a que los polinomios de Legendre no son s´olo una familia de polinomios ortogonales, sino que
adem´as tienen modulo uno. Hemos estudiado estos polinomios como una familia ortogonal en 5.6.4
99
2. Que una f´ ormula de aproximaci´ on es buena si aten´ ua los efectos de las perturba-
ciones en los puntos que definen la funci´ on (estabilidad).
3. Que una f´ ormula de aproximaci´ on es buena si cuando se aumentan el n´ umero de
puntos que se utilizan para definir la funci´ on, el valor de la aproximaci´ on se acerca
al valor real de la integral, coincidiendo en el l´ımite (convergencia).
4. Que acotar el error tiene mucho que ver con el n´ umero de puntos que se utilizan
para definir la integral y con los m´ aximos de determinadas derivadas.
6.11 Referencias recomendadas para este tema.
Para Integraci´ on Num´erica la referencia recomendada son otra vez el libro de H¨ amerlin
y Hoffman [7] y el de Theodor [16].
100
Cap´ıtulo 7
Derivaci´ on num´erica
7.1 Introducci´ on
El c´ alculo num´erico de integrales definidas es un problema muy antiguo. La estimaci´ on
num´erica de derivadas es un problema muy nuevo, y muy necesario para la resoluci´ on
num´erica de ecuaciones diferenciales, que se han convertido en las herramientas princi-
pales para la descripci´ on de todo tipo de sistemas.
El comportamiento del error en los m´etodos de integraci´ on era bastante bueno. Bajar un
poco el paso significaba bajar mucho el error. Adem´ as, las f´ ormulas m´ as comunes (los
m´etodos compuestos) son bastantes estables, y errores en los datos, o en los redondeos, no
se amplifican en el c´ alculo de las integrales. Sin embargo, las derivadas son mucho menos
nobles cuando se las trata num´ericamente, y puede suceder, como luego estudiaremos,
que peque˜ nas variaciones en alguno de los elementos motiven grandes variaciones en el
resultado.
7.2 Exposici´ on del problema
Sea f una funci´ on real de variable real de clase C
1
. Se quiere calcular una aproximaci´ on
al n´ umero f

(x).
f

(x) = lim
h→0
f(x +h) −f(x)
h
= lim
h→0
f(x) −f(x −h)
h
Se obtiene, por ejemplo, una aproximaci´ on a este valor, tomando, con h peque˜ no
f

(x) ≈
f(x +h) −f(x)
h
Esta aproximaci´ on hace intervenir los valores de la funci´ on en los puntos x y x+h. Igual
que hac´ıamos al integrar, podr´ıamos pensar en sustituir la funci´ on f por su polinomio
de interpolaci´ on P
f
, y aproximar la derivada de f por la derivada de P
f
. De hecho, el
problema de estimar la derivada surge porque a menudo f no la conocemos de modo
anal´ıtico, sino por puntos. Por tanto, si sabemos el valor de la funci´ on f en una nube
101
de puntos x
0
, x
1
, , x
n
, P

f
(x), derivada del polinomio de grado n que interpola a f en
esos puntos, nos dar´ a una aproximaci´ on a f

(x), cuyo error trataremos de acotar. Estas
ser´ an las t´ecnicas de derivaci´ on que explicaremos.
7.3 Derivaci´ on num´erica por interpolaci´ on polin´ omi-
ca.
Hemos visto ya que se puede obtener una aproximaci´ on de una funci´ on f en un intervalo
calculando su polinomio de interpolaci´ on P
f
. En el caso de la derivada, vamos a aproximar
f

por P

f
. El concepto es local, o sea, se sustituye f por P
f
en el entorno del punto
en el cual queremos conocer la derivada. Las f´ ormulas de derivaci´ on que usan esta
idea se llaman f´ ormulas de derivaci´ on de tipo interpolaci´ on polinomial. Veamos las m´ as
importantes.
7.3.1 F´ ormula de dos puntos.
Tenemos una funci´ on f que es C
1
en un entorno cerrado E(x
0
) de x
0
. Sea E(x
0
) = [a, b]
y sea x
0
el punto en el que queremos estimar la derivada de f. Sea x
1
tal que [x
0
, x
1
] ⊂
E(x
0
). Construyamos el polinomio de interpolaci´ on de f asociado a los puntos x
0
y x
1
,
ver figura 7.1.
P
1
(x) = f(x
0
)
x −x
1
x
0
−x
1
+f(x
1
)
x −x
0
x
1
−x
0
Derivando este polinomio y particularizando esa derivada en x
0
obtendremos la aproxi-
maci´ on a la derivada buscada.
P

1
(x
0
) =
f(x
1
) −f(x
0
)
x
1
−x
0
Si llamamos h = x
1
−x
0
, tendremos por tanto:
f

(x
0
) ≈
f(x
0
+h) −f(x
0
)
h
Existe igualmente una versi´ on sim´etrica de esta f´ ormula tomando el segundo punto a la
izquierda de x
0
-mirando hacia atr´ as.
f

(x
0
) ≈
f(x
0
) −f(x
0
−h)
h
7.3.2 Error en la f´ ormula de dos puntos
Para calcular el error, usamos el error de la interpolaci´ on, deriv´ andolo:
f(x) −P(x) =
H(x)
(n + 1)!
f
(n+1)
(ξ(x))
102
0
(x)
1
x
P
x
(x)
f
h
1
derivada
real=tg.
Figura 7.1: F´ ormula de dos puntos.
H(x) = (x −x
0
)(x −x
1
) (x −x
n
)
a ≤ min(x, x
0
) < ξ < max(x, x
n
) ≤ b
Particularizando a nuestro caso, con un polinomio definido por dos puntos(n = 1):
f(x) −P
1
(x) =
(x −x
0
)(x −x
1
)
2
f

(ξ(x))
y derivando esta f´ ormula:
f

(x) −P

1
(x) =
1
2
(x −x
0
)(x −x
1
)f

(ξ(x))ξ

(x) +
1
2
(x −x
1
)f

(ξ(x)) +
1
2
(x −x
0
)f

(ξ(x))
Hay problemas para estimar el error en puntos distintos de x
0
o de x
1
, pues no conoce-
mos el valor de ξ

(x). Sin embargo, podemos estimar f´ acilmente el error en x
0
y en x
1
sustituyendo en la expresi´ on anterior.
f

(x
0
) −P

1
(x
0
) =
(x
0
−x
1
)f

(ξ(x))
2
= −
f

(ξ(x))
2
h = O(h)
Vemos que el error es una potencia de h de orden 1. El error tiende a 0 con h. La
aproximaci´ on es por tanto bastante mala. Por ejemplo, si echamos la vista atr´ as, en la
f´ ormula del trapecio, que es la equivalente para la integraci´ on, el error era una potencia
c´ ubica de h. El error en la interpolaci´ on es de orden h
2
. Por tanto, la integral disminuye
el error de la interpolaci´ on polinomial, subiendo el orden, y la derivada lo amplifica,
bajando el orden.
103
0
(x)
2
x
P
x
(x)
f
h
1
h
-1
x
Figura 7.2: Interpolaci´ on con par´ abola.
7.3.3 F´ ormula de tres puntos
Para conseguir un valor mejor para la derivada, podemos interpolar f con una par´ abola,
ver figura 7.2.
P
2
(x) = f(x
−1
)l
−1
(x) +f(x
0
)l
0
l(x) +f(x
1
)l
1
l(x)
P
2
(x) = f(x
−1
)
(x −x
0
)(x −x
1
)
(x
−1
−x
0
)(x
−1
−x
1
)
+f(x
0
)
(x −x
−1
)(x −x
1
)
(x
0
−x
−1
)(x
0
−x
1
)
+f(x
1
)
(x −x
−1
)(x −x
0
)
(x
1
−x
−1
)(x
1
−x
0
)
Si derivamos:
P

2
(x) = f(x
−1
)
(x −x
0
) + (x −x
1
)
2h
2
+f(x
0
)
(x −x
−1
) + (x −x
1
)
−h
2
+f(x
1
)
(x −x
−1
) + (x −x
0
)
2h
2
(7.1)
Si particularizamos en x
0
:
f

(x
0
) ≈ P

2
(x
0
) =
f(x
0
+h) −f(x
0
−h)
2h
Esta f´ ormula se llama de tres puntos centrada, figura 7.3, pues se construye la par´ abola
con tres puntos, y se eval´ ua la derivada en el central. Es curioso pensar, que precisa-
mente, en el c´ alculo de la derivada no influye el valor en el propio punto en el que se
realiza la estimaci´ on.
Por otro lado, del mismo modo que hay f´ ormulas centradas, tambi´en hay f´ ormulas mi-
rando hacia adelante, y hacia atr´ as. Si evalu´ amos la derivada en x
−1
= x
0
−h, tendremos
104
(x) (x) (x)
222
xxx
PPP
(x) (x) (x)
fff
hhh
111
aprox.ala
tangente.
aprox.ala
tangente.
aprox.ala
tangente.
hhh
-1 -1 -1
xxx
derivada
real=tg.
derivada
real=tg.
derivada
real=tg.
000
xxx
Figura 7.3: F´ ormula de tres puntos.
una f´ ormula mirando hacia adelante, y si lo hacemos en x
1
= x
0
+h, mirando hacia atr´ as:
f

(x
0
−h) ≈ P

2
(x
0
−h) =
−3f(x
0
−h) + 4f(x
0
) −f(x
0
+h)
2h
f

(x
0
+h) ≈ P

2
(x
0
+h) =
f(x
0
−h) −4f(x
0
) + 3f(x
0
+h)
2h
7.3.4 Error en la f´ ormula de tres puntos.
Para calcular el error, usamos otra vez el error de la interpolaci´ on.
f(x) −P
2
(x) =
(x −x
−1
)(x −x
0
)(x −x
1
)
3!
f

(ξ(x))
Deriv´ andolo, y particulariz´ andolo para x
0
:
f

(x
0
) −P

2
(x
0
) = −
f

(ξ(x))
6
h
2
= O(h
2
)
Por tanto, el error es una potencia de h de orden 2, lo que quiere decir que hemos
mejorado notablemente la aproximaci´ on frente a la f´ ormula de dos puntos.
7.3.5 F´ ormula de cuatro puntos.
Se obtiene cuando se interpola f por un polinomio c´ ubico que pasa por (x
0
−h, f (x
0
−h)),
(x
0
, f (x
0
)), (x
0
+h, f (x
0
+h)) y (x
0
+ 2h, f (x
0
+ 2h))
f

(x
0
) ≈ P

3
(x
0
) =
−f (x
0
+ 2h) + 6f (x
0
+h) −3f (x
0
) −2f (x
0
−h)
6h
De igual modo, o combinando estas f´ ormulas se obtienen otras f´ ormulas, cada una con
su t´ermino de error.
105
7.3.6 F´ ormula de tres puntos para estimar la derivada segunda.
Podemos usar la interpolaci´ on parab´ olica de tres puntos para estimar la derivada segunda,
que se usa a menudo en ecuaciones diferenciales, como la de Laplace. As´ı, si volvemos a
derivar, la expresi´ on 7.1, tendremos.
f

(x
0
) ≈ P

2
(x
0
) =
f (x
0
+h) −2f (x
0
) +f (x
0
−h)
h
2
En este caso hay problemas para acotar el t´ermino del error en x
0
. Ello es debido a que
hay t´erminos en los que aparecen las derivadas de la funci´ on ξ(x) que ya no se anulan.
7.4 Estabilidad
Contrariamente a la integraci´ on, y como ya hemos comentado, la diferenciaci´ on num´erica
es muy sensible a los errores de redondeo y de los datos originales. Para ilustrar esta
idea, usemos la aproximaci´ on de dos puntos a la derivada:
f

(x
0
) ≈
f(x
0
+h) −f(x
0
)
h
=
f
1
−f
0
h
con f
1
= f(x
0
+ h) y f
0
= f(x
0
). Supongamos que f
0
y f
1
son los valores de trabajo de
f
0
y f
1
, afectados de unos errores que podemos acotar como:

f
0
−f
0

≤ δ,

f
1
−f
1

≤ δ
entonces, el c´ alculo que realmente hacemos es usando los valores perturbados:
h
errortotal
errorpor
losdatos
error
paso
optimo
error
truncaje.
Figura 7.4: Selecci´ on del paso ´ optimo.
f

(x
0
) ≈
f
1
−f
0
h
106
Con lo cual, el error, y sus acotaciones quedan:

f

(x
0
) −
f
1
−f
0
h

f

(x
0
) −
f
1
−f
0
h

+

f
1
−f
0
h

f
1
−f
0
h


| f

|

2
h +

f
0
−f
0

+

f
1
−f
1

h

| f

|

2
h +

h
Por tanto:

f

(x
0
) −
f
1
−f
0
h


| f

|

2
h +

h
con
| f

|

= max
x∈[x
0
,x
0
+h]
[f

(x
0
)[
Para valores grandes de h, el t´ermino en h domina -error del m´etodo-. Si h es peque˜ no, el
error que puedan arrastrar los datos, que corresponde al t´ermino 1/h es el m´ as importante.
Hay que escoger el paso de tal modo que el error total sea m´ınimo, ver figura 7.4.
Veamos esto con un ejemplo. Se trata de encontrar el valor de la derivada de la funci´ on
f(x) = arctan(x) en el punto

(2), ver tabla 7.1. El valor real sabemos que es 1/3.
Usamos el operador de dos puntos. Vamos bajando el paso, y buscamos el punto en el
que el error total es m´ınimo. Usaremos valores de la funci´ on para estimar la precisi´ on
derivada con una precisi´ on de cuatro decimales sin redondeo. Por tanto, el error en los
datos δ es del orden de 10
−4
. Vamos bajando el paso, y hasta h = 0.04, el error total
disminuye, pero si seguimos bajando, es m´ as importante el error por los datos, y por
tanto, el error empieza a aumentar. Por tanto, el paso ´ optimo es de ese orden. Se deja
como ejercicio, el minimizar anal´ıticamente ese error para calcular el paso ´ optimo.
En la figura 7.5 dibujamos los diferentes t´erminos y los comparamos con el error real.
Dado que para pasos altos, el error del m´etodo y el error total se confunden, centramos
el gr´ afico en pasos peque˜ nos en la figura 7.6. Para pasos peque˜ nos pasa lo contrario. El
error que manda es el correspondiente a los datos.
7.5 Derivadas parciales
Consideremos, por ejemplo el problema de construir una aproximaci´ on discreta al lapla-
ciano bidimensional de una funci´ on Φ en un punto cualquiera (x
0
, y
0
).
∆Φ(x
0
, y
0
) =

2
Φ
∂x
2
(x
0
, y
0
) +

2
Φ
∂y
2
(x
0
, y
0
)
utilizando una discretizaci´ on de cinco puntos, es decir, una discretizaci´ on como la de la
figura 7.7, en la cual el espaciado en la direcci´ on x es el mismo que el espaciado en la
direcci´ on y.
Para hacer la discretizaci´ on tenemos que pensar en el significado geom´etrico de la derivada
107
Figura 7.5: T´erminos de error para estimar arctan

(2).
parcial. La derivada parcial de una funci´ on respecto a la variable x da una idea de lo
que var´ıa esa funci´ on cuando las otras variables permanecen constantes. Es como si fuese
una funci´ on de una sola variable, x, y las derivadas hay que pensarlas como las derivadas
de una funci´ on de una sola variable. La estimaci´ on queda entonces:

2
Φ
∂x
2
(x
0
, y
0
) =
Φ(x
0
+h, y
0
) −2Φ(x
0
, y
0
) + Φ(x
0
−h, y
0
)
h
2
+O(h
2
)

2
Φ
∂y
2
(x
0
, y
0
) =
Φ(x
0
, y
0
+h) −2Φ(x
0
, y
0
) + Φ(x
0
, y
0
−h)
h
2
+O(h
2
)
Y por tanto, sumando ambas expresiones tendremos que:
∆Φ(x
0
, y
0
) ≈
Φ(x
0
+ h, y
0
) + Φ(x
0
−h, y
0
) + Φ(x
0
, y
0
+ h) + Φ(x
0
, y
0
−h) −4Φ(x
0
, y
0
)
h
2
7.6 Resumen
1. Aproximar la derivada de una funci´ on en un punto se puede hacer a partir de un
n´ umero de puntos dados, susituyendo la funci´ on a integrar por una aproximaci´ on
polin´ omica a la misma.
2. Las f´ ormulas de derivaci´ on as´ı obtenidas tienen una estabilidad comprometida.
3. De igual modo que se construyen operadores para estimar las derivadas a partir del
polinomio de interpolaci´ on, tambi´en a partir de estas f´ ormulas se pueden construir
operadores que nos sirvan para estimar derivadas parciales de funciones de varias
variables.
108
-0.05
0
0.05
0.1
0.15
0.2
0.25
0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 0.045
h
e
r
r
o
r
2delta/h
max f'' h/2
cotatotal
error
Figura 7.6: T´erminos de error para estimar arctan

(2).
7.7 Referencias recomendadas para este tema.
[16], [17].
109
h f
1
f
0
(f
1
−f
0
)/h 2δ/h max f

(ξ)h/2 cota
total
error
0.04 0.9684 0.9553 0.3275 0.005 0.006285394 0.01128 0.0058
0.03 0.9651 0.9553 0.3267 0.00666 0.004714045 0.01138 0.0067
0.02 0.9619 0.9553 0.3300 0.01 0.003142697 0.01314 0.0033
0.01 0.9586 0.9553 0.3300 0.02 0.001571348 0.02157 0.0033
0.009 0.9583 0.9553 0.3333 0.02222 0.001414214 0.02363 0.0000
0.008 0.9579 0.9553 0.3250 0.025 0.001257079 0.02625 0.0083
0.007 0.9576 0.9553 0.3286 0.02857 0.001099944 0.02967 0.0048
0.006 0.9573 0.9553 0.3333 0.03333 0.000942809 0.03427 0.0000
0.005 0.9569 0.9553 0.3200 0.04 0.000785674 0.04078 0.0133
0.004 0.9566 0.9553 0.3250 0.05 0.000628539 0.05062 0.0083
0.003 0.9563 0.9553 0.3333 0.06666 0.000471405 0.06713 0.0000
0.002 0.9559 0.9553 0.3000 0.1 0.00031427 0.10031 0.0333
0.001 0.9556 0.9553 0.3000 0.2 0.000157135 0.20015 0.0333
Tabla 7.1: Error c´ alculo derivada de arctan(x) en x = 2 con op. de 2 ptos.
0
y
0
x
( ) -h,
0
,y
0
x
(
)
-h
0
y
0
x
( ) +h,
0
,y
0
x
(
) +h
Figura 7.7: Discretizaci´ on de cinco puntos.
110
Cap´ıtulo 8
Ecuaciones diferenciales ordinarias.
8.1 Introducci´ on
Muchos modelos f´ısicos, ingenieriles, econ´ omicos, y de cualquier otra ciencia cuantitativa
caen dentro de la categor´ıa de las ecuaciones diferenciales. En ellos, la evoluci´ on del
comportamiento de ciertas variables satisface ecuaciones que dependen no s´ olo de las
variables en si, sino de sus derivadas. Por ejemplo, la ley que gobierna la velocidad de
una masa deslizante sujeta solamente a los efectos friccionales. En este caso la segunda
ley de Newton se escribe como:
m
d
dt
v(t) = −µv(t) (8.1)
En esta parte de la asignatura, vamos a aprender m´etodos num´ericos para resolver ecua-
ciones diferenciales ordinarias (edo’s). Estudiaremos dos problemas centrales en la teor´ıa
computacional de las ecuaciones diferenciales ordinarias: problemas de valores iniciales
y problemas de contorno.
1. Problemas de valor inicial.
La informaci´ on sobre la soluci´ on se da en el instante(punto) inicial. Esta informa-
ci´ on permite fijar los par´ ametros que quedan libres en la soluci´ on. El problema
de amortiguamiento que antes vimos es de este tipo, pues dar la velocidad ini-
cial v(0) = v
0
es suficiente para determinar completamente la soluci´ on. Hay que
aclarar que esto es as´ı si s´ olo queremos conocer la velocidad como funci´ on del tiem-
po. Si quisi´esemos conocer los desplazamientos habr´ıa que dar una condici´ on inicial
tambi´en para los desplazamientos.
2. Problemas de contorno.
Se da informaci´ on de la soluci´ on en varios momentos temporales. Por ejemplo en
el caso anterior podr´ıa ser: | v(0) | + | v(1) |= 1. Son generalmente problemas
m´ as dif´ıciles de resolver. Nosotros nos centraremos en el primer tipo de problemas,
que empezamos ahora a tratar, aunque tambi´en veremos el segundo como caso
particular de cierta clase de problemas en derivadas parciales.
Dentro de los problemas de valor inicial, las ecuaciones diferenciales pueden ser clasifi-
cadas como:
1. Ecuaciones de primer orden
Sea
f : [a, b] IR → IR
x, y → f(x, y)
Se busca una funci´ on y definida en [a, b]
y : [a, b] → IR
x → y(x)
que verifique :
• y

(x) = f(x, y(x))
• y (x
0
) = y
0
La segunda condici´ on se llama condici´ on inicial.
2. Sistemas de primer orden.
Sea
f : [a, b] IR
n
→ IR
n
x, y → f(x, y)
O sea
f : [a, b] IR
n
→ IR
n
x,

¸
¸
¸
¸
y
1
y
2

y
n
¸

¸
¸
¸
¸
f
1
(x, y
1
, , y
n
)
f
2
(x, y
1
, , y
n
)

f
n
(x, y
1
, , y
n
)
¸

Se busca, una funci´ on y definida en [a, b]
y : [a, b] → IR
n
x → y(x)
que verifique :
• y

(x) = f(x, y(x))
• y (x
0
) = y
0
con y
0
∈ IR
n
.
112
3. Ecuaciones diferenciales de orden superior a uno.
Son ecuaciones diferenciales en las que intervienen derivadas segundas, terceras....
Se reducen a un sistema de ecuaciones de primer orden con tratamientos semejantes
al siguiente. Se tiene la ecuaci´ on de la forma:

y

= h(x, y, y

)
y(x
0
) = y
0
y

(x
0
) = y

0
Se realiza el cambio de variables:

u
1
= y
u
2
= y

El problema se convierte en un sistema de primer orden, con:

u

1
= u
2
u

2
= h(x, u
1
, u
2
)
u
1
(x
0
) = y
0
u
2
(x
0
) = y

0
En cuanto a los problemas de contorno, estos son, como ya hemos contado, diferentes
a los de valor inicial o Cauchy. Se conocen no los valores iniciales, sino que las condiciones
de contorno se refieren al valor de la funci´ on en determinados sitios o instantes. El ejemplo
del apartado anterior podr´ıa ser, en este caso:

y

= h(x, y, y

)
y(x
0
) = y
0
y(x
1
) = y
1
En los problemas de valor inicial, para resolverlos num´ericamente, se simula la evoluci´ on
del proceso mediante las ecuaciones diferenciales. En los problemas de contorno no tienen
sentido este tipo de planteamientos. De ahora en adelante, nos centraremos ´ unicamente
en problemas de valor inicial y dejaremos los problemas de contorno para el cap´ıtulo
siguiente estudi´ andolos como casos particulares de Ecuaciones en Derivadas Parciales.
8.2 Ideas b´asicas para la resoluci´ on num´erica de pro-
blemas de valor inicial
Se desea tener una aproximaci´ on de la funci´ on y. Se eligen una serie de puntos x
i
∈ [a, b],
que es en realidad donde vamos a estimar los valores de la funci´ on. Una clasificaci´ on muy
importante de los m´etodos utilizados para estimar esos valores se basa en qu´e informaci´ on
se usa para hacer las sucesivas estimaciones. Como se parte de un valor o valores iniciales,
el planteamiento consiste en ir avanzando hacia adelante a partir de esos valores, y en
general, a partir de los valores anteriores. Tendremos as´ı
113
1. M´etodos de un paso.
El c´ alculo de y
i+1
hace intervenir s´ olamente los valores del paso anterior, x
i
, y
i
, y
del incremento h, que como siempre es la diferencia entre dos abscisas consecutivas.
La abscisa, variable independiente es normalmente el tiempo en los problemas de
valor inicial, aunque podr´ıa ser tambi´en el espacio, en un problema de evoluci´ on en
el espacio y estacionario en el tiempo.
y
i+1
= F (x
i
, y
i
, h) (8.2)
2. M´etodos de varios pasos. El c´ alculo de y
i+1
hace intervenir muchos valores previos,
y
i+1
= F (x
i
, x
i−1
, , x
i−k
, y
i
, y
i−1
, , y
i−k
, h) (8.3)
Tambi´en hay m´etodos llamados impl´ıcitos que involucran valores de la funci´ on todav´ıa
desconocidos. Estos conducen a resolver problemas no lineales en cada paso, como m´ as
adelante veremos.
8.3 M´etodos discretos de un paso para edos.
8.3.1 Principios de los m´etodos de un paso.
Sea
f : [a, b] IR → IR
x, y → f(x, y)
Se busca, una funci´ on y definida en [a, b]
y : [a, b] → IR
x → y(x)
que verifique :
• y

(x) = f(x, y(x))
• y (x
0
) = y
0
Se eligen una serie de puntos x
i
∈ [a, b]
a = x
0
< x
1
< x
2
< < x
n
= b
y se calculan los valores aproximados y
i
de y(x
i
). De hecho, por comodidad supondremos
que los puntos son equidistantes, aunque en la pr´ actica computacional no suceder´ a esto.
Se define, por tanto, el paso de la aproximaci´ on como:
h =
b −a
n
, x
i
= a +ih, 0 ≤ i ≤ n
114
El problema de evoluci´ on tiene su reflejo en la esencia de los m´etodos de integraci´ on. El
valor de la funci´ on en el punto i + 1 del conjunto discreto se obtiene, en los m´etodos de
un paso, a partir del valor estimado de la funci´ on en la iteraci´ on anterior.
Adem´ as de su obvia sencillez, este tipo de c´ alculo tiene la ventaja de que se puede cambiar
el paso sin mayor problema, para en un determinado momento disminuir el error si se
estima que este puede ser muy importante.
8.3.2 Ejemplo: M´etodo de Euler.
Es el m´ as sencillo de todos los m´etodos de integraci´ on num´erica de ecuaciones diferen-
ciales. El planteamiento del problema es el t´ıpico de un problema de valores iniciales. Se
busca una funci´ on y definida en [a, b]
y : [a, b] → IR
x → y(x)
que verifique :
• y

(x) = f(x, y(x))
• y (x
0
) = y
0
Se usa la f´ ormula de incrementos finitos en el intervalo (x
i
, x
i+1
) .
y(x
i+1
) −y(x
i
) = hy

(x
i
), x
i
< x
i
< x
i+1
y

(x
i
) = f (x
i
, y(x
i
))
(8.4)
El hecho es que no se conoce x
i
. El m´etodo de Euler consiste en aproximar ese valor por
x
i
, y el valor de y

(x
i
) por y

(x
i
). El esquema ser´ a por tanto el siguiente:
y
i+1
= y
i
+hf (x
i
, y
i
)
y
0
= y(x
0
)
La visualizaci´ on de lo que estamos haciendo se presenta en la figura 8.3.2. En ella se
conoce el punto A
0
= (x
0
, y
0
), y se conoce la tangente a la curva soluci´ on en ese punto,
cuya pendiente viene dada por la expresi´ on y

(x
0
) = f (x
0
, y(x
0
)). La aproximaci´ on
consiste en confundir la curva y su tangente. Se reemplaza el punto desconocido por A
1
,
que tiene su misma abscisa pero que est´ a situado sobre la tangente. Para obtener A
2
,
proceder´ıamos de modo an´ alogo tomando como referente A
1
.
Ejemplo 8.3.1

y

= y
y(0) = 1
x ∈ [0, 5]
115
1
h
A
a+h
a
0
T
0
A
0
A
Figura 8.1: Esquema de Euler.
La soluci´ on anal´ıtica es y(x) = e
x
. Tomamos un paso de h = 0.2. El esquema ser´ıa el
siguiente:
y
i+1
= y
i
+hf (x
i
, y
i
) = y
i
+hy
i
= y
i
(1 +h)
Como y
0
= 1 tendremos que:
y
i+1
= (1 +h)
i+1
En la tabla 8.3.2 y en la figura 8.3.2 tenemos una representaci´ on de la funci´ on error. El
k x y real y aprox error
0 0 1 1 0
1 0,2 1,22140276 1,44 -0,21859724
2 0,4 1,4918247 1,728 -0,2361753
3 0,6 1,8221188 2,0736 -0,2514812
4 0,8 2,22554093 2,48832 -0,26277907
5 1 2,71828183 2,985984 -0,26770217
10 2 7,3890561 7,43008371 -0,04102761
15 3 20,0855369 18,4884259 1,59711103
20 4 54,59815 46,0051199 8,59303012
25 5 148,413159 114,47546 33,9376991
Tabla 8.1: Error ejemplo esquema de Euler.
error se debe a dos causas:
1. Discretizaci´ on. Aproximar la curva por su tangente.
116
0
20
40
60
80
100
120
140
160
0 1 2 3 4 5
x
y
y real
y euler
Figura 8.2: Error ejemplo esquema de Euler.
2. Los errores de redondeo: Debidos a las operaciones realizadas por el ordenador.
A un m´etodo le exigiremos varias cosas. Sin duda las m´ as importantes son la convergencia
- que la aproximaci´ on sea tan buena como queramos bajando el paso - y la estabilidad -
que el m´etodo no sea muy sensible a los errores para c´ alculos posteriores.
8.3.3 Esquema general.
Una vez puestos en situaci´ on al haber estudiado el m´etodo m´ as sencillo, haremos un
planteamiento general de los m´etodos de un paso y definiremos con cierta precisi´ on los
conceptos que garantizan la bondad de una aproximaci´ on. Como sabemos, el c´ alculo de
y
i+1
hace intervenir los valores de x
i
y de y
i
.
y
i+1
= F (x
i
, y
i
, h)
El esquema general ser´ a:
y
i+1
= y
i
+hφ(x
i
, y
i
, h) (8.5)
y
0
= y(x
0
)
si φ(x, y, h) = f(x, y), tendremos el m´etodo de Euler.
117
8.3.4 Error de discretizaci´ on. Orden de un m´etodo.
Se define el error de la discretizaci´ on en la iteraci´ on i como e
i
= y
i
−y (x
i
). Un m´etodo
es de orden ≥ p si para toda soluci´ on de y

= f(x, y)
max
i=0,n

y (x
i+1
) −y (x
i
)
h
−φ(x
i
, y (x
i
) , h)

= O(h
p
) (8.6)
El orden de un m´etodo nos permite acotar de un modo muy preciso el error de dis-
cretizaci´ on, como nos lo demuestra el siguiente teorema, del cual no presentamos de-
mostraci´ on.
Teorema 8.3.1 Si φ verifica la condici´on de Lipschitz respecto a la segunda variable, y
si el m´etodo es de orden mayor o igual que p, entonces:
max
i=0,n
[e
i
[ = max
i=0,n
[y
i
−y (x
i
)[ = O(h
p
)
Una vez que se ha acotado el error de discretizaci´ on, el programador debe tener cuidado
con el error de redondeo, que depende del problema, de la m´ aquina, y del programa.
El orden de un m´etodo da, como hemos dicho, una medida del error de discretizaci´ on,
que es inherente al m´etodo. En realidad, lo que estamos diciendo al definir el orden es,
m´ as o menos que:
y (x
i+1
) = y (x
i
) +hφ(x
i
, y (x
i
) , h) +O(h
p+1
) (8.7)
O sea, que si parti´esemos de un valor correcto en x
i
, y (x
i
), el valor que obtendr´ıamos
en x
i+1
, vendr´ıa afectado de un error de orden p + 1. Los errores de redondeo hacen
que al integrar perdamos un orden, y que el error de discretizaci´ on sea de orden p. Por
tanto, cu´ anto m´ as grande sea p, y m´ as peque˜ no sea h, el error de discretizaci´ on ser´ a m´ as
peque˜ no.
8.3.5 Selecci´ on del paso de integraci´ on.
Que se sepa a priori el orden de un m´etodo no es suficiente para elegir el paso si se desea
que el error sea inferior a una cota dada . Explicamos una t´ecnica que permite hacer
esto con una cierta precisi´ on, m´ as alta cuanto m´ as peque˜ no es el paso de integraci´ on.
Esta t´ecnica es muy similar a la estudiada en 6.7.5. Imaginemos que buscamos h tal que
la estimaci´ on de y(x) se obtenga con un error de orden . Supongamos que el m´etodo es
de orden p. Se deben seguir los siguientes pasos.
1. Se integra con un paso h
0
, con error e = y
k
−y(x) ≈ Mh
p
0
.
2. Se integra con un paso 2h
0
, entonces el error ˜ e = ˜ y
j
−y(x) ≈ M(2h
0
)
p
.
3. Sabiendo que el error no debe superar la cota dada, se tendr´ a:
y
k
− ˜ y
j
= y
k
−y(x) +y(x) − ˜ y
j
≈ Mh
p
0
−M(2h
0
)
p
118
Mh
p
0

y
k
− ˜ y
j
1 −2
p
y tenemos el sistema:
Mh
p
0

y
k
− ˜ y
j
1 −2
p
Mh
p

y por tanto:
h ≈ h
0

(1 −2
p
)
y
k
− ˜ y
j
1
p
8.4 Diferentes m´etodos de un paso.
8.4.1 M´etodo de Euler.
Vimos ya el m´etodo de Euler, que consist´ıa en aproximar la funci´ on en un punto por
su tangente. El punto siguiente se obten´ıa proyectando la abscisa siguiente sobre su
tangente.
y
i+1
= y
i
+hf (x
i
, y
i
) (8.8)
y
0
= y(x
0
)
O sea, que seg´ un el planteamiento general:
φ(x, y, h) = f(x, y)
8.4.2 Orden del m´etodo de Euler.
El orden de un m´etodo da una medida del error de discretizaci´ on o truncamiento.

y (x
i+1
) −y (x
i
)
h
−φ(x
i
, y (x
i
) , h)

=

y (x
i+1
) −y (x
i
)
h
−f (x
i
, y (x
i
))

Haciendo un desarrollo en serie de la funci´ on y en un entorno de x
i
.
y (x
i+1
) = y (x
i
+h) = y (x
i
) +y

(x
i
) h +O(h
2
) = y (x
i
) +f (x
i
, y (x
i
)) h +O(h
2
)
por tanto:
y (x
i+1
) −y (x
i
)
h
−f (x
i
, y (x
i
)) = O(h) (8.9)
el orden del m´etodo es entonces, uno.
119
8.4.3 M´etodo de Euler: error de discretizaci´ on.
El error de discretizaci´ on en el m´etodo de Euler se debe a que, en un punto, estamos
aproximando la funci´ on por su tangente. O sea, de lo que se trata es de acotar el valor:

i
= ˆ y
i
−y (x
i
)
donde ˆ y
i
es el valor obtenido partiendo de un valor exacto en el paso anterior, la cual no
es la situaci´ on real de c´ alculo. Si usamos el desarrollo en serie de Taylor, tendremos que:
y (x
i+1
) = y (x
i
+h) = y (x
i
) +y

(x
i
) h +
=
h
2
2
max
ξ∈[x
i
,x
i+1
]
[y

(ξ)[
o, lo que es lo mismo:
y (x
i+1
) = y (x
i
+h) = y (x
i
) +f (x
i
, y (x
i
)) h +
=
h
2
2
max
ξ∈[x
i
,x
i+1
]
[f

(ξ, y (ξ))[
Desgraciadamente, esta cota del error solamente es v´ alida para el primer punto obtenido,
pues el ´ unico valor realmente exacto es el valor inicial. Los siguientes puntos de partida
incluyen el resultado de c´ alculos previos y arrastran por tanto, errores de truncamiento. A
ra´ız de esto, procede un estudio de la propagaci´ on de los errores locales de discretizaci´ on
en el m´etodo de Euler. Los estudios de propagaci´ on de errores son, en general muy
dif´ıciles. De hecho el caso m´ as sencillo que es el de Euler ya es muy complicado, y no
haremos estudios espec´ıficos de este tema. De todos modos, tenemos garantizado ya que
el error total es de orden p si el m´etodo es de orden p, siempre que la funci´ on φ verifique
la condici´ on de Lipschitz para la segunda variable.
8.4.4 M´etodo de Taylor.
Se puede construir un m´etodo de orden p a partir del desarrolo en serie de Taylor.
y (x +h) = y (x) +y

(x) h +
h
2
2
y

(x) + +
h
p
p!
y
(p)
(x) +O

h
p+1

y(x +h) −y(x)
h
= y

(x) +
h
2
y

(x) + +
h
p−1
p!
y
(p)
(x) +O(h
p
)
Pero ahora podemos obtener cada una de las derivadas sucesivas.
y

(x) = f(x, y(x))
y

(x) =
∂f
∂x
(x, y) +
∂f
∂y
(x, y)y

(x) = g
2
(x, y)
y

(x) = = g
3
(x, y), etc.
120
Con lo cual, si tomamos:
φ(x, y, h) = f(x, y) +
h
2
g
2
(x, y) + +
h
p−1
p!
g
p
(x, y) (8.10)
tendremos que:

y (x
i+1
) −y (x
i
)
h
−φ(x
i
, y (x
i
) , h)

= O(h
p
)
con lo que el orden de m´etodo ser´ a p.
El m´etodo de Taylor ha sido tradicionalmente bastante poco utilizado porque las deriva-
das sucesivas son dif´ıciles de calcular, saliendo unas expresiones inmanejables. Adem´ as,
tienen como inconveniente el exigir a la funci´ on f m´ as clase de la necesaria, porque en
principio, s´ olo necesitamos que sea continua. Tambi´en tienen el incoveniente de que son
dif´ıciles de aplicar a sistemas de edos y sobre todo a edp’s. Sin embargo, y como vamos
a ver ahora, se puede conseguir el orden que queramos sin necesidad de recurrir a las
derivadas sucesivas. En esta idea se apoyan los m´etodos de Runge-Kutta.
8.4.5 M´etodos de Runge-Kutta.
La soluci´ on de una ecuaci´ on diferencial por desarrollo directo de Taylor de la funci´ on
objeto no es, en general, un m´etodo pr´ actico si se necesitan derivadas de orden mayor
que uno. Las siguientes derivadas se complican demasiado excepto en los casos m´ as
sencillos. Por ello no es posible obtener un algoritmo sencillo, an´ alogo al m´etodo de
Euler, a partir del desarrollo de Taylor en cuanto sean precisos t´erminos de error de
´ ordenes elevados.
Afortunadamente, como ya hemos comentado, es posible deducir algoritmos de un paso
que incluyen s´ olo c´ alculos de derivadas de primer orden, pero que a su vez producen
resultados equivalentes en exactitud a las f´ ormulas de Taylor de orden superior. El
precio que se paga es evaluar varias veces la funci´ on f en cada paso. Estos m´etodos
son los que se estudian en este ep´ıgrafe, y se llaman m´etodos de Runge-Kutta
1 2
. Las
aproximaciones de segundo, tercer y cuarto orden requieren el c´ alculo de f(x, y) en dos,
tres y cuatro puntos, respectivamente, en el intervalo [x
i
, x
i+1
]. Las aproximaciones de
orden p, con p > 4, requieren el c´ alculo de f(x, y) en m´ as de p puntos, lo que los hace
menos rentables. De lo que se trata es de elegir adecuadamente la funci´ on φ(x, y, h). Lo
haremos aqu´ı de modo detallado para orden dos y presentaremos las de orden 3 y 4.
1
Martin Kutta(1867-1944) naci´o en una parte de Alemania que ahora pertenece a Polonia, Byczyna.
Fue profesor en Munich, Jena, Aachen (Aquisgr´an) y finalmente en Stuttgart. El m´etodo de Runge-
Kutta lo present´o en 1901. Es muy famoso tambi´en por el teorema de Kutta-Joukowsky, fundamental
para el c´alculo de sustentaci´on por perfiles aerodin´amicos.
2
Carle Runge (1856 Gottingen-1927). Estudi´o en la universidad de Munich donde sigui´o los cursos de
Max Planck y se hicieron buenos amigos. Ambos pasaron a Berl´ın en 1877. All´ı estudi´o con Weirstrass
y Kronecker. Runge trabaj´o en un procedimiento para la resoluci´on num´erica de ecuaciones algebraicas
(polin´omicas en varias variables) en las que las raices se expresaban como series de funciones racionales
de los coeficientes. Ayud´o a Kutta con su m´etodo para resolver edos, e hizo contribuciones en el ´area de
la f´ısica de gases y ondas.
121
M´etodos de Runge-Kutta de orden 2.
Determinaremos los coeficientes a
1
, a
2
, p
1
, p
2
, para que la aproximaci´ on de un paso que
se deduce de esta funci´ on, sea de orden dos.
φ(x, y, h) = a
1
f(x, y) +a
2
f (x +p
1
h, y +p
2
hf(x, y)) = a
1
f(x, y) +a
2
f (X, Y ) (8.11)
Si hacemos un desarrollo de esta funci´ on en un entorno del cero de h.
φ(x, y, h) = φ(x, y, 0) +φ
h
(x, y, 0)h +O(h
2
)
φ(x, y, 0) = (a
1
+a
2
)f(x, y)
φ
h
(x, y, 0) = a
2

∂f
∂x
∂X
∂h
+
∂f
∂y
∂Y
∂h

= a
2

∂f
∂x
p
1
+
∂f
∂y
p
2
f(x, y)

Por tanto
φ(x, y, h) = (a
1
+a
2
)f(x, y) +a
2

∂f
∂x
p
1
+
∂f
∂y
p
2
f(x, y)

h +O(h
2
) (8.12)
Por otro lado:
y(x +h) −y(x)
h
= y

(x) +
h
2
y

(x) +O(h
2
) = f(x, y) +
h
2

∂f
∂x
+f
∂f
∂y

+O(h
2
)
El m´etodo ser´ a de orden dos si:

y (x
i+1
) −y (x
i
)
h
−φ(x
i
, y (x
i
) , h)

= O(h
2
)
que si analizamos las expresiones, se tendr´ a que dar que:
a
1
+a
2
= 1
a
2
p
1
=
1
2
a
2
p
2
=
1
2
Dejando todo en funci´ on de a
2
a
1
= 1 −a
2
p
1
=
1
2a
2
p
2
=
1
2a
2
φ(x, y, h) = (1 −a
2
)f(x, y) +a
2
f

x +
h
2a
2
, y +
h
2a
2
f(x, y)

(8.13)
122
O sea, que nos queda un par´ ametro libre a
2
, al que podemos darle el valor que nosotros
queramos. Si cogemos a
2
= 1/2, tendremos:
φ(x, y, h) =
1
2
[f(x, y) +f (x +h, y +hf(x, y))] (8.14)
y, por tanto:
y
i+1
= y
i
+
h
2
[f(x
i
, y
i
) +f (x
i
+h, y
i
+hf(x
i
, y
i
))] (8.15)
que puede escribirse tambi´en en la forma.
y
i+1
= y
i
+
h
2

f(x
i
, y
i
) +f

x
i
+h, y
i+1
)

(8.16)
y
i+1
= y
i
+hf(x
i
, y
i
) (8.17)
A este m´etodo se le llama el m´etodo de Euler mejorado o m´etodo de Heun. Presentamos
su interpretaci´ on geom´etrica en la figura 8.3.
En esencia, lo que estamos haciendo es aplicar dos veces el m´etodo de Euler. En primer
( f
i i+1
y
pendiente= ) ,
+h
h
i
y
2
i+1
y
1
i+1
y
x
i
xxx
i+1
xxx
Figura 8.3: M´etodo de Euler mejorado o m´etodo de Heun.
lugar estimamos del modo cl´ asico con la ecuaci´ on y
i+1
= y
i
+ hf(x
i
, y
i
) el punto y
i+1
,
que es una estimaci´ on previa de y
i+1
. Es decir, y
i+1
es la ordenada en x
i+1
de la recta 1
de la figura 8.3, que pasa por (x
i
, y
i
) con pendiente f(x
i
, y
i
). A continuaci´ on se mejora
la estimaci´ on por medio de la ecuaci´ on 8.16.
y
i+1
= y
i
+
h
2

f(x
i
, y
i
) +f

x
i
+h, y
i+1
)

123
La pendiente de la recta 2 utilizada en este caso es la media ponderada de las apro-
ximaciones de f en ambos extremos del intervalo. Obs´ervese que como y (x
i+1
) es de-
sconocido, el verdadero valor de la derivada en x
i+1
, f (x
i+1
, y (x
i+1
)), se aproxima por
el valor f

x
i+1
, y
i+1
)

. El algoritmo de Euler puede considerarse en este caso como una
ecuaci´ on predictora de y
i+1
, mientras que la ecuaci´ on definitiva puede considerarse co-
mo una ecuaci´ on correctora que produce una mejor estimaci´ on de y
i+1
. Esta ecuaci´ on
puede utilizarse iterativamente para obtener una sucesi´ on de valores corregidos y
(1)
i+1
, y
(2)
i+1
,
,.....,y
(m)
i+1
. En este caso el par de ecuaciones 8.16,8.17 resulta ser el m´ as sencillo de los
m´etodos predictor-corrector que se estudiar´ an m´ as adelante con detalle.
Si cogemos a
2
= 1, tendremos:
φ(x, y, h) = f
¸
x +
h
2
, y +
h
2
f(x, y)
¸
(8.18)
y, por tanto, podemos escribir el algoritmo de aproximaci´ on como:
y
i+1
= y
i
+hf

x
i
+
h
2
, y
i+
1
2

(8.19)
y
i+
1
2
= y
i
+
h
2
f(x
i
, y
i
) (8.20)
A este algoritmo se le llama el m´etodo mejorado del pol´ıgono o m´etodo de Euler modifi-
cado. Presentamos su interpretaci´ on geom´etrica en la figura 8.4.
En este caso se utiliza de nuevo dos veces sucesivas el m´etodo de Euler. Primero se
obtiene una aproximaci´ on de y
i+
1
2
en el punto medio. Calculamos el valor de la derivada
en ese punto, y utilizamos el valor de la derivada en este punto para el total del intervalo.
M´etodos de Runge-Kutta de orden 3.
Los m´etodos de Runge-Kutta de orden superior se obtienen de modo an´ alogo. Por
ejemplo la funci´ on incremento para el m´etodo de tercer orden es:
φ(x, y, h) = ak
1
+bk
2
+ck
3
(8.21)
siendo k
1
, k
2
, k
3
, aproximaciones a la derivada en varios puntos del intervalo [x
i
, x
i+1
].
En este caso se tiene:
k
1
= f (x
i
, y
i
)
k
2
= f (x
i
+ph, y
i
+phk
1
) (8.22)
k
3
= f (x
i
+rh, y
i
+shk
2
+ (r −s)hk
1
)
Hay que imponer la condici´ on de tercer orden para obtener una relaci´ on entre las cons-
tantes a, b, c, p, r, s. El m´ as famoso de los m´etodos de tercer orden es:
y
i+1
= y
i
+
h
6
f (k
1
+ 4k
2
+k
3
) (8.23)
124
( f
i
h/2
i+1/2
y
pendiente=
i
xxx
i
y
2
i+1
y 1
i+1/2
y
) , +h/2
i+1
xxx
h/2
x
Figura 8.4: M´etodo de Euler modificado o m´etodo del pol´ıgono.
k
1
= f (x
i
, y
i
)
k
2
= f

x
i
+
h
2
, y
i
+
h
2
k
1

k
3
= f (x
i
+h, y
i
+ 2hk
2
−hk
1
)
M´etodos de Runge-Kutta de orden 4.
Los m´etodos de Runge-Kutta de orden cuatro exigen la evaluaci´ on de la derivada en
cuatro puntos para cada paso. Su esquema general es
y
i+1
= y
i
+h(ak
1
+bk
2
+ck
3
+dk
4
) (8.24)
siendo k
1
, k
2
, k
3
, k
4
, aproximaciones a la derivada en varios puntos del intervalo [x
i
, x
i+1
].
El m´ as famoso de los m´etodos de cuarto orden es:
y
i+1
= y
i
+
h
6
(k
1
+ 2k
2
+ 2k
3
+k
4
) (8.25)
k
1
= f (x
i
, y
i
)
k
2
= f

x
i
+
h
2
, y
i
+
h
2
k
1

k
3
= f

x
i
+
h
2
, y
i
+
h
2
k
2

k
4
= f (x
i
+h, y
i
+hk
3
)
125
8.5 M´etodos de paso multiple.
8.5.1 Introducci´ on a los m´etodos de paso m´ ultiple.
El m´etodo de Runge-Kutta tiene el inconveniente de que hace intervenir c´ alculos de
las derivadas en valores intermedios, algunas veces de muy poco significado geom´etrico,
siendo adem´ as puntos en los que en realidad a nosotros no nos interesa el valor que pueda
tener la funci´ on y que se pierden de una iteraci´ on a otra. A nosotros nos interesa el valor
de la funci´ on s´ olamente en los nodos de nuestra discretizaci´ on. Los m´etodos de paso
m´ ultiple eliminan este problema.
En los m´etodos de varios pasos, el c´ alculo de y
i+1
hace intervenir los valores x
i
, x
i−1
, ,
x
i−q+1
, y
i
,y
i−1
, , y
i−q+1
. Cuando esa dependencia se tiene explicitada, los m´etodos se
llaman expl´ıcitos.
y
i+1
= F (x
i
, x
i−1
, , x
i−q+1
, y
i
, y
i−1
, , y
i−q+1
) (8.26)
Cuando esa dependencia es impl´ıcita, los m´etodos se llaman impl´ıcitos. En cada paso
hay que resolver una ecuaci´ on o un sistema de ecuaciones a veces lineal, a veces no lineal,
dependiendo de c´ omo sea la ecuaci´ on diferencial
F (x
i+1
, x
i
, x
i−1
, , x
i−q+1
, y
i+1
, y
i
, y
i−1
, , y
i−q+1
) = 0 (8.27)
Otra forma de ver los m´etodos de integraci´ on es una formulaci´ on de tipo integral, que
nos va a servir de base luego para los algoritimos de paso m´ ultiple. En los m´etodos de
paso simple ten´ıamos:
dy
dx
= f (x, y(x))
Lo m´ as sencillo para obtener a partir de , ser´ıa:
y
i+1
= y
i
+

x
i+1
x
i
f (x, y(x)) dx (8.28)
y en realidad, lo que nostros hacemos es aproximar:
φ(x
i
, y
i
, h) h ≈

x
i+1
x
i
f (x, y(x)) dx (8.29)
En los m´etodos de paso m´ ultiple, la idea matriz va a ser:
y
i+1
= y
i−k
+

x
i+1
x
i−k
P
f
(x)dx (8.30)
donde P
f
(x) es un polinomio que se obtiene por interpolaci´ on de los valores obtenidos
desde i −q +1 hasta i para la funci´ on f (x, y(x)), con lo cual ser´ a un m´etodo de q pasos.
En los m´etodos impl´ıcitos P
f
(x) se obtiene por interpolaci´ on de los valores obtenidos
desde i −q + 1 hasta i + 1 para la funci´ on f (x, y(x)).
Los m´etodos de paso m´ ultiple tienen dos inconvenientes bastante importantes. Por un
lado, al comienzo de la integraci´ on, como nuestro problema es un problema de valor
126
inicial, s´ olo se dispone de un valor. Ello motiva que para arrancar los m´etodos de paso
m´ ultiple se recurra casi siempre a otros esquemas de un paso. En esta situaci´ on, y debido
a la precisi´ on del esquema multipaso elegido, los esquemas utilizados para el arranque
deber´ an cumplir un cierto requisito en la precisi´ on de sus resultados. Generalmente, lo
que se suele hacer es dar q − 1 pasos iniciales con un esquema de un paso de orden p,
siendo p el orden del esquema multipaso
3
, y q el n´ umero de pasos involucrados en el
esquema.
4
.
Adem´ as, en los m´etodos de un paso, si se detecta un error de discretizaci´ on muy grande,
el algoritmo permite el ajuste del paso para que esto no suceda. Sin embargo, en los
m´etodos de paso m´ ultiple esto no se puede hacer tan f´ acilmente.
8.5.2 M´etodos de Adams-Bashforth.
General.
Son un cierto tipo de m´etodos multipaso expl´ıcitos. Usamos la filosof´ıa polin´ omica que
acabo de comentar.

y
i+1
y
i
dy =

x
i+1
x
i
f (x, y(x)) dx = y
i+1
−y
i
(8.31)
aproximamos f (x, y(x)) mediante un polinomio cuyo grado depende del n´ umero de pun-
tos que usemos en el esquema multipaso.
y
i+1
= y
i
+

x
i+1
x
i
P
q
(x)dx (8.32)
AB1
Consiste en aproximar f (x, y(x)) por su valor en el punto f (x
i
, y
i
) = f
i
, o sea, por un
polinomio de grado cero, ver figura 8.5. Por tanto el esquema que tenemos es
y
i+1
= y
i
+hf (x
i
, y
i
) = y
i
+hf
i
(8.33)
que es precisamente el esquema euleriano, que ya sabemos que es de orden 1.
AB2
Consiste en aproximar f (x, y(x)) por una recta que se apoya en los puntos (x
i
, f
i
) y
(x
i−1
, f
i−1
), ver figura 8.6.
P
1
(x) = f
i
+
f
i
−f
i−1
x
i
−x
i−1
(x −x
i
) (8.34)
Por tanto el esquema de Adams-Bashforth de segundo orden es:
y
i+1
= y
i
+

x
i+1
x
i
P
1
(x)dx = y
i
+h

3
2
f
i

1
2
f
i−1

(8.35)
3
Se puede matizar la elecci´on del orden del esquema de arranque pero escapa al contenido del curso
4
valor inicial +q − 1 pasos = q valores iniciales para el esquema multipaso
127
( ) x
0
P
( ) x,y
f
h
h
f
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
(
i i
y )
, x
Figura 8.5: M´etodo de Adams Bashforth de orden 1, AB1.
AB3.
Consiste en aproximar f (x, y(x)) por una par´ abola que se apoya en los puntos (x
i
, f
i
),
(x
i−1
, f
i−1
) y (x
i−2
, f
i−2
), ver figura 8.7. Si integramos esta aproximaci´ on tendremos que:
y
i+1
= y
i
+
h
12
(23f
i
−16f
i−1
+ 5f
i−2
) (8.36)
AB4.
Para un polinomio de tercer grado, tendremos el m´etodo de Adams-Bashforth de cuarto
orden, y as´ı sucesivamente.
y
i+1
= y
i
+
h
24
(55f
i
−59f
i−1
+ 37f
i−2
−9f
i−3
) (8.37)
8.5.3 M´etodos de Adams-Moulton.
General.
Son un cierto tipo de m´etodos multipaso impl´ıcitos. Se caracterizan porque el polinomio
de interpolaci´ on de f (x, y(x)) tiene tambi´en en cuenta el punto (x
i+1
, f
i+1
). Pero este
punto es desconocido, y por tanto, el esquema se traduce en una ecuaci´ on en la que
queremos encontrar y
i+1
como funci´ on de una serie de par´ ametros entre los que tambi´en
est´ a y
i+1
. Veamos los m´ as sencillos e importantes.
128
( ) x
1
P
( ) x,y
f
h
h
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
f
i
f
i-1
Figura 8.6: M´etodo de Adams Bashforth de orden 2, AB2.
AM1
Consiste en aproximar f (x, y(x)) por su valor en el punto (x
i+1
, f
i+1
), ver figura 8.8. Por
tanto el esquema que tenemos es
y
i+1
= y
i
+hf (x
i+1
, y
i+1
) = y
i
+hf
i+1
(8.38)
Este esquema se llama Euler impl´ıcito o inverso, es de orden 1 y es muy importante porque
tiene unas caracter´ısticas de estabilidad privilegiadas, cuyo estudio escapa al curso, y que
hacen que sea muy utilizado en la integraci´ on de ecuaciones diferenciales.
Ejemplo 8.5.1 Se tiene el problema siguiente:

y

= y
y(0) = 1
x ∈ [0, 1]
El esquema de Euler inverso para su resoluci´ on ser´ a:
y
i+1
= y
i
+hf (x
i+1
, y
i+1
) = y
i
+hy
i+1
(8.39)
y por tanto,
y
i+1
=
y
i
1 −h
(8.40)
Mostramos los resultados en la siguiente tabla.
129
( ) x
2
P
( ) x,y
f
h
h
f
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
(
i-1 i-1
y ) , x
Figura 8.7: M´etodo de Adams Bashforth de orden 3, AB3.
k x Euler Expl. Euler Impl. Exacta
0 0 1 1 1
1 0,1 1,1 1,11111111 1,10517092
2 0,2 1,21 1,2345679 1,22140276
3 0,3 1,331 1,37174211 1,34985881
4 0,4 1,4641 1,5241579 1,4918247
5 0,5 1,61051 1,69350878 1,64872127
6 0,6 1,771561 1,88167642 1,8221188
7 0,7 1,9487171 2,09075158 2,01375271
8 0,8 2,14358881 2,32305731 2,22554093
9 0,9 2,35794769 2,58117479 2,45960311
10 1 2,59374246 2,86797199 2,71828183
Ejemplo 8.5.2 Se tiene el problema siguiente:

y

= e
y
y(0) = 1
x ∈ [0, 1]
El esquema de Euler inverso para su resoluci´ on ser´ a:
y
i+1
= y
i
+hf (x
i+1
, y
i+1
) = y
i
+he
y
i+1
(8.41)
y
i+1
= y
i
+he
y
i+1
(8.42)
que no se puede resolver de modo expl´ıcito para y
i+1
.
130
( ) x
0
P
( ) x,y
f
h
h
f
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
i+1
Figura 8.8: M´etodo de Adams Moulton de orden 1, AM1.
AM2
Consiste en aproximar f (x, y(x)) por una recta que se apoya en los puntos (x
i
, f
i
) y
(x
i+1
, f
i+1
), ver figura 8.10.
P
1
(x) = f
i
+
f
i+1
−f
i
x
i+1
−x
i
(x −x
i
) (8.43)
Por tanto el esquema de Adams-Moulton de segundo orden es:
y
i+1
= y
i
+

x
i+1
x
i
P
1
(x)dx = y
i
+h
f
i
+f
i+1
2
(8.44)
A este esquema en particular se le suele llamar m´etodo de Crank-Nicholson.
AM3.
Consiste en aproximar f (x, y(x)) por una par´ abola que se apoya en los puntos (x
i+1
, f
i+1
),
(x
i
, f
i
) y (x
i−1
, f
i−1
), ver figura 8.11. Si integramos esta aproximaci´ on tendremos que, el
esquema num´erico, siempre para paso de integraci´ on constante queda:
y
i
+
h
12
(5f
i+1
+ 8f
i
−f
i−1
) (8.45)
AM4.
Para un polinomio de tercer grado, tendremos el m´etodo de Adams-Moulton de cuarto
orden, y as´ı sucesivamente.
y
i+1
= y
i
+
h
24
(9f
i+1
+ 19f
i
−5f
i−1
+f
i−2
) (8.46)
131
0
50
100
150
200
250
300
0 1 2 3 4 5
x
y
y real
y euler explícito
y euler implícito
Figura 8.9: Comparaci´ on entre Euler expl´ıcito e impl´ıcito para el ejemplo 1.
Conclusi´ on sobre los m´etodos impl´ıcitos de Adams-Moulton.
En general, los m´etodos impl´ıcitos dan mejores resultados que los expl´ıcitos del mis-
mo orden adem´ as de tener propiedades num´ericas (estabilidad y convergencia) mejores
que los expl´ıcitos. Sin embargo, tienen la debilidad inherente de tener que convertir,
algebraicamente, el m´etodo a una representaci´ on expl´ıcita para y
i+1
. Esto, a menudo
es muy dif´ıcil, y a veces, imposible. Para solucionar estos problemas estudiaremos los
m´etodos predictor corrector que consisten en una t´ecnica de resoluci´ on aproximada de
los problemas planteados por los m´etodos impl´ıcitos en cada paso.
8.5.4 M´etodos predictor-corrector.
General.
En la pr´ actica, los m´etodos multipaso impl´ıcitos no se usan como se describi´ o ante-
riormente. Se utilizan para mejorar las aproximaciones obtenidas mediante m´etodos
expl´ıcitos. La combinaci´ on de una t´ecnica expl´ıcita con una impl´ıcita se llama m´etodo
predictor-corrector.
5
En realidad, la filosof´ıa predictor-corrector es m´ as general - como
vimos en el m´etodo de Euler mejorado -, pero a efectos pr´ acticos, los esquemas predictor
corrector m´ as usados, son la combinaci´ on de un multipaso expl´ıcito con otro impl´ıcito.
Explicaremos el m´ as usado, y el m´ as complejo, que es el de cuarto orden. Los de orden
inferior se deducen f´ acilmente habiendo entendido ´este.
5
En realidad, lo que se hace es sustituir la parte impl´ıcita del corrector con el valor obtenido por
el predictor. El predictor se puede ver como resolver un problema de punto fijo en cada paso: y
i+1
=
T (y
i+1
), y el predictor ser´ıa el hu´esped inicial de ese esquema
132
( ) x
1
P
( ) x,y
f
h
h
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
f
i+1
f
i
Figura 8.10: M´etodo de Adams Moulton de orden 2, AM2.
M´etodos de Adams-Bashforth-Moulton.
Un planteamiento muy habitual es que si se necesita un m´etodo de cuarto orden para
resolver un problema de valor inicial, se obtengan los cuatro puntos para el arranque
del multipaso mediante un Runge-Kutta de orden 4. Estos cuatro puntos se usan como
arranque el un Adams-Bashforth de orden cuatro. La estimaci´ on en cada paso se mejora
con un multipaso impl´ıcito de tres pasos de orden cuatro AM4. O sea:
1. Tenemos y
0
2. Obtenemos con RK4 y
1
, y
2
, y
3
.
3. Obtenemos con AB4 y
(0)
4
.
y
(0)
4
= y
3
+
h
24
(55f (x
3
, y
3
) −59f (x
2
, y
2
) + 37f (x
1
, y
1
) −9f (x
0
, y
0
))
4. Mejoramos y
(0)
4
con AM4.
y
(1)
4
= y
3
+
h
24

9f

x
4
, y
(0)
4

19f (x
3
, y
3
) −5f (x
2
, y
2
) +f (x
1
, y
1
)

De nuevo podr´ıamos mejorar esta estimaci´ on, meti´endolo de nuevo en el multipaso
impl´ıcito, como si estuvi´esemos resolviendo un problema no lineal por aproxima-
ciones sucesivas.
y
(2)
4
= y
3
+
h
24

9f

x
4
, y
(1)
4

19f (x
3
, y
3
) −5f (x
2
, y
2
) +f (x
1
, y
1
)

Podr´ıamos hacer sucesivas mejoras(sea k es n´ umero de mejoras), pero sabiendo que
no tendemos a la soluci´ on real y (x
1
) sino a la soluci´ on del problema impl´ıcito. Si
queremos m´ as precisi´ on, en vez de iterar muchas veces sobre el corrector, es mejor
reducir el paso.
133
( ) x
2
P
( ) x,y
f
h
h
i
xxx
i-1
xxx
i-2
xxx
i+1
xxx
h
f
i+1
f
i
f
i-1
Figura 8.11: M´etodo de Adams Moulton de orden 3, AM3.
5. Una vez obtenido este punto, los siguientes se obtienen de modo an´ alogo. En
general:
y
(0)
i+1
= y
i
+
h
24
(55f (x
i
, y
i
) −59f (x
i−1
, y
i−1
) + 37f (x
i−2
, y
i−2
) −9f (x
i−3
, y
i−3
))
y
(1)
i+1
= y
i
+
h
24

9f

x
i+1
, y
(0)
i+1

+ 19f (x
i
, y
i
) −5f (x
i−1
, y
i−1
) +f (x
i−2
, y
i−2
)

y
(k+1)
i+1
= y
i
+
h
24

9f

x
i+1
, y
(k)
i+1

+ 19f (x
i
, y
i
) −5f (x
i−1
, y
i−1
) +f (x
i−2
, y
i−2
)

8.5.5 M´etodos de Milne-Simpson.
En los m´etodos de paso m´ ultiple la idea era:
y
i+1
= y
i−k
+

x
i+1
x
i−k
P(x)dx
donde P(x) es un polinomio que se obtiene por interpolaci´ on de los valores obtenidos
desde i −q +1 hasta i para la funci´ on f (x, y(x)), con lo cual ser´ a un m´etodo de q pasos.
En los m´etodos de Adams el planteamiento era hacer k = 0, y ten´ıamos que:
y
i+1
= y
i
+

x
i+1
x
i
P
q
(x)dx
Pero k puede ser distinto de cero. Jugando con esta idea se obtiene uno de los esquemas
predictor-corrector m´ as usados, que es el de Milne-Simpson. El predictor es el esquema
expl´ıcito de Milne de orden 3
y
i+1
= y
i−3
+
4h
3
(2f (x
i
, y
i
) −f (x
i−1
, y
i−1
) + 2f (x
i−2
, y
i−2
)) (8.47)
134
y el corrector el esquema impl´ıcito de Simpson de tercer orden
y
i+1
= y
i−1
+
h
3
(f (x
i+1
, y
i+1
) + 4f (x
i
, y
i
) +f (x
i−1
, y
i−1
)) (8.48)
8.6 Edos de orden mayor que uno y sistemas de edos.
Aprendimos que era sencillo reducir un problema de valor inicial de una ecuaci´ on dife-
rencial ordinaria de orden mayor que uno, al de un sistema de ecuaciones diferenciales
de orden 1. Por ejemplo:

y

= h(x, y, y

)
y(x
0
) = y
0
y

(x
0
) = y

0
Se realiza el cambio de variables:

u
1
= y
u
2
= y

El problema se convierte en un sistema de 1er orden, con:

u

1
= u
2
u

2
= h(x, u
1
, u
2
)
u
1
(x
0
) = y
0
u
2
(x
0
) = y

0
Adem´ as vimos que la condici´ on de existencia y unicidad de la soluci´ on de un sistema
de ecuaciones diferenciales ordinarias de primer orden era muy similar al de una ´ unica
ecuaci´ on. Aprendamos ahora a resolverlos. El planteamiento ser´ a:
Sea
f : [a, b] IR
n
→ IR
n
x, y → f(x, y)
O sea,
f : [a, b] IR
n
→ IR
n
x,

¸
¸
¸
¸
y
1
y
2

y
n
¸

¸
¸
¸
¸
f
1
(x, y
1
, , y
n
)
f
2
(x, y
1
, , y
n
)

f
n
(x, y
1
, , y
n
)
¸

Se busca una funci´ on y definida en [a, b]
y : [a, b] → IR
n
x → y(x)
que verifique :
135
• y

(x) = f(x, y(x))
• y (x
0
) = y
0
con y
0
∈ IR
n
.
o, lo que es lo mismo, usando la notaci´ on y
i,j
para denotar la estimaci´ on de y
i
(x
j
):
dy
1
dx
= f
1
(x, y
1
, , y
n
)
dy
2
dx
= f
2
(x, y
1
, , y
n
)

dy
n
dx
= f
n
(x, y
1
, , y
n
)
y las condiciones de valores iniciales:
y
1
(x
0
) = y
1,0
y
2
(x
0
) = y
2,0

y
n
(x
0
) = y
n,0
La idea es que los m´etodos usados para resolver sistemas de ecuaciones diferenciales
ordinarias de primer orden son simplemente generalizaciones de los m´etodos para una
sola ecuaci´ on, que ya hemos estudiado. Presentamos la generalizaci´ on correspondiente
al cl´ asico RK4, que es el m´ as lioso, y en haremos como ejercicio alg´ un Euler o alg´ un RK
de orden m´ as bajo.
y
i,j+1
= y
i,j
+
h
6
(k
1,i
+ 2k
2,i
+ 2k
3,i
+k
4,i
) (8.49)
k
1,i
= f
i
(x
j
, y
1,j
, y
2,j
, , y
n,j
)
k
2,i
= f
i

x
j
+
h
2
, y
1,j
+
hk
1,1
2
, y
2,j
+
hk
1,2
2
, , y
n,j
+
hk
1,n
2

k
3,i
= f
i

x
j
+
h
2
, y
1,j
+
hk
2,1
2
, y
2,j
+
hk
2,2
2
, , y
n,j
+
hk
2,n
2

k
4,i
= f
i
(x
j
+h, y
1,j
+hk
3,1
, y
2,j
+hk
3,2
, , y
n,j
+hk
3,n
, )
8.7 Resumen.
1. Un problema de evoluci´ on, modelizado mediante una edo y con informaci´ on sobre
la situaci´ on de partida, admite un tratamiento num´erico potente y sencillo.
2. No hemos hecho estudios serios de error, pero hemos definido el orden de un m´etodo
y lo hemos calculado en algunos casos. El orden de un m´etodo nos da una informa-
ci´ on important´ısima sobre la calidad del mismo a efectos del error de discretizaci´ on.
3. Hay m´etodos que para estimar el punto siguiente utilizan s´ olo el valor anterior, y
valores intermedios que no se almacenan en memoria.
136
4. Hay otros m´etodos que usan muchos puntos ya calculados, y que con mayor sencillez
algor´ıtmica consiguen igual orden de aproximaci´ on que m´etodos de un paso m´ as
complicados.
5. Dentro de estos m´etodos multipaso existen algoritmos predictor corrector de muy
buen comportamiento num´erico.
6. Los sistemas de edos de primer orden admiten tratamientos similares, y las ecua-
ciones de mayor orden que uno pueden ser reducidas a sistemas de primer orden, y
luego resueltas.
8.8 Referencias recomendadas para este tema.
[16],[3],[2].
137
Cap´ıtulo 9
Ecuaciones diferenciales en
derivadas parciales: M´etodo de las
diferencias finitas
9.1 Introducci´ on
Se utilizan las ecuaciones en derivadas parciales (edp’s) para modelizar fen´ omenos que
son simult´ aneamente dependientes de varias variables. Las variables independientes son
casi siempre el tiempo y las variables espaciales. Las edp’s que vamos a manejar van
a poder clasificarse como parab´ olicas, el´ıpticas e hiperb´ olicas. Presentamos un ejemplo
de cada una de ellas en orden correlativo, aunque en este cap´ıtulo s´ olo estudiaremos las
parab´ olicas y las el´ıpticas.

2
f
∂x
2
+

2
f
∂y
2
=
∂f
∂t
(9.1)

2
f
∂x
2
+

2
f
∂y
2
= 0 (9.2)

2
f
∂x
2
+

2
f
∂y
2
=

2
f
∂t
2
(9.3)
9.2 Ecuaciones parab´ olicas
Las ecuaciones parab´ olicas se refieren a problemas de evoluci´ on temporal. Un fen´ omeno
muy importante gobernado por una ecuaci´ on parab´ olica es la transmisi´ on de calor en
r´egimen transitorio. Si tenemos una barra sometida a temperaturas variables en los
extremos, o que parte de una condici´ on inicial diferente a la de los extremos, esa barra
sufrir´ a unas variaciones en la temperatura de sus puntos. Estas variaciones siguen la
siguiente ecuaci´ on diferencial en derivadas parciales parab´ olica.

∂x

k
∂T
∂x

= ρc
p
∂T
∂t
en cuya ecuaci´ on T define a la temperatura, y los valores k, ρ y c
p
definen respectivamente
a la conductividad t´ermica, densidad y calor espec´ıfico de la varilla. Si k se considera
constante, se puede volver a escribir la ecuaci´ on en la forma:
α

2
T
∂x
2
=
∂T
∂t
α =
k
ρc
p
α recibe el nombre de difusividad t´ermica. A continuaci´ on se introducen las nuevas
variables, X = x/L, τ = αt/L
2
, en las que L representa una longitud caracter´ıstica
del problema, X la variable independiente espacial adimensionalizada, y τ el tiempo
adimensionalizado. Con estos cambios de variables, la ecuaci´ on diferencial se convierte
en:

2
T
∂X
2
=
∂T
∂τ
abusando de la notaci´ on podemos volver a escribir
∂T
∂t
=

2
T
∂x
2
0 < x < 1, 0 < t ≤ A (9.4)
que es un ejemplo claro de edp parab´ olica. Este problema ser´ a casi siempre propuesto
sabiendo los valores iniciales de la temperatura en toda la barra, y sabiendo el valor de
la temperatura en los extremos en todos los instantes temporales. O sea:
T(x, 0) = f(x) 0 < x < 1
T(0, t) = g
0
(t) 0 < t ≤ A
T(1, t) = g
1
(t) 0 < t ≤ A
Vamos a integrar num´ericamente esta ecuaci´ on parab´ olica. Lo primero que hay que
hacer es discretizar tiempo y espacio. Por tanto, hay que tener un ∆t y un ∆x. As´ı,
denominaremos T
i,k
al valor de la temperatura en el punto i en el instante k. Una vez
discretizadas las variables independientes hay que escribir de modo discreto la ecuaci´ on
diferencial. Lo m´ as sencillo es discretizar las derivadas temporales con un operador de
dos puntos, y discretizar la segunda derivada espacial con un operador de tres puntos
centrado, el m´ as sencillo. Este tipo de t´ecnicas se llaman diferencias finitas, y ser´ an las
´ unicas que estudiemos para resolver edp’s. Otra familia de t´ecnicas muy importantes
son los elementos finitos. Se utilizan para resolver las ecuaciones de la resistencia de
materiales en muchos c´ odigos comerciales. Estos m´etodos escapan al contenido del curso.
T
i,k+1
−T
i,k
∆t
=
T
i+1,k
−2T
i,k
+T
i−1,k
h
2
(9.5)
Lo ´ unico desconocido en esta ecuaci´ on es T
i,k+1
y la ecuaci´ on es lineal en ese valor, por
lo que puede ser despejado f´ acilmente para tener.
T
i,k+1
= T
i,k
+
∆t
h
2
(T
i+1,k
−2T
i,k
+T
i−1,k
) (9.6)
139
Como conocemos las condiciones iniciales, y conocemos los valores en los extremos siem-
pre, el esquema de avance no tiene ning´ un problema.
Una variante muy interesante pasa por tomar la derivada espacial en el instante k + 1.
Tendremos entonces:
T
i,k+1
−T
i,k
∆t
=
T
i+1,k+1
−2T
i,k+1
+T
i−1,k+1
h
2
(9.7)
Tenemos 1 ecuaci´ on y 4 inc´ ognitas, todos los valores en el instante k + 1. Sin embargo,
si escribimos esta ecuaci´ on en todos los nodos, tendremos un n´ umero igual de ecuaciones
e inc´ ognitas, y podremos plantear y resolver ese sistema lineal en cada paso de tiempo.
Este esquema, que llamaremos impl´ıcito, por analog´ıa con las edos, tiene muy buenas
propiedades num´ericas. Adem´ as, el hecho de tener que resolver un sistema lineal en
cada paso no es gran problema, dado que podemos hacerlo con un m´etodo iterativo, y
tendremos siempre una estimaci´ on muy buena del hu´esped inicial, el valor en el instante
anterior. En los ejercicios profundizaremos estos conceptos.
9.3 Ecuaciones el´ıpticas
Las ecuaciones el´ıpticas se refieren normalmente a problemas de contorno en los que no
interviene la variable tiempo. La m´ as importante ecuaci´ on el´ıptica es la ecuaci´ on de
Laplace, que es la que se present´ o como ejemplo9.2. Gobierna por ejemplo la transmisi´ on
de calor en r´egimen permanente. Si tenemos una placa sometida a un nivel t´ermico
constante en sus bordes, la temperatura en el interior est´ a gobernada por la ecuaci´ on de
Laplace. Vamos a aprender a resolver este problema en el que las condiciones de contorno
se refieren al valor de la funci´ on inc´ ognita en la frontera. Este tipo de problemas se llaman
problemas de Dirichlet. Podr´ıa ser que en el contorno supi´esemos derivadas de la funci´ on
inc´ ognita. Si as´ı fuese tendr´ıamos un problema de Neumann. Nosotros nos centraremos
en el primero.
Se considera una placa plana Ω. Se conoce el valor de la temperatura en la frontera de
Ω, ∂Ω, que viene dada por una funci´ on g(x, y). El problema se formula entonces como
encontrar un funci´ on T(x, y) que verifique:

T
xx
+T
yy
= 0 en Ω
T(x, y) = g(x, y) en ∂Ω
(9.8)
Si se imponen ciertas condiciones sencillas sobre las propiedades de Ω y si g es continua,
se puede demostrar que este problema tiene soluci´ on ´ unica como indica la intuici´ on f´ısica.
Para resolverlo se discretiza el dominio Ω, y se plantea en cada nodo de la discretizaci´ on
la ecuaci´ on diferencial escrita de modo discreto, donde ahora el primer ´ındice se refiere a
nodos en la direcci´ on x, y el segundo a nodos en la direcci´ on y.
T
i+1,j
−2T
i,j
+T
i−1,j
hx
2
+
T
i,j+1
−2T
i,j
+T
i,j−1
hy
2
= 0 (9.9)
Si los espaciados son iguales en la direcci´ on x e y tendremos:
4T
i,j
−T
i+1,j
−T
i−1,j
−T
i,j+1
−T
i,j−1
= 0 (9.10)
140
Si escribimos esta ecuaci´ on en cada uno de los nodos obtendremos el sistema lineal que
nos da la soluci´ on discreta del problema. Es un sistema diagonalmente dominante cuya
resoluci´ on no debe plantear ning´ un problema con cualquier m´etodo iterativo.
Si el espaciado no es el mismo hay que mantener la ecuaci´ on 9.9, y si adem´ as, el recinto
no es rectangular, sino que tiene froteras irregulares, hay que pensar una alternativa a la
ecuaci´ on, pues los puntos de la frontera no est´ an a la misma distancia que el resto de los
nodos.
9.3.1 Discretizaci´ on del operador de Laplace con contornos irre-
gulares.
Sea el contorno irregular de la figura 9.1. Imaginemos que queremos discretizar la
ecuaci´ on de Laplace en el punto (i, j) de la ret´ıcula. El procedimiento consiste en escribir
los necesarios desarrollos en serie de Taylor y eliminar las derivadas que no nos interesen:
y
x
E
A
D
B
C
a x D
( ) i-1,j
(i,j)
(i,j-1)
Dx b x D
Dx
Figura 9.1: Contorno irregular.
T
B
= T
i,j
+b∆xT
x
+
(b∆x)
2
2!
T
xx
+O

∆x
3

141
T
i−1,j
= T
i,j
−∆xT
x
+
(∆x)
2
2!
T
xx
+O

∆x
3

T
A
= T
i,j
+a∆xT
y
+
(b∆x)
2
2!
T
yy
+O

∆x
3

T
i,j−1
= T
i,j
−∆xT
y
+
(∆x)
2
2!
T
yy
+O

∆x
3

(9.11)
Eliminando T
x
y T
y
obtenemos:
T
xx
+T
yy
=
2
(∆x)
2
¸
T
i−1,j
b + 1
+
T
i,j−1
a + 1
+
T
A
a(a + 1)
+
T
B
b(b + 1)

(a +b)T
i,j
ab
¸
(9.12)
Los t´erminos conocidos, los de la frontera, pasan al t´ermino independiente del sistema
lineal. El procedimiento podr´ıa repetirse para otra pareja de puntos tales como D y E
de la misma figura.
9.4 Resumen
Las ecuaciones en derivadas parciales son sin duda una de las disciplinas m´ as impor-
tantes dentro de las matem´ aticas, y quiz´ a la que m´ as acerque a ´estas a la realidad f´ısica.
Plantean problemas muy importantes desde el punto de vista num´erico y sirven bien
como cierre del curso, ya que dan lugar a problemas muy interesantes que combinan
conocimientos previos, sobre todo de derivaci´ on num´erica y resoluci´ on de sistemas linea-
les. Las hemos estudiado con t´ecnicas de diferencias finitas. Son las m´ as sencillas y sufi-
cientemente generales como para resolver problemas muy complicados. El tratamiento es
aparentemente demasiado simplificado pero creemos que ajustado al tiempo disponible.
9.5 Referencias recomendadas para este tema.
[3], [8].
142
Bibliograf´ıa
[1] Aubanell, A., Benseny, A., Delshams, A.
´
Utiles b´ asicos de c´ alculo num´erico. Labor,
1993.
Libro con problemas muy interesantes.
[2] Burden, R.L., Faires, J.D. An´ alisis num´erico. Grupo Editorial Iberoamerica. M´exico.
Libro muy bueno, con muchos ejemplos. Trata muy bien la parte de ecuaciones diferen-
ciales. Cl´asico en la materia.
[3] Carnahan, B., Luther, A.,Wilkes, J.O., C´ alculo num´erico: m´etodos, aplicaciones.
Editorial Rueda.
Texto enciclop´edico (640 p´aginas) que est´a bastante bien, pero que se convierte m´as en un
libro de m´etodos que de an´alisis. Barato para su tama˜ no.
[4] Fern´ andez Jambrina, L., Temas de an´ alisis funcional, vectorial, tensorial en Ge-
ometr´ıa Diferencial, Tensores y Campos. Secci´ on de Publicaciones, Escuela T´ecnica
Superior de Ingenieros Navales. Universidad Polit´ecnica de Madrid. 2001.
Texto muy adecuado para el estudio de las propiedades m´etricas de los espacios de matri-
ces.
[5] Gasca Gonz´ alez, Mariano. C´ alculo num´erico. Universidad Nacional de Educaci´ on a
Distancia, 1990. ISBN 84-362-2118-4
Libro de teor´ıa de la UNED. Bastante bueno, y muy did´actico. Ha servido de base para
la parte de ecuaciones y sistemas no lineales.
[6] Golub, G., Ortega, J.M., Scientific Computing. An introduction with parallel com-
puting. Academic Press, Inc., 1993.
Texto muy bueno sobre sistemas lineales.
[7] Hammerlin, G., Hoffmann, K-H. Numerical Mathematics, Springer-Verlag 1991.
Libro que ha servido de base para toda la parte de interpolaci´on y aproximaci´on. Es
un libro francamente bueno, con un nivel medio-alto, pero todo muy bien explicado sin
meterse en complicaciones. Algunos de los ejercicios propuestos en las hojas de apuntes
son ejercicios propuestos tambi´en en la parte final de los cap´ıtulos de este libro. Caro. Si
143
una vez que hay´ais terminado la asignatura, ten´eis la sensaci´on de que hab´eis aprendido
y os ha gustado, es una excelente libro para volver sobre ´el m´as adelante
[8] Kincaid, D., Cheney,W. An´ alisis num´erico. Las matem´ aticas del c´ alculo ci´entifico.
Addison-Wesley Iberoamericana, 1994.
Texto de tipo medio. La teor´ıa es bastante completa y no muy complicada. Cubre casi
todas las partes de la asignatura, y tiene multitud de problemas propuestos. Cae un poco
hacia la parte de m´etodos, pero puestos a comprar un libro, ´este es ahora mismo el que
recomiendo.
[9] Lascaux, P., Theodor, R. Analyse Numerique Matricielle Appliquee a l’Art de
l’Ingenieur. Tomes I, II, Masson 1987.
Texto adecuado para ampliar la parte de resoluci´on num´erica de sistemas lineales.
[10] Linz, P., Theoretical numerical analysis: an introduction to advanced techniques.
John Wiley & Sons, 1979 Libro con un contenido de an´alisis muy grande. Explica muy
bien la teor´ıa general de Interpolaci´on Lineal.
[11] Oppenheim, A.V., Willsky, A.S, Hamid Nawab, S., Signals and systems, Prentice-
Hall International, 1997. Texto de referenica para la aproximaci´on por m´ınimos cuadra-
dos mediante funciones peri´odicas.
[12] Puy Huarte, J. Problemas de c´ alculo num´erico. Servicio de Publicaciones. Revista
obras p´ ublicas. Madrid 1994. ISBN/ISSN 84-7493-173-8.
No hay libros de problemas buenos. De los que conozco este es el mejor, aunque no cubre
toda la asignatura. Creo que lo venden en Caminos, y debe ser barato.
[13] Rappaz, J., Picasso, M. Introduction a l’analyse numrique. Presses Polytechniques
et Universitaires Romandes, 1998.
Texto muy bueno. Cubre muy bien la parte de ecuaciones en derivadas parciales.
[14] S´ anchez, J.M. Algebra lineal num´erica. Secci´ on de publicaciones ETSIN.
Texto que cubre muy bien la parte de sistemas lineales, no lineales, y c´alculo de autovalores.
[15] Souto, A. Problemas de ex´ amenes de C´ alculo Num´erico. Secci´ on de publicaciones
ETSIN.
Herramienta b´asica de trabajo pues contiene resueltos todos los problemas de ex´amenes
de los ´ ultimos a˜ nos.
[16] Theodor, R. Initiation a l’Analyse Numerique, 3 edition. Masson 1989.
Libro bastante peque˜ no que ha servido de base para la parte de integraci´on, derivaci´on y
ecuaciones diferenciales.
´
Ultimamente no me gusta mucho, pero sigue siendo un libro muy
did´actico, aunque a veces se deja demasiadas cosas sin explicar. Demasiado caro para lo
que es.
144
[17] Yakowitz, S., Szidarowsky, F. An introduction to numerical computations. Macmil-
lan Publishing Company.
Buen libro de consulta. Sencillo y con buenos ejemplos.
145

Every phenomenon affects and is affected by every other phenomenon. Any phenomenon which we choose to examine is to us conditioned by what we see and know. We exclude deliberately all other conditions, but nature does not exclude them. T.A.Cook The curves of life. 1914

El progreso t´cnico deja un problema sin e resolver: la debilidad de la naturaleza humana. J. Gray

.

. . . . 2. o a e 1. . . .2 Obtenci´n del m´todo de Newton a partir de un desarrollo en serie o e de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Interpretaci´n gr´fica de los m´todos iterativos.2 Teorema de la aplicaci´n contractiva. . 8 9 11 11 11 12 13 13 14 16 16 17 18 18 19 20 21 21 21 24 25 26 26 26 27 27 27 28 29 31 . . .´ Indice General 1 Introducci´n. . . . . o 2. . . . . . .2 Autovalores . . . . .1. .6 Relajaci´n de un esquema de aproximaciones sucesivas. . . . . . . . . . . . . . . . . . . 1. . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . .4 Obtenci´n del m´todo de Newton a partir de las ideas de convero e gencia local . . . . . . . . . . . . . 3. . . . . . . .3 Interpretaci´n geom´trica del m´todo de Newton. . . lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 Resoluci´n de sistemas de ecuaciones no lineales. . . . . . . . . . o o 2. . . . .9 M´todo de Newton-Raphson para sistemas de ecuaciones no lineales. . . . . . . o 1. . . . . . . . .1 Introducci´n . . . . . .7. . . . . . . . . . . . . .7. 2. . . . . . . . . . . . . . . . . . . . . . . . .10 Resumen . . 2.1. . . . . .1 Matrices y normas matriciales. .1 Matrices. . . . o o 2. . . e 2. . o a e 1. ıas 1. . . . . . . . . . . . . . . . . 2. o a e 2. . . . . . . . . . . . . . . . . . . . . . . . o 2.1 Normas del examen de C´lculo Num´rico. . . . . . . . . . . . . . . . . . . . . . . . . . . .11 Referencias recomendadas para este tema. .7 M´todo de Newton-Raphson. . .1 Clasificaci´n de los problemas en matem´tica num´rica. . . . . . . . . o e e 2. . . . . . . . . . . . . . o 2. . .1 Estudios de convergencia local. . . . . . . . .3 Normas matriciales . .1 Obtenci´n del m´todo de Newton a partir del factor optimo de o e ´ relajaci´n. . . 3. . .1. . . . . . . . . . . . . . . . . . e 2. . . . 2 Ecuaciones y sistemas de ecuaciones no lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . 3. . . . .3 Requisitos previos . .4 Sistema de evaluaci´n. . . . . . . . . . . . . . . . . . . . . . . . . . . .3 Aplicaci´n a la resoluci´n de ecuaciones. .7. . . . . . . . . .3. . . . . . . . . . 3. . . . . . . . .4 Estimaciones del error en funci´n del n´mero de iteraciones. . . . . . . . . . . . . o 3. . 2. . . . .8. . . o u 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Convergencia local. . . . .2 Tutor´ . . . . . . .7. . . . . . . . . . . . . . . . . . . . . . . . 3 Resoluci´n de sistemas lineales. . . 2. .2 Condicionamiento de un sistema . . . . . . .

. . . . . . . . . . . . . .1 El problema general de interpolaci´n . . . . .2 Error en la interpolacion parab´lica a trozos . . .1 Interpolaci´n de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 3.2 Interpolaci´n polinomial . . .3. . . . . . . . . . . . . . .1 Interpolacion parab´lica a trozos . . . . . . .5. . o 4. . . . . . . . . . . . . . . . . . . . . Aproximaci´n de funciones. . . . . . . .2. . . . . . o 4. . . . . . . . . .6 Partici´n de la unidad . . . . . . . . . . . . . . . . .7 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . .3. . . . . .1 B-splines de grado 0. . . . . . . . . . . .2 B-splines de grado 1. .3 B-splines de grado k. . . . . . . . . . . . . . . . . . . . . . . . . o 4. . .4 Existencia y unicidad de una mejor aproximaci´n o 5.1. . . . . . . . o o 4. . . . . . . . . . . . . . . . . .6 Interpolaci´n en varias variables. . . .5.3. . . . . . . .5. .6. . . . . . . . . . . . . . .2. . .2 Esquema general. e 3. . . . . . . . o 4. .3. .3. . . . . . . . . o o 4. . . .4 M´todo iterativo de Gauss-Seidel. . A = LLt .3. . . . 4. . . . . .5 B-splines de grado 3 en una partici´n equiespaciada. . . .3 Diferencias divididas .3. . . . . .3 3. . . . . . . . . e 3. . . . . 5 . . . e 3. . . . . . e 3. . . . . . . . . . . .4 M´todo de Gauss-Jordan. . . . . . . . . . . . . . . . . k = 3. . . . . . . . . . . . . . . . . .3 Interpolaci´n a trozos de grado 3 usando interpolaci´n Hermite. . . .1 Casos particulares del problema general de interpolaci´n . . . . . . . . . k = 1. . o 3. . . .2 Descomposici´n LU. .2.1 Interpolaci´n en recintos rectangulares . . . . . . . . . .2 El problema general de aproximaci´n. . . . . . . . . 4. . . . . . . . . . . . . o 4.4. . . o 4. . . . . . . . . .4. o 3. . . .5 Test de parada. . . . . .3 Mejor aproximaci´n . . . . . . . . 4. . . . . . . . . . . . . .4. . . . . . o 4. . . . .1 Sucesi´n minimizante en T . o 5. . . . . . . . . . . Referencias recomendadas para este tema. . . . . . . .1 Introducci´n . . 4. o 4. . o 5. . . . . . . . .5. . . . . . . . . . . . . . .3. . . . 4. . . . . 3. . . . r = 4 o 4. . . . . . . . . . . . . .4. .2 Estimaciones del error en la interpolaci´n de Lagrange . .1 Eliminaci´n gaussiana. . . . . . . . . . . . . . .4 3. .4 Interpolaci´n simple de Hermite u osculatriz. r = k + 1 . . . . . . k = 0. .5. . . . . . . . . .4. . e M´todos iterativos. . . . . . . r = 1 .5 Interpolaci´n spline con bases de soporte m´ o ınimo: B-splines . . . . . . . . . . . . . . . . . . . . .7 Interpolaci´n con B-splines . . .1 Bases de splines asociadas a un problema de interpolaci´n. o 4. . . . . 4. . . . . . . . . . . .4. . . . . . . .5. . . o 4. . . . . . . . . . . . . . . . . . . .4 B-splines de grado 2 en una partici´n equiespaciada. . . 3. . . . . . . . . . . . . . o 5. . . . . . . . . . . . . k = 2. . . . . . . . . . . . . . . . . . . . . . .4. . . . . . o 5.5 4 M´todos directos. . .5. . . . r = 2 . . . . . . . . . o 5 . . 34 34 35 37 37 37 37 38 39 41 42 43 44 44 44 47 47 49 51 53 54 54 56 56 57 60 61 64 64 64 65 65 66 66 66 67 67 68 68 68 70 71 71 Interpolaci´n.4 Interpolaci´n polinomial a trozos: Splines . o 4. . . . . . . . . . . . .3 M´todo iterativo de Jacobi. o 4. . o 4. . . . r = 3 o 4. .3 Descomposici´n de Cholesky. . . . . . .2. . . . . . . . .3 Interpolaci´n polinomial a trozos. . . . . . . . . . . . . . . . . . . . . . . . . o 4. . . . . . . . .1 Convergencia. . . . . . . .

. . .6. . . . . . . .3. . . . . . . . . . . .8 F´rmulas de Gauss . . . . . . . . . . . . . . . . . . . . . . o Aproximaci´n en espacios prehilbertianos. . . . . .5. o e o o 7. . . . . . . .3. .4 Error en la f´rmula de tres puntos. . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . .6. . .3 Error cuadr´tico medio . . . . . .2 Caracterizacion de la mejor aproximaci´n. . . . . . . . . . . . . . . . . . . . . . . . . . . o 6. . . . . 5. . .5 5. . . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7. . . . . . . . . . . . . . .5 Estabilidad . . . . .7. . . . . . . . . .2 Exposici´n del problema . . .6 5. . . . . .3 F´rmula de tres puntos . . . o 7. . . . . . . Referencias recomendadas para este tema. . . . . . . . . . . . .5 Selecci´n del paso de integraci´n . . . . . . . . . . o e 6. . . . . . .7. .4. . o o 6. . . . . . . . . . . . . . . . . . . . . . . o 6. .2 M´todo de Gauss . . . . . . . .4 Mayoraci´n del error en los m´todos compuestos . 6. . . . . . . . . . . .6 Convergencia . . . . . e 6. . . . . . . . . . . . . . . . . . . . . . .1 F´rmula de dos puntos. . . . . . . . . . . . . . . . . . . . . . . .5 Desarrollo en serie de Fourier de una funci´n peri´dica. . . . . . . . . . . . . . . . . . . . . . . e 6. . . . . . . . . . . . . . . . .7. . . . . . . . . . . . . .5 F´rmula de cuatro puntos. . . . .6 Estabilidad de los m´todos compuestos . . . o 5.1 General. . . . . . . . . . . . . . . o 6. . . o o 5. . . . . .4.7. . o o o 6. . . . 6. . . . . . . . . . . . . . . . . . . . . . . .6. . . .2 Error en la f´rmula de dos puntos .7. . .3. . .1 Introducci´n . . . . . . . . . o 7. . . . . . . . . . .6. . . . de . . . . . . . . . . 71 72 72 73 75 76 79 82 84 87 88 88 89 89 92 92 93 93 95 95 95 95 95 96 96 97 97 97 98 99 99 100 101 101 101 102 102 102 104 105 105 106 6 Integraci´n num´rica o e 6. . . . e 6.6. . . . . . . . . . o 7. . . . . . . . . . . . . . .3. . . . . . . . . . .2 M´todo compuesto de los trapecios . . . . . . . . . . . . . o 7. . . . . .3 M´todo compuesto de Simpson . . . . .9 Integraci´n multidimensional . . . . . . . . . . . . . . . . . . . . . .4 Polinomios ortogonales . . . . . . . . . . . . . . . .7 Desarrollo en serie de Fourier de se˜ales peri´dicas definidas n o modo discreto. . . . . . . . . . . . 7 Derivaci´n num´rica o e o 7. . . . . . . .6 F´rmula de tres puntos para estimar la derivada o 6 . . . . . . . . . o 6. . . . . . . . .8. . . . . . . . . . . . . . .6 Aproximaci´n discreta: m´ o ınimos cuadrados. e 6. . . . . . . .10 Resumen . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6. . . . . . . . . . . segunda.7 M´todos compuestos . . . o 7. . . . 6. . . . . . . a 5. o 5. .2 Exposici´n del problema . . . . 5. . . . . 6. . . . . . . . . . . .11 Referencias recomendadas para este tema. . . . . . . . . . . .1 Evaluaci´n del error en las f´rmulas de Newton-Cotes o o 6. . . . . . . . . . . . . . . e 6. .1 Introducci´n . . . . .2 F´rmulas abiertas de Newton-Cotes . . . . . . . . .3 F´rmulas de cuadratura de tipo interpolaci´n . . . . . . . . . . . . . . . . . . . . . . . .7.4 F´rmulas de Newton-Cotes . . . . . . . . . o 6. . . . o 6. . . . . . . . . . . 6. . . . . . .3 Derivaci´n num´rica por interpolaci´n polin´mica. . . . . . .8. . . .6. . . . . . . . . . . . . . . . . . . . . . . . . . .7 Aproximaci´n lineal . . . . . . . . . . . . .1 General . . .1 Introducci´n . . . 5. . . . . . . . . . . . .

. . . . . . . e o 8. . Resumen . . . . . . . . 8.1 Introducci´n a los m´todos de paso m´ltiple. . . . . . . . . . . . . . . . . . . . . . .7. . . . . . . .5. . . . . . . . . . . . . . . . .1 Discretizaci´n del operador de Laplace con contornos irregulares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 M´todo de Euler. . . e 8. . . . . . . . . . . . . 8. . e 8. . . . . .3. . . . .8 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a o e 8. . . . . . .5. . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . .5 Referencias recomendadas para este tema. . . . . . . . . . . . . . . . . . . . . . . .2 M´todos de Adams-Bashforth. .4. . . .4. .3. . . .4 M´todo de Taylor.7 Estabilidad . . . . .1 Introducci´n . .5. . . . . . . . . . . . .3 M´todos de Adams-Moulton. . . . . . .5 Selecci´n del paso de integraci´n. . . . . 142 9. . . .5 M´todos de paso multiple. . . . . . . . . .4. 140 9. . . . . . . . . 8. . e 8. . . . . . . . . . . . Orden de un m´todo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 8. . . . . . . . . e 8. . . . . . . . . . . . . . . . . . . . . . e e 8. . . . . . . .2 Ideas b´sicas para la resoluci´n num´rica de problemas de valor inicial . tema. . . . . . . . .2 Orden del m´todo de Euler. . . . . . . . . . . . . . .4 M´todos predictor-corrector. . . Referencias recomendadas para este . . . . . . . . . .1 Introducci´n . . . . . . . . .7 Resumen. . . . . .2 Ecuaciones parab´licas . . . . .5. . . . . . . . . . . . . .6 7. . . . 141 o 9. . . . . . . . . . . . . . . . .1 Principios de los m´todos de un paso. . . . . .3 Ecuaciones el´ ıpticas . . . . . . . . . . . . . . . . o 8. 9 Ecuaciones diferenciales en derivadas parciales: M´todo de las diferene cias finitas 138 9. . . . . . . . . e 8. . . . . . . . . . .4 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.3. e 8. . . . . . . . . 138 o 9. . . . . . . . . . . . . . . .3 Esquema general. . . e 8. . . . . . . .4 Error de discretizaci´n. .4. . . . . . . 106 107 108 109 111 111 113 114 114 115 117 118 118 119 119 119 120 120 121 126 126 127 128 132 134 135 136 137 8 Ecuaciones diferenciales ordinarias.3 M´todo de Euler: error de discretizaci´n. . . .3. . . . . e 8. . . . . . .5 7. . . o e u 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 M´todos de Runge-Kutta. .2 Ejemplo: M´todo de Euler. . . . . . . . . . . . . . . . . . . . . . o e 8. . . . . . . . . Derivadas parciales . . . . . . . . . . . . . . . 8. . . .4 Diferentes m´todos de un paso. . . . . . . e 8. . . . . . . .5 M´todos de Milne-Simpson. . . . . e 8. . . . . . . . . . . . . . . . . .3 M´todos discretos de un paso para edos. . . . . . . . . . . . 138 o 9. . . . . . . . . 142 Bibliograf´ ıa 143 7 . . . . . . . . . . . . . .6 Edos de orden mayor que uno y sistemas de edos. . . . o o 8.4. . . . .3. . .4 Resumen . . . . .

o 1 La matem´tica num´rica o computacional estudia m´todos para la resoluci´n num´rica a e e o e y en general aproximada. etc. La matem´tica num´rica est´ fundamenu a e a tada en unos pocos principios b´sicos. o 3. sin la cual no hubiese sido posible la reorganizaci´n de todos estos apuntes. a aparentemente distintos. 2. An´lisis o estudio de los principios matem´ticos que subyacen a los m´todos. En la mayor´ de los cursos de iniciaci´n al c´lculo num´rico. La realidad es otra. o ıficos para cada problema. Entender ese principio ayuda a aclarar las ideas. Trataremos de mantener el equilibrio entre ambos e o aspectos: 1. muy amplia. los a a e teoremas de convergencia. Metodolog´ se refiere a al construcci´n de algoritmos espec´ ıa. o 1 . de problemas propuestos matem´ticamente. principalmente aquellos que o hayan sido propuestos en ex´menes de la asignatura. lo que influye beneficiosamente en la b´squeda y construcci´n de nuevos u o m´todos de resoluci´n de problemas. Propondremos problemas y ejercicios de aplicaci´n. a El programa de c´lculo num´rico se desarrolla teniendo como motivo ordenador la sia e guiente clasificaci´n. Enunciaremos los teoremas m´s importantes omitiendo su demostraci´n cuando a o ´sta sea excesivamente larga o t´cnica. de los problemas que se suelen encontrar en matem´tica o a num´rica. discutir su efectividad y suministrar las herramientas adecuadas para su tratamiento con el ordenador.Cap´ ıtulo 1 Introducci´n. se insiste fundamentalmente ıa o a e en la metodolog´ exponiendo al alumno a una avalancha de m´todos que aparentemente ıa e no tienen nada en com´n. subyace el mismo principio. las mayoraciones de los errores. Analizaremos de modo especial algunos de los algoritmos m´s importantes y sumia nistraremos informaci´n sobre sus variantes y otros algoritmos menos importantes. De un modo gea neral se pueden distinguir dos aspectos distintos en la matem´tica num´rica: a e 1. de modo que en la base de muchos algoritmos. e Se agradece de modo muy especial la colaboraci´n de Donato Mart´ o ınez. e e 2.

ı.1] permite reconocer tres tipos de problemas distintos: o o 1. El problema inverso ocupa por su importancia un puesto central en an´lisis num´rico. Dados x e y. Se buscan las leyes que gobiernan el sistema a partir del conocimiento de ciertas relaciones entre la entrada y la salida.f es una funci´n de una variable y se pide hallar la o o o una funci´n cuya gr´fica pasa por o pasa cerca de un conjunto de puntos (xn . Los problemas directos se tratan con relativa facilidad. s´lo se conoce un n´mero finito de parejas (xn . genera sus propios algoritmos e incluso el ´xito en desarrollar una teor´ general var´ dependiendo de cu´l e ıa ıa a de ellos consideremos. yn ). a ıcil. 3. a e El caso lineal se ha estudiado extensamente y posee una teor´ general bien desarrollada. 2. hallar y. ıa El problema no lineal es m´s dif´ y con un cuerpo de teor´ menos satisfactorio. as´ como la resoluci´n o ı o de ecuaciones diferenciales tanto ordinarias como en derivadas parciales y la de ecuaciones integrales. cualquiera. la a integraci´n num´rica. Ejemplos de problemas inversos son la resoluci´n de sistemas de ecuaciones lineales o no lineales. La observaci´n de la ecuaci´n [1. con E y F espacios vectoriales normados reales o complejos. producida por una entrada conocida. e Muchos de los problemas que surgen en matem´tica aplicada se pueden enunciar formala mente as´ : ı Resolver la ecuacion f (x) = y (1. es hoy un problema bien comprendido. y f : E → F es un operador. Dados f y x.1 Clasificaci´n de los problemas en matem´tica nuo a m´rica. hallar f . En general. Se busca la entrada que genera una salida conocida en un sistema dado. Se intenta determinar la salida de un sistema dado. lineal o no. o a Cada tipo de problemas plantea sus propias cuestiones espec´ ıficas. la salida y el ıa sistema en s´ respectivamente. El problema directo.1. El problema inverso. yn ) o u entrada-salida. ıa El problema de identificaci´n en su marco m´s general es bastante dif´ o a ıcil. f representan la entrada. Dados f e y. Un ejemplo ser´ el c´lculo de ıa a una integral definida. su ejemplo m´s importante. hallar x.1) donde x ∈ E e y ∈ F . pero el problema es conceptualmente simple con una teor´ general ıa no muy complicada. En su forma m´s simple el problema de identificaci´n es la teor´ a o ıa de aproximaci´n de funciones . El problema de identificacion. y. Existen todav´ problemas o e ıa abiertos y dificultades. En el lenguaje de la ingenier´ de sistemas x. Pretender descifrar las leyes que gobiernan un proceso desconocido del conocimiento de un n´mero u 9 .

x(0) dt y el problema planteado se puede escribir en la forma correspondiente al problema inverso f (x) = (0. la unica la aproxia e ıa ´ maci´n factible al mismo. yn ) carece u en general de soluci´n unica salvo que restrinjamos la clase de las funciones admisibles o ´ eligiendo una forma conveniente de f dependiente de ciertos par´metros que se calculen a de modo que expliquen mejor las observaciones entrada-salida efectuadas. Usando el concepto de espacio producto podemos incluir esas condiciones como veremos en el siguiente ejemplo: dx = ζ(t. a El an´lisis num´rico de un problema es. la determinaci´n expl´ o o ıcita de la inversa no ayuda num´ricamente aunque su conocimiento sea valioso por la informaci´n cualitativa que e o puede suministrar sobre el comportamiento de la soluci´n que no se podr´ obtener de o ıa ning´n otro modo. por ejemplo el problema de Cauchy: dx = ζ(t)x. el problema inverso se puede transformar en un problema directo. iniciales o de o e contorno. en la mayor´ de los casos. 0 ≤ t ≤ 1 dt con la condici´n inicial x(0) = α. x(0) = 1 dt se puede expresar mediante separaci´n de variables en la forma: o t x(t) = e 0 ζ(s)ds Para un matem´tico. Definamos f : C 1 [0. x). y adem´s se complementa con un o a texto donde aparecen resueltos algunos de los ejercicios propuestos en ex´menes. 1] → F poniendo R f (x) = dx − ζ(t.1] es muy restrictiva porque a veces no s´lo se tiene o o una ecuaci´n que resolver sino que tambi´n hay condiciones adicionales. sea m´s conveniente resolver el problema en su forma original. Esto se debe a que es un libro orientado a su utilizaci´n durante el examen. en ciertos casos. El linde entre los problemas directo e inverso es difuso.finito de observaciones es generalmente imposible si no se tiene adem´s alg´n tipo de a u informaci´n de la estructura del proceso. α) En este libro hemos huido de los ejemplos y ejercicios resueltos. pasar´ ıamos de [1. Si f posee inversa conocida f −1 . El problema ya citado de la aproximaci´n o o de un operador de una variable conociendo un n´mero finito de parejas (xn . el problema estar´ resuelto aunque desde un punto de vista estrica ıa tamente num´rico. u Puede parecer que la formulaci´n [1. pero ello no es cierto. Casi todos los modelos anal´ o ıticos de la realidad son irresolubles. 1] × I . o Sea F = C[0. e a Esta observaci´n es bastante general. 10 .1] a x = f −1 (y). x). que satisfacer.

ıas 3367156) y estar´ encantado de atenderos fuera de las horas oficiales a no ser que pune tualmente est´ muy ocupado. o Al terminar la asignatura se procede a la realizaci´n de un examen por curso que consta o normalmente de dos a cuatro problemas.upm. La direcci´n es: o http://canal. espacios duales.4 Sistema de evaluaci´n. Independientemente de las tutor´ oficiales. esta asignatura es e muy importante. Tambi´n se dispone de una p´gina web de la asignatuıas e a ra donde pod´is recoger las hojas de ejercicios. sistemas lineales. a˜o. Esta estructura de examen se repite en todas las convocatorias oficiales. con ejercicios o avisos.es/web_cnum 1.etsin. especialmente Algebra Lineal ´ a con ´nfasis en formas lineales. expresar vuestras opiniones en un foro. topolog´ b´sica y ecuaciones e a a ıa a diferenciales de primer orden. Ejemplos abundantes encontrar´is en la realizaci´n de vuestro proyecto fin de e o carrera interpolando datos para hacer estimaciones razonables de valores desconocidos. e navegar por enlaces interesantes. o 1. o usando un paquete de e c´lculo de estructuras por elementos finitos integrando las ecuaciones de la din´mica de a a medios continuos para chequear una parte delicada de la estructura. y con mis datos y el horario de tutor´ de este curso. En la vida profesional. Por eso.y hay que hacer aproximaciones con mayor o menor ´xito. y normas matriciales. o integrando num´ricamente curvas para sacar pares adrizantes. es importante que haya ´ cursado ya las otras asignaturas del area de matem´ticas. y hacerla bien os deja en una posici´n ventajosa para muchos retos o futuros. Otros jam´s tendr´is que escribir un n´mero. como ya ha pasado muchas veces. Nos parece importante comentar a los alumnos que est´n cursando de nuevo la asignatua ra. tendr´is a e u e que completar este curso por insuficiente. y algunos otros.3 Requisitos previos Para que al estudiante le cueste menos seguir la asignatura. se me localiza en el canal (tlf. 1. Os ruego que me mandeis un mail a la direcci´n de correo e o electr´nico asouto@etsin. e Tambi´n se usar´n conceptos de c´lculo en una variable. algunos de vosotros abordar´is proe e blemas similares. 11 .es para crear una lista de distribuci´n de correo y poderos o o mandar mensajes cuando salgan las notas.2 Tutor´ ıas Para las tutor´ existe un horario oficial que cambia cada a˜o en funci´n del horario ıas n o de clases.upm. Caso de no hacerlo as´ es posible que en el examen se encuentren con un problema que no tengan ni idea de c´mo abordar. y muchas otras cosas que us´is sin daros cuenta pero que est´n escondidas en los programas de arquitectura a a naval o de CAD que us´is. que ´sta cambia un poco cada a˜o. y que deben conseguir el material nuevo de este e n n ı. etc.

No se permitir´ : a • Tener ning´n tipo de problema resuelto. a o 12 . con que si estas f´rmulas me las dio mi abuelito o que sab´ mucho de esto. porque despu´s hay l´ con que e e ıos si esto es un ejemplo. 1. y consideramos que un planteamiento razonable pasa por disponer del material trabajado en clase. • Ordenadores personales. El alumno traer´ como identificaci´n su carnet de identidad.4. decide los problemas teniendo en cuenta el material del que el estudiante dispone. Adem´s.1. 3. ıa El que pone el examen.1 Normas del examen de C´lculo Num´rico. y que al mismo tiempo no teng´is a que hacer un esfuerzo de memorizaci´n de contenidos que a estas alturas consideramos o est´ril. Se han ensayado ya varias posibilidades. Es por eso que no permitimos apuntes personales. u • Tener apuntes personales.. El material que se permite usar durante el examen es: • Este texto. y a se ha llegado a la conclusi´n de que para esta asignatura. Matlab es un programa de c´lculo que usaremos durante el curso. a e Con estas normas lo unico que se pretende es que los medios de los que dispong´is a la ´ a hora de realizar los ejercicios sean iguales para todos. esta posibilidad es la menos o mala. y nada m´s. a la gente que lo considere necesario se le dar´ la posibilidad de usar a a Matlab en el examen. no un problema. a Si hay m´s gente que puesto reduciremos el tiempo de cada problema para que vuelva a a la sala general los estudiantes que crean que van a obtener pocas ventajas del uso de Matlab. o 2.... • Calculadora que puede ser programable o n´.

3) . obtenemos otro m´s pr´ximo. 2.3 converja a la soluci´n buscada. lo m´s sencillo es directamente buscar un cambio de signo en la gr´fica de f .1 en una ecuaci´n ıa e o o equivalente del tipo: x = g(x) (2. y as´ sucesivamente. es o decir. en general o nos veremos obligados a recurrir a m´todos iterativos que permitan ir obteniendo valores e a o que se espera que sean cada vez m´s pr´ximos a x.Cap´ ıtulo 2 Ecuaciones y sistemas de ecuaciones no lineales. Estudiaremos despu´s una variante muy interesante o e de construcci´n de la funci´n g que es el m´todo de Newton-Raphson. para finalmente o o e aplicar estos conceptos a la resoluci´n de sistemas completos de ecuaciones no lineales. el c´lculo del valor o valores de x para los cuales se verifca: a f (x) = 0 (2. incluso caso en particular. e o Comenzaremos estudiando las condiciones que se tienen que dar para que la sucesi´n 2.1) Aunque en alg´n caso muy sencillo haya procedimientos de resoluci´n directa de esta u o ecuaci´n (que f sea por ejemplo un polinomio de primer o segundo grado). a partir de los cuales y por nueva aplicaci´n del m´todo. para lo cual. a a La gran mayor´ de estos m´todos se basan en la transformaci´n de 2. o (2.2) para despu´s construir una sucesi´n en la forma: e o xn+1 = g (xn ) La forma para obtener g depende de cada m´todo.1 Introducci´n o Uno de los problemas matem´ticos que suelen aparecer m´s a menudo en la pr´ctica es a a a la resoluci´n de ecuaciones del tipo f (x) = 0 donde f se supone al menos continua. Lo primero o e a o ı que hay que hacer encontrar un intervalo donde vaya a haber una raiz.

todo elemento de ´ X se transforma en un unico punto x de X. ya que en este caso. existe un o e unico punto fijo x en X para la funci´n T .7) d (xj . T (xj )) ≤ kd ((xj−1 ) . x1 ) < d (x0 . y ∈ X (2. sustituyendo en 2.2 est´ el teorema e o a de la aplicaci´n contractiva o del punto fijo. d (xp . Sea d(x. y) ∀x. Por tanto. y) la distancia entre dos puntos. Recordee mos que una sucesi´n de Cauchy xn es aquella en la que se verifica que o ∀ > 0 ∃m( ) ∈ N / ∀p ≥ m. Se dice que x es un punto o fijo de T si verifica T (x) = x (2. o Como base del estudio de los m´todos iterativos de resoluci´n de 2. xp+q ) ≤ y por 2. p+q−1 d (xp . Demostraci´n: o Si k = 0 es evidente que hay un unico punto fijo.4) Se dice que T es una contracci´n de X si existe un n´mero k ∈ [0. sea ahora T una aplicaci´n de X en si mismo. que vamos a presentar en una de sus m´s o a sencillas versiones.2. T (y)) ≤ kd (x. q ≥ 0. xj+1 ) j=p (2. xp+q ) ≤ j=p kp k d (x0 . Por otro lado. xp+q ) < Un espacio m´trico es completo si toda sucesi´n de Cauchy converge dentro del espacio.6) Para cualesquiera p y q se tiene. por la desigualdad triangular.9) 14 . que adem´s es el l´ ´ o a ımite de la sucesi´n x n+1 = o T (xn ) para cualquier x0 ∈ X. luego ´ste es el unico punto fijo.2 Teorema de la aplicaci´n contractiva. 1) tal que: o u d (T (x).1 o 2. Sea X un espacio m´trico completo.5 y 2. x1 ) 1−k j (2.7 p+q−1 (2. (x1 )) luego.5) Teorema 2. sea x0 un elemento cualquiera de X y formemos una sucesi´n xn .1 Si T es una contracci´n de un espacio m´trico completo X. xj+1 ) = d (T (xj−1 ) . I es un espacio m´trico completo. se tiene d (xj .6. e o Todos los espacios vectoriales normados reales o complejos de dimensi´n finita son espao n R e cios completos. (xj )) ≤ · · · ≤ k j d ((x0 ) .2. ´ e ´ Si k > 0.8) d (xp . como: o xn+1 = T (xn ) para n ≥ 0 (2.

el punto fijo es unico y es el l´ ´ ımite de la sucesi´n 2.16) Por tanto lim d (T (xn ) . x) = d (T (x) . T (x)) = 0 lim T (xn ) = T (x) o.13) lim d (T (xn ) . y al haber demostrado la convergencia de la sucesi´n {xn }. xp+q ) < kp km d (x0 .17) n→∞ y por tanto x = T (x) (2. x1 ) < (2. Supongamos que hubiese otro punto fijo x. se tendr´ ıa d(x.14) (2. la unicidad es inmediata.12) Por la completitud de X la sucesi´n tendr´ un l´ o a ımite x en X y como d (T (xn ) .6. T (x)) ≤ kd (xn . Por tanto. ya que tomando m suficientemente grande como o para que: km d (x0 . T (x)) ≤ n→∞ kd (xn . x) al tender n a ∞ a ambos lados de la desigualdad n→∞ (2. como o quer´ ıamos ver. 1 Recordamos la suma de una serie geom´trica de raz´n r: e o N −1 rj = j=0 1 − rN 1−r 15 . x1 ) < 1−k 1−k (2. x) = 0 lim n→∞ (2.18) La demostraci´n nos proporciona una forma de encontrar x como l´ o ımite de la sucesi´n o 2. ya que: 1 p+q−1 ∞ j=p kj < j=p kj = kp 1−k (2. x) (2.19) lo cual es absurdo.6 xn+1 = T (xn ) para n ≥ 0 Una vez demostrada la existencia.10) Por tanto xn es una sucesi´n de Cauchy.15) (2.por ser 0 < k < 1. T (x)) ≤ kd(x. x1 ) < d (x0 .11) 1−k para todo p mayor que m se tendr´ a d (xp . lo que es lo mismo n→∞ Pero por ser T (xn ) = xn+1 . o tambi´n se tiene: e lim T (xn ) = n→∞ xn+1 = n→∞ xn = x lim lim (2. x) < d(x.

y ∈ [a. b] 2 2. independientemente de que L sea menor que la unidad. son completos. g(x) ∈ [a. b] 2. b] ∀x ∈ [a. b] y |g (x)| ≤ L < 1 ∀x ∈ [a. en el sentido de que la convergencia tiene lugar para cualquier valor inicial x0 . b]. en el cual |g (x)| ≤ L < 1 Cuando una funci´n verifica esta propiedad. la sucesi´n o xn con xn+1 = g (xn ) converge a s. y I lo R es. Los teoremas que acabamos de ver hablan de una convergencia global. podemos decir que g es lipschitziana de constante menor que la unidad. b] ∃ζ ∈ (x. b] en el cual g o 1 es de clase C [a.3 Aplicaci´n a la resoluci´n de ecuaciones. Existe L < 1 tal que |g(x) − g(y)| ≤ L|x − y| ∀x. o se dice que la funci´n es lipschitziana en [a. s´lo cuando se parte u o de un x0 suficientemente pr´ximo a s. Sin embargo. o sea: n→∞ lim xn = s Demostraci´n: o a Por ser g continua en [a.2 en un intervalo [a. es decir. b] y |g (s)| < 1. o o A menudo es muy dif´ demostrar que la funci´n g es lipschitziana de constante menor ıcil o que la unidad. pues ´ste garantiza que e ∀x. pero las hip´tesis dif´ o ıcilmente pueden ser verificables. y) g(x) − g(y) = g (ζ)(x − y) y por tanto. las hip´tesis se pueden o debilitar.2. para dar en alg´n caso convergencia de tipo local. Enunciemos esta idea.3.1 Estudios de convergencia local. b] de constante L. Sin embargo. de radio > 0.2 en un cierto intervalo. Para demostrar este teorema. si g es de clase C 1 [a. b] existir´ un entorno de s. hay que pensar que los cerrados de un completo. o Teorema 2.1 Sea g una funci´n real definida en [a. b].2 Si existe una raiz s de la ecuaci´n 2.2. El teorema es muy fuerte y constructivo en el sentido de que proporciona un m´todo para encontrar la soluci´n al e o problema. y ∈ [a.3. Ello es una consecuencia del teorema del valor medio. o 2 16 . y ∈ [a. o o Retomemos la ecuaci´n 2. b] Entonces existe una unica raiz de 2. entonces existe > 0 tal que si |x0 − s| < . y la segunda propiedad equivale a decir que g es una contracci´n.2 que se obtiene como l´ ´ ımite de la sucesi´n x n+1 = o g (xn ) donde x0 es un punto cualquiera de [a. Por o tanto se verifican las hip´tesis del teorema de la aplicaci´n contractiva. cuando se conoce la existencia de una raiz s de 2. o Teorema 2. b] tal que: o 1.3. |g(x) − g(y)| = |g (ζ)(x − y)| ≤ L|x − y| ∀x.

en general se tendr´ a |xn − s| ≤ L |xn−1 − s| ≤ · · · ≤ Ln |x0 − s| < |x0 − s| < como L < 1. Este es un concepto local. La idea es que si en la zona de la raiz la funci´n g se comporta como contractiva. de |xn − s| ≤ Ln |x0 − s| se deduce la convergencia de xn hacia s.23) L L |u1 | =≤ |x1 − x0 | 1−L 1−L 17 .22) |uk | ≤ L |uk−1 | ≤ Lk−1 |u1 | tendremos: |xn − s| = = ∞ k=n+1 n ∞ k=n+1 ∞ k=n+1 ∞ k=n+1 ∞ k=1 uk ≤ |uk | ≤ n Lk−1 |u1 | = |u1 | Lk−1 = |u1 | Lk+n−1 (2.4 Estimaciones del error en funci´n del n´ mero de o u iteraciones. si somos astutos buscando el hu´sped inicial o e suficientemente pr´ximo a ella conseguiremos que nuestro esquema converja.entonces. Ln |x1 − x0 | 1−L Teorema 2. o 2.1 Bajo las condiciones de cualquiera de los teoremas anteriores se tiene: |xn − s| ≤ Demostraci´n: o Llamando uk = xk − xk−1 si k ≥ 1. pero muy importante.21) Por tanto: |xn − s| = y como ∞ k=n+1 uk (2.4. se tiene |10 − s| = |g (x0 ) − g(s)| ≤ L |x0 − s| < |x0 − s| < y repitiendo el razonamiento. si |x0 − s| < . por el teorema del valor medio. con u0 = x0 es f´cil ver que: a ∞ k=0 uk = s (2.20) pues m uk = x m k=0 (2.

Buscar el -los. la aplicaci´n g no es contractiva. o a e Es muy interesante ver la construcci´n gr´fica de la sucesi´n xn de los m´todos de aproo a o e ximaciones sucesivas que hemos visto anteriormente. y veamos como podemos o transformar el esquema para converger a la soluci´n. Supongamos que la gr´fica de la a funci´n g es la que aparece en la figura 2. ı El caso dibujado corresponde a aquel en que la derivada g (x) est´ comprendida entre 0 a y -1. o u 18 . con lo que se da la convergencia hacia el punto fijo. y b y=x a y=g(x) 0 x1 s x2 x0 b x Figura 2. De x0 se pasa a g (x0 ) y a x1 = g (x0 ) como se ve f´cilmente a en la figura 2. Construido x1 se pasa a g (x1 ) y a x2 = g (x1 ) y as´ sucesivamente.6 Relajaci´n de un esquema de aproximaciones suo cesivas. An´logamente puede verse la a convergencia en el caso en que est´ comprendida entre 0 y 1.5 Interpretaci´n gr´fica de los m´todos iterativos.punto fijo de g equivale a o hallar la intersecci´n de la gr´fica de y = g(x). y que en cambio. si g (s) > 1 a o g (s) < −1 no se puede esperar que haya convergencia en general.2.2. b].1. que conduce a un esquema divergente debido a que en el entorno de la raiz s. o a 2. x = g(x) Consideremos un problema del tipo 2. Supongamos que g es de clase C 1 .1: Interpretaci´n gr´fica del esquema de aproximaciones sucesivas.1. con la de la recta y = x. Comencemos o a con un x0 arbitrario en [a. Buscamos un n´mero real w = 0.

25) (2. entonces.29) Es como si nos qued´semos con una parte de la iteraci´n anterior. A veces no es f´cil estimar la derivada ıa ´ a de la funci´n g. No hay mucha informaci´n sobre su vida.Por tanto. Se o licenci´ en la Universidad de Cambridge en 1692. al ser w = 0.24) Podemos elegir w que haga que |h (x)| < 1 en un entorno de la raiz. e Expondremos diferentes formas de deducir el m´todo de Newton-Raphson 3 . podr´ ser obtenida a partir del o o ıa propio esquema: g (x1 ) − g (x0 ) g (x) ≈ (2. la nueva funci´n de aproximaciones o sucesivas relajada h(x) = (1 − w)x + wg(x) (2. e incluso buscar que sea cero. o Joseph Raphson (1648 Middlesex.26) (2.30) tiene como derivada h (x) = (1 − w) + wg (x) (2.34) 2.28) (2. (1 − w) y tom´semos a o a s´lo w de la siguiente g (xn ). o Si sucediese que en la raiz |g (s)| ≥ 1. el cual es e fundamental en la resoluci´n de ecuaciones y sistemas de ecuaciones no lineales.33) (2.1715).31) (2. un a˜o o o n 3 19 .27) (2.32) x1 − x 0 Con esta estimaci´n es f´cil ajustar un valor razonable para w. Un estimaci´n grosera en ese entorno.7 M´todo de Newton-Raphson.2 es equivalente a: o wx = wg(x) sumando x a ambos lados x + wx = x + wg(x) y tenemos un nuevo problema de punto fijo: x = (1 − w)x + wg(x) con su correspondiente esquema iterativo: xn+1 = (1 − w)xn + wg (xn ) que podemos escribir de este modo: xn+1 = (1 − w)xn + wˆn+1 x con xn+1 = g (xn ) ˆ (2. que ser´ el optimo de convergencia. la ecuaci´n 2. aunque entr´ en la Royal Society en 1691. Inglaterra. o a 0 = (1 − w) + wg (x) w= 1 1 − g (x) (2.

Raphson public´ el mismo resultado casi 50 a˜os antes. de iguales ra´ o ıces.7.1 Obtenci´n del m´todo de Newton a partir del factor opo e ´ timo de relajaci´n. x = g(x) Una forma muy sencilla de conseguir esto puede ser sumar x a la parte derecha e izquierda 2. (2. Por tanto.41) 20 . Se cree o que Raphson era una de las pocas personas a las que Newton mostraba sus art´ ıculos. o Consideremos de nuevo la ecuaci´n 2.38) −1 f (x) f (x) f (x) f (xn ) f (xn ) (2.2.1 en una o ecuaci´n equivalente. encuentra la raiz de x 3 − e 2x − 5 = 0 que est´ entre 2 y 3. tendremos h (x) = 0 = 1 + wf (x) y por tanto w= con lo que h(x) = x − y el esquema iterativo xn+1 = xn − que es el m´todo de Newton.1 o f (x) = 0 y supongamos que se intenta encontrar su raiz o ra´ ıces en un intervalo [a. y como ejemplo.39) (2. el procedimiento habitual consiste en la transformaci´n de 2. aunque parece que era importante. Aunque Newton escribi´ este art´ a o ıculo en 1671. Su elecci´n para la Royal Society se bas´ en su libro o o Analysis aequationum universalis. no fue publicado hasta 1736. b]. y que sea del tipo 2. o n No se sabe mucho de la relaci´n entre Newton y Raphson.37) (2.36) (2. lo cual era muy raro. Como ya hemos comentado. o En Method of Fluxions Newton describe el mismo m´todo.40) (2. que contiene el m´todo de Newton-Raphson para e aproximar las raices de una ecuaci´n.1 x + f (x) = x (2. pero esta es otra historia.35) y definir g en la forma g(x) = x + f (x) Si relajamos este esquema h(x) = (1 − w)x + wg(x) = (1 − w)x + w(x + f (x)) = x + wf (x) Si foramos derivada nula para h. e antes de su licenciatura. y particip´ en o algunas de las disputas entre Newton y Leibniz.2. publicado en 1690.

Supongamos que f es de clase C 1 [a. tendremos ya el esquema buscado: xn+1 = xn + ∆x = xn − f (xn ) f (xn ) (2.46) es decir x1 .4 Obtenci´n del m´todo de Newton a partir de las ideas de o e convergencia local Consideremos de nuevo la ecuaci´n 2. o En efecto. y el m´todo de Newton. como ya coment´bamos.2.7. La idea es muy buena. f (x0 )) a y hallar la intersecci´n de esa recta con el eje OX. o e e f (x0 ) f (x0 ) La interpretaci´n es clara.2 Obtenci´n del m´todo de Newton a partir de un desaro e rollo en serie de Taylor. lo hace muy bien.47) (2. la idea es ir acerc´ndose a la raiz a trav´s de las tangentes de la curva.45) lo que se est´ haciendo es tomar la tangente a la curva y = f (x) en el punto (x0 .2. Haciendo un desarrollo en serie de f en torno a xn hasta el primer t´rmino tendremos: e 0 = f (xn+1 ) = f (xn + ∆x) = f (xn ) + f (xn )∆x + O(∆x2 ) De aqu´ obtenemos ∆x ı ∆x = − f (xn ) f (xn ) (2. Supongamos que estamos en el paso n de nuestro esquema de aproximaciones sucesivas y buscamos ∆x tal que xn+1 = xn + ∆x sea la raiz del problema. b].42) y por tanto.1 o f (x) = 0 21 . Cuando se calcula x1 como o x1 = x 0 − (2. Por otro. e a cuando funciona.7. la tangente tiene por ecuaci´n o y − f (x0 ) = f (x0 )(x − x0 ) y al cortar con el eje OX haciendo y = 0 resulta x = x0 − f (x0 ) f (x0 ) (2. lado.3 Interpretaci´n geom´trica del m´todo de Newton. a 2. con esta interpretaci´n geom´trica es o e f´cil ver los problemas que surgen cuando llegamos a un punto de tangente horizontal.43) (2. b] y f (x) = 0 en [a. O sea. a e ver figura 2.7.44) 2.

1 es o ıces F (f (s)) = h(x)f (x) donde h es una funci´n definida en [a.a x1 x0 b X y=f(x) Figura 2. y por tanto F (f (s)) y a s = s + F (f (s)) = g(s) (2.49) (2. el procedimiento habitual consiste en la transformaci´n de 2. b]. Como ya hemos comentado.2.2: Interpretaci´n geom´trica del m´todo de Newton o e e y supongamos que se intenta encontrar su raiz o ra´ ıces en un intervalo [a.1. b]. si s verifica 2.48) y por tanto s es raiz de 2. y que sea del tipo 2.50) (2. a o En principio hay plena libertad para la elecci´n de F . de iguales ra´ o ıces. para la obtenci´n de ra´ de 2.51) . ha de ser F (f (s)) = 0 y por 2. Rec´ ıprocamente.2.49 se tendr´ f (s) = 0. o 22 (2. x = g(x) Una forma de conseguir esto puede ser definir g en la forma g(x) = x + F (f (x)) o o donde F es una funci´n real de variable real que s´lo se anule en el origen: F (t) = 0 ⇔ t = 0 En efecto.1 en una o ecuaci´n equivalente. b] que no se anule en [a. si x = s es una raiz de 2.50. se tendr´ f (s) = 0. pero la forma usual de tomarla.

De ah´ que interese m´s tomar ı a h(x) = − 1 f (x) (2. y no aporta gran o o cosa. tendremos que g tendr´ la misma a clase. y ser´ ıa mejor si g (s) = 0. e a ıcil se estudia desde las hip´tesis del teorema de la aplicaci´n contractiva. si s es raiz de f en [a. bastar´ con que a h(s) = − 1 f (s) (2.56) pero esto no es pr´ctico porque naturalmente se desconoce en principio s y. m´s dif´ de demostrar. b] y f (x) = 0 en [a. dadas las caracter´ o ısticas de convergencia local sobre las que hemos construido el m´todo. tal como hemos construido el m´todo siempre se tendr´ convergencia local si se e a elige adecuadamente el hu´sped inicial. para que h ∈ C 1 [a.53) La elecci´n m´s l´gica ser´ tomar como h(x) la constante o a o ıa h(x) = − con lo cual ser´ ıa g(x) = x − 1 f (s) f (x) f (s) (2. b]. pues la convergencia ser´ m´s r´pida. caso de converger e e lo hace muy r´pidamente. Como hemos visto ya al estudiar la convergencia local. s. al haberla definido as´ necesitaremos subir la clase ı de f a 2. interesa que |g (s)| < 1. De a e a hecho. Veamos la forma de h para ıa a a poder conseguir esto. Adem´s: a g (x) = 1 + h (x)f (x) + h(x)f (x) (2. b]. b]. b]. pero caso de diverger tambi´n lo hace muy r´pidamente. Tomando h es de clase C 1 [a.Supongamos que f es de clase C 1 [a. La convergencia global.58) f (x) y el m´todo de Newton ser´ por tanto e a xn+1 = xn − f (xn ) f (xn ) (2.59) La elecci´n de x0 es muy importante. De hecho.55) (2.57) Sin embargo. Por tanto. 23 . el m´todo de Newton. g (s) = 1 + h(s)f (s) Si se desea que g (s) = 0.54) (2. a tambien f (s). por tanto.52) En partircular en la raiz de f . se tendr´ a f (x) g(x) = x − (2.

o f1 (x1 . casi siempre es muy dif´ demostrar que la funci´n g es lipschitziana ıcil o de constante menor que la unidad. Existe L < 1 tal que Entonces existe una unica raiz de 2. R 2.62) (2. x2 . xn ) (2. o o En varias variables. · · · .8. · · · . xn ) = 0 ··· fn (x1 . · · · . xn ) = 0 f2 (x1 . x2 . bi ] (2. continuas y con derivadas parciales continuas en D. xn ) x2 = g2 (x1 .1 Sea g una funci´n real definida en D = o tal que: 1. Esta condici´n puede ser sustituida a veces por otras o condiciones m´s f´ciles de comprobar. es decir. y si se verifica ∂gi (x) L ≤ ∀x ∈ D (2. g(x) ∈ D ∀x ∈ D g(x) − g(y) ≤ L x−y ∀x. Si denotamos e a o por x al vector de I n de componentes (x1 .64) con valores en I n .2. f2 . · · · . y I n lo R es. son completos. si todas las funciones gi que aparecen a a en 2. x2 .8 Resoluci´n de sistemas de ecuaciones no lineales.63 son C 1 (D). xn ). xn ) = 0 (2. x2 . Por ejemplo. buscando el o vector soluci´n x como l´ o ımite de una sucesi´n o x(m+1) = g x(m) Teorema 2. x2 . f (x) = 0 (2.61) que podemos transformar en x = g(x) x1 = g1 (x1 . x2 .63) y a la que podemos intentar aplicar el teorema de la aplicaci´n contractiva.65) ∂xj n 24 . fn son las funciones componentes de f . y ∈ D n i=1 [ai . Por o tanto se verifican las hip´tesis del teorema de la aplicaci´n contractiva. o Consideremos ahora el problema de hallar una soluci´n s ∈ I n de un sistema de n o R ecuaciones con n inc´gnitas. Para demostrar este teorema. y la segunda propiedad equivale a decir que g es una contracci´n. xn ) ··· xn = gn (x1 .64 que se obtiene como l´ ´ ımite de la sucesi´n x (m+1) = o (m) g x donde x0 es un punto cualquiera de D. podemos escribir la ecuaci´n R o anterior en forma vectorial. El problema se puede plantear en t´rminos an´logos a los de los temas anteriores. · · · . · · · . x2 . · · · . usando notaci´n vectorial. hay que pensar que los cerrados de un completo.60) donde f1 .

n n g(x) − g(y) 1= j=1 |gi (x) − gi (y)| ≤ L j=1 |xj − yj | = L x−y 1 (2. y sumamos. o el radio espectral del jacobiano de g sea menor que la unidad para todos los puntos de D. para todos los i. es suficiente con que Jg (s) < 1 para cualquier norma inducida.68) que es lo que quer´ ıamos ver.1 Convergencia local. De hecho. y tal que cualquiera de las normas inducidas del jacobiano de g en todos los puntos de D sea menor que la unidad.64 que se obtiene como l´ ımite de la sucesi´n x o =g x cualquiera de D. tendremos. · · · . entonces existe una unica raiz de ´ (m+1) (m) donde x0 es un punto 2. · · · . j = 1. Se deja como ejercicio la comprobaci´n para la norma ∞. y ı. ρ(Jg (s)) < 1. 1 ∂gi (s) < ∂xj n ∀i.2 Sea g una funci´n real diferenciable definida en un conjunto cerrado o acotado convexo D. 2. y eso es lo mismo que decir que el radio espectral de la matriz jacobiana sea menor que la unidad.65 |gi (x) − gi (y)| ≤ ∂gi (ζij ) (xj − yj ) ∂xj j=1 L n |xj − yj | n j=1 n (2.8. 2. 2. entonces se cumple el teorema de la aplicaci´n o contractiva si normamos I n con la norma 1 o ∞. o siempre usando la norma 1 o la norma ∞.69) tendremos convergencia si el hu´sped inicial est´ suficientemente cerca de la raiz. n.66) (2. j = 1.67) Si tomamos la norma 1. As´ si s es la raiz buscada. R Demostraci´n: o Haciendo un desarrollo en serie de Taylor de la funci´n de varias variables g. tenemos o 2 que existen n valores ζij tales que: gi (x) − gi (y) = y por 2. o Existe una versi´n m´s general de este teorema que pasamos a enunciar: o a Teorema 2. Con la e a cota del error sucede lo mismo cambiando el valor absoluto por la norma correspondiente. n (2.8. 25 . Las ideas sobre convergencia local admiten una extensi´n sencilla a varias variables.con L < 1.

Si podemos asegurar que ser´ s´lo a o una.73) Otra vez. la convergencia local est´ garantizada si el jacobiano no es singular en la raiz. tal que xn+1 = xn + ∆x sea la raiz del problema.2. a 4 26 . podemos intentar un esquema de Newtono a Raphson.11 [14].72) (2. [5]. tendremos ya el esquema buscado 4 Jf (xn )∆x = −f (xn ) xn+1 = xn + ∆x (2. Estas consideraciones valen tanto para ecuaciones como para sistemas de ecuaciones no lineales. dado que el jacobiano es la aproximaci´n lineal: o 0 = f (xn+1 ) = f (xn + ∆x) = f (xn ) + Jf (xn )∆x + O(∆x2 ) De aqu´ obtenemos ∆x ı −1 ∆x = −Jf (xn )f (xn ) (2. de convergencia rap´ ıdisima caso de darse. 2. Lo ponemos en este modo. Caso de que no haya convergencia. pues para resolver un sistema lineal. a pero la convergencia global es de dificil´ ısima demostraci´n. o 2.70) (2. Referencias recomendadas para este tema. 5. Supongamos que f es de clase C 1 (D) y Jf (x) no es singular en D. o 4. Si la funci´n es f´cilmente derivable.9 M´todo de Newton-Raphson para sistemas de e ecuaciones no lineales.71) y por tanto. y lanzar el esquema para ver si converge a la raiz buscada. 3. Lo siguiente es reformular el problema como uno de punto fijo. hemos aprendido que no es necesario invertir la matriz del sistema. es bueno intentar un esquema de relajaci´n. que es un problema bastante m´s complejo. 2. Supongamos que estamos en el paso n de nuestro esquema de aproximaciones sucesivas y buscamos ∆x. siendo D un conjunto cerrado acotado convexo D.10 Resumen 1. Haciendo un desarrollo en serie de f en torno a xn hasta el primer t´rmino e tendremos. mucho mejor. Lo primero que hay que hacer para resolver una ecuaci´n o sistema no lineal es o acotar una zona donde exista al menos una raiz.

1. · · · n (3.1 Matrices y normas matriciales. 2. Para cualquier vector b. Para este repaso y en general para todos estos m´todos recomendamos como referencia los textos de G.2 Se dice que una matriz cuadrada A de n × n es diagonalmente estrico tamente dominante por filas (o diagonalmente estrictamente dominante) si: j=n |aii | > j=1. el sistema lineal Ax = b tiene soluci´n unica. · · · n (3.2) .1 Matrices.1 Se dice que una matriz cuadrada A de n × n es diagonalmente domio nante por filas (o diagonalmente dominante) si: j=n |aii | ≥ j=1. 3. El rango de la matriz A es n.j=i |aij |.1. o 4. 27 i = 1. Golub. i = 1.Cap´ ıtulo 3 Resoluci´n de sistemas lineales.j=i |aij |. Las filas y columnas de A son linealmente independiente.1 Para una matriz cuadrada A de n × n. Teorema 3. 3.1) Definici´n 3. det A = 0. Antes de entrar en los aspectos centrales referidos a la resoluci´n de sistemas lineales o conviene recordar conceptos b´sicos que hemos estudiado en Algebra Lineal y sin los a cuales es imposible entender los problemas que vamos a resolver. A−1 existe. las siguientes afirmaciones son equivalentes: 1. o 3. Definici´n 3. o ´ 5. e y en particular el [6]. 6.1. El sistema lineal Ax = 0 tiene solamente la soluci´n x = 0.1.

8 Si una matriz A de n×n tiene n autovalores distintos entre si.7 Una matriz A de n × n es semejante a una matriz diagonal si y solo si tiene n autovectores linealmente independientes. e Teorema 3. para cualquier entero positivo m. entonces es regular. λn .3 Si la matriz cuadrada A de n × n tiene como autovalores λ1 .6 Los autovalores de una matriz sim´trica son positivos si y solo si la e matriz es definida positiva.5 Sea A una matriz cuadrada de n × n que tiene como autovalores λ 1 . λ−1 son autovalores de A−1 . entonces. Adem´s. e Teorema 3.2 Autovalores Es importante tambi´n tener presente los resultados referidos a la descomposici´n espece o tral o conjunto de autovalores de una matriz.Teorema 3. · · ·. 1 n −1 cualquier autovector de A es tambi´n autovector de A . Teorema 3.3 Se dice que una matriz cuadrada A de n × n es definida positiva si o t x Ax > 0 ∀x = 0.1.1. 3. Definici´n 3. Teorema 3.1.1. λn .1. Adem´s. a 1 n cualquier autovector de A es tambi´n autovector de Am .1.2 Si la matriz cuadrada A de n × n es diagonalmente estrictamente dominante. Definici´n 3. λn .5 Los autovalores de una matriz sim´trica son reales.1. o · · ·.1. Se define como radio espectral de la matriz A y se nota ρ(A) al valor: ρ(A) = max |λi | 1≤i≤n (3. λm son autovalores de Am . e Definici´n 3. λm .1.4 Se dice que dos matrices cuadradas A y B de n × n son semejantes si o existe una matriz regular P tal que: B = P AP −1 (3.4 Si la matriz cuadrada A de n×n tiene como autovalores λ1 .4) 28 . · · ·. · · ·.1. para cualquier entero positivo m. entonces es semejante a una matriz diagonal.3) Teorema 3.1. Teorema 3. ena tonces. · · ·. λ−1 .

Ax ≤ A · x . de una matriz A 2 = ρ(A+ A) = µmax . seg´n variemos las u n m K K normas vectoriales en los espacios I y I . A p := max Ax p . De o hecho. 2. p = 1 . para A = (ai j ). por tanto. continua. en I n y I m . At = (aj i ) y A+ = (aj i ). A ∈ Mm×n . i=1 |ai j | . es decir. presenta m´ximo y K o a m´ ınimo. ρ(A) = ρ(A 2 Es l´ ıcito sustituir el supremo por el m´ximo. y por A+ la matriz adjunta. A = (ai j ) ∈ Mm×n (I y que la norma eucl´ ıdea. la funci´n Ax . . . ∞. Sea A ∈ Mm×n (I ı K). obtendremos diferentes normas inducidas en Mm×n (I K). x ∈ I n . definimos en Mm×n (I una norma K : Mm×n (I K) → I R . Por tanto. I ser´ el cuerpo de los complejos K a o los reales.1 I n. al ser I n un espacio de dimensi´n finita. la ra´ cuadrada del mayor autovalor ız + de A A. en el caso de una matriz sim´trica o herm´ e ıtica. diagonalizable. K A la primera propiedad la llamaremos compatibilidad con el producto de matrices. K K) I m .3. a K o {x ∈ I n : x = 1} es un compacto y. A. ∞. tendremos las siguientes normas K K inducidas en Mm×n (I K). todas ellas equivalentes ya que este es un espacio de dimensi´n finita.3 Normas matriciales Dentro de este repaso conviene recordar tambi´n resultados y definiciones correspone dientes a normas matriciales y vectoriales. A → A A = max Ax x =1 Estas normas inducidas por una norma vectorial verifican dos propiedades muy interesantes: AB ≤ A · B . ya que. aunque se trabajar´ casi siempre con reales. a la segunda. y de ah´ lo hemos tomado. Se puede demostrar que la norma a m´ximo de las sumas de las columnas de la matriz: a m 1 es el A 1 = max 1≤j≤n 2. Definici´n 3. K). + A) = A . 1 29 . por tanto.1. compatibilidad con la norma vectorial . Obviamente. espacio vectorial de las matrices de m × n de coeficientes reales o complejos. Todo este tema est´ muy bien tratado en la a referencia [4]. B ∈ Mn×p . A ∈ Mm×n . donde µmax es el mayor valor singular de A. x p =1 Los casos m´s interesantes son p = 1. y.6 Dadas normas o inducida. Es decir. . tomando norma p.1. Denotaremos por At la matriz a traspuesta.

el cero.1 ρ(A) = inf A ∀A ∈ Mn (I K). es decir. A S = Tr (A+ A) = i=1 j=1 S |ai j |2 . . ρ(A) = A 2 . m n = max  |ai j | . ya que. Entonces. que al recorrer las diferentes normas de A compatibles con el producto.11 Para una matriz cuadrada A de n × n.1. no es inducida por ninguna norma vectorial. por e el teorema anterior. K S . verifica que AB ≤ A Una propiedad interesante de las normas inducidas es que la matriz identidad tiene norma unidad. Teorema 3. I = max I I Ix = max x = 1. es el m´ximo de las sumas de las filas de la matriz a A ∞ No obstante. no es el m´ ınimo.9 Sea una norma compatible con el producto de matrices en Mn (I K). ρ(A) proporciona el valor ´ ınfimo. 30 Ak = 0. En ´ cambio.La norma ∞. A= 0 1 0 0 Esta matriz tiene un unico autovalor doble. Lo vemos con un contraejemplo. a pesar de ello. Que es ´ ınfimo. Teorema 3. Consideremos la matriz. las siguientes afirmaciones son equivalentes: 1. Sea ε > 0. ya que no es la matriz nula. Luego su radio espectral es nulo. para una matriz cuadrada sim´trica o herm´ e ıtica. o En general. s´ existe ı m´ ınimo. tambi´n existen normas matriciales no inducidas por ninguna norma en e n I .10 Sea A ∈ Mn (I una matriz fija. para toda A ∈ Mn (I K). pero. pese a ser el ´ ınfimo de A al recorrer las distintas normas matriciales compatibles con el producto.1. ya que. por su parte. la norma de Schur. hemos visto que. no puede haber ninguna norma en la que A = 0. Un corolario interesante es el siguiente: Corolario 3. 1≤i≤m j=1   n   A = (ai j ).1. ya que. ρ(A) ≤ A . 2.9. tambi´n. · B S. ρ(A). Que es cota inferior es trivial por el teorema 3. Entonces existe una K) norma inducida ε tal que A ε ≤ ρ(A) + ε. ρ(A) < 1. por ejemplo. En cambio.1. limk→∞ Ak = 0. e o Conviene recordar tambi´n el siguiente teorema relativo a la exponenciaci´n de matrices. hay valores de A tan pr´ximos a ρ(A) como queramos.1. x =1 x =1 Teorema 3. S A = (ai j ) ∈ Mm×n (I K). limk→∞ 3.

3.2

Condicionamiento de un sistema lineal.
Ax = b (3.5)
    

Tenemos el sistema lineal con

A= 

 

10 7 8 7

7 8 7 5 6 5 6 10 9 5 9 10
  

(3.6)

b= 

32 23 33 31

    

(3.7)

cuya soluci´n es un vector de componentes unitarias. Normalmente estos sistemas lineales o se obtienen a partir de c´lculos previos que producen errores tanto en los coeficientes del a e sistema con en los del t´rmino independiente. A su vez, los datos con los que se realizan esos c´lculos previos podr´ estar afectados de errores por proceder de experimentos, u a ıan a a otros c´lculos a su vez. Por tanto, el sistema lineal resultante en realidad no ser´ ese, sino que ser´ un sistema lineal perturbado tanto en la matriz del sistema como en el t´rmino a e independiente. El sistema lineal perturbado podr´ tener el siguiente aspecto ıa
   

A + ∆A = 

10 7 8.1 7.2 7.08 5.04 6 5 8 5.98 9.89 9 6.99 4.99 9 9.98
   

    

(3.8)

b + ∆b = 
   

32.01 22.99 33.01 30.99

    

(3.9)

y por tanto ∆A y ∆b, las perturbaciones, tendr´ los siguientes valores: ıan 0 0 0.1 0.2 0.08 0.04 0 0 0 −0.02 −0.11 0 −0.01 −0.01 0 −0.02 ∆b = 
        

∆A = 

(3.10)

Estudiemos c´mo var´ la soluci´n del sistema lineal cuando perturbamos la matriz del o ıa o sistema y cuando perturbamos s´lo el t´rmino independiente. Resolvamos primero el o e sistema lineal: A(x + ∆x) = b + ∆b (3.12) 31

0.01 −0.01 0.01 −0.01

    

(3.11)

x + ∆x =  

 

1.82 −0.36 1.35 0.79 ∆b b

Hemos perturbado el t´rmino independiente: e
∞ ∞

     → ∆x =   

0.82 −1.36 0.35 −0.21

    

(3.13)

= 3.03 10−4

(3.14)

y esta perturbaci´n induce una variaci´n en la soluci´n: o o o ∆x x
∞ ∞

= 1.36

(3.15)

El error se ha amplificado por tanto unas 4500 veces. Part´ ıamos de una perturbaci´n o −4 relativa del orden de 3.03 10 y obtenemos un error relativo del orden de 1.36. Estudiemos este fen´meno desde el punto de vista te´rico: o o A(x + ∆x) = b + ∆b Ax + A∆x = b + ∆b pero Ax = b, y por tanto A∆x = ∆b ∆x = A−1 ∆b Como las normas que utilizamos son inducidas, se verificar´ que: a ∆x = A−1 ∆b ≤ A−1 1 A ∆x 1 b ∆b (3.20) (3.18) (3.19) (3.16) (3.17)

Aplicando similar desigualdad a Ax = b e invirtiendo ambos factores: ≤ (3.21)

multiplicando estas dos desigualdades t´rmino a t´rmino entre si tendremos: e e ∆x x ≤ A A−1 ∆b b (3.22)

Por tanto el error relativo en la soluci´n se mayora respecto al error relativo en la perturo −1 baci´n mediante el factor A o A . Este n´mero se denomina condicionamiento de u la matriz A, K(A) o cond(A) y cuanto m´s peque˜o sea este n´mero, menos afectar´n a a n u a la soluci´n perturbaciones en el t´rmino independiente. Comprobemos esta desigualdad o e en el ejemplo anterior: cond∞ (A) = A y por tanto, se debe dar que: 1.36 ≤ 4488 · 3.0303 10−4 = 1.36 32

A−1

∞=

33 · 136 = 4488

(3.23)

Si ahora perturbamos la matriz del sistema, ´ste quedar´ como: e a (A + ∆A)(x + ∆x) = b
  

(3.24) −82 136 −35 21
    

x + ∆x =  

−81 137 −34 22

La perturbaci´n de la matriz del sistema: o ∆A A
∞ ∞

     → ∆x =   

(3.25)

=

0.3 ≈ 0.01 33

(3.26)

y esta perturbaci´n induce una variaci´n en la soluci´n: o o o ∆x x
∞ ∞

= 136

(3.27)

El error se ha amplificado por tanto unas 13600 veces. Part´ ıamos de una perturbaci´n o relativa del orden de 0.01 y obtenemos un error relativo del orden de 136. o o Estudiemos este fen´meno desde el punto de vista te´rico: (A + ∆A)(x + ∆x) = b A∆x + ∆A(x + ∆x) = 0 ∆x = A−1 ∆A(x + ∆x) y mayorando y, multiplicando y dividiendo por ∆x x + ∆x ≤ A A A−1 ∆A A (3.31) (3.28) (3.29) (3.30)

Ahora, con otra medida del error relativo, vuelve a ser el condicionamiento de la matriz A el factor que mayora los errores en las perturbaciones respecto a los errores en la soluci´n. o Por su definici´n est´ claro que el condicionamiento de una matriz depende de la norma o a elegida. Una propiedad interesante es que el condicionamiento tiene como cota inferior a la unidad. Esto es consecuencia de que la norma inducida de la matriz identidad es siempre 1. 1 = I = AA−1 ≤ A A−1 (3.32) Otra propiedad muy interesante es la que relaciona el condicionamiento con el radio espectral de la matriz del sistema caso de que esta sea sim´trica. Si la matriz es sim´trica e e su norma 2, es su radio espectral. Por tanto: cond2 (A) = A
2

A−1

2=

ρ(A)ρ(A−1 ) =

|λmax | |λmin |

(3.33)

33

plano en a 3D.6 manteniendo la simetr´ y repitiendo todo este an´lisis. que o e nos permite decir que una matriz estar´ mejor condicionada cuanto m´s parecidos en a a m´dulo sean entre si su espectro de autovalores o su espectro de valores singulares. El unico problema que plantean los m´todos o ´ e iterativos es que esta sucesi´n convergente es dif´ de obtener y a menudo dicha sucesi´n o ıcil o diverger´. Estudiemos primero los m´todos e a a e directos. o El m´s conocido de los m´todos directos es la eliminaci´n gaussiana. Si los vectores columna que forman el sistema lineal a´n siendo e u linealmente independientes est´n casi en un mismo hiperplano (recta en 2D.1 Cambiar alguno del coeficientes del sistema lineal 3.2887 = 2984 0. los autovalores son muy diferentes entre si. procede estudiar c´mo podemos resolver del modo m´s r´pido y preciso el sistema en cuesti´n. los errores en las soluciones de los sistemas perturbados verifican las nuevas cotas respondiendo a este nuevo condicionamiento.8431 3. Se ha estudiado ya a e o en los cursos de algebra lineal pero conviene recordarlo.34) Como vemos.0102 (3. o a e a Ejercicio 3.0102 0.35) Otra forma de ver el condicinamiento es pensar que resolver un sistema lineal equivale a encontrar una combinaci´n lineal de vectores que nos permitan escribir otro vector. 3. la matriz 3. e Una vez que tenemos claro que aunque resolvamos nuestro sistema lineal la soluci´n que o obtengamos puede tener errores significativos respecto al resultado esperado. Su espectro de autovalores es: e    Sp(A) =   0. Los iterativos consisten en generar una sucesi´n o cuyo l´ ımite sea la soluci´n del sistema lineal. o a a o En ese sentido hay dos grandes familias de m´todos: los directos y los iterativos.Este resultado tiene una versi´n general ahora en t´rminos de los valores singulares.6 del ejemplo anterior es sim´trica. Para ello nos basaremos en un ´ salvo errores de redondeo que pueden ser minimizados mediante t´cnicas de pivotaje cuyo estudio e detallado escapa al contenido del curso 2 34 . Se pretende que comprob´is que con un condiıa.2887      (3. En cualquier caso.2.3 M´todos directos.1 Eliminaci´n gaussiana. ser´: cond2 (A) = 30. etc).3. dicha combinaci´n lineal ser´ geom´tricamente mucho m´s delicada. Los e directos se caracterizan porque conducen a la soluci´n exacta 2 mediante un n´mero finito o u (aunque muy grande) de operaciones. 3. el o t´rmino independiente. siempre que consigamos poder resolver nuestro sistema a mediante un m´todo iterativo esto ser´ m´s eficiente. a e cionamiento menor o mayor. De o hecho.8581 30. Al ser sim´trica. su condie a cionamiento en la norma 2.

e iremos dando los pasos en dicho ejemplo para entender c´mo funciona: o  6 1 2 3  9   2 3 4  −1 0 −1 −2  (3. y hacemos cero todos los elementos de la segunda columna por debajo del diagonal.38) Con esto tenemos ya un sistema triangular superior que se resuelve f´cilmente por sustia tuci´n hacia atr´s.43) (3.41) Existen diferentes estrategias para minimizar los errores de redondeo tratando de que los elementos diagonales sean en valor absoluto lo m´s grandes posibles (pivotaje). o Existen muchas formas de realizar esta descomposici´n. Explicaremos la m´s sencilla. 3. resolvemos dos sistemas lineales triangulares: o Ly = b Ux = y y ya tenemos el vector x soluci´n buscada. aunque a su estudio detallado escapa al contenido del curso. o Consiste en factorizar la matriz del sistema lineal como producto de una triangular inferior y otra superior.36) haciendo transformaciones elementales utilizando la primera fila.2 Descomposici´n LU.  6 1 2 3    0 −1 −2 −3  0 0 −2 −2  (3.39) −x2 − 2x3 = −3 → x2 = 1 x1 + 2x2 + 3x3 = 6 → x1 = 1 (3. el o a 35 (3.40) (3.ejemplo. hacemos cero todos los elementos de la primera columna excepto el diagonal.44) .3.42) Una vez obtenida esta descomposici´n. por lo que resolver el sistema lineal Ax = b se transforma en resolver: LU x = b (3.  6 1 2 3    0 −1 −2 −3  4 0 2 2  (3. o a x3 = 1 (3.37) Ahora hacemos lo mismo con el elemento diagonal de la segunda fila.

Pasamos a resolver los dos sistemas triangulares: 6 y1 1 0 0 6       Ly =  9  →  2 −1 0   y2  =  9   −2 y3 −1 2 −2 −2 y1 = 6 −y1 + 2y2 − 2y3 = −2 → y3 = 1            l31 u13 + l32 u23 + l33 = −1 → l33 = −2 (3.47) Cuando una matriz no tiene ninguna estructura especial (sim´trica. o 2y1 − y2 = 9 → y2 = 3 Y ahora resolvemos el triangular superior U x = y por sustituci´n hacia atr´s. e etc). Los menores principales son los determinantes de las submatrices principales. o a x1 6 1 2 3 6       U x =  3  →  0 1 2   x2  =  3   1 x3 0 0 1 1 x3 = 1 x2 + 2x3 = 3 → x2 = 1    (3.algoritmo de Crout. La submatriz principal Ai es la que tiene como elementos ajk con 1 ≤ j. En la descomposici´n de Crout se supone que la matriz triangular superior U tiene una diagonal o formada por elementos unidad.46) Este primero se resuelve por sustituci´n hacia adelante. y no converge para los m´todos iterativos disponibles. con muchos ceros. e      1 2 3 l11 0 0 1 u12 u13      (3. la descomposici´n LU es el e o m´todo m´s aconsejable. e a 36 x1 + 2x2 + 3x3 = 6 → x1 = 1 . k ≤ i. que funciona siempre que todos los menores principales sean distintos de cero. Podemos comprobar que A = LU . Resolvamos el sistema lineal del apartado anterior con este m´todo.45)  2 3 4  =  l21 l22 0   0 1 u23  −1 0 −1 0 0 1 l31 l32 l33 Para calcular estos coeficientes procedemos sucesivamente por identificaci´n: o l11 = 1 l11 u12 = 2 → u12 = 2 l11 u13 = 3 → u13 = 3 l21 = 2 l21 u13 + l22 u23 = 4 → u23 = 2 l31 u12 + l32 = 3 → l32 = 2 l31 = −1 l21 u12 + l22 = 3 → l22 = −1 Y ya tenemos todos los coeficientes.

3. A = LLt .1 M´todos iterativos. y la matriz L se obtiene o o otra vez por identificaci´n. e o Si tenemos que resolver Ax = b. e Convergencia. Es un error de concepto e invertir una matriz para resolver un sistema lineal. 3. hacemos cero el resto de los elementos de la segunda columna.5 1 0 −1 −3 2    2 −1 0  →  0 1 0 −1. Estas matrices y otras son sim´tricas y definidas positivas (x t Ax > e 0 ∀x = 0).3. Se deja como ejercicio o resolver de este modo el sistema lineal 3. De lo que se trata es de transformar el problema en uno de punto fijo para despu´s aplicar el teorema de la aplicaci´n contractiva.0 1. podr´ ıamos por ejemplo tratar de resolver iterando 37 .3.0 −0.3 Descomposici´n de Cholesky.4 3.     1 0 −1 −3 2 0 1 2 3 1 0 0    2 −1 0    0 1 2 2 −1 0  →  0 1 2 0 2 2 1 0 1 0 0 −2 −3 2 1 Normalizamos la tercera fila dividiendo por el elemento diagonal. Para este tipo de matrices existe una descomposici´n LU especial.5 −1 −0. y realizando transforo maciones elementales hasta tener a la izquierda la identidad.5 −1. e El m´todo de Gauss-Jordan es el m´todo directo optimo para encontrar la inversa de e e ´ una matriz cuando ´sta no tiene ninguna estructura particular. Los m´todos iterativos responden a la misma filosof´ que utilizamos para resolver de e ıa modo iterativo problemas no lineales.0    0 1 2 0 0 1 1.5    3. Ve´moslo con el mismo ejemplo.5. El m´todo de Gauss-Jordan consiste en realizar e eliminaci´n gaussiana poniendo en la parte derecha la identidad. En esta descomposici´n U = L . la o t descomposici´n de Cholesky.0 1. igual que en el algoritmo de Crout.5 1. hacemos cero el resto de los elementos de la tercera columna. pues en realidad calcular la inversa es como resolver n sistemas lineales.  1 0 0 1 2 3 1 0 0 1 2 3      2 3 4 0 1 0  →  0 −1 −2 −2 1 0  −1 0 −1 0 0 1 0 2 2 1 0 1 Normalizamos la segunda fila dividiendo por el elemento diagonal.0 −0.4.4 M´todo de Gauss-Jordan. y a la derecha tendremos a entonces la inversa. o A menudo los sistemas lineales tienen como matriz del sistema la matriz de Gramm de un producto escalar.5 0 0 1 1.     0 1 0 0 −1.

48 converge si y solamente si el radio espectral de la matriz B es estrictamente menor que la unidad. lim B k v = 0 k→∞ (3. M x(k+1) = N x(k) + b 38 (3. e Teorema 3. la convergencia depende del radio espectral de la o matriz B. los esquemas iterativos a que haremos referencia ser´n a todos del tipo: x(k+1) = Bx(k) + c (3. Dicho de otro modo. Enunci´moslo como un teorema. y dado que B(x − y) ≤ B x − y tendremos que la aplicaci´n T (x) = Bx + c o verificar´ la condici´n de Lipschitz y por tanto.x = (I − A)x + b. indepeno dientemente del vector v.4. con lo que a o a o K la sucesi´n converger´ a un punto fijo que ser´ la soluci´n del sistema lineal.51) . o ıa La inversa es una consecuencia directa del teorema de la aplicaci´n contractiva.1 Un esquema iterativo para resolver sistema lineales del tipo 3.49) (3.4. Dentro de los m´todos iterativos estudiaremos aquellos que se basan en una descomposie ci´n de la matriz A del tipo A = M − N con M invertible. que son los m´s habituales y o a que conducen a esquemas iterativos del tipo. ser´ una contracci´n de I n . al ser una contracci´n en todo el e o espacio. 3.48) donde B ∈ Mn (I y c ∈ I n .50) c = (I − B)A−1 b Esto s´lo es posible si el radio espectral de la matriz B es menor que uno. por ser Bv = λv. existe alguna norma matricial inducida en la que B < 1. por tanto: x(k+1) − x = Bx(k) + c − (Bx + x) = B(x(k) − x) = B k+1 (x(0) − x) O sea que para cualquier x(0) esa sucesi´n tiende a cero. En general. Este resultado o es fundamental en algebra lineal. Por tanto.2 Esquema general. Si o ρ(B) < 1. Su demostraci´n general es algo complicada. Se tendr´ por tanto que la sucesi´n x(k) − x debe a o tender a cero. Adem´s o a a o a esa convergencia es independiente del hu´sped inicial. ”→” Supongamos que el esquema converge. Si la ´ o matriz es diagonalizable es m´s f´cil de intuir que si alguno de los autovalores λ fuese a a de modulo igual o superior a uno. aunque ser´ m´s r´pida si el hu´sped inicial est´ correctamente elegido y sobre a a a e a todo si ρ(B) es bastante menor que la unidad. ha de ser que: Una vez que c verifica esa condici´n. tomando el autovector correspondiente como vector v esta claro que esa sucesi´n nunca tender´ a cero. En el l´ K) K ımite x = Bx + c y por tanto.

se usar´ ´sta como hu´sped inicial. e Se basa en una descomposici´n de la matriz A del tipo A = M − N . Caso de que no sea o o ae e as´ se puede tomar como hu´sped inicial el formado por el t´rmino independiente. Nosotros tomaremos por ejemplo uno que har´ que ıa se cumpliese la primera l´ ınea del sistema lineal: x(0) x −1  1   x(0)  =  4  = 2    (0) −1 x3    (0)  (3. pero s´ en el n´mero de o e ı u iteraciones que daremos en el esquema para llegar a una soluci´n aceptable. e e de componentes todas iguales a 1. Se trata de resolver el sistema lineal:  x1 −3 4 1 0       1 4 1   x2  =  10  1 x3 0 1 4 cuya soluci´n es el vector: o      (3. Si se tiene o una estimaci´n de la soluci´n.56) La elecci´n del hu´sped inicial no influye en la convergencia. o parte diagonal de la matriz A. con M = D. Para definir estas matrices D.52) 3.5 x1      x2  =  3  −0.5 x3      (3.51 en la descomposici´n de Jacobi de la matriz o o A. L y U se puede hacer utilizando bloques de varios elementos. aunque nosotros utilizaremos aqu´ siempre bloques elementales. Se debe tener que c = M −1 b verifique la condici´n 3.55) (3. Obliga a resolver un sistema diagonal en cada paso.3 M´todo iterativo de Jacobi. o uno ı.4.Se trata de elegir M de tal forma que ese sistema lineal en cada paso sea sencillo de resolver. Veamos ı con un ejemplo c´mo funciona el esquema 3. U las partes inferior y superior respectivamente de la matriz A cambiadas de signo.54) con 0 0 0  L =  −1 0 0   0 −1 0 N =L+U 0 −1 0  U =  0 0 −1   0 0 0   (3. y N = L + U .50 o c = (I − B)A−1 b = (I − M −1 N )A−1 b = M −1 M (I − M −1 N )A−1 b = M −1 (M − N )A−1 b = M −1 b cqv (3. siendo L.57) 39 .53) Procedamos a realizar la descomposici´n de la matriz del sistema: o 4 0 0  M =D= 0 4 0   0 0 4   −1.

2 Supongamos que una matriz A sea diagonal estrictamente dominante: |aii | > |aij |.5    r(2) ∞= 0.58) (3.60)  (3. · · · n −1. i = 1.75 = 3    −0.5039  r(5) ∞= 0.5   =  3. el residuo ha disminuido. As´ en este ejemplo: ı. Si seguimos iterando: x(2) −1.0156 (3. e 40 . r(0) Demos el primero paso del esquema: Dx(1) = N x(0) + b = (L + U )x(0) + b  ∞= 4 (3.61)   (3.62) con 1 (3.Para comprobar si estamos convergiendo a la soluci´n es conveniente disponer de un buen o criterio de convergencia... las diagonal estrictamente dominante que aparecen a menudo al resolver num´ricamente ecuaciones diferenciales en derivadas parciales.59)   Y tendremos por tanto que resolver el sistema diagonal:    −3 −1 0 −1 0 4 0 0      (1)    0 4 0  x =  −1 0 −1   4  +  10  1 −1 0 −1 0 0 0 4 4 0 0 −7   (1)    0 4 0  x =  12  0 0 4 −3 x(1) −1.5 (3. e Teorema 3. Vamos a enunciar un teorema de convergencia muy interesante pues se refiere a un tipo de matrices.75 r(1) ∞=     (3.64) x(5) etc. el m´todo de Jacobi converge para esta matriz.4.0000   −0.63) Por tanto.65) j=i Entonces.5039  =  3.125  −0. Demostraremos m´s adelante un resultado que nos permite a garantizar que si controlamos el valor de la norma del residuo r (k) = b − Ax(k) estaremos controlando el error e(k) = x − x(k) .

70) que se resuelve por sustituc´on hacia adelante: ı´ x(1) −1. e 3.1875 4 0 0    (1)   −1 4 0  x =  10. pero la a e velocidad de convergencia es superior en cierto tipo de matrices. y por tanto el e m´todo es convergente. e Se basa en una descomposici´n de la matriz A del tipo A = M − N .71) .0000 0 −1 4        (3. Ve´mos c´mo funciona a o con el mismo ejemplo 3.7500  =  3. Obliga a resolver un sistema triangular por sustituci´n hacia adelante en o cada paso.1875   −0. o y N = U .5469  1.n j=i |aij | |aii | (3.69) (3. por tanto: B ∞<1 (3.La demostraci´n es bastante sencilla: o   0 = −  0   1 a11 B = M −1 N = D−1 (L + U ) 0  a21  = −  a22  ···  an1 ann  0 0 ··· ··· ··· ··· ··· ··· 0 0 ··· ··· a12 a11 0 0 0 1 ann  0 ann−1 ann ··· ··· ···    ···   a1n a11 a2n a22    a21   ···   an1 a12 · · · a1n 0 · · · a2n ··· ··· ··· · · · ann−1 0      0 Si calculamos la norma de esta matriz: B ∞ = max i=1.5469 41   (3. se tiene tambi´n que ρ(B) < 1. Por tanto.67) Pero al ser esta una norma inducida. cada paso es m´s complicado que en el m´todo de Jacobi. con M = D − L. M x(1) = N x(0) + b = U x(0) + b  (3.4 M´todo iterativo de Gauss-Seidel.68)   Y tendremos por tanto que resolver el sistema triangular superior:  −3 −1 0 −1 0 4 0 0  1 4 0  x(1) =  0 0 −1   4  +  10         1 −1 0 0 0 0 1 4 −6.4.53.66) Este cociente es siempre inferior a la unidad al ser la matriz diagonal estrictamente dominante.

5469  =  3.78) (3. i = 1. El m´s interesante es o a analizar el residuo r(k) = b − Ax(k) (3.0003 frente a 0.1641 (3.5000     r(2) ∞= 0. e Teorema 3.4 Si Demostraci´n: o e(k) = x − x(k) = x − A−1 b − r(k) = A−1 r(k) Por tanto e(k) ≤ A−1 r(k) ≤ A−1 b ≤ A−1 42 A x ≤ x cond(A) (3. 0.0000   −0.72) Por tanto.5059 −1.0234   −0. e Aunque el teorema es el mismo que el enunciado para el m´todo de Jacobi.3 Supongamos que una matriz A sea diagonal estrictamente dominante: |aii | > j=i |aij |. o 3.74) Como vemos. Dado que no sabemos por supuesto o x.con r(1) ∞= 0.75) O sea. el residuo en el paso quinto es muy inferior al correspondiente al m´todo e de Jacobi.4. entonces e(k) x < cond(A) .0003 (3.5001  =  3. Si seguimos iterando: x(2) −1.8125 (3. · · · n Entonces. Respecto a la convergencia enunciamos un resultado equivalente al ya referido en el m´todo de Jacobi. el m´todo de Gauss-Seidel converge para esta matriz. el residuo ha disminuido. e(k) = x − x(k) < Lo importante es parar en una iteraci´n k tal que el error: o 1 (3. tendremos que llegar a esa conclusi´n de un modo indirecto.4.73) x(5) r(5) ∞= 0. su dee mostraci´n no es tan sencilla y por tanto no la haremos.5 Test de parada.4. tal que la diferencia en norma entre la soluci´n x y la estimaci´n de ese valor o o en la iteraci´n k sea menor que un valor 1 dado.01.77) r (k) b < .76) Vamos a demostrar que: Teorema 3.

las mayoraciones en el residuo conducen a mayoraciones en el error multiplicadas por ese condicionamiento.0016 b e(5) = x − x(5) = 0.5714 · 0. Otro posible test de parada es establecer que la diferencia en norma entre dos iteraciones consecutivas no debe superar un valor dado. y depender´ tambi´n de las estimaciones que podamos tener del condicionamiento de a e la matriz del sistema. acotar el residuo es casi equivalente a acotar el error total. Es interesante ver este peque˜o teorema como que cu´nto peor o n a (mayor) sea el condicionamiento de una matriz. o 3. En el ejemplo que hemos utilizado para mostrar los m´todos de Jacobi y Gauss-Seidel.0039 → e(5) x = 0. e cond∞ (A) = 2. El libro de apuntes de C´lculo Num´rico[14] a e cuando la daba J.5714 r(5) = 0. Podemos combinar ambos tests para tener un test conjunto que nos garantice que estamos suficientemente cerca de la soluci´n y que no necesitamos continuar trabajando. Seleccionar el valor de 1 depender´ en cada caso del problema real que estemos resolviena do.M.De donde la conclusi´n.0013 ≤ 2. El texto de Golub y Ortega[6] es muy bueno.5 Referencias recomendadas para este tema. si una matriz tiene un condicionamiento bajo. a 43 .0013 y 0.0016. Sin embargo. con lo que se verifica la cota dada por el teorema. S´nchez hace un estudio exhaustivo de esta parte.

2) 4. .1. . En efecto. el sistema lineal Li   n i=j tiene como matriz asociada (Li (ej ) =< ej . Es el caso m´s a interesante y el unico que estudiaremos con detalle.. sea B = (ej ) una base de E. . . Li > i. La familia o de n formas lineales (Li )i=1. n (4. determinar un u vector f ∈ E tal que < f. det(< ej . . n y si la familia (Li ) es libre. . ´ .v.1 El problema general de interpolaci´n o Sea E un R-e. Se llama a det(Li (ej )) el determinante generalizado de Gram. .. .. La demostraci´n anterior de tipo constructiva. .n es libre en E ∗ si det(< ej .. . contiene un m´todo de resoluci´n del o e o problema (4.1). j = 1.. El problema general de o interpolaci´n se plantea del modo siguiente: o Dadas n formas lineales Li ∈ E ∗ y n n´meros reales wi (i = 1. La soluci´n x tiene como componentes ai . n (4.. de dimensi´n n y (ei )i=1. . las n soluciones del sistema o lineal (4...2).. n). o 4.1.1 Casos particulares del problema general de interpolaci´n o Interpolaci´n polinomial o El espacio E es un espacio de polinomios o construido con polinomios.Cap´ ıtulo 4 Interpolaci´n.1.v.1 El problema de interpolaci´n general (4. Li >) = 0 Teorema 4.. . . de funciones de dimensi´n finita n y E su dual.1) Lema 4. aj e j  = w i  i = 1. Li >= wi i = 1..n una de sus bases. Li >) = det(Li (ej )) = 0.1 Sean E un R-e.1) tiene soluci´n unica si las n o o ´ ∗ formas lineales (Li ) son linealmente independientes en E .

. . 1. . la b´squeda es m´s simple ya que existe un n´mero arbitrario de polinomios de esas caracter´ u ısticas que interpolen un conjunto dado de n + 1 puntos distintos x0 . x n 0 o . . luego describen una base B de este I R-e. . . . . . . . . Por tanto. se denomina problema de interpolaci´n de Lagrange. . . . . . . xn y ser´n determinados despu´s. . . En efecto. o Tomando E = Pn (I I R). por las relaciones Li (lj ) = lj (xi ) = δij .1). .. . 1. Si tomamos como base B o de Pn la can´nica. . R-e. . xn son ∗ linealmente independientes en Pn dual de Pn . m > n satisface P (xi ) = wi i = 0. . llamando n H(x) = i=0 (x − xi ) el polinomio P ∈ Pm . .v. .v. wn previaR mente asignados. n. x n n determinante del tipo de Vandermonde. . o o ´ Comentarios: • Este sistema lineal de Vandermonde s´lo tiene significado te´rico. a e u a • Si se busca un polinomio de grado m mayor que n. Los n´meros wi = P (xi ) representan las componentes del polinomio inu terpolador P respecto de la base B = (lj ) de Pn dual de la anterior y que viene definida como es habitual. . n si tiene la forma ˆ P (x) = P (x) + H(x)Q(x) ˆ donde P ∈ Pn si es la soluci´n unica del problema de Lagrange y Q es un polinomio o ´ arbitrario de Pm−n−1 . 1. . 2 1 x n xn . . . .. det(Li (ej )) = . . . . xn de un subconjunto de S de I . Estos polinomios lj son los polinomios fundamentales o de Lagrange asociados a los puntos x0 . . . • Las n + 1 formas lineales Li asociadas a los n + 1 puntos distintos x0 . . El problema de interpolaci´n de Lagrange siempre tiene soluci´n unica. . de los polinomios de una variable de grado n y definiendo las (n + 1) formas lineales Li (P ) = P (xi ) = wi (i = 0.. 45 . los n + 1 valores w0 . alta exigencia de almacenamiento y baja exactitud). xn . que es distinto de cero si todos los xi son distintos. . . el determinante de Gram es: 1 x 0 x2 . . ei = {xi }i = 0. . . n) se constata que este problema es un caso particular de (4. . ya que su resoluo o ci´n por m´todos num´ricos es un peque˜o compendio de comportamientos negao e e n tivos (alto coste computacional. .Interpolaci´n de Lagrange o El problema de la determinaci´n de un polinomio P ∈ Pn (I que toma en n + 1 puntos o R) distintos x0 .

Por tanto. . El problema de ˆ o ´ interpolar la funci´n sin en − π . 0 ≤ j ≤ mν con N = m0 + m1 + · · · + mn + n. . los valores wi son las im´genes en los puntos xi de una cierta a funci´n f definida en S. cuando an = 0. Si por ejemplo 2 2 L1 (f ) = −1. matem´ticamente id´ntico al antes considerado. π . 46 L3 (f ) = 1 .ˆ • El polinomio P ∈ Pn soluci´n unica del problema de Lagrange descrito. . veremos que la interpolaci´n o en PN relativa a estas formas lineales tiene soluci´n unica. El proa blema de interpolaci´n planteado. 0 y π . . L2 (f ) = 0. n cuya unica soluci´n es el polinomio constante 1. M´s tarde escribiremos de modo expl´ o a ıcito el polinomio de grado 2n + 1 soluci´n de este problema cuando o m0 = m1 = · · · = mn = 1 ⇒ N = 2n + 1 que se llama problema simple u osculatriz de Hermite. en los puntos− π . . con a2 = 0.j (f ) = f (j) (xν ) 0 ≤ ν ≤ n. Otro ejemplo todav´ m´s llamativo es el caso P (xi ) = 1. siempre podemos hallar una funci´n unica o ´ f (t) = a0 + a1 sin t + a2 cos t que toma valores dados en− π . 1. est´ prefijadas en puntos distintos. siempre es posible o ´ hallar un polinomio cuya imagen y las de sus derivadas sucesivas hasta un cierto orden. Interpolaci´n general de Hermite o Dados n + 1 puntos distintos x0 . se denomina problema e de interpolaci´n polinomial general de Hermite. 0. xn y las N + 1 formas lineales en C N (S) definidas por: f −→ Lν. π da como soluci´n unica o 2 2 2 2 2x ˆ ıa a el polinomio P (x) = π . ´ o • En muchos casos. Este caso particular de (4. . . cos. i = 0. es exaco ´ tamente de grado n. Interpolaci´n trigonom´trica o e Supongamos ahora que E es el espacio de dimensi´n 3 engendrado por las tres funciones o {1. o a e consiste en determinar un polinomio P que coincide con f en los puntos xi . sin} y que deseamos determinar f ∈ E tal que L1 (f ) = f − π 2 L2 (f ) = f (0) L3 (f ) = f π 2 El determinante de Gram del problema de interpolaci´n planteado es o 1 sin − π L1 (1) L1 (sin) L1 (cos) 2 L2 (1) L2 (sin) L2 (cos) = 1 sin(0) L3 (1) L3 (sin) L3 (cos) 1 sin π 2 cos − π 2 cos(0) cos π 2 1 −1 0 = 1 0 1 =2=0 1 1 0 por tanto.1) . . Las formas lineales Li estar´n entonces definidas en un o a espacio funcional m´s amplio que Pn para que tenga sentido Li (f ) = f (xi ). lo que no siempre sucede.

Polinomios de Lagrange Como vimos. 2. L2 (f ) = f (1).2. .estar´ ıamos determinando f ∈ E interpolante de la funci´n seno. . ese problema tiene soluci´n unica 1 P ya que las n + 1 formas lineales o ´ ∗ Li (P ) = P (xi ) = wi (i = 0. o En general.1 pero ahora lo veremos con detalle. sin x. . 1.1. Con L1 (f ) = f (−1). . en los nodos xk .1) tiene soluci´n unica. o ´ ıa 4.1 llam´bamos P a este polinomio para no confundir. He aqu´ un ejemplo sin o ı soluci´n unica. cos mx. Se tiene que: 1 −1 1 det(< ej . 1. P ∈ Pn tal que P (xk ) = wk k = 0. n) describen una base B ∗ de Pn . . . cos x. . Li >) = 1 1 1 = 0 0 1 0 y el problema no puede tener soluci´n unica.1. o o No todo problema de interpolaci´n es necesariamente resoluble. E es la envoltura lineal de la familia de las 2m + 1 funciones linealmente independientes {1.2 4. n A menudo los datos wk son las im´genes de una cierta funcion f . .v. . . L3 (f ) = f (0) y ei = xi−1 con i = 1. 1. . . de dimensi´n 2m + 1 y para las 2m + 1 formas lineales o < f. Li >= f (xi ) = wi . E es un R-e. . Aqu´ no hay confusi´n a ı o posible y nos referiremos a ´l como P . 3. n) y se busca un polinomio P de grado ≤ n. Se dan n + 1 puntos distintos xi de un subconjunto S de I R(nodos) y n + 1 valores reales wi (i = 0. o o ´ Ejemplo de un problema de interpolaci´n sin soluci´n. e 1 47 . funci´n que se pretende a o interpolar. . aunque podr´ tener infinitas soluciones.1 Interpolaci´n polinomial o Interpolaci´n de Lagrange o Ya hemos introducido este problema en 4. Su base dual B en Pn ˆ En el apartado 4. Supongamos que deseamos hallar un polinomio de segundo grado cuyos o ´ valores en 1 y -l y cuya derivada en 0 son datos. −π ≤ x0 < x1 < · · · < x2m ≤ π el problema de interpolaci´n (4. . . sin mx}.

2. . . . es decir a lj (xi ) = 0 si i = j 1 si i = j luego lj tiene n ra´ xi (i = j) y toma el valor 1 cuando x = xj . . ¿ Por qu´?.2. . . . . . matriz del sistema que define los coeficientes del polinomio soluci´n respecto de la base can´nica de P n . . Es claro que: ıces n i=0 (x − xi ) (4. . . . . .  . . n n n wi = P (xi ) = j=0 kj lj (xi ) = j=0 kj δij = ki o por tanto las componentes de la expresi´n del polinomio n P = j=0 wj l j es decir. . 2 1 x n xn . xn . Los coeficientes o o e del polinomio de Lagrange lk respecto de dicha base son los elementos de la k-´sima −1 columna de V matriz inversa de V . e Ejemplo 4. . . . .   .. P (x) = n wj lj (x) j=0 Ejercicio 4. 1.est´ descrita por los polinomios lj de Lagrange asociados a los puntos x0 . .  V = . xn y que a como es habitual est´n definidos por las relaciones Li (lj ) = δij .1 48 . . . x n 0 0  . x n n   la matriz de Vandermonde asociada a los nodos x0 . .3) (xj − xi ) lj (x) = i=j n i=0 i=j Descomponiendo el polinomio de interpolaci´n soluci´n P respecto de esta base teno o dremos n P = j=0 k j lj de donde para i = 0.1 Sea 1 x 0 x2 . .

Elijamos un e n´mero x en [a.6) Es f´cil 2 ver que φ conserva la clase de f . n. i = 0.4 es v´lida elijamos como u a elijamos ξ.Si x0 = 1. · · · . b]. lo que o o nos obligar´ a asumir que f satisface ciertas propiedades.2. · · · . x) < ξ(x) < max(x0 . b] le corresponde un punto ξ(x) con min(x0 . xn .4) (x − xi ) (4.2 Estimaciones del error en la interpolaci´n de Lagrange o En el caso habitual. interesa investigar la separaci´n entre el polinomio interpolante P y f . Sabemos por aplicaci´n del teorema de Rolle que si una funci´n continua y diferenciable o o 2 Por ser P y H polinomios y por tanto de clase C ∞ 49 . xn . b]. a Teorema 4. Si x es uno de los nodos xi . x) para el cual f (x) − P (x) = con H(x) = i=0 H(x) (n+1) f (ξ(x)) (n + 1)! n (4. o Supongamos sin p´rdida de generalidad que a ≤ x0 < x1 < · · · < xn ≤ b. x1 = 2.1 Sea f ∈ C n+1 [a. la igualdad 4. · · · . Es f´cil ver que la funci´n φ tiene al menos a a o n + 2 ceros en [a.7) f (x) − P (x) H(x) (4. los correspondientes a los nodos xi y al valor x. Entonces a cada punto x en [a.2.5) Demostraci´n. en que los valores wi son las im´genes en los puntos xi de una cierta a funci´n f . Si x no es uno de los nodos definimos λ tal que: λ= Definimos la funci´n auxiliar: o φ(t) = f (t) − P (t) − λH(t) (4. xn con xi ∈ [a. b] y P el polinomio de Pn (I interpolador de Lagrange de f en la nube R) x0 . x3 = 4 1 1 1  V = 1 2 4   1 4 16 con lo que   y V −1 =  −2  1 3  8 3 −2 −1 2 5 2 −1  2  1 6 1 3  8 l0 (x) = 3 − 2x + 1 x2 = 1 (x2 − 6x + 8) 3 3 1 l1 (x) = −2 + 5 x − 1 x2 = − 2 (x2 − 5x + 4) 2 2 1 1 l2 (x) = 3 − 1 x + 6 x2 = 1 (x2 − 3x + 2) 2 6 4. b].

a Corolario 4. La derivada (n + 1) de un polinomio de grado n es 0.2. xn ] se puede deducir una estimaci´n muy util del error de interpolaci´n de f − P .8) f (n+1) (ξ) (n + 1)! (4. a Si x ∈ [xi .10) |f (x) − P (x)| ≤ de la que se deduce la f´rmula general de estimaci´n del error en interpolaci´n o o o f −P ≤ v´lida para todas las normas . si x ∈ [x0 .9) ≤ Mn+1 tendremos |H(x)| Mn+1 (n + 1)! (4. Supuesto que f cumple que f (n+1) ∞ (4. Combinando lo anterior. su derivada f tiene al menos m − 1 ra´ en [a. b]. se obtiene la cota del error con norma uniforme f −P ∞ ≤ f (n+1) n+1 h 4(n + 1) Para interpretar correctamente esta cota de error debemos pensar en P como funci´n de o h para n fijo.tiene m ra´ en [a.6 obtenemos 4. ıa o 50 . xn ].2.xn ] n! n+1 h 4 donde h es la m´xima de las distancias entre puntos xi y xi+1 adyacentes. y la de H(t) es (n + 1)!. se tiene que h2 4 y haciendo una estimaci´n directa del tama˜o de los otros t´rminos que aparecen en H o n e se obtiene esa mayorante de H ∞ . Corolario 4.2 En el caso en que = o ∞ . b]. xi+1 ]. ıces ıces Aplicando este razonamiento de modo sucesivo a las derivadas de la funci´n φ. Por tanto: 0 = f (n+1) (ξ) − λ(n + 1)! de donde: λ= y entrando en 4. Con ello.4.2.2 Obtener esa mayorante. llegamos o (n+1) a la conclusi´n de que φ o tiene al menos una raiz en [a. = max |(x − x0 )(x − x1 ) · · · (x − xn )| ≤ x∈[x0 . b]. Sea ξ esa raiz. se deduce de esa estimaci´n que la exactitud es del orden O(hn+1 ) o cuando se var´ el intervalo de interpolaci´n [x0 . Para ello utilizamos la mayoraci´n ´ o o H ∞ p.1 Estimaciones del error. Mn+1 H (n + 1)! 1 ≤ p ≤ n. |(x − xi )(x − xi+1 )| ≤ Ejercicio 4.

El primero es que hay que realizar un n´mero alto de operaciones u aritm´ticas. x1 . Esta conmutabilidad se mantiene aunque el orden de las diferencias sea m´s alto. xi ] = 3 f [x1 . x1 . El planteamiento de las diferencias divididas es el de la interpolaci´n de Lagrange. . . x1 ] f [x0 . . o x0 x1 x2 x3 . x2 . Veremos que estos coeficientes se determinan f´cilmente usando las diferencias a divididas de los valores tabulados. . f0 f1 f2 f3 . xi−1 ] xi − x 0 En realidad lo que hacemos es escoger otra base para los polinomios de grado n: {1. . de tal modo que este polinomio ajuste la tabla de datos dada 3 . . Usamos una notaci´n especial para las diferencias o divididas fj − f i f [xi . xj ] = (4. xj ] = f [xj . x2 ] = x2 − x 0 f [x0 .4. (x − x0 )(x − x1 ). el problema m´s importante nace del hecho de que si necesie a tamos a˜adir o quitar un punto al conjunto que se ha usado para construir el polinomio. a u Consideremos el polinomio de grado n P (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 )(x − x1 ) · · · (x − xn−1 ) Elijamos los coeficientes ai .3 Diferencias divididas Hay dos problemas importantes cuando usamos la base de Lagrange para interpolar una tabla de valores. . . . x1 . xn f n En esta tabla no es necesario suponer que las exis est´n equiespaciadas. . (x − x0 ). o sea. (x − x0 )(x − x1 ) · · · (x − xn−1 )} 51 . xi ] − f [x0 . .11) xj − x i A este n´mero se le llama la diferencia dividida de primer orden correspondiente a [x i .2. . u Es importante darse cuenta de que f [xi . x2 ] − f [x0 . ni siquiera que a est´n dadas en alg´n orden. xi ]. Sin embargo. . . Las diferencias divididas de segundo a orden y de ordenes superiores se obtienen a partir de las diferencias divididas de ordenes ´ ´ anteriores: f [x1 . . . . n tenemos que empezar los c´lculos desde el principio. . . Con el m´todo de las diferencias a e divididas este problema desaparece. o se supone que conocemos una funci´n en un soporte de valores para la x. . xj ].

x2 ].. y comprobar que los dos tienen la misma imagen en un punto cualquiera (ej x = 3. Teorema 4. 342 2. . . . 2 2. 7 1. .2. . x5 ] 22. 750 2. x1 . x1 . 856 38.2. 2 2.8). 7 16. Es interesante ver 4. 8 5. Si conocemos alguna derivada de la funci´n. . 012 −0. . 256 El peque˜o ejercicio que se os propone consiste en que valid´is esta tabla de valores. entonces: P (x2 ) = f0 + f1 − f 0 (x2 − x0 ) + x1 − x 0 f2 −f1 x2 −x1 f − x1 −f0 1 −x0 (x2 − x0 )(x2 − x1 ) = f2 x2 − x 0 f1 − f 0 (x1 − x0 ) = f1 x1 − x 0 Podr´ ıamos ver de modo similar que cada Pn (xi ) = fi si ai = f [x0 . 0865 0.2 Una t´ ıpica tabla de diferencias divididas podr´ ser la siguiente ıa xi 3. Ejemplo 4. 118 2. xi+1 ] f [xi . tiende a xi lo que tenemos es precisao mente esa derivada. . . .Estamos ya en posici´n de establecer que los coeficientes ai est´n dados por esas difereno a cias. xi ]. 0 17. 263 0. 528 51. .11 como que la diferencia dividida de primer orden es una estimaci´n o de la derivada de la funci´n f en xi .2 52 . 0 4. x1 ]. xi+3 ] f [x0 . 400 14. P (x0 ) = a0 = f0 P (x1 ) = a0 + a1 (x1 − x0 ) P (x2 ) = a0 + a1 (x2 − x0 ) + a2 (x2 − x0 )(x2 − x1 ) . podemos duplicar ese o nodo en la lista y sustituir la diferencia dividida correspondiente a esos dos nodos por la derivada. . n e Tambi´n pod´is construir el polinomio de interpolaci´n de diferencias divididas correse e o pondiente a esta tabla de valores. . . P (xn ) = a0 + a1 (xn − x0 ) + a2 (xn − x0 )(xn − x1 ) + · · · + +an (xn − x0 )(xn − x1 ) · · · (xn − xn−1 ) Si hacemos a1 = f [x0 .. 6 fi f [xi . entonces: P (x1 ) = f0 + Si hacemos a2 = f [x0 . Obtengamos la imagen de cada punto del soporte por dicho polinomio. xi+2 ] f [xi . . . 8 8. dado que si xj . 3 6. Despu´s con vuestra calculadora pod´is calcular el e e polinomio de interpolaci´n expresado en la base can´nica de los polinomios de grado o o cuatro.

. xn ] = n! Ejercicio 4. b) que verifica que f (n) (ξ) f [x0 .4 Interpolaci´n simple de Hermite u osculatriz. . . Luego s´lo nos queda el primer sumando o distinto de cero si i = j. xn ] = 0 4. para n > k f [x0 . . n. . An´logamente derivando a n P (x) = j=0 4 2 −2lj (xj )lj (x)f (xj ) + [1 − 2lj (xj )(x − xj )]2lj (x)lj (x)f (xj )+ No lo demostraremos. . 1. b] y x0 . x1 . . . b].12) Se comprueba simplemente sustituyendo y derivando n n 2 [1 − 2lj (xj )(xi − xj )]lj (xi )f (xj ) + n 2 lj (xi )f (xj ) j=0 j=0 n 2 (xi − xj )lj (xi )f (xj ) = P (xi ) = j=0 n = − j=0 2lj (xj )(xi − 2 xj )lj (xi )f (xj ) + j=0 2 (xi − xj )lj (xi )f (xj ) = f (xi ) Para i = j los tres sumandos son nulos por ser lj (xi ) = δij . . .Si f es n veces continuamente diferenciable en [a. 53 . . El segundo y tercer sumando son nulos para i = j por serlo el factor (xi −xj ). xn se busca el polinomio P que cumpla las 2n + 2 condiciones P (xi ) = f (xi ) i = 0. . . . . . .3 Demostrar que si la funci´n que queremos aproximar es un polinomio de grado k. .. P (xi ) = f (xi ) i = 0. entonces hay un punto ξ en (a. son puntos distintos de [a. . x1 . . . . . .2. 1. . . n Las 2n + 2 formas lineales Li y Mi son en este caso f −→ Li (f ) = f (xi ) y f −→ Mi (f ) = f (xi ) Se trata del caso particular del problema general de Hermite cuando m0 = m1 = · · · = mn = 1 ⇒ N = 2n + 1 La soluci´n del problema de interpolaci´n simple de Hermite es unica si todos los nodos o o ´ 4 x0 . por tanto. o Dados n + 1 puntos distintos x0 . 1. . n P (xi ) = f (xi ) i = 0. . . . xn son distintos y viene dada en funci´n de los polinomios fundamentales de o Lagrange por: n n P (x) = j=0 [1 − 2lj (xj )(x − 2 xj )]lj (x)f (xj ) + j=0 2 (x − xj )lj (x)f (xj ) (4. eno tonces. . xn .2. .

. que los nodos o est´n equiespaciados xi+1 − xi = h. El sistema w0 = a − bh + ch2 w1 = a w2 = a + bh + ch2 54 . . x1 . Por un lado. 4. . xi+1 ] es o o un polinomio de grado k. Supongamos por conveniencia que esa subdivisi´n es uniforme. . b] o estrictamente creciente (a ≤ x0 < x1 < · · · < xn ≤ b). Pretendemos encontrar la o par´bola P (de eje vertical) a P (x) = a + bx + cx2 x ∈ [x0 . Suponemos x1 = 0 de modo que x0 = −h y x2 = h. a n Definici´n 4. Es a menudo mucho m´s util dividir el intervalo en subintervalos m´s peque˜os y usar en cada subintervalo polinomios de grados relativamente bajos. es decir. w2 . y haciendo x = xi n P (xi ) = j=0 2 −2lj (xj )lj (xi )f (xj ) + [1 − 2lj (xj )(xi − xj )]2lj (xi )lj (xi )f (xj )+ n + j=0 2 [lj (xi )f (xj ) + 2(xi − xj )lj (xi )lj (xi )f (xj )] = = −2li (xi )f (xi ) + 2li (xi )f (xi ) + f (xi ).n + j=0 2 [lj (x)f (xj ) + 2(x − xj )lj (x)lj (x)f (xj )].3. 1. Un polinomio a trozos de a grado k en Ω es una funci´n cuya restricci´n a cada uno de los subintervalos [xi . xn } los nodos de una subdivisi´n Ω de [a. x2 ] que toma en esos nodos los valores w0 . x1 . . y que x0 = a y xn = b.1 Interpolacion parab´lica a trozos o Consideremos una subdivisi´n de tres nodos {x0 . . la forma de la funci´n polin´mica o o de grado alto a menudo no responde al fen´meno debido al gran n´mero de extremos e o u inflexiones. w1 . o La construcci´n de polinomios de interpolaci´n de grado alto aunque justificable te´o o o ricamente plantea muchos problemas.3. Es decir P (xi ) = f (xi ) i = 0. Por otro lado. su c´lculo es muy complicado. n 4.3 Interpolaci´n polinomial a trozos. Ello limita su utilidad a e a ´ en an´lisis num´rico. x2 }. tedioso y a veces con grandes a errores de rendodeo por mal condicionamiento de algunas matrices. . . b] un intervalo finito y {x0 .1 Polinomios a trozos de grado k o Sea [a.

15) de donde el resultado.2 (x) = (x − xi )(x − xi+1 ) (x − xi−1 )(x − xi+1 ) wi−1 − wi 2 2h h2 (x − xi−1 )(x − xi ) wi+1 + 2h2 (4. .2 de grado 2 a trozos cuyas restricciones a los subintervalos [xi−1 . a P (x) = w1 + Dada la subdivisi´n Ω = {x0 .14) (4.2 (x) = wi + wi+1 − 2wi + wi−1 wi+1 − wi−1 (x − xi )2 (x − xi ) + 2h 2h2 xi−1 ≤ x ≤ xi+1 con i = 1. 5. La f´rmula es tambi´n o e v´lida si esos puntos estan alineados en cuyo caso c = 0 y se reduce al caso lineal. xi+1 ] son par´bolas. . . . . w1 ). . wi−1 ). wi+1 ) tendremos la siguiente expresi´n o de Pn. 3. como la antes determinada. . wn o se llama funci´n de interpolaci´n parab´lica a trozos de la funci´n discreta f (x i ) = wi a o o o o un polinomio Pn. . y los valores correspondientes w0 . n − 1. n − 1. . . . w2 ) no son colineales. (xi . .da como unica solucion: ´ a = w1 . 5. 3. y b= w2 − w 0 . . . wi ).13) con xi−1 ≤ x ≤ xi+1 con i = 1. . wi ). (x2 . . . . (xi .2 (x) = li−1 (x)wi−1 + li (x)wi + li+1 (x)wi+1 donde li−1 (x) = (x − xi )(x − xi+1 ) (x − xi )(x − xi+1 ) = (xi−1 − xi )(xi−1 − xi+1 ) 2h2 (x − xi−1 )(x − xi+1 ) (x − xi−1 )(x − xi+1 ) li (x) = =− (xi − xi−1 )(xi − xi+1 ) h2 (x − xi−1 )(x − xi ) (x − xi−1 )(x − xi ) li+1 (x) = =− (xi+1 − xi−1 )(xi+1 − xi ) 2h2 (4. wi−1 ). (xi+1 . usando la base de Lagrange: o Pn. xn } con n par. 5. Si se usa la f´rmula de Lagrange para determinar el polinomio de segundo grado que o interpola los puntos (xi−1 . wi+1 ) i = 1. . que pasan por los puntos (xi−1 . . n − 1. 2h c= w2 − 2w1 + w0 2h2 w2 − w 0 w2 − 2w1 + w0 2 x+ x 2h 2h2 con c = 0 si los puntos (x0 . (x1 . a (xi+1 . 55 . es decir Pn.2 Pn. Esta expresi´n se deduce de la ya estudiada. 3. w0 ).

Construyamos por Hermite un polinonio de tercer grado en cada uno de los subintervalos [xi . b]).18) Por ser el error una potencia c´bica de h. Si la funci´n interpolada f pertenece a C (k+1) ([a. xi+1 ] un o o polinomio Pn.2 Error en la interpolacion parab´lica a trozos o Si la funci´n a interpolar f ∈ C 3 ([a.17) Como xi−1 ≤ x ≤ xi+1 podemos escribir (b − a)3 2h3 M3 = M3 6 3n3 estimaci´n muy pesimista f´cilmente mejorable. b]). utilizamos la f´rmula de Hermite simple para construir en [xi . Un modo de hacerlo es usar polinomios interpolantes de Hermite que cumplan en los subintervalos las condiciones exigidas respecto a las derivadas.2 (x)| ≤ donde M3 = sup f (3) (x) a≤x≤b |(x − xi−1 )(x − xi )(x − xi+1 )| M3 6 (4.3.3 de grado 3 que ajuste los valores de una funci´n y de su derivada en cada uno de los nodos. Pn. Podemos alcanzar una alta calidad de aproximaci´n mientras manteno emos el grado del polinomio razonablemente bajo.3 (xi+1 ) = f (xi+1 ) luego 2 2 Pn. En algunas aplicaciones ese inconveniente no tiene consecuencias. es decir. del teorema de estimaci´n del error obtenemos o o la desigualdad |f (x) − Pn. No obstante. u 56 . tal que: Pn.4.3 (xi+1 ) = f (xi+1 ) Pn. xi+1 ]. o a |f (x) − Pn. pero a menudo es muy deseable obtener aproximaciones de cierta clase.2 ∞ De todo ello se sigue que n→∞ =0 con un orden 3 de convergencia 5 .3 (xi ) = f (xi ).3.2 (x)| ≤ lim f − Pn. no todo es tan positivo. 4.3 (xi ) = f (xi ) Pn. las aproximaciones as´ obtenidas son continuas pero tienen en general derivadas disconı tinuas en los nodos. o sea.3 (x) = [1 − 2li (xi )(x − xi )]li (x)f (xi ) + (x − xi )li (x)f (xi ) 2 + [1 − 2li+1 (xi+1 )(x − xi+1 )]li+1 (x)f (xi+1 ) 2 + (x − xi+1 )li+1 (x)f (xi+1 ) 5 (4. La construcci´n de un polinomio a trozos interpolante de grado k se hace de un modo o an´logo.16) (4.3 Interpolaci´n a trozos de grado 3 usando interpolaci´n o o Hermite. dicho polinomio converge a a o f con orden k + 1.

Por reducci´n al absurdo se obtiene que o o todos los tramos son el mismo polinomio. o sea. lo que a menudo no es deseable.4 Interpolaci´n polinomial a trozos: Splines o Surge de modo natural la siguiente pregunta. En general nos interesan aquellas cuya clase es estrictamente inferior al grado (p < k) ya que para p = k el polinomio que se obtiene es el mismo en todos los subintervalos 6 .1 Se llama spline de grado k a todos los polinomios a trozos de grado k o y de clase C k−1 . Para aproximar f tenemos tabulados los valores de f pero en general carecemos de informaci´n sobre f . es decir. o o pero la expresi´n final a la que llegamos incluye los valores que debe tener la funci´n f o o en los nodos.k de grado k y de clase C p en [a. Hasta ahora no hemos garantizado Es especialmente importante entender esta afirmaci´n.3 es de clase C 1 ([a. 6 57 . b] con p > 0. permite incrementar la suavidad de la funci´n aproximante. ¿Es posible construir aproximaciones polinomiales a trozos de cierta clase simplemente exigiendo que la funci´n a aproximar tenga o ciertas propiedades de continuidad en los nodos sin necesidad de asignar expl´ ıcitamente en los nodos los valores de las derivadas? Esas dudas nos llevan a considerar aproximaciones polinomiales a trozos Pn.18 Pn.4. u o 4.21) Ahora Pn. la convergencia es de orden 4.19) (4.20) y sustituyendo en 4. o a Definici´n 4. De particular inter´s es el caso en el que obtenemos e la aproximaci´n m´s suave. p = k − 1. splines que ı o tomen en los nodos valores previamente asignados. b]) y para f ∈ C (4) ([a. Si f es la inc´gnita a o o determinar. la introducci´n de sus derivadas en el problema incrementa la complejidad o de la b´squeda de soluci´n. La interpolaci´n de Hermite.con li (x) = x − xi+1 x − xi+1 1 =− ⇒ li (x) = − xi − xi+1 h h x − xi 1 x − xi = ⇒ li (x) = li+1 (x) = xi+1 − xi h h 2 x − xi+1 2 1 + (x − xi ) f (xi ) h h x − xi+1 2 + (x − xi ) f (xi ) h x − xi 2 2 + 1 − (x − xi+1 ) f (xi+1 ) h h x − xi 2 + (x − xi+1 ) f (xi+1 ) h (4.3 (x) = (4. b]). con derivadas continuas hasta el orden k − 1. Aqu´ estamos interesados en el uso de splines para interpolaci´n.

. . Definici´n 4. se sabe que hay ciertos tipos de o problemas de splines de interpolaci´n que carecen de soluci´n.1 Existe un spline c´bico unico S tal que u ´ S(xi ) = wi i = 0. . x1 . . .la existencia de esos splines de interpolaci´n. La situaci´n que se da en este ejemplo es semejante a la existente en general con los splines o c´bicos. • s ∈ C 2 ([a. a o ´ Para eliminar la ambig¨edad. pero no introduce ning´n aspecto te´rico nuevo u o 7 58 . . n. Si existe soluci´n no es unica. u o ´ Estas condiciones adicionales se pueden fijar de modo m´s o menos arbitrario aunque lo a habitual es pedir que se cumplan ciertas exigencias en los extremos del intervalo. Con ´l exploraremos u a a e sin complicaciones excesivas. .1 Hallar dos polinomios de tercer grado s0 (x) = a0 + b0 x + c0 x2 + d0 x3 s1 (x) = a1 + b1 x + c1 x2 + d1 x3 tales que s0 (a) = w0 . s0 (x1 ) = w1 = s1 (x1 ). De hecho. xn } una partici´n equio o 7 espaciada de [a. o Antes de analizar el problema de la existencia y unicidad de los splines c´bicos. comenceu mos con un ejemplo: Ejemplo 4. 1. 1. < xn ≤ b y wi un conjunto n + 1 numeros reales. b] estrictamente creciente a ≤ x0 < x1 < . . por ejemplo las derivadas u n en a y b. s 0 (x1 ) = s 1 (x1 ). . s1 (b) = w2 . para conseguir que la soluci´n sea unica.4. xi+1 ] es una polinomio de grado 3. . Teorema 4. debemos imponer dos condiciones extra. . Nos limitaremos al caso o o k = 3 de los splines c´bicos por ser el m´s importante en la pr´ctica. . b] un intervalo finito.4.4. s 0 (x1 ) = s 1 (x1 ) Tenemos 6 condiciones y ocho par´metros a determinar. Se llama spline de interpolaci´n c´bica a una funci´n s : [a. . • La restricci´n si de s a cada subintervalo [xi . las caracter´ ısticas fundamentales de la aproximaci´n con o splines. debemos a˜adir dos condiciones. . Ω = {x0 . n S (x0 ) = s0 . S (xn ) = sn El que sea equiespaciada obedece a que permite una mayor simplicidad en los desarrollos. b]). b] → I que posee las siguo u o R ientes propiedades: • s(xi ) = wi i = 0.2 Sean [a.

22. n − 1 tales que Si tenga tambi´n derivadas segundas continuas en los nodos. . luego el spline o o ´ 2 c´bico interpolador S de clase C u S(x) = Si (x) xi ≤ x ≤ xi+1 S es unico porque si hubiera dos. . ´ ıa u e ya que se anula en los nodos xi (wi = 0) lo que implica que los si tambi´n son nulos. . n − 2. e Diferenciando dos veces la expresi´n 4. sn−1          3 (w2 − h 3 (w3 h 3 (w4 h 3 (wn h w0 ) − s 0 − w1 ) − w2 ) .          (4. 1.sn−1 tiene soluci´n unica que define Si para todo i. sin e 59 . . 2.26) − wn−2 ) − sn Este sistema tridiagonal y diagonalmente dominante de n − 1 ecuaciones con n − 1 inc´gnitas s1 .23) (4. . h          (4.3. Como s0 y sn son datos.3.24) (4. . . . . .25) Podemos escribir este sistema desarrollado:    1   0    ··· 1 0 ··· ··· 0 0 4 1 0 ··· ··· 0 1 4 1 0 ··· 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 1 4 4 s1 s2 s3 . . o i = 1. es trivial ver que: Si (xi+1 ) = Si+1 (xi+1 ) = wi+1 S i (xi+1 ) = S i+1 (xi+1 ) = si+1 luego Si define una c´bica a trozos continua con derivadas continuas que toma los valores u preasignados wi en los nodos. obtenidos mediante la base de Hermite que utilizamos en 4. De este modo. .. s´lo necesitamos hallar los si . tendremos: o 6 2 4 6 w − 2 wi+1 + si + si+1 2 i h h h h 6 6 4 2 S i+1 (xi+1 ) = − 2 wi+1 + 2 wi+2 − si+1 − si+2 h h h h S i (xi+1 ) = e igualando obtenemos el sistema si + 4si+1 + si+2 = 3 (wi+2 − wi ) i = 0.Demostraci´n: o Consideremos Si definido en xi ≤ x ≤ xi+1 por: Si (x) = (x − xi+1 )2 2(x − xi )(x − xi+1 )2 + wi h2 h3 (x − xi )2 2(x − xi+1 )(x − xi )2 wi+1 − + h2 h3 (x − xi )2 (x − xi+1 ) (x − xi )(x − xi+1 )2 si + si+1 + h2 h2 (4. . .22) construido usando la misma filosof´ que para los polinomios a trozos de grado 3 y clase ıa 1. . su diferencia ser´ un spline c´bico id´nticamente nulo.

.4.4. 1.1 Bases de splines asociadas a un problema de interpolaci´n. convergen a las correspondientes derivadas e de f . 2 En t´rminos de energ´ potencial (proporcional a ( S 2 ) los splines c´bicos naturales e ıa u minimizan dicha energia. u ´ Teorema 4. los splines c´bicos naturales son los u m´s suaves en el sentido de que minimizan la norma a de la segunda derivada. entonces 1≤i≤n max sup x∈[xi .4. o Vamos a calcular una base de splines c´bicos. a Tambi´n se pueden introducir las dos condiciones extras siguientes e S (x0 ) = S (xn ) = 0 con las que se obtiene el llamado spline natural. sino u o que tambi´n sus derivadas.2 Si f ∈ C (4) ([a.4.1 Demostrar que existe un spline natural c´bico unico. 216 K2 = K3 = 1 M4 = f (4) ∞. hasta el orden 3. . Se pueden obtener los splines resolviendo el sistema tridiagonal (4. 12 ≤ Kp M4 n4−p 0≤p≤3 (4.xi+1 ] f (p) (x) − S (p) (x) 5 . utilizando la idea de que esta base sea u la dual a las formas lineales que definen un problema de interpolaci´n en un espacio o vectorial de splines con soluci´n unica.25) sustituyendo despu´s los valores de los si en la expresi´n de Si (x). pero por motivos te´ricos interesa e o o tener una representaci´n expl´ o ıcita del spline similar a la representaci´n del polinomio de o interpolaci´n en funci´n de la base de polinomios de Lagrange.28) [S (x)]2 dx ≤ x0 x0 Este ultimo teorema asegura que de todas las funciones de interpolaci´n que satisfacen ´ o ciertas condiciones en los extremos del intervalo. u o entonces: xn xn [ϕ (x)]2 dx (∀ϕ ∈ U ) (4. b]). Teorema 4.3 Sea U el conjunto de todas las funciones ϕ de clase C 2 en [a.27) donde 5 . Ejercicio 4. n y sea S el spline c´bico natural que satisface las mismas condiciones de interpolaci´n. o ´ 60 . .25. Se deduce de lo enunciado en este teorema que el spline c´bico no s´lo converge a f . .m´s que entrar en el sistema 4. b] tales que ϕ(xi ) = wi i = 0. K0 = 384 √ 3 K1 = . o o 4.

.5 x2 = 1. u o ∗ Sea S3 (Ω) su dual. Definimos las n + 3 formas lineales: Li (S) = S(xi ).Sea S3 (Ω) el espacio vectorial de los splines c´bicos correspondientes a la partici´n Ω. Sea p la clase de este polinomio a trozos. pues sabemos que: Li (cj ) = δij Cualquier spline del que sepamos sus valores en los nodos. x1 = 0.30) 61 . ∗ Ejercicio 4. n Ln+1 (S) = S (x0 ) Ln+2 (S) = S (xn ) Como ya hemos visto. Por tanto la dimensi´n de o este espacio vectorial de funciones polin´micas a trozos de clase p y grado k es: o n · (k + 1) − (p + 1) · (n − 1) Si lo que tenemos es un spline de grado k. i = 0. Podemos tratar de encontrar su base o ´ dual ci .5 Interpolaci´n spline con bases de soporte m´ o ınimo: B-splines Sea Ω una partici´n del intervalo [a. Hemos estudiado en 4.25. y son por tanto una base de S3 (Ω). Por tanto.k (t) = i=0 ai · ei (t) (4. t1 . por un lado el n´mero de par´metros a definir es n · (k + 1). correspondiente al problema de interpolaci´n anterior. tn = b}. Un polinomio de o interpolaci´n a trozos de grado k est´ definido por n polinomios de grado k en cada uno o a de los intervalos [ti . ti+1 ]. b].1 c´mo construirlas asociadas o a problemas de interpolaci´n con soluci´n unica. {a = t0 . entonces su clase es p = k − 1. estas formas lineales definen un problema de interpolaci´n de o ∗ soluci´n unica. la dimensi´n de ese espacio de splines est´ dada por: o a n · (k + 1) − (k − 1 + 1) · (n − 1) = n + k Bases de este espacio hay muchas. Los elementos de esta base son facilmente calculables resolviendo el sistema 4. Una vez que tenemos escrito nuestro o o ´ polinomio de interpolaci´n como combinaci´n lineal de una base y queremos evaluarlo o o en un punto cualquiera. y las derivadas en los nodos extremos. y el n´mero de condiciones se refiere u a u a la continuidad de orden p en los enlaces (p + 1) · (n + 1).29) Hemos construido por tanto una base un poco especial de un espacio vectorial de splines. .2 Determinar la base de S3 (Ω) para el caso n = 2 con x0 = 0. . .4.4. nos planteamos una serie de posibles mejoras: n+k−1 Pn. puede ser escrito como combinaci´n lineal de esa base de modo sencillo: o n S(x) = j=0 wj cj (x) + s0 cn+1 (x) + sn cn+2 (x) (4. o 4. Por tanto. tn−1 .

. que sean nulas en el mayor n´mero posible de tramos [ti . 8 El soporte de una funci´n son aquellos elementos de su dominio de imagen no nula. Ser´ bueno tambi´n que si se u ıa e conocen ciertos valores de la funci´n a interpolar. depender´n del tipo de condiciones a adicionales elegidas. Pero este tipo de planteamiento. . tn = b}. o de la segunda derivada. Lo ideal ser´ que las funciones ei (t). . o sea. ınimo.k (t) = i=0 fi · ei (t) + ai · ei (t) (4. siendo splines de grado k. n + k − 1. tiene el inconveniente de que las funciones de base cardinales ei (t) tienen un soporte8 muy grande. . que es fenomenal para calcular los coeficientes ai .31) donde los coeficientes ai i = n + 1. los {fi }.2). la relaci´n entre los coeficientes o o ai y estos valores fuese mediante expresiones lo m´s sencillas posibles.Ser´ conveniente que los ei (t) fuesen sencillos de evaluar (en el sentido de que su image ıa fuese nula en el mayor n´mero posible de valores de t). Elegidos de modo adecuado. Una respuesta a a esto ultimo son las bases (duales de las formas lineales que definen el problema de inter´ polaci´n) las cuales permiten escribir el polinomio soluci´n habitualmente del siguiente o o modo: n n+k−1 i=n+1 Pn. .1. n forman una base del espacio vectorial de los splines de grado k definidos sobre la partici´n o {a = t0 . o 62 . . . tn−1 . t1 . independientemente del punto t donde queramos evaluar Pn. u A estos splines de soporte m´ ınimo se les llama B-splines.2: Spline con soporte peque˜o. con el consiguiente consumo de recursos. etc. e3 (t) t0 t1 t2 t3 t4 t5 t6 Figura 4. . ti+1 ] (ver figura 4. haya que extender los sumatorios desde i = 0 hasta i = n + k − 1. tengan soporte m´ ıa e3 (t) t0 t1 t2 t3 t4 t5 t6 Figura 4. como podemos observar en la figura 4.k (t). que se pueden referir a ciertos valores de la derivada. t2 . Ello obliga a que.1: Dual de L3 tal que L3 (S) = S(t3 ).

1. tendr´ en su punto final derivada nula y valo nulo. Dos de ellas proceden del hecho de que sea un spline: grado clase orden 10 9 grado k de cada uno de los tramos polinomiales que forman el spline.5. tenemos 2 · k condiciones m´s. no os parece?.1 Orden r de un B-spline es el n´mero de tramos en los que el B-spline o u es no nulo. a su vez el segundo tramo. asociado a los mismos es una funci´n polin´mica a o o trozos de grado k. de clase k − 1 en [a. tn−1 . o 63 . .Definici´n 4.3 que lo hemos conseguido. a El primer punto de esa par´bola vale cero y tiene derivada nula. b. ti+r ) ⇒ Bik (t) = 0 Cuando hablamos de un B-spline manejamos siempre tres ideas. e3 (t) t0 t1 t2 t3 t4 t5 t6 Figura 4. Una vez fijado el valor de la funci´n a a o en ese punto de enganche. si lo que tenemos es un spline parab´lico. creo que es demasiado pedirle a una par´bola. por tanto el m´ ınimo r con sentido es r = k + 1. y c. En el primer tramo. Me o explico. Construiremos una base de este espacio vectorial de polinomios. Si el spline es no nulo o en r tramos. tn }). t2 .5. Si adem´s queremos que la imagen a a del ultimo tramo sea distinta de cero y valga no se cuanto. con lo a u a ıa que el n´mero de par´metros se reduce de r + k a r − k. y permiten abordar de modo sencillo los u problemas de interpolaci´n spline con este tipo de funciones de base. las expresiones que damos son de muy com´n uso.2 Dado el conjunto de nodos o t−r+1 < · · · < t−1 < a = t0 < t1 < t2 < · · · < tn−1 < tn = b Un B-spline de orden r = k + 1. y luego vuelva a ser cero con continuidad en la funci´n y en su derivada. que viene definida por tres coeficientes a. que ya viene fija por el otro tramo. Parece por la figura 4. el B-spline ser´ 10 11 nulo . t1 . a o 11 Por tanto el orden r de un spline parab´lico -k = 2. u Por ejemplo. siguiendo las siguientes convenciones 12 : t ∈ [ti . Calculemos el orden 9 r de un B-spline en funci´n de su grado k.3: Spline que no puede ser spline. y por tanto su derivada en ese punto valdr´ lo que valga. a con lo que s´lo quedar´ un par´metro libre: el valor de la funci´n en el enganche. Sin o ´ embargo. Por continuidad hasta el orden p = k − 1 del spline en los dos extremos donde se hace nulo. desde cuando una par´bola tiene un punto de inflexi´n?. . n´mero r de tramos en los cuales el spline es no nulo. si es un spline de grado k. tenemos una par´bola. . . Si adem´s queremos o a a o a que haya continuidad en la derivada. b] y de soporte m´ ınimo. pero fijaos bien en cada a uno de los tramos. Definici´n 4.es r = k + 1 = 3 o 12 Esta forma de construcci´n de una base de B-splines del grado que sea no es la unica posible. no podemos conseguir con s´lo dos tramos o o que sea distinto de cero. ya tendremos completamente definida la ´ par´bola. ti+r ) ⇒ Bik (t) ≥ 0 / t ∈ [ti . en principio hay r + k par´metros libres (como si la partici´n en la que a o estuviese definido fuese {t0 . su clase p es k. Si r − k = 0.

r = k + 1 Disponemos de una formulaci´n recurrente que nos permite obtener la expresi´n de una o o base de B-splines de grado k en funci´n de la correspondiente a k − 1. r = 1 B i (t) [ 0 [ 1 a = t0 t 1 ti t i+1 t n-1 tn = b Figura 4.5. r = 2 El soporte de cada elemento de la familia es de dos tramos.5: B-spline de grado 1. Para grados m´s altos. Si os i+1 0 i 1 a fij´is Bi (tj ) = δj y Bi (tj ) = δj . a 64 . ti+1 ) / 1 t ∈ [ti .32) 4.4: B-spline de grado 0.5. ti+2 −ti+1 t ∈ [ti .2 B-splines de grado 1. k = 0. t ∈ [ti . ti+1 −ti ti+2 −t . ti+1 ) Bi0 (t) = (4.33) Bi1 (t) =  4. esto no pasa.1 B-splines de grado 0. ti+2 ) (4. ti+2 ) / t ∈ [ti . k = 1.3 B-splines de grado k.               0.4. t−ti . como luego veremos. La base estar´ formada por a 13 n + k = n + 1 splines. 0. para completar los nodos en los cuales n se van a apoyar los splines que formar´n nuestra base14 a 1 B-1(t) 1 B i (t) 1 1 1 Bn-1(t) 1 t-1 t 0 t1 t i t i+1 t i+2 t n-1 tn Figura 4.34) El valor t−1 correspondiente a ese nodo adicional es arbitrario. ti+1 ) t ∈ [ti+1 . A˜adimos un punto antes . o Bik (t) = 13 14 t − ti ti+k+1 − t k−1 Bik−1 (t) + Bi+1 (t) ti+k − ti ti+k+1 − ti+1 (4.5. Los B-splines de grado cero coinciden en cierta medida con una base de splines cardinales.

a 2/3 Bi3 1/6 1/6 t i-1 ti t i+1 t i+2 t i+3 t i+4 t i+5 Figura 4.              1 [h2 2h2 1 (t 2h2 i+3 t ∈ [ti .   0.4.4 B-splines de grado 2 en una partici´n equiespaciada.5 B-splines de grado 3 en una partici´n equiespaciada. r = 3 Usando esa f´rmula recurrente. 4. t ∈ [ti+2 . podemos obtener f´cilmente la expresi´n corresa o pondiente a un elemento de un sistema de B-splines de este tipo. r = 4 Se puede usar otra vez la f´rmula recurrente para obtener la expresi´n anal´ o o ıtica de cada uno de los cuatro tramos del B-spline c´bico gen´rico.7: B-spline de grado 3.6: B-spline de grado 2. pero nos limitaremos a dar en la u e figura 4. t ∈ [ti+1 .        1    2h2 (t − ti )2 . ti+3 ) / t ∈ [ti . ti+2 ) − t)2 . k = o 2. 65 .7 sus valores en los nodos. k = o 3. En cada caso cada uno de estos tramos se obtiene f´cilmente.5. ti+1 ) (4. ti+3 ) B i (t) 1/2 2 3/4 t i-1 ti t i+1 t i+2 t i+3 t i+4 Figura 4.35) Bi2 (t) = + 2h(t − ti+1 ) − 2(t − ti+1 )2 ].5. y teniendo en cuenta que la partici´n consta de nodos o o equiespaciados entre si -[h = ti+1 − ti ]-.

5. j−1 ai Bik (tj ) = fi . o Ejercicio 4. L´zaro Redondo.37) Se tienen (n + k) inc´gnitas.7 Interpolaci´n con B-splines o Un problema t´ ıpico de interpolaci´n de Lagrange.6 Interpolaci´n en varias variables. el espacio E donde se busca la soluci´n al problema puede ser ıa o un espacio de polinomios en varias variables. . y (n + 1) ecuaciones. sobre la funci´n o sus derivadas hasta el orden que convenga en cada problema.1 Dada la siguiente tabla de valores15 : x0 f0 x1 f1 x2 f2 x3 f3 x4 f4 x4 f4 se pide encontrar los coeficientes ai que permiten escribir de modo unico el spline pa´ rab´lico de interpolaci´n de esa tabla como combinaci´n lineal de la base de B-splines o o o estudiada en el curso. .5. o ´ 15 Propuesto por J. nos conduce a plantear el siguiente o sistema de ecuaciones. Si k = 1.: o n−1 Bik (t) = 1 i=−r+1 (4. y la soluci´n es unica. Se puede deu ıa mostrar que este sistema de splines cumple una propiedad muy importante: son una partici´n de la unidad. . i=j−r+1 j = 0. se har´ de modo similar. Si k > 1 hay que imponer condiciones adicionales. Soluci´n: o a−2 = 2(f0 − f1 + f2 − f3 ) + f4 − h f4 2 a−1 = 2(f1 − f2 + f3 ) − f4 + h f4 2 a0 = 2(f2 − f3 ) + f4 − h f4 2 a1 = 2f3 − f4 + h f4 2 a2 = f 4 − h f 4 2 a3 = f 4 + h f 4 2 4. 0 sea. a 66 . n (4. los ai . y se le imponen determinadas condiciones a un polinomio que pueden dar lugar o no a una soluci´n unica.5.36) 4. Por ejemplo. .6 Partici´n de la unidad o Para construir una base de B-splines c´bicos. o La generalizaci´n a varias variables se puede hacer de modo natural teniendo en cuenta la o teor´ general. el sistema es o o ´ determinado.4.

1 Interpolaci´n en recintos rectangulares o Podemos hacer un an´lisis interesante en dos variables planteando el problema de ina terpolaci´n de Lagrange en una malla rectangular en cuyos nodos se sabe el valor de la o funci´n a interpolar f : Sea o G = {(x. el tratamiento a de cada problema es diferente.7 Referencias recomendadas para este tema. c ≤ y ≤ d} Esto define (m+1)(n+1) nodos (xi . yj ) = f (xi . y) = 0≤i≤m.38) Cuando el recinto no es rectangular o las condiciones son m´s complicadas. o a o 67 . yj ) que est´n dentro del recinto rectangular.0≤j≤n f (xi .6. y adem´s se escribe en funci´n de la base de Lagrange para cada una de las ´ a o variables y su familia de nodos correspondiente. P (x.4. El libro de H¨mmerlin et al. y) ∈ I R y sean dos familias de nodos a = x0 < x1 < · · · < xm = b. 4.[7] cubre bien la parte de splines y el texto de Kincaid[8] a hace una aproximaci´n cl´sica al problema de interpolaci´n. 0 ≤ j ≤ n Se puede demostrar bastante f´cilmente que este problema tiene soluci´n y esa soluci´n a o o es unica. yj )li (x)lj (y) (4. c = y 0 < y1 < · · · < y n = d 2 |a ≤ x ≤ b. 0 ≤ i ≤ m. yj ). Entonces a el problema de interpolaci´n de Lagrange consiste en buscar un polinomio en dos variables o P ∈ Pmn tal que: P (xi .

). Sus diferentes extensiones o o (polinomios a trozos. o 5. Como ya e o hemos comentado. o o • Las funciones de aproximaci´n deben ser simples en el sentido de que puedan ser manipuladas (integradas. Pero hay otras familias que cumplen satisfactoriamente las tres exigencias o anteriores. La norma ∞ de la convergencia uniforme o de Chebyshev. e El teorema cl´sico de aproximaci´n de Weierstrass establece la utilidad y potencia de a o los polinomios como herramienta para la aproximaci´n de funciones continuas. por ejemplo. diferenciadas. e o • Dada una funci´n. a ıan o Para el analista num´rico las funciones de aproximaci´n deben poseer ciertas propiedades. elementos de a o espacios funcionales de dimensi´n infinita (fundamentalmente C([a. que var´ en general en espacios de dimensi´n finita. • Debe existir un cuerpo de teor´ bien desarrollado que permita el an´lisis de los ıa a algoritmos num´ricos que resulten de su uso. las normas p p ≥ 1 de las que 2 es de espacio prehilbertiano (espacio vectorial con un producto . o Se formula el problema general de aproximaci´n en espacios vectoriales normados ya que o la m´trica asociada a la norma permite medir la calidad de la aproximaci´n. el espacio de base es C([a. b]) al que se le suministrar´n diferentes a normas. enriquecen las familias de funciones que se usan en aproximaci´n. etc. debe ser posible aumentar arbitrariamente la bondad de las aproo ximaciones.1 Introducci´n o Nuestro objetivo fundamental ser´ investigar la aproximaci´n de funciones. e 5. las funciones trigonom´tricas.. splines. b])) mediante funo ciones m´s simples. y los o convierte en una elecci´n ideal de funciones de aproximaci´n.2 El problema general de aproximaci´n.Cap´ ıtulo 5 Aproximaci´n de funciones..) con facilidad. incrementando adecuadamente la dimensi´n del espacio de las funciones o de aproximaci´n.

Recordemos que estas normas poseen la propiea dad siguiente: Si f. 0. cumplen x • (C([a. g >= y cuya norma asociada es a b f = a w(x)f 2 (x)dx Las normas estrictas ser´n importantes.1 Toda norma asociada a un producto escalar es estricta ya que en la desigualdad de Schwarz. y = (1. b]). Se comprueba que λ es siempre real y positivo y se verifican adem´s las siguientes a propiedades: • (C([a. • 2 es una norma estricta en Cn . 0). b) → R. antes 1+x 1 1) ∞ = 1. I • (R3 .2. 69 . < f. 1. a ∞ ) no est´ estrictamente normado x = (1. 0) linealmente independientes. g >≤ f g se produce la igualdad cuando f y g son linealmente dependientes e igual sucede con la desigualdad triangular. Con las mismas f y g de a 1 0 = (1 + x)dx = 3 = 1 2 1 + x 1 = 1 0 dx + 1 0 xdx = 1 + 1 2 Teorema 5. b]) a f +g =1+b= f + g y son linealmente independientes. satisfacen ) no est´ estrictamente normado f (x) = 1 y g(x) = x (∀x ∈ [a.escalar definido positivo) y otras normas asociadas a distintos productos escalares con ”peso” w : (a. g ∈ (V. b]). y ∞ =1 y x+y ∞ =2 tampoco est´ estrictamente normado. b) con 0< definidos por b b a w(x)dx < ∞ w(x)f (x)g(x)dx < f. w(x) > 0 para x ∈ (a. g = 0 cumplen que f +g = f + g entonces existe λ ∈ K(= R o C) con g = λf . ) f = 0.

3.3. Sea v la 1 ˆ funci´n constante v(x) = 2 .a.5.2 Si T es una bola abierta de centro (0.3.3. Hallar una m. Definici´n 5. 1] 2 sea m´ ınimo para todo u ∈ T . La diferencia entre los ejemplos anteriores radica en si T posee o no la propiedad de compacidad. ) un espacio vectorial normado.2 . d(y. u ∈ T de v equivale a hallar β > 0 tal que: o ˆ v−u ˆ ∞ 2 (∀u ∈ T ) y sea T = {x ∈ V : x ≤ 1}. que denotaremos como es habitual d(v. o n Definici´n 5. En el ejemplo 5. β > 0}.3.3 Un elemento u ∈ T es la mejor aproximaci´n de v en T si o ˆ o v − u ≤ d(v.1 Un elemento u ∈ T es una mejor aproximaci´n (m.3.3 Sean (V. Definici´n 5. Para todo y ∈ R2 − T 2 ≤ y−x 2 (∀x ∈ T ).3. T ) = 2 . T ) = inf u∈T v−u Este n´mero que siempre existe ya que el conjunto { v − u . 1] 2 2 para un β fijo esa diferencia es mayor cuando x = 1 y el m´ ınimo de exp(β) − 1 para 2 β > 0 no existe (si β ≥ 0 el m´ ınimo se alcanzar´ para β = 0) luego al igual que en ıa el ejemplo 5. = 1 max ˆ − exp(βx) x ∈ [0. u(x) = exp(βx). como d(v. T ) = y − 1 aunque no haya x ∈ T donde se alcance esa ˆ 1 distancia. T ) ˆ En el ejemplo 5.2 Se define la distancia de v a T o separaraci´n m´ o o ınima de v y T .3. Parece razonable decir que u ∈ T es una buena aproximaci´n de v si la distancia v − u es peque˜a. 70 . d(v.2 no existen mejores aproximaciones. 1]). 0) y radio unidad.1 Supongamos V = R2 . ∞ ) y T = {u ∈ V . pero v−u ∞ = 1 1 max − exp(βx) = exp(β) − x ∈ [0. y − x 2 ≤ y − x 2 .3 Mejor aproximaci´n o Sea (V. T una parte arbitraria de V y v un elemento de V que se desea aproximar mediante elementos de T . ) = (C([0. ˆ Ejemplo 5. T ).) de v si o ˆ o v−u ≤ v−u ˆ Ejemplo 5. u ∈ T } est´ minorado por u a cero.3. = existe un solo x ∈ T tal que ˆ y−x ˆ Ejemplo 5.3.a. no existe ning´n x ∈ T tal que u ˆ para todo x de T .

a Teorema 5.4. 1) ∈ R2 . la compacidad y la convexidad estricta. todos los puntos del segmento que los une [u1 .4. de v ∈ V en U . Recordemos que T es convexo si dados dos puntos u1 y u2 cualesquiera de T . soluci´n unica y sin o ´ soluci´n.a. ´ ˆ o 5. luego u es una m. si todos los elementos de [u1 .4 Existencia y unicidad de una mejor aproximaci´n o La posible existencia de una m.2 Si T es compacto y estrictamente convexo en V . a.4. de v en T . T ) siempre va a existir una sucesi´n minimizante. u2 ] son puntos interiores a T (no hay segmentos [u1 . . En los distintos ejemplos hemos vistos casos con dos soluciones. 0 ≤ λ < 1} est´n en T . x2 > 0} ˆ (0. . .1 Si T es compacto en v. a. son propiedades clave para el an´lisis de esos problemas. o pero la convergencia de v − un a d(v. Teorema 5.a. El an´lisis de la unicidad de la m. T ) n→∞ Por la forma de definir la distancia d(v. Como veremos.a.1 Sucesi´n minimizante en T o Una sucesi´n de elementos {un }n∈I de elementos de T ⊆ V se dice que es minimizante o N para v ∈ V si lim v − un = d(v. a 5. de v en T .4. toda o o sucesi´n {un } y en particular toda sucesi´n convergente a un valor de adherencia u∗ de ∗ {un } que est´ en T . para todo v ∈ V existe un unico u ∈ T mejor aproximaci´n de v en T . T ) no exige en conjuntos T arbitrarios que {un } converja a un elemento de T ni aun siquiera a uno de V . Ejemplo 5. . siempre existe una m. u2 ] = {λu1 + (1 − a a λ)u2 . exige considerar las propiedades de o a convexidad estricta de T . as´ como su eventual unicidad dependen de las ı propiedades que posea T . u2 ] contenidos en la frontera de T ).5.1 ˆ Consideremos ahora T = T − T ∗ con T ∗ = {x ∈ T : x1 > 0. 1) y (1. T es adem´s estrictamente convexo.5 Aproximaci´n lineal o El caso m´s importante y unico que vamos a considerar a partir de ahora es cuando a ´ T = U subespacio vectorial de V de dimensi´n finita envoltura lineal de la familia libre o {u1 . un }. pero en un compacto T . 0) son mejores aproximaciones en T de (1. se reduce a hallar n u= ˆ i=1 α i ui 71 . El problema de hallar una m.

el problema de la determinaci´n de o una mejor aproximaci´n u ∈ U de v ∈ V tiene soluci´n unica.5. αn ) ∈ Rn . de v ∈ V en U o bien es unica o bien existen infinitas. .6.n.a.a. existen subespacios vectoriales de dimensi´n finita de o o ´ (C([a. 5.2 Unicidad de la m. en la aproximacion lineal. Sin embargo. para cada elemento v ∈ V existe al o menos una mejor aproximaci´n u ∈ U . es importante considerar las aproximaciones o a n en la norma 2 en las que el error global es importante y conllevan un proceso de suavizado (reducci´n del efecto de errores aleatorios.5. (C([a. ´ A pesar de su importancia.2. . . Lema 5. la mejor aproximaci´n de v ∈ V desde un subespacio a o arbitrario de dimensi´n finita es unica. Por otro lado.2 y del teorema 5. .1.1 Existencia de una m.1 Aproximaci´n en espacios prehilbertianos.) 72 . Adem´s de las aproximaciones en la norma del m´ximo que consideraremos m´s adea a a lante.5. ∞ ) para los que la mejor aproximaci´n es unica. en las que el objetivo es conseguir que la m´xima desviaci´n entre la funci´n y su a o o aproximaci´n sea lo m´s peque˜a posible. a ∞ ) no est´ estrictamente normado por lo que no podremos establecer conclusiones de unicidad basadas exclusivamente en las propiedades de las normas. o General. o ˆ Consecuencia del lema anterior y de que U es cerrado.5. . luego {un } tiene al menos un valor de adherencia que est´ en U .6 5. . . u) = v − ˆ sea m´ ınima para todo (α1 . a Teorema 5.tal que d(α1 . as´ como L ([a. Si U es un subespacio de V de dimensi´n finita.a. . αn ) = d(v. b]).v. aspecto m´s suave de la funci´n o a o entre nodos. en subespacios de dimension finita. o ˆ o ´ Este corolario se deduce de 5. o ´ Corolario 5. se puede demostrar p que Cn con la I a ı p est´ estrictamente normado.5. n α i ui i=1 El concepto de acotaci´n (mucho m´s simple que los conceptos de compacidad y convexo a idad estricta antes usados) es aqu´ suficiente para analizar las sucesiones minimizantes ı en U .1 Toda sucesi´n minimizante en U est´ acotada o a Teorema 5. etc. Si V est´ estrictamente normado. cualquiera podemos asegurar en general que la m.5. b]) y C([a. b]) para p con 1 < p < ∞ (excluimos los casos p = 1 y p = 2).2 En un espacio prehilbertiano V .1 En un e. b]). Corolario 5.

En efecto.1 Teorema de Caracterizaci´n. > y de su norma asociada y sea U un subespacio vectorial de dimensi´nfinita de V . gn implica que la matriz de Gram asociada es regular. ˆ Si < f − f . . . . g = 0 ˆ = (f − f ) − g ˆ f −f 2 2 ˆ = f −f 2 2 + g 2 ≤ f −g (∀g ∈ U ) La unicidad es consecuencia de la propiedad estricta de la norma. descompongamos g en la forma ˆ g =f +g como y por hip´tesis. c = (ˆ1 . . .6. g >= 0 para todo g ∈ U . el problema de la deteru minaci´n de una mejor aproximaci´n u ∈ U de v ∈ V tiene soluci´n unica. . n ˆ cj < gj . o . . en un espacio prehilbertiano V . gk >=< f. ˆ Supongamos que U = L(g1 . gk > ˆ j=1 La soluci´n de las ecuaciones normales es siempre unica ya que la independencia lineal o ´ de los vectores g1 . entonces o f −g luego 2 ˆ (g = g − f ) ˆ (f − f ) − g 2 ˆ ˆ = (f − f ) − g . . gk >=< que se pueden escribir en la forma n n j=1 cj gj − f.6. . .2 Caracterizacion de la mejor aproximaci´n. g >= 0 para todo o ˆ ˆ g ∈ U (f − f ∈ U ⊥ ). Falta comprobar que esas condij=1 ˆ ciones de ortogonalidad permiten calcular f . o ˆ La mejor aproximaci´n f de f ∈ V en U se caracteriza por < f − f . gn ) y f = n cj gj . o o ˆ o ´ Teorema 5. o Seg´n hemos establecido antes. Sea V un espacio vectorial provisto de un producto escalar < . gk >= 0 k = 1. . . . cn ) debe ser soluci´n ˆ c ˆ o del sistema de ecuaciones ecuaciones normales: ˆ < f − f. (f − f ) − g ˆ (f − f ). . 73 .5. . .

1]). gk >=< f. Las ecuaciones normales se reducen entonces a ck < gk . gk > ˆ k = 1. Para gj = xj−1 < gi . . . gk > ˆ por lo que ck = ˆ < f.6. ˆ Corolario 5. dimensi´n que lueqo fijamos en o o base a la exactitud deseada. . el tratamiento del problema mediante las ´ ecuaciones normales es desde el punto de vista computacional intratable. . . . . gk > < gk .f U åc $ f$ = å c j × g j j × gj Figura 5. . n Como ck no depende de los valores anteriores cl (l < k) nos planteamos el problema de ˆ ˆ aproximaci´n dejando la dimension de U indeterminada. . 2 ).1 El error f − f satisface la relaci´n o ˆ f −f 2 = f 74 2 ˆ − f 2 . . Para n > 5 o 6. gk > k = 1. gj >= 1 i+j−1 y la matriz asociada a las ecuaciones normales es la archifamosa mal condicionada matriz de Hilbert. . gn } de U ortonormada.1: Proyecci´n ortogonal o Comentarios • La soluci´n unica del problema de aproximaci´n planteado es la proyecci´n ortogo ´ o o onal de f sobre U (completo por ser de dimensi´n finita). En este caso la soluci´n de las ecuaciones normales es simplemente o ck =< f. Un caso especialmente favorable se produce cuando esa base ortoqonal. o • En (L2 ([0. n Utilizando el metodo de Gram-Schmidt siempre podemos construir una base {g1 . .

f >=< f − f. f >= 0 ˆ Ese error f − f se puede calcular f´cilmente usando el corolario y la igualdad a ˆ f 2 ˆ ˆ ˆ ˆ ˆ =< f − f + f. En este a e caso se llama desigualdad de Bessel. gk >. f > 1 2 luego ˆ f −f = n f − cj < f. . . ı 2 ) es un espacio prehilbertiano. n luego: ˆ n 0≤ f y n i=1 2 − ˆj c2 i=1 c2 ≤ f ˆj 2 desigualdad v´lida tambi´n para sistemas ortonormados infinito numerables. . ∞ i=1 c2 ≤ f ˆj 2 75 . Se suele aqu´ promediar el error f − f sobre todo el intervalo. .3 Error cuadr´tico medio a 2 2 ˆ (C([a. b]). gn } es una base ortonormada de U . ck =< f. . gj > ˆ i=1 Si {g1 . f 2 ˆ ˆ = (f − h) + h 2 concluye recordando que ˆ ˆ < f − f . La f´rmula de la desviaci´n a o o ˆ f −f = implica la desigualdad n n 1 2 f 2 − cj < f. gj > ˆ i=1 0≤ f 2 1 2 − cj < f. .En efecto. La cantidad resultante ˆ f −f 2 µ= √ b−a se llama el error cuadr´tico medio. . k = 1. f > ˆ f −f ˆ − f 2 ˆ de modo que (f − f es ortogonal a f ∈ U ) 2 = f 2 2 = f 2 ` − < f. gj > ˆ i=1 5.6. . f > + < f.

. son la mejor aproximaci´n a o de la funci´n nula en [−1. 2.6. L3 (t) = (5t − 3t). Dos comentarios interesantes sobre estos polinomios: ˆ ˆ • El polinomio Ln tiene norma m´ ınima en el sentido que ˆ Ln 2 para todos los polinomios p de εn donde ≤ p 2 εn = {p ∈ Pn : p(x) = xn + an−1 xn−1 + · · · + a0 } • Los polinomios de Legendre con coeficiente m´ximo 1. .4 Polinomios ortogonales Polinomios de Legendre En C([−1. j = 1. . n) ˆ y por tanto. pero incluiremos la f´rmula de Rodrigues que nos da los polinomios de Legendre o normalizados 1 2n + 1 dn (t2 − 1)n Ln (t) = n 2 n! 2 dtn Por ejemplo. c ˆ 1≤k≤n ˆ ˆ p = c 1 g 1 + · · · + c n gn ˆ (j = 1. ´ o a ˆ Ln = f − (ˆ1 g1 + · · · + cn gn ) c ˆ < f − (ˆ1 g1 + · · · + cn gn ). 1] respecto a la norma andamos buscando el polinomio 2 L2 (t) = cuyos coeficientes ci son soluci´n de las ecuaciones normales ˆ o La unica soluci´n de este sistema es el polinomio de Legendre con m´ximo coeficiente 1. . gk >= 0. 2. Buscamos un sistema {Lj } de polinomios con Lj ∈ Pj que satisfacen las condiciones < Li . . . 76 . . Lj >= δij para i. Si consideramos el problema de hallar el polinomio p en Pn−1 que mejor aproxime ˆ al monomio xn en [−1. 2 2 2 2 etc. 1]) definimos el producto escalar habitual < f. . 1 3 L0 (t) = √ . 1]).5. No entraremos aqu´ en el proceso de la determinaci´n de los polinomios de Legendre ı o Ln . p = f − Ln . 1] respecto a la norma o 2. o La familia de polinomios que se obtienen cuando aplicamos el m´todo de ortonormale izaci´n de Gram-Schmidt a la familia libre o gj (x) = xj−1 se denominan polinomios de Legendre. n. g >= 1 −1 f (x)g(x)dx (relativo a la funci´n peso w(x) = 1 en [−1. L1 (t) = t 2 2 1 5 2 1 7 3 (3t − 1).

Tj >=   π si i = j = 0 π 2 1 −1   0  En efecto.1.Los polinomios de Chebychev revisados En C([−1. Tj >= si i = j y < Ti . pongamos x = cos ϕ < Ti . 1] por Tn (x) = cos(n arccos x) son ortogonales respecto a ese producto escalar5. 1−x2 forma un sistema ortonormado completo en [−1.1) Los polinomios de Chebychev se definen en [−1. Obtenemos una familia ortonormal 2 1 completa relativa al producto escalar de peso √1−x2 poniendo: Ti T0 . π π Ti 2 √ 1 . T0 Ti es decir. Tj >= 1 −1 Ti (x)Tj (x) √ dx = 1 − x2 π 0 π 0 cos iϕ cos jϕdϕ = 0 Ti (x)Tj (x) √ dx = 1 − x2 cos2 iϕdϕ = π si i = 0 π si i = 0 2 si i = j. a si i=j si i = j = 0 < Ti . g >= (relativo a la funci´n peso o w(x) = √ en [−1. 1 −1 f (x)g(x) √ dx 1 − x2 1 1 − x2 (5. 1 √ T0 . 1]) definimos el producto escalar < f. 1]). m´s precisamente. luego T0 2 = π y Ti 2 = π si i = 0. 1] respecto a la funci´n peso o polinomios de Chebychev se definen recursivamente como: T0 (x) = 1 T1 (x) = x Tn+1 (x) = 2xTn (x) − Tn−1 (x) para n ≥ 1 77 Los .

1]) admite un desarrollo en serie de o Fourier del tipo c0 cn Tn f= + 2 n∈I N donde la sucesi´nde sumas parciales. 1 = T0 x = T1 1 x2 = (T0 + T2 ) 2 1 (3T1 + T3 ) x3 = 4 1 (3T0 + 4T2 + T4 ) x4 = 8 1 x5 = (10T1 + 5T3 + T5 ) 16 1 x6 = (10T0 + 15T2 + 6T4 + T6 ) 32 1 x7 = (35T1 + 21T3 + 7T5 + T7 ) 64 1 x8 = (35T0 + 56T2 + 28T4 + 8T6 + T8 ) 128 1 x9 = (126T1 + 84T3 + 36T5 + 9T7 + T9 ) 256 • Insistamos en que toda funci´n f ∈ C([−1. o n ˆ (x) = c0 + fn ck Tk (x) 2 k=1 con ck = 2 π 2 = π 1 = π 1 −1 π 0 π −π f (x)Tk (x) √ dx 1 − x2 f (cos ϕ) cos kϕdϕ f (cos ϕ) cos kϕdϕ 78 .Las formas expl´ ıcitas para los primeros Tn son las siguientes: T2 (x) T3 (x) T4 (x) T5 (x) T6 (x) = = = = = 2x2 − 1 4x3 − 3x 8x4 − 8x2 + 1 16x5 − 20x3 + 5x 32x6 − 48x4 + 18x2 − 1 y la expresi´n de los monomios de menor grado en funci´n de la base de Chebychev es o o la siguiente.

±n φk (t) = ejkw0 t = cos (kw0 t) + jsen (kw0 t) Ortogonalidad de la base. φ m = 0 φk (t)φm (t)dt = 0 ejkw0 t e−jmw0 t dt = T 0 ej(k−m)w0 t dt 79 .5 General Desarrollo en serie de Fourier de una funci´n peri´dica. • Con la hip´tesis. dichos coeficientes nunca se calculan mediante integraci´n expl´ a o ıcita. T ]. en o o la norma del m´ximo p ∈ Pn tomando la suma parcial a ˆ n c0 ˆ fn (x) = ck Tk (x) + 2 k=1 Este m´todo es particularmente util cuando los ck son f´cilmente calculables. dada 2 una funci´n f ∈ C ([−1. y su frecuencia asociada. funciones de cuadrado integrable. 1]).a.±2. T ]. g = 0 f (t)g(t)dt El subespacio vectorial donde se busca la mejor aproximaci´n ser´: o a T = L (φk (t))k=0. e o e 5. x + T ] o El producto escalar del que se deriva la norma: T f. 1]). sino utilizando t´cnicas de integraci´n num´rica. 2π w0 = T 2 El espacio ambiente es E = L ([0.suministra aproximaciones a f que convergen en la norma asociada al producto escalar con peso w considerado. o o Vamos a estudiar el desarrollo en serie de Fourier de una funci´n peri´dica como un caso o o particular de aproximaci´n en espacios prehilbertianos. Este resultado es de especial inter´s ya que.···. que toman I valores en los complejos.6. Se consideran solamente en el periodo [0. aunque es indiferente la selecci´n del periodo considerado [x.±1. Una funci´n se dice peri´dica de o o o periodo T si f (x + T ) = f (x) El menor de los periodos se llama periodo fundamental. En la e ´ a pr´ctica. frecuencia fundamental. Vamos a ver que este es un sistema ortogonal cuando usamos el producto escalar anterior: T T φk . se prueba que esta sucesi´n de aproximaciones o o converge a f respecto a e ∞ . f ∈ C 2 ([−1.C). se puede obtener una buena estimaci´n de la m.

g = C´lculo de la mejor aproximaci´n. 2n + 1. n T f (t)g(t)dt f = m=−n ∗ cm φm Como f ∗ es la proyecci´n ortogonal de f sobre T . . o o f ∗ ser´ real si y solamente si: a f∗ = f∗ ⇔ f∗ − f∗ = 0 n k=−n n ck φk − ck φk k=−n = = φk = φ−k n k=−n n n ck φk − ck φk − k=−n n k=−n ck φ−k c−k φk = k=−n 80 . independientemente del punto en el que empiece. para −n ≤ k ≤ n: o n f − f ∗ . φk = f. como E es prehilbertiano. el nuevo producto escalar ser´ ıa: x+T =   {k = m}  . a o Para aproximar una funci´n f ∈ E en T . φk m=−n Y usando la bilinealidad del producto escalar y la ortogonalidad del sistema. f. al trabajar con las integrales. f ∗ . las extenderemos a un periodo. φk = f. T 0 dt = T T 0  {k = m} 1 ej(k−m)w0 t j(k−m)w0 = {w0 T = 2π} = 0 f. entonces. es unica y es la proyecci´n ortogonal de f o ´ o sobre T . g = x f (t)g(t)dt A partir de ahora. y T tiene dimensi´n o o finita. y lo notaremos as´ ı.Se deja como ejercicio el que comprob´is que si el intervalo de integraci´n para el proe o ducto escalar se traslada. la mejor aproximaci´n existe. llegamos a que: 1 f (t)e−jkw0 t dt ck = T T Condici´n para que la mejor aproximaci´n sea real. φk ⇔ cm φm . Se trata de encontrar los coeficientes ck que permiten expresar f ∗ en la base de T . O sea. la familia de funciones sigue siendo ortogonal. φk = 0 ⇔ f ∗ .

Veamos en qu´ se convierte dicha serie de Fourier. si como parece razonable. y su serie de Fourier es tambi´n real. O sea. n e e ck = 1 f (t)e−jkw0 t dt T T 1 = f (t)cos (kw0 t) dt − j T T = Ak + jBk Ak = T f (t)sen (kw0 t) dt Por tanto: Como c−k = ck . la mejor aproximaci´n es entonces real: o ck = 1 T 1 T 1 T 1 T ck 1 T T f (t)e−jkw0 t dt c−k = = = = = T f (t)ejkw0 t dt f (t)cos (kw0 t) dt + j f (t)cos (kw0 t) dt − j f (t)e−jkw0 t dt T T f (t)sen (kw0 t) dt f (t)sen (kw0 t) dt T T T Por tanto. y por tanto: n ck φk (t) k=−n 1 n = c0 + k=−n n ck φk (t) + k=1 n ck φk (t) ck φk (t) k=1 n = c0 + k=1 n c−k φ−k (t) + ck φ−k (t) + = c0 + k=1 ck φk (t) k=1 81 . c−k f ∗ (t) = 1 f (t)cos (kw0 t) dt T T 1 Bk = − f (t)sen (kw0 t) dt T T = Ak − jBk . o o Veamos. c−k = ck .n = k=−n (ck − c−k ) φk = 0 ⇔ ck = c−k C´mo es la mejor aproximaci´n si f es real. que la serie de Fourier e de una se˜al real es tambi´n real.

. yi )i=0. . xn ) aproximen los valores (y0 .6 Aproximaci´n discreta: m´ o ınimos cuadrados. con el producto escalar habitual en los espacios vectoriales: R n a. Es muy com´n conocer datos de un determinado experimento. . b = i=0 ai · b i ∀a. yn ) o tan bien como sea posible. . debemos o formular nuestro problema en un espacio prehilbertiano adecuado. gm ). .6. gm ).n . Se tienen (xi . Ese espacio va a ser I n+1 . n + 1 pares de valores con abscisas distintas. . Buscamos f ∈ U = L (g1 . Vamos a abordar el m´todo de aproximaci´n por m´ e o ınimos cuadrados que todos conoc´is. . o 5. lo m´s habitual es que la funci´n que se a a o ıtico. Buscamos una funci´n f ∈ L (g1 . . . .n = c0 + k=1 n (Ak − jBk ) e−jkw0 t + (Ak + jBk ) ejkw0 t Ak ejkw0 t + e−jkw0 t + jBk ejkw0 t − e−jkw0 t [Ak cos (kw0 t) − Bk sen (kw0 t)] = c0 + k=1 n = c0 + 2 k=1 En suma: f ∗ (t) = 1 T 2 + T 2 T T n f (t)dt cos (kw0 t) T f (u)cos (kw0 u) du f (u)sen (kw0 u) du) k=1 n + sen (kw0 t) k=1 T Que es el t´ ıpico desarrollo en serie de senos y cosenos de la funci´n f . cuyos valores en (x0 . b ∈ I n+1 R Este producto escalar induce la norma eucl´ ıdea tambi´n habitual. ıticamente mediante otras funHasta ahora hemos aproximado funciones definidas anal´ ciones anal´ ıticas m´s sencillas. . s´lo les vamos a exigir o que sean continuas. e n a 2= a. tal que: n i=0 |yi − f (xi )|2 ≤ n i=0 |yi − g (xi )|2 ∀g ∈ U Como ya hemos comentado. . A este tipo de u o problema nos dedicaremos en esta secci´n. .n . A esa familia de funciones (gj )j=0. para utilizar todo lo que sabemos de aproximaci´n. e discuti´ndolo como un caso particular de aproximaci´n en un espacio prehilbertiano adee o cuado. Sin embargo. . . sino a trav´s de una definici´n e o pretende aproximar no se conozca de modo anal´ puntual. . Para estudiar la bondad de la aproximaci´n definimos la siguiente o medida del error. a = i=0 a2 i 82 ∀a ∈ I n+1 R .

. los vectores o g1 . b] j = 1. . gm son linealmente dependientes. n + 1. entonces los u o ˆ vectores g1 . . elementos de un a espacio vectorial de dimensi´n infinita. . gm )  m m con y = (y0 . gm ) . . gm ) ˆ Escribiendo f como combinaci´n lineal de los vectores g1 . O sea. la soluci´n viene dada o o por la proyecci´n ortornormal del vector que queremos aproximar sobre el subespacio T o donde estamos buscando su mejor aproximaci´n. y sabiendo que esa o comprobaci´n es suficiente hacerla en una base de T .Vamos a jugar. b]. . . . . m con R gj = (gj (x0 ) .  ˆ  . . es mayor que la dimensi´n del espacio. pero el tratar con suficiente precisi´n este tema se escapa a o nuestros contenidos. Para que esto suceda. de dimensi´n finita. . gm . gm deben ser linealmente independientes en I n+1 . Un conjunto o ´ de funciones donde estos problemas siempre tienen soluci´n unica son la base polinomial o ´ formada por monomios. . yn ) Escribimos ese vector como: ˆ f == α j gj =  ˆ αj gj (x0 ) . . . . o R o Estos elementos van a ser las im´genes de estas funciones en los n + 1 puntos del soporte. . envoltura o ˆ lineal de las funciones (gj )j=0. . En un problema de aproximaci´n en un espacio prehilbertiano. . . . . as´ que no nos liamos con esto. . . llegamos al sistema de ecuaciones o normales. . por tanto. cualquier elemento de la envoltura lineal de estos vectores se escribe como: m g= j=1 α j gj Ahora ya no nos interesa encontrar una funci´n continua que pertenezca a U . a Usaremos la siguiente notaci´n: o gj ∈ C[a. ˆ j=1 j=1 Si el n´mero de funciones. . simult´neamente con funciones continuas.n . o ˆ y − f . m. .6. . . Ejemplo 5. gj (xn )) Por tanto. . . . . Hay otras condiciones que garantizan esa independencia. . y la expresi´n de f no es unica. tal que: ˆ y−f 2≤ y−g m j=1 2 ∀g ∈ T = L (g1 . Para ello. . que tiene soluci´n si su determinante es distinto de cero. Estas funciones deben formar lo que se llama un sistema de Chebychev de funciones. . . . . . y es con ellos con los que vamos a montar el ejemplo. no R basta con que las funciones g1 . que la conclusi´n es que el ı o problema tiene soluci´n unica cuando ese determinante es distinto de cero. y con elementos de I n+1 . .1 83 αj gj (xn ) . sino un vector f ∈ T = L (g1 . m gj ∈ I n+1 j = 1. . . gm lo sean en C[a. g = 0 ∀g ∈ T = L (g1 . S´lo o ´ o tiene por tanto sentido estudiar el caso en que m ≤ n + 1. .

cuyos valores en (x0 .6. yn ) tan bien f como sea posible. . 2 ˆ f = α 1 · g1 + α 2 · g2 ˆ ˆ Desarrollando esta expresi´n para j = 1 y para j = 2 llegamos al sistema lineal de dos o ecuanciones con dos inc´gnitas. gj con j = 1. gj = y. ˆ ı 5. xn ) aproximen los valores (y0 . Vamos a estudiar el desarrollo en serie de Fourier de una funci´n peri´dica definida de o o modo discreto como un caso particular de aproximaci´n por m´ o ınimos cuadrados. . . . g2 (xn )) = (x0 . . 84 . Esas dos funciones van a ser los monomios de grado 0 y 1: g1 (x) = 1 y g2 (x) = x. . . . Buscamos una funci´n o ˆ ∈ L (g1 . .7 General Desarrollo en serie de Fourier de se˜ ales peri´dicas defin o nidas de modo discreto. . xn )) que son claramente linealmente independientes. . Por tanto: g1 = (g1 (x0 ) .n .6.Se tienen (xi . . El sistema de ecuaciones normales queda como: ˆ y − f . La funci´n f es la ˆ ˆ o ˆ recta de m´ ınimos cuadrados. se supone que se ha seguido el razomiento general. Imaginemos que tenemos una muestra discreta equiespaciada. . . . g2 ). 1)) g2 = (g2 (x0 ) . . . no insisti´ndose e sobre esos conceptos previos. . . o n n α1 · (n + 1) + α2 · ˆ ˆ n xi = i=0 n i=0 n yi yi · x i α1 · ˆ i=0 xi + α 2 · ˆ x2 = i i=0 i=0 que resueltas convenientemente nos dan los valores α1 y α2 buscados. . . . Ejercicio 5. n+1 pares de valores con abscisas distintas. .1 Demostrar que el centro de gravedad de esta nube de puntos esta en la ˆ ˆ recta f = α1 + α2 x as´ obtenida. . Para entender esta parte. . . yi )i=0. g1 (xn )) = (1. Dicha muestra discreta ym . . 2 O lo que es lo mismo: Como ˆ f . . se dice de periodo N si: ym+N = ym 1 1 el sub´ ındice m no coincide en general con la abscisa xm correspondiente al valor ym . gj = 0 con j = 1. . .

k varia en − n´mero. el subespacio donde se buscar´ la mejor aproximaci´n ser´ la envolvente de a o a a lo sumo N de estas funciones consecutivas. · · · . φk (−N ). · · ·) Es f´cil ver que esta se˜al discreta tiene como periodo N a n φk (m + N ) = ejkw0 (m+N ) = ejkw0 m ejkw0 N = ejkw0 m ejk2π = ejkw0 m = φk (m) Por tanto. · · · . φk+N (m + N − 1)) = = = = ej(k+N )w0 (m) . o 2π N Vamos a aproximar por m´ ınimos cuadrados esta se˜al con funciones de la familia: n w0 = φk (t) = ejkw0 t = cos (kw0 t) + jsen (kw0 t) con k ∈ Z. 0. φk (m).2: Muestra discreta peri´dica equiespaciada. φk (m + N − 1)) Por la misma raz´n resulta que s´lo hay N vectores distintos: o o φk+N = (φk+N (m). · · · . · · · . φk (N ).···. 0. · · · . ejkw0 (m+N −1) ej2π(m+N −1) ejkw0 (m) ejN w0 (m) . · · · . por ejemplo: φk = (φk (m). · · · . o sea se aproxima con N funciones φk . Su representaci´n discreta es un vector con el siguiente aspecto: o φk = (· · · . u N 2 . · · · .±1. · · · . por comodidad. 85 N 2 donde [ ] denota la parte entera de un .N=4 Figura 5.±2. En ese caso las funciones se suelen indexar as´ ı: Si N es par. cuando el n´mero de funciones coincide o u con el de puntos que definen cada periodo discreto. k varia en − N .±n Caso interesante es el de interpolaci´n. · · · . ejkw0 (m+N −1) ejN w0 (m+N −1) Por tanto. N − 1 2 2 Si N es impar. basta con considerar este vector en un periodo. o sea. ej(k+N )w0 (m+N −1) = φk ejkw0 (m) . ejkw0 (m+N −1) ejkw0 (m) ej2π(m) . del mismo modo que lo hicimos con el desarrollo de Fourier continuo: T = L (φk (t))k=0. · · · . que podemos indexar. · · · .

Ortogonalidad del sistema La matriz del sistema lineal. φk (m + N − 1)∗ ) = = ej(l−k)w0 (m) + · · · + ej(l−k)w0 (m+N −1) = m+N −1 n=m ejlw0 (m) . o o f= ak φ k k alk =   si {l = k} cuya forma vectorial f es la proyecci´n ortogonal de y sobre L φk . e−jkw0 (m+N −1) Vamos con este ultimo t´rmino: ´ e m+N −1 n=m =      {l = k}   1=N ej(l−k)w0 n {l = k} ej(l−k)w0 n = = = m+N −1 n=m m+N −1 n=m ej(l−k)w0 rn n 1 − rN m r 1−r 1 − ej(l−k)w0 N m = r 1−r 1 − ej(l−k)2π m = r 1−r = 0 Por tanto:   N  (5. la matriz del sistema lineal es diagonal. ejlw0 (m+N −1) ej(l−k)w0 n m+N −1 n=m m+N −1 n=m e−jkw0 (m) . φl (m + N − 1)) (φk (m)∗ . tendr´ como elementos: a ∗ alk = φl .2 Condici´n para que la mejor aproximaci´n f sea real. 2π y.6. · · · . · · · .2) 0 si {l = k} Por tanto. o o ˆ Ejercicio 5. Como el sistema es o ortogonal. usando ∗ para representar el conjugado de un complejo.3 ¿C´mo es la mejor aproximaci´n si los elementos del vector y son o o reales? 86 . los vectores son ortogonales. φk 1 m+N −1 = yn e−jk( N )n ak = N N n=m Ejercicio 5. · · · . · · · . φk = φl · φk alk = (φl (m).6. y la funci´n soluci´n f .

[11].5. Un estudio exhaustivo de la aproximaci´n de funciones peri´dicas definidas de modo o o discreto la tenemos en el texto de Oppenheim et al. este texto tiene un nivel muy alto y puede ser suficiente con el [17].7 Referencias recomendadas para este tema. Respecto al problema general. Sin embargo. el texto de Hammerlin et al.[7] hace un estudio muy bueno partiendo del problema en su formulaci´n m´s general. o a 87 .

. . n mucho antes de que se desarrollase el concepto de integral. que puede ser visto como encontrar un cuadrado de igual superficie.C. Esta nomene o e clatura procede del problema que hemos explicado. de calcular el area del c´ ´ ırculo. f (x1 ). es imposible decir mucho acerca de f a menos que tambi´n sepamos que f forma parte de una familia ree . digamos x0 . la m´s com´n. Ejemplos t´ o ıpicos de esta situaci´n son evaluar la integral 0∞ exp(−x2 )dx. xn . . Este problema. ha sido tratado durante miles de a˜os. Si se parte exclusivamente de los valores f (x0 ).Cap´ ıtulo 6 Integraci´n num´rica o e 6.1 Introducci´n o El c´lculo num´rico de integrales definidas es uno de los problemas m´s antiguos en a e a matem´ticas. que en su formulaci´n m´s antigua se traduc´ en encona o a ıa trar el area de regiones limitadas por l´ ´ ıneas curvas.) fue capaz de dar las sorprendentes cotas 3 71 < π < 3 7 . . . e o e Insistiendo en la tercera posibilidad. Muchas veces se usa cuadratura num´rica en vez de integraci´n num´rica. La ultima posibilidad consiste o o ´ en que. . Usando un m´todo num´rico basado en la o u a e e o ırculo por pol´ ıgonos inscritos y circunscritos. Arqu´ ımedes (287-212 aproximaci´n de un c´ 10 1 a. ¿se puede usar esta informaci´n para obtener una o b ı estimaci´n de c´mo es su derivada f (c) o una integral a f (x)dx? La respuesta es un s´ o o rotundo. . a veces. consiste en que se conozcan s´lo ciertos puntos de la funci´n. f (xn ). pero ´sta sea muy dif´ de calcular. . x1 . o o encontrar la longitud de una elipse. que r´pidamente a se relacion´ con el n´mero π y su c´lculo. Muchos m´todos para discretizar esas ecuaciones se e apoyan en m´todos de integraci´n num´rica. el ejemplo m´s conocido a a a de este problema fue el de calcular el area contenida en un c´ ´ ırculo. La tercera situaci´n. Sin lugar a dudas. si se proporcionan los valores de una funci´n f en o ciertos puntos. La primera es el caso en el que no se puede evaluar anal´ ıticamente la primitiva de una funci´n. La segunda situaci´n es que la funci´n admita prio o e ıcil o a u mitiva. Vamos a describir ahora cuatro situaciones para las que es necesario aproximar integrales definidas. dentro del marco del an´lisis a matem´tico all´ en los siglos XVII y XVIII. se necesitan m´todos de cuadratura para el tratamiento num´rico de e e ecuaciones diferenciales o integrales.

a todas las funciones continuas de variable real. Deseamos encontrar un valor aproximado de esta integral mediante sumas finitas. Por otra parte. a menos que venga a n acompa˜ada de alguna cota para los errores cometidos. nosotros llamamos f´rmula de cuadratura a o de (n + 1) puntos a una expresi´n del tipo siguiente: o n In (f ) = k=0 An f (xk ) k (6. M´s precisamente.1) o o donde An no depende para nada de la funci´n f . si sabemos que f es un polinomio de grado n.lativamente peque˜a de funciones. y podemos entonces calcular con absoluta certeza f (c) o a f (x)dx. O sea. 6. conocer los valores f (xi ) resulta casi irrelevante.3 F´rmulas de cuadratura de tipo interpolaci´n o o Hemos visto ya que se puede aproximar una funci´n f mediante un polinomio de ino terpolaci´n Pf . Sin embargo.1 muestra varias funciones continuas que tienen los mismos valores en cinco puntos. La figura 6. En u ıa o este caso recuperamos f exactamente. La idea va a ser reemplazar el c´lculo de I(f ) por el c´lculo de I(Pf ). entonces los valores en f1 f2 x0 x1 x2 x3 Figura 6. As´ si se permite que f sea una m´s en la familia de n ı. la informaci´n que ´ b o se tiene disponible no determina completamente a f y cualquier estimaci´n num´rica o e de su derivada o de su integral deber´ tomarse con escepticismo. 6.1 es una f´rmula que permite k estimar esa integral I(f ) mediante una suma ponderada de im´genes de la funci´n f en a o una serie de puntos. en la mayor parte de las situaciones.2 Exposici´n del problema o b Sea la integral I(f ) = a f (x)dx. x4 6.1: n+1 puntos determinan completamente a f seg´n vimos en la teor´ de interpolaci´n. o a a Las f´rmulas de cuadratura que usan esta idea se llaman f´rmulas de cuadratura de tipo o o 89 .

3. y s´lo en esos. . La primera es que la integraci´n de o o polinomios es muy sencilla. . n o b b n b a I(f ) = con a f (x)dx ≈ a Pf (x)dx = k=0 lk (x)dx f (xk ) lk (x) = Se tendr´ por tanto una f´rmula de cuadratura de tipo interpolaci´n si dentro de la a o o f´rmula o n In (f ) = k=0 n j=0. y no se necesitan m´s que las cuatro operaciones elementales. .3. Esto lo haremos por dos razones. y no podemos elegirlas. k = 0. Supongamos o o por tanto. o Una justificaci´n de esta estimaci´n del error de la interpolaci´n polinomial se encuentra en el o o o cap´ ıtulo 4.interpolaci´n. que conocemos la funci´n en esos puntos.j=k (xk − xj ) An f (xk ) k b a se toma An = k Se define el error1 lk (x)dx b n R(f ) = I(f ) − In (f ) = b a f (x)dx − b An f (xk ) k k=0 R(f ) = a [f (x) − Pf (x)]dx = a H(x) (n+1) f (ξ)dx (n + 1)! H(x) = (x − x0 )(x − x1 ) · · · (x − xn ) a ≤ min(x. El proceso consistir´ en ıa integrar el polinomio de interpolaci´n construido a partir del conocimiento del valor de o la funci´n en una serie de puntos f (xk ). 1 90 .1 Una f´rmula de cuadratura se dice exacta sobre un conjunto V si o o ∀f ∈ V. x0 ) < ξ < max(x. para empezar. R(f ) = 0 Teorema 6. xn ) ≤ b Definici´n 6.j=k (x − xj ) n j=0. . . k = 0. . 0 sea. o o que las abscisas nos vienen impuestas. n.1 Una f´rmula de cuadratura de (n + 1) puntos es exacta sobre el espacio o vectorial Pn de los polinomios de grado menor o igual que n. a Adem´s sucede frecuentemente que para las curvas experimentales no se conoce la funa ci´n f sino que se conocen ciertos puntos de la funci´n: f (xk ). . si y solamente si es del tipo de interpolaci´n de (n + 1) puntos. .

3. Por tanto debe ser exacta para los polinoniios P0 (x) = 1 y P1 (x) = x.3. y o por tanto la f´rmula es exacta para esos polinomios. la f´rmula de integraci´n. o o o ⇐ Supongamos ahora que la f´rmula es de interpolaci´n en (n + 1) puntos. pero no es exacta para x . . el m´todo de los a e coeficientes indeterminados. k = 0. n. 1. siendo por tanto su grado o o de precisi´n uno. o Definici´n 6.1 o Este teorema nos da otro medio para el c´lculo de los coeficientes.1 Calcular los coeficientes que intervienen en la f´rmula de cuadratura de o tipo interpolaci´n siguiente: o 1 −1 f (x)dx = A1 f (−1) + A1 f (1) + R(f ) 0 1 La f´rmula de cuadratura es de tipo interpolaci´n a dos puntos. .Demostraci´n: o ⇒ b a n P (x)dx = k=0 An P (xk ) (∀P ∈ Pn ) k en particular. es del tipo interpolaci´n en (n + 1) puntos. que ilustramos en el ejemplo siguiente.2 Se dice que una f´rmula de cuadratura tiene grado de precisi´n n si o o o k k+1 la f´rmula es exacta para x . o Aplicaci´n del Teorema 6. esto ser´ valido para lj (x) a b a n lj (x)dx = k=0 An lj (xk ) = An k j y por tanto. o Forcemos a que se cumplan estas condiciones: 1 −1 1 −1 1 · dx = A1 + A1 0 1 x · dx = A1 · (−1) + A1 · 1 0 1 A1 + A 1 = 2 1 0 −A1 + A1 = 0 1 0 De donde obtenemos el sistema lineal: cuya soluci´n es A1 = A1 = 1. . Ejemplo 6. que es de lo que se trata. . o 0 1 91 . An = j b a lj (x)dx con lo cual.3. Lo que sucede o o es que un polinomio de grado n es igual a su polinomio de interpolaci´n de grado n.

Ponemos o h= (6.6. x0 = a y xn = b.2) Sea xj = a + j · h. Si hacemos el cambio de variable en la integral y = (x−a) . 1 Calculemos por ejemplo B0 . 6.4. el valor aproximado de la integral se obtiene muy r´pidamente ya que esos coeficientes unicamente dependen del n´mero de puntos que a ´ u utilizamos para integrar.1 tenemos los valores de Bj hasta n igual a 6. se tiene: o b a f (x)dx ≈ (b − a) n Bj = j=0 n Bj f (a + j · h) (6.5) Bj = j!(n − j)!n 0 k=0. Los coeficientes del sumatorio cumplen adem´s la propiedad a n n Bj = Bn−j .4 F´rmulas de Newton-Cotes o (b − a) n n Supongamos una subdivisi´n uniforme del intervalo [a. h llegamos a: n n (−1)n−j n (y − k)dy (6. que son muy usadas o o cuando la naturaleza del problema nos permite conocer los valores de la funci´n sobre o un soporte equiespaciado.3) con b 1 lj (x)dx (6. con 0 ≤ j ≤ n.4) b−a a Estas f´rmulas se llaman las f´rmulas cerradas de Newton Cotes. por ejemplo: 1 B0 = 1 B1 (−1)1 = 0!(1)!1 1 0 ydy = 1 2 La f´rmula de Newton-Cotes de grado 1 se llama la f´rmula del trapecio o o b a f (x)dx ≈ (b − a) 1 1 f (a) + f (b) 2 2 La f´rmula de Newton-Cotes de grado 2 se llama la f´rmula de Simpson o o b a f (x)dx ≈ (b − a) 4 1 f (a) + f 6 6 1 a+b + f (b) 2 6 n En la tabla 6.k=j por tanto. Con estas hip´tesis. b].1 Evaluaci´n del error en las f´rmulas de Newton-Cotes o o F´rmula del trapecio o Se quiere evaluar: b R(f ) = a f (x)dx − 92 b−a [f (a) + f (b)] 2 . pues en ese caso.

2 F´rmulas abiertas de Newton-Cotes o Las f´rmulas de cuadratura se dicen abiertas cuando no se utilizan los extremos del o intervalo como abscisas de interpolaci´n.b] 6. b] 12 De aqu´ se deduce la siguiente cota al error de la aproximaci´n: ı o R(f ) = − |R(f )| ≤ h3 max |f (x)| 12 x∈[a. α ∈ [a. Por tanto.5 Estabilidad A un m´todo de integraci´n se le pide que sea poco sensible a los errores de c´lculo en e o a los puntos que definen la funci´n de un modo discreto. veamos c´mo influye o o 93 . o cuando se quiere extrapolar una integral fuera de los o o puntos en los que tenemos definida la funci´n a integrarl.n 1 2 3 4 5 6 n B0 1/2 1/6 1/8 7/90 19/288 41/840 n B1 n B2 n B3 4/6 3/8 32/90 75/288 216/840 12/90 50/288 27/840 272/840 Tabla 6. b] h3 f (α) α ∈ [a.1: Coeficientes de las f´rmulas de Newton-Cotes o (x − a)(x − b) f (ξ)dx ξ = ξ(x) ∈ (a. b].4. x2 = a + 2h = b − h. 6. se puede usar una de las formulaciones del teorema del valor medio del c´lculo integral para escribir que: a b R(f ) = R(f ) = f (α) 2 b a (x − a)(x − b)dx. La f´rmula de Newton-Cotes abierta de un punto es: b a+b f (x)dx ≈ (b − a)f 2 a b a f (x)dx ≈ b−a [f (x1 ) + f (x2 )] 2 h= b−a 3 x1 = a + h. Esto es necesario cuando la funci´n es por o o ejemplo singular en los extremos. b) 2 a como (x − a)(x − b) no cambia de signo en [a.

2 Las f´rmulas de Newton-Cotes son inestables. o ıa An εk = +∞ k k=0 Teorema 6.un c´lculo efectuado con valores perturbados: a n k=0 n n An (fk + εk ) − k A n fk = k k=0 k=0 A n εk k Definici´n 6. . .1 Una f´rmula de cuadratura de la forma o n In (f ) = k=0 An f (xk ) k es estable si y s´lo si existe M independiente de n tal que o n k=0 |An | ≤ M k (6.6) El estudio de la estabilidad se facilita por el teorema siguiente: Teorema 6. entonces n n (An )2 k = = |An | k |An | k k=0 k=0 n n A n εk k k=0 y. εn ) existe M independiente de n tal que: n k=0 An εk ≤ M · max|εk | k (6.5. En ese caso tendr´ ıamos que n n n n A n εk k k=0 ≤ k=0 |An εk | k ≤ k=0 |An | · max|εk | ≤ M · max|εk | k lim n→∞ y eligiendo εk = An k n |Ak | k=0 |An | = +∞ k n con Ak = 0. ε1 .5.7). pasando lim n→∞ con lo que la f´rmula no ser´ estable.7) Prueba: ⇐ ⇒ Supongamos que no existiese esa constante M independiente de n verificando la condici´n o (6. por tanto.1 Una f´rmula de cuadratura de la forma o o n In (f ) = k=0 An f (xk ) k se dice estable si ∀(ε0 . .5. . o 94 .

1 Una condici´n necesaria y suficiente para que los m´todos de cuadratura o e o o de tipo interpolaci´n sean convergentes en C[a. y por tanto el grado del polinomio de aproximaci´n q es 2.6 Convergencia Es otro criterio que permite calibrar la bondad de una aproximaci´n a una determinada o integral. a + 2h). . si cualquiera que sea f ∈ V . en el l´ ımite se obtendr´ el valor exacto.3 M´todo compuesto de Simpson e En el m´todo compuesto de Simpson. .6. y por tanto el grado del polinomio de aproximaci´n q es 1. (a + (n − 2)h. se tiene: n n k=0 An f (xk ) converge sobre k lim n→∞ An f (xk ) = k k=0 b a f (x)dx Teorema 6. el n´mero de puntos que se utiliza en cada e u subintervalo es de 2. Es equivalente a interpolar la funci´n con un polinomio a n o trozos e integrar dicho polinomio. a + 4h).1 M´todos compuestos e General La idea consiste en aplicar a subintervalos de (a. b) una f´rmula de Newton-Cotes de o grado q con q fijo y peque˜o. el n´mero de puntos que se utiliza en cada subine u tervalo es de 3. . y que a a en consecuencia. 6.7 6.7.1 Se dice que una aproximaci´n Ln (f ) = o o un conjunto V . a Definici´n 6. b] es que las f´rmulas sean estables.2 M´todo compuesto de los trapecios e En el m´todo compuesto de los trapecios. Las f´rmulas de integraci´n se expresan en funci´n del n´mero de puntos n. e b a n−1 a+(k+1)h f (x)dx = ≈ k=0 a+k·h n−1 f (x)dx h k=0 1 1 f (a + k · h) + f (a + (k + 1) · h) 2 2 = h 1 1 f (a) + f (a + h) + f (a + 2h) + · · · + f (b) 2 2 6. (a + 2h. Es o equivalente a interpolar con un polinomio a trozos de grado 1 y clase 0 e integrar ´ste.7.7. Se elige un o soporte con un n´mero impar de puntos: u (a.6. b) 95 . . o o o u Parece razonable pensar que si se aumenta n se obtendr´ un resultado m´s preciso.6. 6.

b] x∈[a. y se obtiene I2h0 . El proceso para elegirlo ser´ el siguiente: a 1.b] 12 12n 12 6.En cada intervalo se aplica la forma de Newton-Cotes de Simpson. se obtiene que: e b a f (x)dx ≈ h {f (a) + f (b) 3 + 2[f (a + 2h) + f (a + 4h) + · · · + f (a + (n − 2)h)] + +4[f (a + h) + f (a + 3h) + · · · + f (a + (n − 1)h)]} 6. 2.4 Mayoraci´n del error en los m´todos compuestos o e M´todo compuesto de los trapecios e Se ha visto ya que en el caso del m´todo de los trapecios: e b |R(f )| = a f (x)dx − h3 b−a [f (a) + f (b)] ≤ max |f (x)| 2 12 x∈[a. o e dif´ ıciles de acotar. en el caso de los m´todos compuestos: e b a f (x)dx − h x∈[a. sin necesidad de entrar en consideraciones sobre las derivadas de la funci´n original f pues ´stas son desconocidas y normalmente.b] Por tanto. a+h a a+4h f (x)dx ≈ 2h f (x)dx ≈ 2h 1 4 1 f (a) + f (a + h) + f (a + 2h) 6 6 6 4 1 1 f (a + 2h) + f (a + 3h) + f (a + 4h) 6 6 6 a+2h ········· b 4 1 1 f (x)dx ≈ 2h f (a + (n − 2)h) + f (a + (n − 1)h) + f (b) 6 6 6 a+(n−2)h Sumando todos estos t´rminos.7.b] x∈[a. Se integra con un paso 2h0 .b] ≤ ≤ h3 12 max |f (x)| + · · · + max |f (x)| h3 (b − a)3 b−a n max |f (x)| = max |f (x)| = max |f (x)|h2 2 x∈[a. y se obtiene Ih0 . 96 .5 Selecci´n del paso de integraci´n o o En las f´rmulas de tipo compuesto se desea elegir el paso h para que el error |R(f )| = o |I − In (h)| sea inferior a una cota dada .7. Se integra con un paso h0 .a+h] 1 1 f (a) + f (a + h) + · · · + f (b) 2 2 x∈[a+(n−1)h.

Gauss nos proporciona un criterio para elegir estas abscisas que aumenta notablemente el grado de precisi´n de las f´rmulas de integraci´n o o o de tipo interpolaci´n. por ejemplo. La idea consiste en aproximar I(f ) por: o n In (f ) = k=0 An f (xn ) k k o y considerar An y xn como desconocidos. k k 97 .7. e 6.8) Ih0 − I2h0 . Veamos c´mo lo conseguimos. y cuando aproximamos integrales de funn ciones suficientemente regulares.3. En estos casos.8. Suponiendo que el error est´ en funci´n de hp -p = 2 para el m´todo compuesto de a o e los trapecios.1 F´rmulas de Gauss o Introducci´n o En cierto tipo de experimentos podemos fijar el valor de las abscisas de la funci´n que o pretendemos conocer.8 6.se tendr´ que: a I h0 − I ≈ M · h p 0 Ih0 − I2h0 = Ih0 − I + I − I2h0 ≈ M · hp − M · (2h0 )p 0 M · hp ≈ 0 y tenemos el sistema: Ih0 − I2h0 1 − 2p (6.6 Estabilidad de los m´todos compuestos e Para valores de q suficientemente peque˜os. los m´todos compuestos son estables y convergentes. 1 − 2p M · hp ≈ 0 M · hp ≈ y por tanto: h ≈ h0 (1 − 2p ) Ih0 − I2h0 1 p 6.

n. . el n´mero de par´metros libres es 2n + 2. . Exigiremos por tanto que: b a ∗ ∗ n p(x)dx = Sea p ∈ Pn tal que p interpolaci´n de la nube de o esa misma nube de puntos. . n. .2 M´todo de Gauss e Como se puede observar en la f´rmula anterior. Como p tambi´n interpola e k k An p(xn ) (∀p ∈ P2n+1 ) k k con q ∈ Pn . .8.6. k = 0. . . o u a Trataremos por tanto. o sea el polinomio de grado n de puntos (xn . Entonces. de que nuestra f´rmula sea exacta en P2n+1 espacio vectorial de o polinomios de coeficientes reales de grado menor o igual que 2n+1. . . p(xn )). lo podremos escribir de la siguiente forma: p(x) = p∗ (x) + (x − xn )(x − xn ) · · · (x − xn ) · q(x) 0 1 n (xn ) k k=0 n = p(xk ). k = 0. k = 0. Si ahora escribimos p∗ en la base de Lagrange tendremos que: n p (x) = k=0 ∗ p(xn )lk (x) k y por tanto: b a b p(x)dx = = a n [p∗ (x) + (x − xn )(x − xn ) · · · (x − xn ) · q(x)]dx 0 1 n b a lk (x)dx p(xn ) k k=0 b + = a n (x − xn )(x − xn ) · · · (x − xn ) · q(x)dx 0 1 n An p(xn ) k k k=0 Si elegimos como polinomio p uno tal que p(xn ) = 0. por un lado: n p(x) = (x − x0 )(x − xn ) · · · (x − xn ) · q(x) 1 n b a n n p(x)dx = k=0 An p(xn ) = k k k=0 An · 0 = 0 k y por otro b a b p(x)dx = = = a b a b a [p∗ (x) + (x − xn )(x − xn ) · · · (x − xn ) · q(x)]dx 0 1 n n [0 + (x − xn )(x − x1 ) · · · (x − xn ) · q(x)]dx 0 n (x − xn )(x − xn ) · · · (x − xn ) · q(x)dx 0 1 n 98 . n. . entonces su polinomio k de interpolaci´n de grado n en esos nodos ser´ nulo. . . o a p∗ = 0 y por tanto.

que debe ser 0. En suma
b a

(x − xn )(x − xn ) · · · (x − xn ) · q(x)dx = 0 0 1 n

Como para cualquier q, el polinomio p vale 0 en los nodos, esta igualdad tiene que darse independientemente del polinomio q, o sea:
b a

(x − xn )(x − xn ) · · · (x − xn ) · q(x)dx = 0 (∀q ∈ Pn ) 0 1 n

0 sea, que si hacemos [a, b] = [−1, 1], estamos buscando una serie de nodos (xn ), k = k 0, . . . , n tales que el polinomio (x−xn )(x−xn ) · · · (x−xn ) sea ortogonal, seg´n el producto u 0 1 n 1 escalar < p, q >= −1 p(x)q(x)dx, a todos los polinomios q de Pn . 0 sea, estamos buscando el polinomio de Legendre2 de grado n + 1. ˆ Por tanto, para que (x − xn )(x − xn ) · · · (x − xn ) sea igual a Ln+1 (x), debemos escoger los 0 1 n n ˆ valores (xk ), k = 0, . . . , n, abscisas de los nodos, como los ceros de Ln+1 (x), polinomio de Legendre de grado n + 1. Una vez que ya sabemos cu´les deben ser los nodos, debemos a preguntarnos el valor de la familia de coeficientes (An ), k = 0, . . . , n. Para ello, elegimos k n ahora como polinomio p uno tal que p(xn ) = δk , k = 0, . . . , n, y tendremos que: k An = k
1 −1

lk (x)dx,

(∀k = 0, . . . , n)

Si el intervalo no es [−1, 1] se hace el t´ ıpico cambio de variable: t= que transforma [a, b] en [−1, 1]. 2(x − a) −1 b−a

6.9

Integraci´n multidimensional o

Las t´cnicas de integraci´n num´rica m´s sencillas para integrales dobles o triples se e o e a basan en la sustituci´n de la funci´n a integrar por su polinomio en varias variables4.6. o o Si el recinto es rectangular, la aplicaci´n es directa. Si no es as´ hay que estudiar de o ı, modo independiente cada caso.

6.10

Resumen

1. Que aproximar la integral de una funci´n se puede hacer a partir de un n´mero de o u puntos dados, sustituyendo la funci´n a integrar por una aproximaci´n pofin´mica o o o a la misma.
En realidad, el polinomio de Legendre es cualquiera de estos, pero normalizado, por definici´n. Ello o es debido a que los polinomios de Legendre no son s´lo una familia de polinomios ortogonales, sino que o adem´s tienen modulo uno. Hemos estudiado estos polinomios como una familia ortogonal en 5.6.4 a
2

99

2. Que una f´rmula de aproximaci´n es buena si aten´a los efectos de las perturbao o u ciones en los puntos que definen la funci´n (estabilidad). o 3. Que una f´rmula de aproximaci´n es buena si cuando se aumentan el n´mero de o o u puntos que se utilizan para definir la funci´n, el valor de la aproximaci´n se acerca o o al valor real de la integral, coincidiendo en el l´ ımite (convergencia). 4. Que acotar el error tiene mucho que ver con el n´mero de puntos que se utilizan u para definir la integral y con los m´ximos de determinadas derivadas. a

6.11

Referencias recomendadas para este tema.

Para Integraci´n Num´rica la referencia recomendada son otra vez el libro de H¨merlin o e a y Hoffman [7] y el de Theodor [16].

100

Cap´ ıtulo 7 Derivaci´n num´rica o e
7.1 Introducci´n o

El c´lculo num´rico de integrales definidas es un problema muy antiguo. La estimaci´n a e o num´rica de derivadas es un problema muy nuevo, y muy necesario para la resoluci´n e o num´rica de ecuaciones diferenciales, que se han convertido en las herramientas princie pales para la descripci´n de todo tipo de sistemas. o El comportamiento del error en los m´todos de integraci´n era bastante bueno. Bajar un e o poco el paso significaba bajar mucho el error. Adem´s, las f´rmulas m´s comunes (los a o a e m´todos compuestos) son bastantes estables, y errores en los datos, o en los redondeos, no se amplifican en el c´lculo de las integrales. Sin embargo, las derivadas son mucho menos a e nobles cuando se las trata num´ricamente, y puede suceder, como luego estudiaremos, que peque˜as variaciones en alguno de los elementos motiven grandes variaciones en el n resultado.

7.2

Exposici´n del problema o

Sea f una funci´n real de variable real de clase C 1 . Se quiere calcular una aproximaci´n o o al n´mero f (x). u f (x) = lim f (x + h) − f (x) f (x) − f (x − h) = lim h→0 h→0 h h

Se obtiene, por ejemplo, una aproximaci´n a este valor, tomando, con h peque˜o o n f (x) ≈ f (x + h) − f (x) h

Esta aproximaci´n hace intervenir los valores de la funci´n en los puntos x y x + h. Igual o o que hac´ ıamos al integrar, podr´ ıamos pensar en sustituir la funci´n f por su polinomio o de interpolaci´n Pf , y aproximar la derivada de f por la derivada de Pf . De hecho, el o problema de estimar la derivada surge porque a menudo f no la conocemos de modo anal´ ıtico, sino por puntos. Por tanto, si sabemos el valor de la funci´n f en una nube o 101

de puntos x0 , x1 , · · · , xn , Pf (x), derivada del polinomio de grado n que interpola a f en esos puntos, nos dar´ una aproximaci´n a f (x), cuyo error trataremos de acotar. Estas a o ser´n las t´cnicas de derivaci´n que explicaremos. a e o

7.3

Derivaci´n num´rica por interpolaci´n polin´mio e o o ca.

Hemos visto ya que se puede obtener una aproximaci´n de una funci´n f en un intervalo o o calculando su polinomio de interpolaci´n Pf . En el caso de la derivada, vamos a aproximar o f por Pf . El concepto es local, o sea, se sustituye f por Pf en el entorno del punto en el cual queremos conocer la derivada. Las f´rmulas de derivaci´n que usan esta o o idea se llaman f´rmulas de derivaci´n de tipo interpolaci´n polinomial. Veamos las m´s o o o a importantes.

7.3.1

F´rmula de dos puntos. o

Tenemos una funci´n f que es C 1 en un entorno cerrado E(x0 ) de x0 . Sea E(x0 ) = [a, b] o y sea x0 el punto en el que queremos estimar la derivada de f . Sea x1 tal que [x0 , x1 ] ⊂ E(x0 ). Construyamos el polinomio de interpolaci´n de f asociado a los puntos x0 y x1 , o ver figura 7.1. x − x1 x − x0 P1 (x) = f (x0 ) + f (x1 ) x0 − x 1 x1 − x 0 Derivando este polinomio y particularizando esa derivada en x0 obtendremos la aproximaci´n a la derivada buscada. o P1 (x0 ) = f (x1 ) − f (x0 ) x1 − x 0

Si llamamos h = x1 − x0 , tendremos por tanto: f (x0 ) ≈ f (x0 + h) − f (x0 ) h

Existe igualmente una versi´n sim´trica de esta f´rmula tomando el segundo punto a la o e o izquierda de x0 -mirando hacia atr´s. a f (x0 ) ≈ f (x0 ) − f (x0 − h) h

7.3.2

Error en la f´rmula de dos puntos o
H(x) (n+1) f (ξ(x)) (n + 1)! 102

Para calcular el error, usamos el error de la interpolaci´n, deriv´ndolo: o a f (x) − P (x) =

derivada real = tg.

P (x) 1 f (x)

h

x0

x1

Figura 7.1: F´rmula de dos puntos. o H(x) = (x − x0 )(x − x1 ) · · · (x − xn ) a ≤ min(x, x0 ) < ξ < max(x, xn ) ≤ b Particularizando a nuestro caso, con un polinomio definido por dos puntos(n = 1): f (x) − P1 (x) = y derivando esta f´rmula: o 1 1 1 f (x) − P1 (x) = (x − x0 )(x − x1 )f (ξ(x))ξ (x) + (x − x1 )f (ξ(x)) + (x − x0 )f (ξ(x)) 2 2 2 Hay problemas para estimar el error en puntos distintos de x0 o de x1 , pues no conocemos el valor de ξ (x). Sin embargo, podemos estimar f´cilmente el error en x0 y en x1 a sustituyendo en la expresi´n anterior. o f (x0 ) − P1 (x0 ) = f (ξ(x)) (x0 − x1 )f (ξ(x)) =− h = O(h) 2 2 (x − x0 )(x − x1 ) f (ξ(x)) 2

Vemos que el error es una potencia de h de orden 1. El error tiende a 0 con h. La aproximaci´n es por tanto bastante mala. Por ejemplo, si echamos la vista atr´s, en la o a f´rmula del trapecio, que es la equivalente para la integraci´n, el error era una potencia o o 2 c´bica de h. El error en la interpolaci´n es de orden h . Por tanto, la integral disminuye u o el error de la interpolaci´n polinomial, subiendo el orden, y la derivada lo amplifica, o bajando el orden.

103

1) Si particularizamos en x0 : f (x0 ) ≈ P2 (x0 ) = f (x0 + h) − f (x0 − h) 2h Esta f´rmula se llama de tres puntos centrada. P2 (x) = f (x−1 )l−1 (x) + f (x0 )l0 l(x) + f (x1 )l1 l(x) P2 (x) = f (x−1 ) (x − x0 )(x − x1 ) (x − x−1 )(x − x1 ) + f (x0 ) (x−1 − x0 )(x−1 − x1 ) (x0 − x−1 )(x0 − x1 ) (x − x−1 )(x − x0 ) +f (x1 ) (x1 − x−1 )(x1 − x0 ) (x − x−1 ) + (x − x1 ) (x − x0 ) + (x − x1 ) + f (x0 ) 2 2h −h2 (x − x−1 ) + (x − x0 ) +f (x1 ) 2h2 Si derivamos: P2 (x) = f (x−1 ) (7. y hacia atr´s. pues se construye la par´bola o a con tres puntos. a ver figura 7. o Por otro lado. tendremos a a 104 . figura 7. en el c´lculo de la derivada no influye el valor en el propio punto en el que se a realiza la estimaci´n.f (x) P (x) 2 h h x-1 x0 7. del mismo modo que hay f´rmulas centradas.3. o a Para conseguir un valor mejor para la derivada. y se eval´a la derivada en el central.3 F´rmula de tres puntos o x1 Figura 7. Si evalu´mos la derivada en x−1 = x0 − h.2: Interpolaci´n con par´bola. tambi´n hay f´rmulas mio e o rando hacia adelante. podemos interpolar f con una par´bola. Es curioso pensar.2. que precisau mente.3.

y si lo hacemos en x1 = x0 + h. a la tangente. usamos otra vez el error de la interpolaci´n. u (x0 . el error es una potencia de h de orden 2. mirando hacia atr´s: o a f (x0 − h) ≈ P2 (x0 − h) = −3f (x0 − h) + 4f (x0 ) − f (x0 + h) 2h f (x0 − h) − 4f (x0 ) + 3f (x0 + h) f (x0 + h) ≈ P2 (x0 + h) = 2h 7. cada una con o o su t´rmino de error. f (x0 + 2h)) −f (x0 + 2h) + 6f (x0 + h) − 3f (x0 ) − 2f (x0 − h) 6h De igual modo. e f (x0 ) ≈ P3 (x0 ) = 105 . o (x − x−1 )(x − x0 )(x − x1 ) f (ξ(x)) 3! Deriv´ndolo.5 F´rmula de cuatro puntos. f (x) P (x) 2 h x-1 x0 h x1 Figura 7. o una f´rmula mirando hacia adelante. (x0 + h.3. aprox. o Se obtiene cuando se interpola f por un polinomio c´bico que pasa por (x0 − h. f (x0 − h)). y particulariz´ndolo para x0 : a a f (x) − P2 (x) = f (ξ(x)) 2 h = O(h2 ) 6 Por tanto.3: F´rmula de tres puntos. lo que quiere decir que hemos mejorado notablemente la aproximaci´n frente a la f´rmula de dos puntos.4 Error en la f´rmula de tres puntos. f (x0 )). f (x0 + h)) y (x0 + 2h.derivada real = tg.3. o o f (x0 ) − P2 (x0 ) = − 7. o combinando estas f´rmulas se obtienen otras f´rmulas. o Para calcular el error.

o o que se usa a menudo en ecuaciones diferenciales.7. el c´lculo que realmente hacemos es usando los valores perturbados: a error error total error truncaje. As´ si volvemos a ı. f1 − f 1 ≤ δ entonces. la expresi´n 7. o f (x0 ) ≈ P2 (x0 ) = f (x0 + h) − 2f (x0 ) + f (x0 − h) h2 En este caso hay problemas para acotar el t´rmino del error en x0 . derivar.1. como la de Laplace.3. afectados de unos errores que podemos acotar como: f0 − f0 ≤ δ. usemos la aproximaci´n de dos puntos a la derivada: o f (x0 ) ≈ f (x0 + h) − f (x0 ) f1 − f 0 = h h con f1 = f (x0 + h) y f0 = f (x0 ). error por los datos paso optimo Figura 7. la diferenciaci´n num´rica o o e es muy sensible a los errores de redondeo y de los datos originales.6 F´rmula de tres puntos para estimar la derivada segunda. Para ilustrar esta idea. o Podemos usar la interpolaci´n parab´lica de tres puntos para estimar la derivada segunda. Supongamos que f0 y f1 son los valores de trabajo de f0 y f1 . tendremos. Ello es debido a que e hay t´rminos en los que aparecen las derivadas de la funci´n ξ(x) que ya no se anulan.4 Estabilidad Contrariamente a la integraci´n. y como ya hemos comentado. e o 7. o ´ f1 − f 0 h h f (x0 ) ≈ 106 .4: Selecci´n del paso optimo.

e Dado que para pasos altos. y por tanto. Usaremos valores de la funci´n para estimar la precisi´n o o derivada con una precisi´n de cuatro decimales sin redondeo.x0 +h] f (x0 ) − f 2 ∞ f1 − f 0 f1 − f 0 f1 − f 0 + − h h h f0 − f 0 + f1 − f 1 h ≤ f 2 ∞ h+ h+ 2δ h f1 − f 0 h ≤ max f 2 ∞ h+ 2δ h |f (x0 )| Para valores grandes de h. ver tabla 7.04. Se trata de encontrar el valor de la derivada de la funci´n o f (x) = arctan(x) en el punto (2). es decir.6. el t´rmino en h domina -error del m´todo-. el minimizar anal´ En la figura 7. el error del m´todo y el error total se confunden. pero si seguimos bajando. el error en los o datos δ es del orden de 10−4 . o ∆Φ (x0 .4. Se deja ´ ıticamente ese error para calcular el paso optimo. Para pasos peque˜os pasa lo contrario. en la cual el espaciado en la direcci´n x es el mismo que el espaciado en la o direcci´n y. El a n n error que manda es el correspondiente a los datos. e a ınimo. por ejemplo el problema de construir una aproximaci´n discreta al laplao ciano bidimensional de una funci´n Φ en un punto cualquiera (x0 . y0 ) = ∂2Φ ∂2Φ (x0 . y sus acotaciones quedan: f (x0 ) − f1 − f 0 h ≤ ≤ Por tanto: f (x0 ) − con f ∞= x∈[x0 . Hay que escoger el paso de tal modo que el error total sea m´ Veamos esto con un ejemplo. y buscamos el punto en el que el error total es m´ ınimo. Si h es peque˜o. El valor real sabemos que es 1/3. y0 ) ∂x2 ∂y 2 utilizando una discretizaci´n de cinco puntos. centramos e el gr´fico en pasos peque˜os en la figura 7. Usamos el operador de dos puntos.7.Con lo cual. el error empieza a aumentar.1.5 dibujamos los diferentes t´rminos y los comparamos con el error real. Por tanto. el error total a disminuye. y0 ). y hasta h = 0. que corresponde al t´rmino 1/h es el m´s importante. el paso optimo es de ese orden. 7. Por tanto.5 Derivadas parciales Consideremos. es m´s importante el error por los datos. y0 ) + (x0 . Vamos bajando el paso. Vamos bajando el paso. el error. ver figura 7. el e e n error que puedan arrastrar los datos. una discretizaci´n como la de la o o figura 7. o Para hacer la discretizaci´n tenemos que pensar en el significado geom´trico de la derivada o e 107 . ´ como ejercicio.

y0 ) + Φ (x0 . sumando ambas expresiones tendremos que: ∆Φ (x0 . y las derivadas hay que pensarlas como las derivadas o de una funci´n de una sola variable. susituyendo la funci´n a integrar por una aproximaci´n u o o polin´mica a la misma. y0 ) − 2Φ (x0 . y0 ) h2 7. Es como si fuese ıa o una funci´n de una sola variable. y0 ) + Φ (x0 − h. x. tambi´n a partir de estas f´rmulas se pueden construir o e o operadores que nos sirvan para estimar derivadas parciales de funciones de varias variables. Aproximar la derivada de una funci´n en un punto se puede hacer a partir de un o n´mero de puntos dados. o o ı 3. o 2. y0 ) = + O(h2 ) 2 2 ∂y h Y por tanto. La estimaci´n queda entonces: o o Φ (x0 + h.Figura 7. y0 + h) − 2Φ (x0 . y0 + h) + Φ (x0 . e parcial. De igual modo que se construyen operadores para estimar las derivadas a partir del polinomio de interpolaci´n. y0 ) ≈ Φ (x0 + h. Las f´rmulas de derivaci´n as´ obtenidas tienen una estabilidad comprometida. y0 ) = + O(h2 ) 2 ∂x h2 ∂2Φ Φ (x0 . 108 . y0 − h) (x0 . La derivada parcial de una funci´n respecto a la variable x da una idea de lo o que var´ esa funci´n cuando las otras variables permanecen constantes. y0 ) ∂2Φ (x0 . y0 − h) − 4Φ (x0 .5: T´rminos de error para estimar arctan (2).6 Resumen 1. y0 ) + Φ (x0 − h. y0 ) + Φ (x0 .

02 0.05 h 0 0 -0. 109 .005 0. e 7.25 error 0.0.04 0.025 0.15 2delta/h max f'' h/2 cotatotal error 0.05 0. [16].2 0.03 0.7 Referencias recomendadas para este tema. [17].1 0.01 0.015 0.035 0.6: T´rminos de error para estimar arctan (2).045 Figura 7.

04 0.9556 f0 0.9553 0.3250 0.05062 0.000471405 0.3200 0.01128 0.006 0.001257079 0.06666 0.000785674 0.9559 0.3300 0.000157135 0.9586 0.3000 0.02363 0.3333 0.001414214 0.04 0.9583 0.00666 0.9553 0.3000 2δ/h 0.y0 +h) (x0-h.01138 0.9553 0.001 f1 0.005 0.3286 0.00031427 0.0083 0.20015 error 0.01 0.0067 0.9553 0.006285394 0.02 0.005 0.05 0.0000 0.0133 0.9573 0.1 0.0333 Tabla 7.9684 0.0033 0.03427 0.008 0. a (x0 .004714045 0. y0) Figura 7.004 0.02857 0.3300 0.9553 0.9553 0.0058 0.0000 0.02 0.0000 0.04078 0.2 max f (ξ)h/2 cotatotal 0.01 0.02222 0.009 0.h) (x0+h.000628539 0.9553 (f1 − f0 )/h 0.025 0.003142697 0.9553 0.001571348 0. de 2 ptos.03333 0.9619 0.0048 0.0333 0.06713 0. y0) (x0 .h 0.01314 0.3267 0.y0 .9553 0.02625 0.0083 0.9576 0.03 0.007 0.3333 0.002 0.9553 0.9563 0.02157 0.000942809 0.9553 0.3250 0.9553 0.02967 0.9651 0.0033 0.1: Error c´lculo derivada de arctan(x) en x = 2 con op.7: Discretizaci´n de cinco puntos.001099944 0.003 0.3333 0.10031 0.9579 0.9569 0.3275 0.9566 0.9553 0. o 110 .

Problemas de valor inicial. 1. En ellos. y de cualquier otra ciencia cuantitativa o caen dentro de la categor´ de las ecuaciones diferenciales. Se da informaci´n de la soluci´n en varios momentos temporales. Hay que o aclarar que esto es as´ si s´lo queremos conocer la velocidad como funci´n del tiemı o o po. 8. Esta informao o ci´n permite fijar los par´metros que quedan libres en la soluci´n. Nosotros nos centraremos en el primer tipo de problemas.Cap´ ıtulo 8 Ecuaciones diferenciales ordinarias. Por ejemplo. que empezamos ahora a tratar. . En este caso la segunda ley de Newton se escribe como: m d v(t) = −µv(t) dt (8. El problema o a o de amortiguamiento que antes vimos es de este tipo. vamos a aprender m´todos num´ricos para resolver ecuae e ciones diferenciales ordinarias (edo’s). sino de sus derivadas. La informaci´n sobre la soluci´n se da en el instante(punto) inicial. econ´micos. e 2. Por ejemplo en o o el caso anterior podr´ ser: v(0) + v(1) = 1. Son generalmente problemas ıa m´s dif´ a ıciles de resolver. la evoluci´n del ıa o comportamiento de ciertas variables satisface ecuaciones que dependen no s´lo de las o variables en si. ingenieriles. Estudiaremos dos problemas centrales en la teor´ ıa computacional de las ecuaciones diferenciales ordinarias: problemas de valores iniciales y problemas de contorno. pues dar la velocidad inicial v(0) = v0 es suficiente para determinar completamente la soluci´n. Si quisi´semos conocer los desplazamientos habr´ que dar una condici´n inicial e ıa o tambi´n para los desplazamientos. aunque tambi´n veremos el segundo como caso e particular de cierta clase de problemas en derivadas parciales.1) En esta parte de la asignatura. la ley que gobierna la velocidad de una masa deslizante sujeta solamente a los efectos friccionales.1 Introducci´n o Muchos modelos f´ ısicos. Problemas de contorno.

y1 . b] → I n x → y(x) que verifique : • y (x) = f (x.  2  →  2   ···  ··· fn (x. y → f (x. y → f (x. y) O sea f : [a. · · · . Ecuaciones de primer orden Sea f : [a. b] R y : [a. yn ) yn o Se busca. las ecuaciones diferenciales pueden ser clasificadas como: 1. b] × I n → I n R R    f1 (x. · · · .Dentro de los problemas de valor inicial. y1 . una funci´n y definida en [a. · · · . y . Sistemas de primer orden. b] × I n → I n R R x. b] × I → I R R x. b] → I R x → y(x) que verifique : • y (x) = f (x. b] o y : [a. y(x))      • y (x0 ) = y0 con y0 ∈ I n . y )  y  1 n    x. Sea f : [a. y) Se busca una funci´n y definida en [a. y(x)) • y (x0 ) = y0 La segunda condici´n se llama condici´n inicial. yn ) y1  f (x. o o 2. R 112 .

3. y )  Se realiza el cambio de variables:   y(x0 ) = y0 y (x0 ) = y0 u1 = y u2 = y El problema se convierte en un sistema de primer orden. y en general. con:   u1 = u 2    u = h(x. para resolverlos num´ricamente. Como se parte de un valor o valores iniciales. sino que las condiciones de contorno se refieren al valor de la funci´n en determinados sitios o instantes. Se conocen no los valores iniciales. se simula la evoluci´n e o del proceso mediante las ecuaciones diferenciales. En los problemas de contorno no tienen sentido este tipo de planteamientos. y. Una clasificaci´n muy o o importante de los m´todos utilizados para estimar esos valores se basa en qu´ informaci´n e e o se usa para hacer las sucesivas estimaciones. El ejemplo o del apartado anterior podr´ ser. terceras. Se reducen a un sistema de ecuaciones de primer orden con tratamientos semejantes al siguiente. Tendremos as´ ı 113 . Son ecuaciones diferenciales en las que intervienen derivadas segundas... u ) 1 2 2   u1 (x0 ) = y0   u2 (x0 ) = y0 En cuanto a los problemas de contorno. diferentes a los de valor inicial o Cauchy. nos centraremos unicamente ´ en problemas de valor inicial y dejaremos los problemas de contorno para el cap´ ıtulo siguiente estudi´ndolos como casos particulares de Ecuaciones en Derivadas Parciales. Ecuaciones diferenciales de orden superior a uno. el planteamiento consiste en ir avanzando hacia adelante a partir de esos valores. como ya hemos contado. Se tiene la ecuaci´n de la forma: o   y = h(x. y )  En los problemas de valor inicial. y. u . a partir de los valores anteriores.2 Ideas b´sicas para la resoluci´n num´rica de proa o e blemas de valor inicial Se desea tener una aproximaci´n de la funci´n y. o o que es en realidad donde vamos a estimar los valores de la funci´n. a   y(x0 ) = y0 y(x1 ) = y1 8.. b]. estos son. Se eligen una serie de puntos xi ∈ [a. De ahora en adelante. en este caso: ıa   y = h(x.

b] × I → I R R x. b] o y : [a. b] a = x0 < x1 < x2 < · · · < x n = b y se calculan los valores aproximados yi de y(xi ). yi . una funci´n y definida en [a. yi−1 . La abscisa. a a Se define.3 8. yi+1 = F (xi . y → f (x. yi−k .2) 2. el paso de la aproximaci´n como: o h= b−a . e f : [a. El c´lculo de yi+1 hace intervenir muchos valores previos. y(x)) • y (x0 ) = y0 Se eligen una serie de puntos xi ∈ [a.3. Estos conducen a resolver problemas no lineales en cada paso. xi−1 . por comodidad supondremos que los puntos son equidistantes. en un problema de evoluci´n en ıa e o el espacio y estacionario en el tiempo. e Principios de los m´todos de un paso. yi . · · · . y a o del incremento h. 114 0≤i≤n . n xi = a + ih. xi−k . aunque en la pr´ctica computacional no suceder´ esto. M´todos de varios pasos. b] → I R x → y(x) que verifique : • y (x) = f (x. h) (8. De hecho. como m´s a adelante veremos. e a yi+1 = F (xi . 8. variable independiente es normalmente el tiempo en los problemas de valor inicial. yi . M´todos de un paso. · · · . h) (8.1 Sea M´todos discretos de un paso para edos. xi . e El c´lculo de yi+1 hace intervenir s´lamente los valores del paso anterior. por tanto. que como siempre es la diferencia entre dos abscisas consecutivas. aunque podr´ ser tambi´n el espacio.3) Tambi´n hay m´todos llamados impl´ e e ıcitos que involucran valores de la funci´n todav´ o ıa desconocidos.1. y) Se busca.

8.El problema de evoluci´n tiene su reflejo en la esencia de los m´todos de integraci´n.2 Ejemplo: M´todo de Euler. xi+1 ) . y0 ).3.4) El hecho es que no se conoce xi . y(xi )) (8. a Ejemplo 8. El m´todo de Euler consiste en aproximar ese valor por e xi . y(x)) • y (x0 ) = y0 Se usa la f´rmula de incrementos finitos en el intervalo (xi . o y(xi+1 ) − y(xi ) = hy (xi ). La aproximaci´n o o consiste en confundir la curva y su tangente. a proceder´ ıamos de modo an´logo tomando como referente A1 . a partir del valor estimado de la funci´n en la iteraci´n anterior. yi ) y0 = y(x0 ) La visualizaci´n de lo que estamos haciendo se presenta en la figura 8. xi < xi < xi+1 y (xi ) = f (xi . En ella se o conoce el punto A0 = (x0 . El esquema ser´ por tanto el siguiente: a yi+1 = yi + hf (xi . e Es el m´s sencillo de todos los m´todos de integraci´n num´rica de ecuaciones diferena e o e ıpico de un problema de valores iniciales. y(x0 )). en los m´todos de o e un paso. 5] 115 .3. o o Adem´s de su obvia sencillez. Para obtener A2 . y se conoce la tangente a la curva soluci´n en ese punto. y el valor de y (xi ) por y (xi ). Se ciales. b] → I R x → y(x) que verifique : • y (x) = f (x. o cuya pendiente viene dada por la expresi´n y (x0 ) = f (x0 . El o e o valor de la funci´n en el punto i + 1 del conjunto discreto se obtiene. para en un determinado momento disminuir el error si se estima que este puede ser muy importante.3. El planteamiento del problema es el t´ busca una funci´n y definida en [a. Se reemplaza el punto desconocido por A1 . que tiene su misma abscisa pero que est´ situado sobre la tangente. b] o y : [a. este tipo de c´lculo tiene la ventaja de que se puede cambiar a a el paso sin mayor problema.2.1 y =y y(0) = 1 x ∈ [0.

4 0.71828183 7.2514812 -0.0051199 114.0736 2. Aproximar la curva por su tangente. El o o k 0 1 2 3 4 5 10 15 20 25 x 0 0.8 1 2 3 4 5 y real 1 1.44 1.04102761 1. Tomamos un paso de h = 0.6 0.2361753 -0.413159 y aprox 1 1.2.985984 7.26277907 -0.48832 2.59815 148.22554093 2. El esquema ser´ el ıa siguiente: yi+1 = yi + hf (xi . La soluci´n anal´ o ıtica es y(x) = ex . Discretizaci´n.4884259 46.728 2.21859724 -0.1: Esquema de Euler.1: Error ejemplo esquema de Euler.43008371 18. yi ) = yi + hyi = yi (1 + h) Como y0 = 1 tendremos que: yi+1 = (1 + h)i+1 En la tabla 8.22140276 1. error se debe a dos causas: 1.59711103 8.26770217 -0.8221188 2.59303012 33.0855369 54.47546 error 0 -0.2 0.2 tenemos una representaci´n de la funci´n error.3.3.9376991 Tabla 8.2 y en la figura 8. o 116 .T0 A1 A0 h a a+h Figura 8.3890561 20.4918247 1.

2: Error ejemplo esquema de Euler.y la estabilidad o que el m´todo no sea muy sensible a los errores para c´lculos posteriores. tendremos el m´todo de Euler.3 Esquema general. A un m´todo le exigiremos varias cosas.5) 117 . e (8. yi+1 = F (xi . e a 8. 2. h) y0 = y(x0 ) si φ(x. Una vez puestos en situaci´n al haber estudiado el m´todo m´s sencillo.160 140 120 100 80 60 40 20 0 0 1 2 x y real y euler y 3 4 5 Figura 8. yi . y). haremos un o e a planteamiento general de los m´todos de un paso y definiremos con cierta precisi´n los e o conceptos que garantizan la bondad de una aproximaci´n. Los errores de redondeo: Debidos a las operaciones realizadas por el ordenador. h) = f (x. Como sabemos.3. yi . Sin duda las m´s importantes son la convergencia e a . y. el c´lculo de o a yi+1 hace intervenir los valores de xi y de yi . h) El esquema general ser´: a yi+1 = yi + hφ (xi .que la aproximaci´n sea tan buena como queramos bajando el paso .

0 2. entonces el error e = yj − y(x) ≈ M (2h0 )p . Supongamos que el m´todo es o e de orden p. m´s alta cuanto m´s peque˜o es el paso de integraci´n. cu´nto m´s grande sea p.1 Si φ verifica la condici´n de Lipschitz respecto a la segunda variable. y (xi ).n Una vez que se ha acotado el error de discretizaci´n.3.n i=0. o o Que se sepa a priori el orden de un m´todo no es suficiente para elegir el paso si se desea e que el error sea inferior a una cota dada . entonces: e max |ei | = max |yi − y (xi )| = O(hp ) i=0. Sabiendo que el error no debe superar la cota dada. o e Se define el error de la discretizaci´n en la iteraci´n i como ei = yi − y (xi ). y (xi ) . Se integra con un paso 2h0 . ˜ ˜ 3. e m´s o menos que: a y (xi+1 ) = y (xi ) + hφ (xi . y que el error de discretizaci´n sea de orden p.n y (xi+1 ) − y (xi ) − φ (xi . y o si el m´todo es de orden mayor o igual que p.3. se tendr´: a yk − yj = yk − y(x) + y(x) − yj ≈ M hp − M (2h0 )p ˜ ˜ 0 118 . Un m´todo o o e es de orden ≥ p si para toda soluci´n de y = f (x.6) El orden de un m´todo nos permite acotar de un modo muy preciso el error de dise cretizaci´n. de la m´quina. el valor que obtendr´ e ıamos ıa en xi+1 . y del programa. que si parti´semos de un valor correcto en xi . Se deben seguir los siguientes pasos.8. n 8. una medida del error de discretizaci´n. Los errores de redondeo hacen que al integrar perdamos un orden.5. el programador debe tener cuidado o con el error de redondeo. o Teorema 8. Orden de un m´todo. como hemos dicho. lo que estamos diciendo al definir el orden es. con error e = yk − y(x) ≈ M hp .3.4 Error de discretizaci´n. Explicamos una t´cnica que permite hacer e esto con una cierta precisi´n. vendr´ afectado de un error de orden p + 1. que depende del problema.5 Selecci´n del paso de integraci´n.7) O sea. h) = O(hp ) h (8. Por o tanto. y) o max i=0. Se integra con un paso h0 . y m´s peque˜o sea h. como nos lo demuestra el siguiente teorema. h) + O(hp+1 ) (8. a El orden de un m´todo da. e o que es inherente al m´todo. el error de discretizaci´n ser´ m´s a a a n o a a peque˜o. o a a n o Esta t´cnica es muy similar a la estudiada en 6. En realidad.7. 1. del cual no presentamos deo mostraci´n. y (xi ) . Imaginemos que buscamos h tal que e la estimaci´n de y(x) se obtenga con un error de orden .

8) 8. que seg´n el planteamiento general: u φ(x.M hp ≈ 0 y tenemos el sistema: M hp ≈ 0 y por tanto: h ≈ h0 yk − y j ˜ 1 − 2p yk − y j ˜ 1 − 2p M hp ≈ (1 − 2p ) yk − y j ˜ 1 p 8. o y (xi+1 ) = y (xi + h) = y (xi ) + y (xi ) h + O(h2 ) = y (xi ) + f (xi . y (xi ) . y) (8.9) 119 . e o Haciendo un desarrollo en serie de la funci´n y en un entorno de xi . uno. yi+1 = yi + hf (xi . y (xi )) h + O(h2 ) por tanto: y (xi+1 ) − y (xi ) − f (xi . y. que consist´ en aproximar la funci´n en un punto por e ıa o su tangente. h) = f (x. e M´todo de Euler. yi ) y0 = y(x0 ) O sea.4. y (xi )) = O(h) h el orden del m´todo es entonces.1 Diferentes m´todos de un paso. e y (xi+1 ) − y (xi ) y (xi+1 ) − y (xi ) − φ (xi . e Vimos ya el m´todo de Euler.4. El punto siguiente se obten´ proyectando la abscisa siguiente sobre su ıa tangente.2 Orden del m´todo de Euler. h) = − f (xi . y (xi )) h h El orden de un m´todo da una medida del error de discretizaci´n o truncamiento.4 8. e (8.

Los estudios de propagaci´n de errores son. errores de truncamiento. procede un estudio de la propagaci´n de los errores locales de discretizaci´n ız o o en el m´todo de Euler. De todos modos. y(x)) ∂f ∂f y (x) = (x.4 M´todo de Taylor. y (x) = f (x. la cual no ˆ es la situaci´n real de c´lculo. y).8. esta cota del error solamente es v´lida para el primer punto obtenido. en general muy e o dif´ ıciles. e h2 hp y (x) + · · · + y (p) (x) + O hp+1 2 p! Se puede construir un m´todo de orden p a partir del desarrolo en serie de Taylor. estamos o e aproximando la funci´n por su tangente. y) ∂x ∂y y (x) = · · · = g3 (x. etc. De hecho el caso m´s sencillo que es el de Euler ya es muy complicado. y) + (x. a pues el unico valor realmente exacto es el valor inicial. tenemos garantizado ya que el error total es de orden p si el m´todo es de orden p.3 M´todo de Euler: error de discretizaci´n. O sea. y (ξ))| h2 2 max |y (ξ)| ξ∈[xi . y (xi )) h + = h2 2 max |f (ξ.xi+1 ] ξ∈[xi .4. Los siguientes puntos de partida ´ incluyen el resultado de c´lculos previos y arrastran por tanto. y no a haremos estudios espec´ ıficos de este tema. tendremos que: o a y (xi+1 ) = y (xi + h) = y (xi ) + y (xi ) h + = o. Si usamos el desarrollo en serie de Taylor. A a ra´ de esto. siempre que la funci´n φ verifique e o la condici´n de Lipschitz para la segunda variable. e o El error de discretizaci´n en el m´todo de Euler se debe a que. y)y (x) = g2 (x. o 8. 120 .4.xi+1 ] Desgraciadamente. en un punto. de lo que se trata es de acotar el valor: o i = yi − y (xi ) ˆ donde yi es el valor obtenido partiendo de un valor exacto en el paso anterior. lo que es lo mismo: y (xi+1 ) = y (xi + h) = y (xi ) + f (xi . e y (x + h) = y (x) + y (x) h + h hp−1 (p) y(x + h) − y(x) = y (x) + y (x) + · · · + y (x) + O (hp ) h 2 p! Pero ahora podemos obtener cada una de las derivadas sucesivas.

5 M´todos de Runge-Kutta. ´ Afortunadamente. saliendo unas expresiones inmanejables.10) 8. y como vamos a ver ahora. e La soluci´n de una ecuaci´n diferencial por desarrollo directo de Taylor de la funci´n o o o e a objeto no es. e (8. y. Adem´s. e hizo contribuciones en el ´rea de o e a la f´ ısica de gases y ondas. Estudi´ en la universidad de Munich donde sigui´ los cursos de o o Max Planck y se hicieron buenos amigos. en general. Ambos pasaron a Berl´ en 1877. se puede conseguir el orden que queramos sin necesidad de recurrir a las derivadas sucesivas. como ya hemos comentado. y. Estos m´todos o e son los que se estudian en este ep´ ıgrafe. ı Martin Kutta(1867-1944) naci´ en una parte de Alemania que ahora pertenece a Polonia. respectivamente. Tambi´n tienen el incoveniente de que son o e dif´ ıciles de aplicar a sistemas de edos y sobre todo a edp’s. y) en dos. Es muy famoso tambi´n por el teorema de Kutta-Joukowsky. h). Byczyna. xi+1 ]. es posible deducir algoritmos de un paso que incluyen s´lo c´lculos de derivadas de primer orden. Las aproximaciones de orden p. con p > 4. Las siguientes derivadas se complican demasiado excepto en los casos m´s a a e sencillos.Con lo cual. y) + g2 (x. o Fue profesor en Munich.4. En esta idea se apoyan los m´todos de Runge-Kutta. y) φ(x. Las e aproximaciones de segundo. All´ estudi´ con Weirstrass ın ı o y Kronecker. y se llaman m´todos de Runge-Kutta 1 2 . Jena. h) = O (hp ) h con lo que el orden de m´todo ser´ p. porque en o a principio. pero que a su vez producen o a resultados equivalentes en exactitud a las f´rmulas de Taylor de orden superior. Ayud´ a Kutta con su m´todo para resolver edos. Aachen (Aquisgr´n) y finalmente en Stuttgart. a tienen como inconveniente el exigir a la funci´n f m´s clase de la necesaria. Runge trabaj´ en un procedimiento para la resoluci´n num´rica de ecuaciones algebraicas o o e (polin´micas en varias variables) en las que las raices se expresaban como series de funciones racionales o de los coeficientes. en el intervalo [xi . a partir del desarrollo de Taylor en cuanto sean precisos t´rminos de error de e ordenes elevados. y) + · · · + 2 p! tendremos que: y (xi+1 ) − y (xi ) − φ (xi . 1 121 . a o a 2 Carle Runge (1856 Gottingen-1927). s´lo necesitamos que sea continua. tercer y cuarto orden requieren el c´lculo de f (x. Sin embargo. lo que los hace a a menos rentables. h) = f (x. y (xi ) . El o precio que se paga es evaluar varias veces la funci´n f en cada paso. an´logo al m´todo de Euler. requieren el c´lculo de f (x. El m´todo de Rungea e Kutta lo present´ en 1901. un m´todo pr´ctico si se necesitan derivadas de orden mayor que uno. fundamental o e para el c´lculo de sustentaci´n por perfiles aerodin´micos. Lo o haremos aqu´ de modo detallado para orden dos y presentaremos las de orden 3 y 4. si tomamos: hp−1 h gp (x. y) en m´s de p puntos. De lo que se trata es de elegir adecuadamente la funci´n φ(x. e a El m´todo de Taylor ha sido tradicionalmente bastante poco utilizado porque las derivae das sucesivas son dif´ ıciles de calcular. a tres y cuatro puntos. Por ello no es posible obtener un algoritmo sencillo.

y + f (x.13) ∂f ∂f +f ∂x ∂y + O(h2 ) ∂f ∂f p1 + p2 f (x.11) 122 . y) 2a2 2a2 (8. y. 0) = a2 Por tanto φ(x. y. y + p2 hf (x. y. y) + h 2 2 El m´todo ser´ de orden dos si: e a y (xi+1 ) − y (xi ) − φ (xi . y. y. Y ) Si hacemos un desarrollo de esta funci´n en un entorno del cero de h. o φ(x. h) = (a1 + a2 )f (x. h) = (1 − a2 )f (x. y) + a2 f (x + p1 h. y) ∂x ∂y (8. y) h + O(h2 ) ∂x ∂y (8. p2 . y) + a2 f (X. y) + a2 f x + h h . sea de orden dos.M´todos de Runge-Kutta de orden 2. y) φh (x. y) + a2 Por otro lado: h h y(x + h) − y(x) = y (x) + y (x) + O(h2 ) = f (x. a2 . se tendr´ que dar que: a a1 + a 2 = 1 1 a2 p 1 = 2 1 a2 p 2 = 2 Dejando todo en funci´n de a2 o a1 = 1 − a 2 1 p1 = 2a2 1 p2 = 2a2 φ(x. h) = O(h2 ) h que si analizamos las expresiones. e Determinaremos los coeficientes a1 . para que la aproximaci´n de un paso que o se deduce de esta funci´n. 0) + φh (x. o φ(x. 0)h + O(h2 ) φ(x. y (xi ) . 0) = (a1 + a2 )f (x. y. h) = a1 f (x. y)) = a1 f (x. p1 . y. y. h) = φ(x.12) ∂f ∂X ∂f ∂Y + ∂x ∂h ∂y ∂h = a2 ∂f ∂f p1 + p2 f (x.

que nos queda un par´metro libre a2 . yi ) + f xi + h. lo que estamos haciendo es aplicar dos veces el m´todo de Euler. a o que es una estimaci´n previa de yi+1 . y i+1 es la ordenada en xi+1 de la recta 1 o de la figura 8. y))] 2 (8. yi ) con pendiente f (xi . yi ) el punto y i+1 . yi ) + f xi + h. yi ) + f (xi + h. al que podemos darle el valor que nosotros a queramos. y i+1 ) 2 123 . h) = y. y + hf (x.17) y i+1 = yi + hf (xi . e yi+1 = yi + yi+1 = yi + h f (xi . Presentamos e e e su interpretaci´n geom´trica en la figura 8.15) (8. yi ) A este m´todo se le llama el m´todo de Euler mejorado o m´todo de Heun. y) + f (x + h.3: M´todo de Euler mejorado o m´todo de Heun.16) (8. yi ))] 2 que puede escribirse tambi´n en la forma. o e En esencia. A continuaci´n se mejora o la estimaci´n por medio de la ecuaci´n 8.16.3. yi + hf (xi . tendremos: φ(x. Es decir. y i+1 ) 2 (8. yi ).14) h [f (xi . que pasa por (xi . Si cogemos a2 = 1/2. por tanto: 1 [f (x. yi+1 ) 1 yi 2 yi+1 h xi x i+1 Figura 8.3.O sea. o o yi+1 = yi + h f (xi . e e lugar estimamos del modo cl´sico con la ecuaci´n y i+1 = yi + hf (xi . y. En primer e yi+1 pendiente= f (x i+h .

aproximaciones a la derivada en varios puntos del intervalo [xi . h) = ak1 + bk2 + ck3 (8... y (xi+1 )). yi ) 2 2 A este algoritmo se le llama el m´todo mejorado del pol´ e ıgono o m´todo de Euler modifie cado. xi+1 ]. Primero se e obtiene una aproximaci´n de y i+ 1 en el punto medio. e a a Si cogemos a2 = 1.17 resulta ser el m´s sencillo de los a m´todos predictor-corrector que se estudiar´n m´s adelante con detalle.22) Hay que imponer la condici´n de tercer orden para obtener una relaci´n entre las conso o tantes a.La pendiente de la recta 2 utilizada en este caso es la media ponderada de las aproximaciones de f en ambos extremos del intervalo. podemos escribir el algoritmo de aproximaci´n como: o h yi+1 = yi + hf xi + . mientras que la ecuaci´n definitiva puede considerarse coo o mo una ecuaci´n correctora que produce una mejor estimaci´n de yi+1 . o (m) . En este caso el par de ecuaciones 8. c. k3 . Obs´rvese que como y (xi+1 ) es dee sconocido.23) . p. En este caso se tiene: k1 = f (xi . yi ) k2 = f (xi + ph. Por e a ejemplo la funci´n incremento para el m´todo de tercer orden es: o e φ(x.. El algoritmo de Euler puede considerarse en este caso como una ecuaci´n predictora de y i+1 . k2 . y utilizamos el valor de la derivada en este punto para el total del intervalo. y) 2 2 y. e Los m´todos de Runge-Kutta de orden superior se obtienen de modo an´logo. yi+1 .4. Esta ecuaci´n o o o (1) (2) puede utilizarse iterativamente para obtener una sucesi´n de valores corregidos yi+1 .21) siendo k1 .20) y i+ 1 = yi + f (xi ..18) h (8. por tanto.19) (8. yi + shk2 + (r − s)hk1 ) (8.. y. y i+ 1 2 2 (8. h) = f x + . se aproxima por el valor f xi+1 ..8.yi+1 . b. y i+1 ) . f (xi+1 . y. M´todos de Runge-Kutta de orden 3. tendremos: h h φ(x. Calculamos el valor de la derivada o 2 en ese punto. yi + phk1 ) k3 = f (xi + rh. y + f (x. Presentamos su interpretaci´n geom´trica en la figura 8. r. s. el verdadero valor de la derivada en xi+1 . o e En este caso se utiliza de nuevo dos veces sucesivas el m´todo de Euler. El m´s famoso de los m´todos de tercer orden es: a e h yi+1 = yi + f (k1 + 4k2 + k3 ) 6 124 (8.16.

Su esquema general es yi+1 = yi + h (ak1 + bk2 + ck3 + dk4 ) (8. k1 = f (xi . yi + hk3 ) (8.24) siendo k1 .pendiente= f ( x i+h/2 . aproximaciones a la derivada en varios puntos del intervalo [xi . xi+1 ]. k2 . e Los m´todos de Runge-Kutta de orden cuatro exigen la evaluaci´n de la derivada en e o cuatro puntos para cada paso.25) 125 .yi+1/2) yi 1 yi+1/2 2 yi+1 h/2 h/2 xi x i+1 Figura 8. y i + k 1 2 2 k3 = f (xi + h. yi ) h h k 2 = f xi + . y i + k 2 2 2 f (xi + h.4: M´todo de Euler modificado o m´todo del pol´ e e ıgono. y i + k 1 2 2 h h f xi + . k4 . yi + 2hk2 − hk1 ) M´todos de Runge-Kutta de orden 4. k3 . yi ) h h f xi + . El m´s famoso de los m´todos de cuarto orden es: a e yi+1 = yi + k1 = k2 = k3 = k4 = h (k1 + 2k2 + 2k3 + k4 ) 6 f (xi .

la idea matriz va a ser: e u yi+1 = yi−k + xi+1 xi−k Pf (x)dx (8. o e u El m´todo de Runge-Kutta tiene el inconveniente de que hace intervenir c´lculos de e a las derivadas en valores intermedios.28) y en realidad. · · · . e Introducci´n a los m´todos de paso m´ ltiple. que e o o nos va a servir de base luego para los algoritimos de paso m´ltiple. algunas veces de muy poco significado geom´trico. o Los m´todos de paso m´ltiple tienen dos inconvenientes bastante importantes. los m´todos se e llaman expl´ ıcitos. yi−q+1 . yi . · · · . con lo cual ser´ un m´todo de q pasos. Por un e u lado. En cada paso hay que resolver una ecuaci´n o un sistema de ecuaciones a veces lineal. yi−1 . yi−q+1 ) = 0 (8.30) donde Pf (x) es un polinomio que se obtiene por interpolaci´n de los valores obtenidos o desde i − q + 1 hasta i para la funci´n f (x. u En los m´todos de varios pasos. yi−1 .26) Cuando esa dependencia es impl´ ıcita. yi . xi−1 .yi−1 . e a xi−q+1 . xi−q+1 . al comienzo de la integraci´n. yi .5. yi+1 . Los m´todos de paso o o o e m´ltiple eliminan este problema. y(x)) dx Lo m´s sencillo para obtener a partir de . · · ·. · · · . o a e En los m´todos impl´ e ıcitos Pf (x) se obtiene por interpolaci´n de los valores obtenidos o desde i − q + 1 hasta i + 1 para la funci´n f (x.1 M´todos de paso multiple. los m´todos se llaman impl´ e ıcitos.5 8. y(x)) dx (8. xi−1 . yi . y(x)) dx (8. xi−q+1 . como nuestro problema es un problema de valor o 126 . Cuando esa dependencia se tiene explicitada. ser´ a ıa: yi+1 = yi + xi+1 xi f (x. xi−1 . o dependiendo de c´mo sea la ecuaci´n diferencial o o F (xi+1 . el c´lculo de yi+1 hace intervenir los valores xi .27) Otra forma de ver los m´todos de integraci´n es una formulaci´n de tipo integral. xi .29) En los m´todos de paso m´ltiple. yi−q+1 ) (8. y(x)).8. yi+1 = F (xi . A nosotros nos interesa el valor o o de la funci´n s´lamente en los nodos de nuestra discretizaci´n. a veces no lineal. e siendo adem´s puntos en los que en realidad a nosotros no nos interesa el valor que pueda a tener la funci´n y que se pierden de una iteraci´n a otra. · · · . En los m´todos de u e paso simple ten´ ıamos: dy = f (x. · · ·. lo que nostros hacemos es aproximar: φ (xi . h) h ≈ xi+1 xi f (x. y(x)).

y(x)) por una recta que se apoya en los puntos (xi . lo a o que se suele hacer es dar q − 1 pasos iniciales con un esquema de un paso de orden p. o sea.5. y q el n´mero de pasos involucrados en el u esquema. siendo p el orden del esquema multipaso 3 . P1 (x) = fi + fi − fi−1 (x − xi ) xi − xi−1 (8. en los e u a m´todos de paso m´ltiple esto no se puede hacer tan f´cilmente. y(x)) por su valor en el punto f (xi . a e o el algoritmo permite el ajuste del paso para que esto no suceda.33) xi+1 xi Pq (x)dx (8. y(x)) mediante un polinomio cuyo grado depende del n´mero de punu tos que usemos en el esquema multipaso. Generalmente. Ello motiva que para arrancar los m´todos de paso o e m´ltiple se recurra casi siempre a otros esquemas de un paso. AB2 Consiste en aproximar f (x. 8. Adem´s. yi+1 yi dy = xi+1 xi f (x. y debido u o a la precisi´n del esquema multipaso elegido. yi ) = yi + hfi que es precisamente el esquema euleriano. en los m´todos de un paso. e General.2 M´todos de Adams-Bashforth.32) Por tanto el esquema de Adams-Bashforth de segundo orden es: yi+1 = yi + 3 4 xi+1 xi P1 (x)dx = yi + h 3 1 fi − fi−1 2 2 (8.35) Se puede matizar la elecci´n del orden del esquema de arranque pero escapa al contenido del curso o valor inicial +q − 1 pasos = q valores iniciales para el esquema multipaso 127 .31) aproximamos f (x. por un polinomio de grado cero. s´lo se dispone de un valor. Usamos la filosof´ polin´mica que ıa o acabo de comentar. Sin embargo. Son un cierto tipo de m´todos multipaso expl´ e ıcitos. yi+1 = yi + AB1 Consiste en aproximar f (x. fi−1 ). ver figura 8. ver figura 8. si se detecta un error de discretizaci´n muy grande.6. los esquemas utilizados para el arranque o deber´n cumplir un cierto requisito en la precisi´n de sus resultados.inicial. 4 . En esta situaci´n.34) (8. y(x)) dx = yi+1 − yi (8. yi ) = fi . Por tanto el esquema que tenemos es yi+1 = yi + hf (xi . que ya sabemos que es de orden 1. fi ) y (xi−1 .5.

el esquema se traduce en una ecuaci´n en la que o queremos encontrar yi+1 como funci´n de una serie de par´metros entre los que tambi´n o a e est´ yi+1 . ver figura 8. fi ).5: M´todo de Adams Bashforth de orden 1. y as´ sucesivamente. tendremos el m´todo de Adams-Bashforth de cuarto e orden. yi ) P (x) 0 f (x. Veamos los m´s sencillos e importantes. Se caracterizan porque el polinomio de interpolaci´n de f (x. y(x)) tiene tambi´n en cuenta el punto (xi+1 . fi+1 ).37) 8. e General.f ( x i . y(x)) por una par´bola que se apoya en los puntos (xi . Si integramos esta aproximaci´n tendremos que: o yi+1 = yi + h (23fi − 16fi−1 + 5fi−2 ) 12 (8. fi−1 ) y (xi−2 .3 M´todos de Adams-Moulton. AB1. a (xi−1 . Pero este o e punto es desconocido. Consiste en aproximar f (x. e AB3. y por tanto.y) h x i-2 x i-1 h xi h x i+1 Figura 8. Son un cierto tipo de m´todos multipaso impl´ e ıcitos.7. Para un polinomio de tercer grado. fi−2 ). a a 128 .5. ı yi+1 = yi + h (55fi − 59fi−1 + 37fi−2 − 9fi−3 ) 24 (8.36) AB4.

yi 1−h Mostramos los resultados en la siguiente tabla. yi+1 ) = yi + hfi+1 (8.y) h x i-2 x i-1 h xi h x i+1 Figura 8. e AM1 Consiste en aproximar f (x.6: M´todo de Adams Bashforth de orden 2. 1] El esquema de Euler inverso para su resoluci´n ser´: o a yi+1 = yi + hf (xi+1 . cuyo estudio escapa al curso. Ejemplo 8.38) Este esquema se llama Euler impl´ ıcito o inverso. AB2.fi-1 fi P (x) 1 f (x. yi+1 = (8.40) 129 .1 Se tiene el problema siguiente: y =y y(0) = 1 x ∈ [0. ver figura 8. es de orden 1 y es muy importante porque tiene unas caracter´ ısticas de estabilidad privilegiadas. fi+1 ).5. y(x)) por su valor en el punto (xi+1 .39) (8. y que o hacen que sea muy utilizado en la integraci´n de ecuaciones diferenciales. yi+1 ) = yi + hyi+1 y por tanto.8. Por tanto el esquema que tenemos es yi+1 = yi + hf (xi+1 .

5241579 1.34985881 1.01375271 2.59374246 Euler Impl.11111111 1.f (x i-1 .9 1 Euler Expl. 1] El esquema de Euler inverso para su resoluci´n ser´: o a yi+1 = yi + hf (xi+1 .22140276 1.35794769 2.61051 1.y) P (x) 2 h x i-2 x i-1 h xi h x i+1 Figura 8. 1 1.32305731 2.8221188 2. yi+1 ) = yi + heyi+1 yi+1 = yi + heyi+1 que no se puede resolver de modo expl´ ıcito para yi+1 .7 0.14358881 2.22554093 2.6 0.1 1.58117479 2. (8.37174211 1.45960311 2.4 0.21 1.86797199 Exacta 1 1. 1 1.yi-1 ) f (x.88167642 2. AB3.71828183 Ejemplo 8.9487171 2.2 Se tiene el problema siguiente: y = ey y(0) = 1 x ∈ [0.64872127 1.8 0.5 0.41) (8.2 0.09075158 2.10517092 1.4918247 1.2345679 1.4641 1.771561 1.7: M´todo de Adams Bashforth de orden 3.69350878 1.5.3 0. e k 0 1 2 3 4 5 6 7 8 9 10 x 0 0.1 0.331 1.42) 130 .

ver figura 8.44) A este esquema en particular se le suele llamar m´todo de Crank-Nicholson. siempre para paso de integraci´n constante queda: e o yi + h (5fi+1 + 8fi − fi−1 ) 12 (8. y(x)) por una par´bola que se apoya en los puntos (xi+1 . tendremos el m´todo de Adams-Moulton de cuarto e orden.10. AM1. Si integramos esta aproximaci´n tendremos que. y as´ sucesivamente.45) AM4.11. Para un polinomio de tercer grado. fi ) y (xi−1 . fi+1 ).43) Por tanto el esquema de Adams-Moulton de segundo orden es: yi+1 = yi + xi+1 xi P1 (x)dx = yi + h fi + fi+1 2 (8. ver figura 8. fi ) y (xi+1 . y(x)) por una recta que se apoya en los puntos (xi . fi+1 ). fi−1 ).8: M´todo de Adams Moulton de orden 1. P1 (x) = fi + fi+1 − fi (x − xi ) xi+1 − xi (8. Consiste en aproximar f (x. a (xi . ı yi+1 = yi + h (9fi+1 + 19fi − 5fi−1 + fi−2 ) 24 131 (8. el o esquema num´rico.f (x. e AM2 Consiste en aproximar f (x.y) fi+1 P (x) 0 h x i-2 x i-1 h xi h x i+1 Figura 8.46) . e AM3.

el m´todo a una representaci´n expl´ e o ıcita para yi+1 . que los expl´ algebraicamente. los m´todos impl´ e ıcitos dan mejores resultados que los expl´ ıcitos del mismo orden adem´s de tener propiedades num´ricas (estabilidad y convergencia) mejores a e ıcitos. lo que se hace es sustituir la parte impl´ ıcita del corrector con el valor obtenido por el predictor. En general. los esquemas predictor e a corrector m´s usados. Para solucionar estos problemas estudiaremos los es muy dif´ m´todos predictor corrector que consisten en una t´cnica de resoluci´n aproximada de e e o e ıcitos en cada paso. y el predictor ser´ el hu´sped inicial de ese esquema ıa e 5 132 . pero a efectos pr´cticos. En la pr´ctica. El predictor se puede ver como resolver un problema de punto fijo en cada paso: y i+1 = T (yi+1 ). e General. Sin embargo. los m´todos multipaso impl´ a e ıcitos no se usan como se describi´ anteo riormente.como vimos en el m´todo de Euler mejorado -. En realidad. tienen la debilidad inherente de tener que convertir.5. son la combinaci´n de un multipaso expl´ a o ıcito con otro impl´ ıcito. Los de orden a a inferior se deducen f´cilmente habiendo entendido ´ste. los problemas planteados por los m´todos impl´ 8. que es el de cuarto orden. La combinaci´n de una t´cnica expl´ o e ıcita con una impl´ ıcita se llama m´todo e 5 ıa a predictor-corrector. a menudo ıcil. la filosof´ predictor-corrector es m´s general . a e En realidad.300 250 y real y euler explícito y euler implícito 200 150 y 100 50 0 0 1 2 x 3 4 5 Figura 8.9: Comparaci´n entre Euler expl´ o ıcito e impl´ ıcito para el ejemplo 1. Conclusi´n sobre los m´todos impl´ o e ıcitos de Adams-Moulton.4 M´todos predictor-corrector. Explicaremos el m´s usado. imposible. Se utilizan para mejorar las aproximaciones obtenidas mediante m´todos e expl´ ıcitos. y a veces. y el m´s complejo. Esto.

h (0) 9f x4 . 133 .fi f (x. y2 ) + 37f (x1 . y3 ) − 59f (x2 . y0 )) 24 4. y4 = y 3 + (0) (0) (0) h (55f (x3 . Si queremos m´s precisi´n. h (2) (1) y4 = y 3 + 9f x4 . y1 ) − 9f (x0 . y2 . como si estuvi´semos resolviendo un problema no lineal por aproximae ciones sucesivas. O sea: 1. pero sabiendo que u no tendemos a la soluci´n real y (x1 ) sino a la soluci´n del problema impl´ o o ıcito. y1 ) 24 De nuevo podr´ ıamos mejorar esta estimaci´n. Estos cuatro puntos se usan como o arranque el un Adams-Bashforth de orden cuatro. e Un planteamiento muy habitual es que si se necesita un m´todo de cuarto orden para e resolver un problema de valor inicial. AM2. y3 ) − 5f (x2 . 3. e M´todos de Adams-Bashforth-Moulton. Mejoramos y4 con AM4. meti´ndolo de nuevo en el multipaso o e impl´ ıcito. y4 19f (x3 . y2 ) + f (x1 . La estimaci´n en cada paso se mejora con un multipaso impl´ ıcito de tres pasos de orden cuatro AM4. y3 .y) fi+1 h x i-2 x i-1 h xi h x i+1 P (x ) 1 Figura 8. se obtengan los cuatro puntos para el arranque del multipaso mediante un Runge-Kutta de orden 4. Obtenemos con RK4 y1 . es mejor a o reducir el paso. y4 19f (x3 . en vez de iterar muchas veces sobre el corrector. Obtenemos con AB4 y4 .10: M´todo de Adams Moulton de orden 2. Tenemos y0 2. y2 ) + f (x1 . y3 ) − 5f (x2 . y1 ) 24 y4 = y 3 + (1) Podr´ ıamos hacer sucesivas mejoras(sea k es n´mero de mejoras).

yi−1 ) + 37f (xi−2 .fi-1 fi f (x.47) . yi−1 ) + 2f (xi−2 .y) fi+1 h x i-2 x i-1 h xi h x i+1 P (x) 2 Figura 8. yi−2 )) 3 134 (8. o a e En los m´todos de Adams el planteamiento era hacer k = 0. y ten´ e ıamos que: yi+1 = yi + xi+1 xi Pq (x)dx Pero k puede ser distinto de cero. yi+1 + 19f (xi . En a general: yi+1 = yi + (1) (0) h (55f (xi . AM3. Una vez obtenido este punto. yi+1 + 19f (xi . que es el de Milne-Simpson. y(x)). yi−2 ) 24 8. yi−1 ) + f (xi−2 . e xi+1 xi−k En los m´todos de paso m´ltiple la idea era: e u yi+1 = yi−k + P (x)dx donde P (x) es un polinomio que se obtiene por interpolaci´n de los valores obtenidos o desde i − q + 1 hasta i para la funci´n f (x. yi−2 ) − 9f (xi−3 . El predictor es el esquema a expl´ ıcito de Milne de orden 3 yi+1 = yi−3 + 4h (2f (xi .5.11: M´todo de Adams Moulton de orden 3.5 M´todos de Milne-Simpson. e 5. yi ) − 5f (xi−1 . Jugando con esta idea se obtiene uno de los esquemas predictor-corrector m´s usados. yi ) − f (xi−1 . yi−2 ) 24 ············ h (k) = yi + 9f xi+1 . los siguientes se obtienen de modo an´logo. yi−3 )) 24 yi+1 = yi + yi+1 (k+1) h (0) 9f xi+1 . yi ) − 5f (xi−1 . con lo cual ser´ un m´todo de q pasos. yi ) − 59f (xi−1 . yi−1 ) + f (xi−2 .

Aprendamos ahora a resolverlos. El planteamiento ser´: o a Sea f : [a. y ) 1 n x. y )  y(x0 ) = y0   y (x0 ) = y0 Se realiza el cambio de variables: u1 = y u2 = y El problema se convierte en un sistema de 1er orden. f : [a. b] → I n R x → y(x) que verifique : 135      . y) O sea. · · · . con:   u1 = u 2    u = h(x. Por ejemplo:   y = h(x. yi ) + f (xi−1 . yn )  y   f (x. y1 .y el corrector el esquema impl´ ıcito de Simpson de tercer orden yi+1 = yi−1 + h (f (xi+1 . Aprendimos que era sencillo reducir un problema de valor inicial de una ecuaci´n difeo rencial ordinaria de orden mayor que uno. u ) 1 2 2  u1 (x0 ) = y0    u2 (x0 ) = y0 a o o Adem´s vimos que la condici´n de existencia y unicidad de la soluci´n de un sistema de ecuaciones diferenciales ordinarias de primer orden era muy similar al de una unica ´ ecuaci´n. b] × I n → I n R R x. yi+1 ) + 4f (xi . b] o y : [a. yi−1 )) 3 (8. b] × I n → I n R R    y1 f1 (x. · · · . · · · . u .6 Edos de orden mayor que uno y sistemas de edos. y .48) 8. yn ) Se busca una funci´n y definida en [a. y → f (x. y1 . al de un sistema de ecuaciones diferenciales de orden 1.  2  →  2     ···   ··· yn fn (x. y.

y1 . y1.j + hk3. usando la notaci´n yi. 1. y2.j ) hk1. lo que es lo mismo. · · · .0 ··· yn (x0 ) = yn.n fi xj + . · · · .j + hk3. y2.7 Resumen.1 . modelizado mediante una edo y con informaci´n sobre o o la situaci´n de partida. que ya hemos estudiado.1 hk2. · · · . y1. · · · . · · · . pero hemos definido el orden de un m´todo e y lo hemos calculado en algunos casos.i + k4. admite un tratamiento num´rico potente y sencillo.j + .2 hk2.i ) 6 fi (xj . yn ) dx dy2 = f2 (x. y(x)) • y (x0 ) = y0 con y0 ∈ I n . 136 .n . · · · .j + 2 2 2 2 h hk2.49) 8.j + 2 2 2 2 fi (xj + h. y2. R o. El orden de un m´todo nos da una informae ci´n important´ o ısima sobre la calidad del mismo a efectos del error de discretizaci´n. yn.j + .j+1 = yi.2 . yn. y1.i = k2.j para denotar la estimaci´n de yi (xj ): o o dy1 = f1 (x. No hemos hecho estudios serios de error. y1 . Hay m´todos que para estimar el punto siguiente utilizan s´lo el valor anterior.• y (x) = f (x.j + hk3. y1 .n h .1 hk1. y en haremos como ejercicio alg´n Euler o alg´n RK de orden m´s bajo.j .j + . a yi.i = h (k1. y1.i + 2k3.i + 2k2. · · · .i = k4. yn ) dx y las condiciones de valores iniciales: y1 (x0 ) = y1. Un problema de evoluci´n. o e 2. Presentamos la generalizaci´n correspondiente o o a a u u al cl´sico RK4.0 La idea es que los m´todos usados para resolver sistemas de ecuaciones diferenciales e e ordinarias de primer orden son simplemente generalizaciones de los m´todos para una sola ecuaci´n.i = k3. yn ) dx ··· dyn = fn (x.0 y2 (x0 ) = y2. y2. y e o valores intermedios que no se almacenan en memoria. yn.j + fi xj + . ) (8.j . yn. que es el m´s lioso.j + k1.2 hk1. o 3.

y que con mayor sencillez e algor´ ıtmica consiguen igual orden de aproximaci´n que m´todos de un paso m´s o e a complicados. 8. 6. y luego resueltas. [16]. 137 . Hay otros m´todos que usan muchos puntos ya calculados.[3]. 5.8 Referencias recomendadas para este tema. y las ecuaciones de mayor orden que uno pueden ser reducidas a sistemas de primer orden. Los sistemas de edos de primer orden admiten tratamientos similares.[2]. Dentro de estos m´todos multipaso existen algoritmos predictor corrector de muy e e buen comportamiento num´rico.4.

2) (9. esa barra o sufrir´ unas variaciones en la temperatura de sus puntos. aunque en este cap´ ıtulo s´lo estudiaremos las o parab´licas y las el´ o ıpticas.1) ∂x2 ∂y ∂t ∂2f ∂2f + 2 =0 ∂x2 ∂y ∂2f ∂2f ∂2f + 2 = 2 ∂x2 ∂y ∂t (9. ∂2f ∂f ∂2f + 2 = (9.1 Introducci´n o Se utilizan las ecuaciones en derivadas parciales (edp’s) para modelizar fen´menos que o son simult´neamente dependientes de varias variables.2 Ecuaciones parab´licas o Las ecuaciones parab´licas se refieren a problemas de evoluci´n temporal. Un fen´meno o o o muy importante gobernado por una ecuaci´n parab´lica es la transmisi´n de calor en o o o r´gimen transitorio. Presentamos un ejemplo o de cada una de ellas en orden correlativo. Estas variaciones siguen la a siguiente ecuaci´n diferencial en derivadas parciales parab´lica. Si tenemos una barra sometida a temperaturas variables en los e extremos. o o ∂T ∂ k ∂x ∂x = ρcp ∂T ∂t .Cap´ ıtulo 9 Ecuaciones diferenciales en derivadas parciales: M´todo de las e diferencias finitas 9.3) 9. Las edp’s que vamos a manejar van a poder clasificarse como parab´licas. o que parte de una condici´n inicial diferente a la de los extremos. el´ o ıpticas e hiperb´licas. Las variables independientes son a casi siempre el tiempo y las variables espaciales.

y sabiendo el valor de la temperatura en los extremos en todos los instantes temporales.k+1 y la ecuaci´n es lineal en ese valor. Se utilizan para resolver las ecuaciones de la resistencia de materiales en muchos c´digos comerciales. Este tipo de t´cnicas se llaman diferencias finitas. A continuaci´n se introducen las nuevas e o variables. y discretizar la segunda derivada espacial con un operador de tres puntos centrado. el m´s sencillo.k ) h2 139 (9. a Ti.k + ∆t (Ti+1. t) = g1 (t) 0<x<1 0<t≤A 0<t≤A Vamos a integrar num´ricamente esta ecuaci´n parab´lica.4) que es un ejemplo claro de edp parab´lica. Otra familia de t´cnicas muy importantes ´ e son los elementos finitos.k+1 − Ti.6) . Si k se considera constante. Lo primero que hay que e o o hacer es discretizar tiempo y espacio. Lo m´s sencillo es discretizar las derivadas temporales con un operador de a dos puntos. ρ y cp definen respectivamente o a la conductividad t´rmica. hay que tener un ∆t y un ∆x.k = ∆t h2 (9.k + Ti−1. Una vez discretizadas las variables independientes hay que escribir de modo discreto la ecuaci´n o diferencial. Estos m´todos escapan al contenido del curso. Por tanto. en las que L representa una longitud caracter´ ıstica del problema.k+1 = Ti.5) Lo unico desconocido en esta ecuaci´n es Ti. densidad y calor espec´ e ıfico de la varilla. se puede volver a escribir la ecuaci´n en la forma: o α ∂2T ∂T = 2 ∂x ∂t α= k ρcp α recibe el nombre de difusividad t´rmica. O sea: T (x.k + Ti−1. y τ el tiempo adimensionalizado. As´ ı. Con estos cambios de variables. τ = αt/L2 . o e Ti. la ecuaci´n diferencial se convierte o en: ∂2T ∂T = 2 ∂X ∂τ abusando de la notaci´n podemos volver a escribir o ∂2T ∂T = ∂t ∂x2 0 < x < 1.en cuya ecuaci´n T define a la temperatura. 0) = f (x) T (0.k al valor de la temperatura en el punto i en el instante k. X = x/L.k − 2Ti. por ´ o o lo que puede ser despejado f´cilmente para tener. t) = g0 (t) T (1. 0<t≤A (9. y los valores k.k Ti+1. Este problema ser´ casi siempre propuesto o a sabiendo los valores iniciales de la temperatura en toda la barra. X la variable independiente espacial adimensionalizada. denominaremos Ti. y ser´n las a e a unicas que estudiemos para resolver edp’s.k − 2Ti.

j − Ti−1.j − Ti+1. y podremos plantear y resolver ese sistema lineal en cada paso de tiempo. que viene dada por una funci´n g(x. Se considera una placa plana Ω.j + Ti−1.j − Ti. y conocemos los valores en los extremos siempre. Gobierna por ejemplo la transmisi´n o o de calor en r´gimen permanente.Como conocemos las condiciones iniciales.j − 2Ti. Para resolverlo se discretiza el dominio Ω. tendremos un n´mero igual de ecuaciones o u e inc´gnitas. Si as´ fuese tendr´ en el primero. 9. Este tipo de problemas se llaman problemas de Dirichlet.j−1 = 0 140 (9.8) Si se imponen ciertas condiciones sencillas sobre las propiedades de Ω y si g es continua.j+1 − 2Ti. que llamaremos impl´ ıcito.j+1 − Ti. u Una variante muy interesante pasa por tomar la derivada espacial en el instante k + 1. se puede demostrar que este problema tiene soluci´n unica como indica la intuici´n f´ o ´ o ısica. La m´s importante ecuaci´n el´ a o ıptica es la ecuaci´n de o Laplace.3 Ecuaciones el´ ıpticas Las ecuaciones el´ ıpticas se refieren normalmente a problemas de contorno en los que no interviene la variable tiempo. Tendremos entonces: Ti.k+1 + Ti−1. por analog´ con las edos. todos los valores en el instante k + 1. El problema se formula entonces como o encontrar un funci´n T (x. Sin embargo.k+1 (9. En los ejercicios profundizaremos estos conceptos.k+1 − 2Ti. el hecho de tener que resolver un sistema lineal en e a cada paso no es gran problema.j Ti.j + Ti. y se plantea en cada nodo de la discretizaci´n o la ecuaci´n diferencial escrita de modo discreto.9) .2. y e tendremos siempre una estimaci´n muy buena del hu´sped inicial. y) que verifique: o Txx + Tyy = 0 en Ω T (x. dado que podemos hacerlo con un m´todo iterativo. Adem´s. la temperatura en el interior est´ gobernada por la ecuaci´n de a o Laplace. y). o o Ti+1. y) = g(x.k+1 − Ti. tiene muy buenas ıa propiedades num´ricas. Vamos a aprender a resolver este problema en el que las condiciones de contorno o o se refieren al valor de la funci´n inc´gnita en la frontera. o Este esquema. que es la que se present´ como ejemplo9.k Ti+1.7) = ∆t h2 Tenemos 1 ecuaci´n y 4 inc´gnitas. o o si escribimos esta ecuaci´n en todos los nodos. el valor en el instante o e anterior. el esquema de avance no tiene ning´n problema. y) en ∂Ω (9.10) (9.j−1 + =0 hx2 hy 2 Si los espaciados son iguales en la direcci´n x e y tendremos: o 4Ti. ∂Ω. Podr´ ser que en el contorno supi´semos derivadas de la funci´n ıa e o o ı ıamos un problema de Neumann. Si tenemos una placa sometida a un nivel t´rmico e e constante en sus bordes. donde ahora el primer ´ o ındice se refiere a nodos en la direcci´n x. Se conoce el valor de la temperatura en la frontera de Ω. Nosotros nos centraremos inc´gnita. y el segundo a nodos en la direcci´n y.

j + b∆xTx + .1: Contorno irregular. pues los puntos de la frontera no est´n a la misma distancia que el resto de los o a nodos.1.9. Es un sistema diagonalmente dominante cuya o resoluci´n no debe plantear ning´n problema con cualquier m´todo iterativo.j) bDx C B Figura 9.1 Discretizaci´n del operador de Laplace con contornos irreo gulares. o u e Si el espaciado no es el mismo hay que mantener la ecuaci´n 9. (b∆x)2 Txx + O ∆x3 2! 141 TB = Ti. Sea el contorno irregular de la figura 9. el recinto o a no es rectangular. 9. El procedimiento consiste en escribir los necesarios desarrollos en serie de Taylor y eliminar las derivadas que no nos interesen: E D A aDx (i-1.j) Dx y x Dx (i.j-1) (i. Imaginemos que queremos discretizar la ecuaci´n de Laplace en el punto (i.Si escribimos esta ecuaci´n en cada uno de los nodos obtendremos el sistema lineal que o nos da la soluci´n discreta del problema. hay que pensar una alternativa a la ecuaci´n. sino que tiene froteras irregulares.3. j) de la ret´ o ıcula. y si adem´s.

El tratamiento es aparentemente demasiado simplificado pero creemos que ajustado al tiempo disponible. 9. los de la frontera. Plantean problemas muy importantes desde el punto de vista num´rico y sirven bien e como cierre del curso. Son las m´s sencillas y sufie a cientemente generales como para resolver problemas muy complicados. 9. El procedimiento podr´ repetirse para otra pareja de puntos tales como D y E ıa de la misma figura. y quiz´ la que m´s acerque a ´stas a la realidad f´ a a a e ısica. pasan al t´rmino independiente del sistema e e lineal.j−1 = Ti.12) Los t´rminos conocidos.j 2 + + + − 2 b+1 (∆x) a + 1 a(a + 1) b(b + 1) ab (9.5 [3]. Las hemos estudiado con t´cnicas de diferencias finitas. sobre todo de derivaci´n num´rica y resoluci´n de sistemas lineao e o les. 142 .j − ∆xTx + (∆x)2 Txx + O ∆x3 2! (b∆x)2 TA = Ti.j + a∆xTy + Tyy + O ∆x3 2! (∆x)2 Tyy + O ∆x3 Ti. [8]. ya que dan lugar a problemas muy interesantes que combinan conocimientos previos.11) Eliminando Tx y Ty obtenemos: Txx + Tyy = Ti−1. Referencias recomendadas para este tema.Ti−1.j − ∆xTy + 2! (9.j Ti.j = Ti.j−1 TA TB (a + b)Ti.4 Resumen Las ecuaciones en derivadas parciales son sin duda una de las disciplinas m´s impora tantes dentro de las matem´ticas.

.L. J.D. Libro que ha servido de base para toda la parte de interpolaci´n y aproximaci´n. y muy did´ctico. Ha servido de base para ıa a la parte de ecuaciones y sistemas no lineales.. G. J. Mariano. [5] Gasca Gonz´lez.O. An´lisis num´rico. Labor. G. 2001. Texto enciclop´dico (640 p´ginas) que est´ bastante bien. A. ISBN 84-362-2118-4 Libro de teor´ de la UNED. A. [7] Hammerlin. 1990.Wilkes.. M´xico. Universidad Nacional de Educaci´n a a a e o Distancia... a a e 1993. Libro con problemas muy interesantes. Cl´sico en la materia. L. Bastante bueno. vectorial... Secci´n de Publicaciones. Springer-Verlag 1991. Texto muy bueno sobre sistemas lineales. Algunos de los ejercicios propuestos en las hojas de apuntes son ejercicios propuestos tambi´n en la parte final de los cap´ e ıtulos de este libro. Editorial Rueda. pero que se convierte m´s en un e a a a libro de m´todos que de an´lisis. e a n a a [4] Fern´ndez Jambrina. R. con un nivel medio-alto. [6] Golub. Scientific Computing. Universidad Polit´cnica de Madrid. A. Si 143 . Luther. Hoffmann. B. J. Escuela T´cnica ıa o e Superior de Ingenieros Navales. pero todo muy bien explicado sin meterse en complicaciones.. Trata muy bien la parte de ecuaciones diferenciales. Tensores y Campos. Faires. [2] Burden.. A.Bibliograf´ ıa ´ [1] Aubanell. e Texto muy adecuado para el estudio de las propiedades m´tricas de los espacios de matrie ces. Grupo Editorial Iberoamerica. 1993. K-H. Utiles b´sicos de c´lculo num´rico. a a e e [3] Carnahan. tensorial en Geometr´ Diferencial. An introduction with parallel computing. Barato para su tama˜o. Numerical Mathematics. Delshams. C´lculo num´rico. Temas de an´lisis funcional. Es o o un libro francamente bueno. C´lculo num´rico: m´todos. Ortega. aplicaciones. Benseny... Academic Press. a e e Libro muy bueno. Inc. Caro. con muchos ejemplos.M.

Revista a e obras p´blicas. Presses Polytechniques et Universitaires Romandes.. Texto adecuado para ampliar la parte de resoluci´n num´rica de sistemas lineales. Cheney. Initiation a l’Analyse Numerique. aunque a veces se deja demasiadas cosas sin explicar. Explica muy a bien la teor´ general de Interpolaci´n Lineal. o e [10] Linz. Servicio de Publicaciones. derivaci´n y n o o ´ ecuaciones diferenciales. Herramienta b´sica de trabajo pues contiene resueltos todos los problemas de ex´menes a a de los ultimos a˜os. u No hay libros de problemas buenos. M. P. Secci´n de publicaciones a a e o ETSIN. a e a a e Addison-Wesley Iberoamericana. Demasiado caro para lo a que es. y c´lculo de autovalores. Algebra lineal num´rica. y debe ser barato..una vez que hay´is terminado la asignatura.M. Cubre muy bien la parte de ecuaciones en derivadas parciales. A. Willsky. ISBN/ISSN 84-7493-173-8. R. Signals and systems. A. a [15] Souto. R. 1979 Libro con un contenido de an´lisis muy grande. a e o Texto que cubre muy bien la parte de sistemas lineales.. no lineales. pero puestos a comprar un libro. pero sigue siendo un libro muy did´ctico.. J. J. Theodor. o [12] Puy Huarte. P. Picasso.. An´lisis num´rico. y tiene multitud de problemas propuestos. Texto de tipo medio. Secci´n de publicaciones ETSIN. Libro bastante peque˜o que ha servido de base para la parte de integraci´n. A. 3 edition. Cubre casi ıa todas las partes de la asignatura. Tomes I. 1998. D. es una excelente libro para volver sobre ´l m´s adelante e a [8] Kincaid.S. [9] Lascaux. Madrid 1994.W. Analyse Numerique Matricielle Appliquee a l’Art de l’Ingenieur. Texto de referenica para la aproximaci´n por m´ o ınimos cuadrados mediante funciones peri´dicas. Problemas de c´lculo num´rico. PrenticeHall International. aunque no cubre toda la asignatura. Ultimamente no me gusta mucho. Problemas de ex´menes de C´lculo Num´rico. ten´is la sensaci´n de que hab´is aprendido a e o e y os ha gustado. Cae un poco hacia la parte de m´todos. Theoretical numerical analysis: an introduction to advanced techniques. Creo que lo venden en Caminos. ıa o [11] Oppenheim. Las matem´ticas del c´lculo ci´ntifico. J. II. ´ n [16] Theodor. Masson 1987. John Wiley & Sons. 1994. La teor´ es bastante completa y no muy complicada. ´ste es ahora mismo el que e e recomiendo. S. Texto muy bueno. 144 .. 1997. Masson 1989. Hamid Nawab. De los que conozco este es el mejor. [13] Rappaz.V. [14] S´nchez. Introduction a l’analyse numrique.

Sencillo y con buenos ejemplos. Szidarowsky.[17] Yakowitz. S. F. An introduction to numerical computations. Macmillan Publishing Company.. 145 . Buen libro de consulta.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->