Está en la página 1de 143

ELEMENTOS DE C

ALCULO NUM

ERICO
Ricardo G. Duran, Silvia B. Lassalle y Julio D. Rossi

Indice General
Captulo 1. Punto otante y redondeo 1
Captulo 2. Normas y condicionamiento de una matriz. 13
Captulo 3. Resolucion de sistemas lineales. 29
1. Metodos directos 29
2. Metodos iterativos 34
Captulo 4. Resolucion de ecuaciones no lineales. 55
1. Metodo de bisecci on. 55
2. Metodo regula falsi 58
3. Metodo de Newton-Raphson. 59
4. Metodo de punto jo 66
5. Metodo de la secante 69
Captulo 5. Interpolacion 75
1. Interpolacion de Lagrange 75
2. Error de interpolacion 77
3. Forma de Newton 78
4. Polinomios de Tchebychev - Minimizaci on del Error 81
5. Interpolacion de Hermite 87
6. Interpolacion por polinomios a trozos o splines 89
Captulo 6. Polinomios ortogonales y aproximaci on por cuadrados mnimos. 93
1. Preliminares 94
2. Solucion de los Problemas de Aproximaci on 99
Captulo 7. Integraci on numerica. 109
1. F ormulas simples de Newton-Cotes 112
2. Estimaci on del error 113
3. F ormulas de cuadratura compuestas 114
4. Cuadratura Gaussiana 118
Captulo 8. Resolucion de ecuaciones diferenciales ordinarias. 123
1. Metodos de Euler y Taylor de orden k 124
2. Metodos de Runge-Kutta 125
3. Metodos de paso variable 127
4. An alisis de los Errores 129
5. Metodos multipaso lineales 133
3
CAPTULO 1
Punto otante y redondeo
El objeto de esta secci on es analizar la representaci on de los n umeros en una computadora y la
propagacion de los errores de redondeo al realizar c alculos.
Como la cantidad de informaci on que puede guardarse en una computadora es nita, la m aquina
trabajar a s olo con un conjunto nito de n umeros. A estos los llamaremos n umeros de m aquina.
En consecuencia, toda vez que de nuestros datos o c alculos surja un n umero que no pertenece a
este conjunto nito, este deber a ser reemplazado por una aproximaci on (el n umero de m aquina
mas cercano). Este reemplazo da lugar a lo que llamamos errores de redondeo.
Al realizar c alculos estos errores de redondeo se propagan y esto puede llevar a resultados
totalmente incorrectos como veremos en algunos ejemplos simples.
En las aplicaciones del c alculo numerico es pr acticamente imposible determinar exactamente la
magnitud de los errores de redondeo. Lo que si puede hacerse, y es de fundamental importancia,
es identicar las posibles causas de que los errores se propaguen m as de lo admisible. Esto
permite mejorar los algoritmos o determinar que metodo es m as conveniente para resolver un
problema. Un claro ejemplo de esto, que veremos m as adelante, aparece cuando se utiliza el
metodo de eliminacion de Gauss para resolver un sistema de ecuaciones lineales. En este caso,
el an alisis de la propagacion de errores permite determinar la forma m as eciente de aplicar el
metodo.
Por otra parte, es fundamental distinguir cuando la propagaci on excesiva de errores se debe a
que el algoritmo utilizado es malo o inestable o a que el problema en s mismo est a mal
condicionado. En el primer caso se puede (se debe!) tratar de mejorar el metodo de resoluci on
mientras que en el segundo caso el problema es m as esencial. Los ejemplos que presentaremos
ilustrar an estos dos casos.
En lo que sigue supondremos que los n umeros de m aquina son los que aparecen en la pantalla.
Esto no es exacto pues en realidad la computadora opera internamente con los n umeros desarro-
llados en base 2 y no en base 10. Este abuso de lenguaje es s olo para mayor claridad (el lector
podr a observar que todo nuestro an alisis puede repetirse trabajando en base 2).
Observemos primero que un n umero real cualquiera, x IR, x > 0, puede escribirse como
x = 0, a
1
a
2
.....a
k
......10
l
= r 10
l
,
1
10
r < 1 (es decir, a
1
,= 0)
2 1. PUNTO FLOTANTE Y REDONDEO
Pero en una computadora no se pueden poner innitos dgitos. Por lo tanto, se trabaja s olo
con n umeros de desarrollo nito y de una longitud dada. De la misma forma, el exponente l
(es decir el orden del n umero) estar a limitado a cierto rango. En consecuencia los n umeros de
m aquina ser an de la forma
x = 0, a
1
a
2
....a
m
10
l
= q 10
l
M
1
l M
2
, , a
1
,= 0
mas los correspondientes negativos y el cero. Los n umeros m, M
1
y M
2
dependen de la m aquina.
Esta representaci on de los n umeros es la que se llama de punto otante.
Los n umeros de m aquina forman un conjunto nito de n umeros racionales. La cantidad de
n umeros de maquina que hay entre 1/10 y 1 es,
#x / 1/10 x < 1 = 9 10
m1
.
En general, la cantidad que hay entre 10
l
y 10
l+1
es tambien 9 10
m1
. Esto nos dice que
los n umeros de m aquina no est an uniformemente distribuidos. S lo est a el subconjunto que
est a entre 10
l
y 10
l+1
para cada l. En particular, los n umeros m as grandes est an m as separa-
dos. Resulta util para la comprensi on hacer un dibujo de los n umeros de m aquina en la recta
numerica (Ejercicio). Al analizar la propagaci on de errores de redondeo se aclarar a por que esta
distribuci on de los n umeros es mas razonable que una uniforme.
Sea x IR. Para simplicar notaci on supondremos x > 0 (claramente todas las consideraciones
que haremos se aplican an alogamente a los n umeros negativos). Hay dos posibilidades: que x
este o no en el rango de los n umeros de m aquina. Si al hacer c alculos aparece un n umero en
la segunda situacion, por ser muy grande o muy chico, la computadora nos dar a un mensaje
indic andolo.
Supongamos entonces que x est a en el rango de la m aquina, o sea,
x = 0, a
1
a
2
....a
m
.......10
l
M
1
l M
2
, a
1
,= 0
Este x est a entre dos n umeros de m aquina,
x

x x

Supongamos, para simplicar, que a


m
,= 9 (analice el lector el caso contrario). Entonces tenemos
x

= 0, a
1
a
2
....a
m
10
l
y
x

= 0, a
1
a
2
....(a
m
+ 1)10
l
Hay dos formas de aproximar a x. Una es por truncamiento: se elige siempre x

es decir el
mayor de los n umeros de maquina que son menores que x. La otra forma es tomar el m as
1. PUNTO FLOTANTE Y REDONDEO 3
pr oximo a x entre x

y x

. A esta forma de aproximar se la conoce por redondeo y es la que


usan habitualmente las computadoras.
Veamos que error cometemos al aproximar un n umero por redondeo. Usaremos la notaci on
x

= x redondeado
El error absoluto ser a
[x x

[
1
2
1
10
m
10
l
Mientras que el error relativo se puede acotar de la forma siguiente
[x x

[
[x[

1
2
10
lm
0, a
1
a
2
....a
m
....10
l
y como
0, a
1
a
2
....a
m
....
1
10
se tiene que
[x x

[
[x[
5 10
m
Es decir que el error relativo es del orden de 10
m
si nuestra m aquina trabaja con m dgitos.
Es importante observar que, si bien el error absoluto que introduce el redondeo depende de la
magnitud del n umero, el relativo, que es el m as signicativo, es independiente de esta, est a con-
trolado en terminos de la cantidad de dgitos con la que trabaja nuestra computadora (Ejercicio:
meditar que tiene que ver esto con la distribuci on no uniforme de los n umeros de m aquina).
Si tenemos
x

= 0, a
1
a
2
....a
m
10
l
, a
1
,= 0
decimos que conocemos a x con m dgitos signicativos, lo que equivale, seg un vimos, a conocerlo
con un error relativo del orden de 10
m
. Observar la importancia de la condici on a
1
,= 0: de lo
contrario los dgitos dejan de ser signicativos.
Observemos que
x

= x(1 +)
4 1. PUNTO FLOTANTE Y REDONDEO
con
[[ = 5 10
m
Este es el error de redondeo unitario, es decir, que el error que se comete al aproximar x por
x

es x con [[ , de esta forma el error [x x

[ ser a menor o igual que [x[.


Este valor, , depende de la maquina y se lo llama el de la m aquina. Recordemos que, seg un lo
comentado antes, el verdadero de m aquina no es exactamente este debido a que la computadora
trabaja en base 2. Pero desde el punto de vista pr actico s olo interesa el orden de (y este s es
correcto!).
Ejercicio: calcular el exacto suponiendo que la m aquina trabaja en base 2 con k dgitos.
Otra forma de interpretar el signicado del de la m aquina es la siguiente: nos dice cu al es el
menor n umero tal que, en la maquina,
1 + ,= 1
O sea, si se le suma a 1 algo menor que , desaparece debido al redondeo. En efecto, seg un la
maquina tendremos
1 + 4 10
m
= 1, 0....04 = 0, 10....00 10 = 1
en cambio,
1 + = 1, 0....06 = 0, 10....01 10 ,= 1
Si sumamos exactamente el resultado depender a de como redondee la m aquina en el caso en
que x equidista de dos n umeros de m aquina, es decir, cuando la cifra m+ 1 es justo 5.
M as en general, el orden del menor n umero que sumado a un x da, en la m aquina, un resultado
distinto de x es [x[.
Es fundamental observar que no es el menor n umero que se puede representar en la m aquina
(y est a muy lejos de este!). Este ultimo depende de M
1
y no de m.
Veamos ahora algunos de los problemas que surgen debido al redondeo.
Empecemos por sumar dos n umeros. Como vimos, si sumamos dos n umeros de ordenes muy
distintos, el mas chico puede desaparecer. Por ejemplo, si m = 5 y
x = 78473000; y = 24
tenemos
1. PUNTO FLOTANTE Y REDONDEO 5
x

= 0, 78473 10
8
; y

= 0, 24 10
2
es decir que x e y son n umeros de m aquina. Entonces,
x +y = 78473024
y por lo tanto,
(x +y)

= 0.78473 10
8
= x

= x
En particular, esto nos dice que si tenemos que sumar varios n umeros x
1
, x
2
, .....x
N
conviene
hacerlo de menor a mayor (Por que?).
En el ejemplo anterior el problema no es muy importante ya que no se pierden dgitos signica-
tivos, es decir, el orden del error relativo no se agranda (se est a perdiendo la informaci on de un
n umero que es despreciable respecto del otro sumando).
El problema es mucho mas serio cuando deben restarse dos n umeros parecidos. En este caso,
debido a lo que se conoce como cancelaci on catastr oca, pueden perderse dgitos signicativos
o, en otras palabras, agrandarse mucho el error relativo.
Consideremos como antes m = 5 y tomemos
x = 0, 372154876; y = 0, 372023264
entonces,
x

= 0, 37215; y

= 0, 37202
y por lo tanto,
x y = 0, 000131612
mientras que
x

= 0, 00013 = 0, 13 10
3
Observemos que sucedi o: x e y estaban representados con 5 dgitos signicativos pero al restarlos
quedaron s olo 2 del resultado. En consecuencia el error relativo creci o de manera tal que si bien
el error relativo en x e y era del orden de 10
5
el del resultado es del orden de 10
2
.
Como conclusi on observamos que hay que tratar de evitar restar n umeros casi iguales. Por
ejemplo, supongamos que queremos calcular
6 1. PUNTO FLOTANTE Y REDONDEO
y =
_
x
2
+ 1 1
para valores de x peque nos. Si lo hacemos directamente, estamos en la situaci on anterior. En
cambio podemos proceder de la siguiente manera:
y =
_
x
2
+ 1 1 =
(

x
2
+ 1 1)(

x
2
+ 1 + 1)
(

x
2
+ 1 + 1)
=
x
2
(

x
2
+ 1 + 1)
y utilizar la ultima expresion para calcular y. Si los c alculos fueran exactos ambas f ormulas
daran el mismo resultado pero, debido al redondeo, dan resultados distintos. Por ejemplo,
trabajando con 5 dgitos, si x = 0, 0312 obtenemos con la primera f ormula y = 0, 0004 (un
solo dgito signicativo si bien conociamos x exactamente). Mientras que con la segunda, y =
0, 00048662 (que tiene cuatro dgitos signicativos correctos).
El mismo problema surge al calcular y = x sin x para x peque no. En este caso se puede usar
el desarrollo de Taylor,
y = x sin x =
x
3
3!

x
5
5!
+
x
7
7!
.....
y calcular y sumando los primeros terminos de la serie.
Otro caso en el que la cancelacion de dgitos signicativos puede presentarse es en la resoluci on
de una ecuaci on cuadratica
ax
2
+bx +c = 0
si utilizamos la formula habitual
x
1
=
b +

b
2
4ac
2a
y x
2
=
b

b
2
4ac
2a
Consideremos por ejemplo,
x
2
10
5
x + 1 = 0
Los primeros dgitos exactos de las races son
x
1
= 99999.99999
y
x
2
= 0.000010000000001
Usando la formula para x
2
tenemos
1. PUNTO FLOTANTE Y REDONDEO 7
x
2
=
10
5

10
10
4
2
Si trabajamos con ocho dgitos el 4 desaparece y x
2
resulta igual a cero. Otra vez hemos restado
dos n umeros parecidos!
Esto se puede solucionar calculando primero x
1
y luego obtener x
2
usando que x
2
=
c
ax
1
.
En general, la forma correcta de encontrar las races en el caso en que ac sea despreciable respecto
de b, es calculando primero
x
1
=
b sign(b)

b
2
4ac
2a
y luego la otra raiz como hicimos en el ejemplo. De esta forma se evita la perdida de dgitos
signicativos.
Un problema fundamental del c alculo numerico es la resoluci on de sistemas de ecuaciones lineales.
Veamos como los errores de redondeo pueden afectar la soluci on a un en problemas de dos
ecuaciones con dos inc ognitas. Tratemos de resolver el siguiente sistema utilizando el metodo
de eliminacion de Gauss,
_
1
1 1
__
x
y
_
=
_
1
2
_
Pongamos, a modo de ejemplo, = 10
6
y supongamos que la m aquina trabaja con cinco dgitos.
Multiplicando la primera la por
1

= 10
6
y rest andosela a la segunda obtenemos
_
10
6
1
0 1 10
6
__
x
y
_
=
_
1
2 10
6
_
pero, con el redondeo a cinco cifras nos queda
_
10
6
1
0 10
6
__
x
y
_
=
_
1
10
6
_
(perdimos la informaci on de la segunda ecuaci on!).
Mientras que el resultado exacto es
_
10
6
1
0 999999
__
x
y
_
=
_
1
999998
_
Hasta aqui el error no parece grave. Pero veamos: si utilizamos la matriz obtenida con la m aquina
y despejamos de la segunda ecuaci on obtenemos la soluci on y

= 1 y luego, reemplazando en la
primera, x

= 0.
8 1. PUNTO FLOTANTE Y REDONDEO
Pero la solucion verdadera es
y =
1 2 10
6
1 10
6
1 = y

x =
1
1 10
6
,= 0 = x

Observemos que x x

= x =
1
110
6
es aproximadamente 1. Adem as el error relativo es 1
(catastr oco!).
Analicemos que sucedi o. Al hacer las restas 1
1

, 2
1

se introduce un peque no error en


la matriz triangulada que se propaga a la soluci on. Este error, al perder la sexta cifra, no es
signicativo respecto de y pero al reemplazar en la primera ecuaci on queda,
x

= 1 y

, y entonces x =
1

(1 y

)
Esto implica que el error y

y se amplica por un factor


1

dando lugar a un error grande en x.


Veamos ahora que pasa si hacemos el mismo proceso de eliminaci on de Gauss pero intercam-
biando las las de lugar. Queda
_
1 1
10
6
1
__
x
y
_
=
_
2
1
_
Operando (la 2 - la 1), obtenemos
_
1 1
0 1 10
6
__
x
y
_
=
_
2
1 2 10
6
_
y con el redondeo a cinco cifras nos queda
_
1 1
0 1
__
x
y
_
=
_
2
1
_
que tiene como solucion y

= 1, x

= 1.
Que pas o? El intercambio de las permiti o obtener un resultado correcto evitando la propaga-
ci on catastroca del error que se daba en el otro caso. Veremos m as adelante que esto es algo
general: conviene elegir como pivote (elemento por el que se divide) para la eliminaci on de
Gauss el que tenga mayor valor absoluto.
En este ejemplo, la primera forma de resolver era un algoritmo malo o inestable en el sentido
de que amplicaba los errores llevando a resultados absolutamente err oneos. Sin embargo, esto
se solucion o intercambiando el orden de las las, o sea, modicando el algoritmo. Esto muestra
que el error en el primer caso se deba a la forma de resolver y no a algo inherente al problema
en s mismo.
1. PUNTO FLOTANTE Y REDONDEO 9
Hay casos de naturaleza esencialmente diferente en los cuales el problema que se quiere resolver
est a mal condicionado. Esto signica que peque nos cambios en los datos implican grandes
cambios en la solucion. Esto hace que los errores de redondeo puedan amplicarse mucho
independientemente del metodo que usemos para resolverlo.
Veamos un ejemplo de esto. Supongamos que nuestra m aquina trabaja con 3 dgitos y trunca.
Resolvamos el sistema
_
0.780 0.563
0.913 0.659
__
x
y
_
=
_
0.217
0.254
_
La solucion exacta es x = 1, y = 1.
Teniendo en cuenta lo visto antes, intercambiamos las antes de hacer la eliminaci on de Gauss.
Obtenemos
_
0.913 0.659
0 0.001
__
x
y
_
=
_
0.254
0.001
_
y en consecuencia y

= 1 y x

= 0.443 que no tiene nada que ver con la soluci on exacta. En


particular, el error es mayor que la soluci on misma!
Lo que sucede en este ejemplo es que la matriz est a mal condicionada (m as adelante precisare-
mos lo que esto signica) y habr a problemas independientemente del algoritmo que utilicemos.
Otro ejemplo de problema mal condicionado es el siguiente. Las races de
(x 2)
2
= 10
6
son
x
1
= 2 + 10
3
x
2
= 2 10
3
en cambio, las races de
(x 2)
2
= 0
son x
1
= x
2
= 2.
Este ejemplo trivial muestra que un peque no cambio en un coeciente de la ecuaci on polinomial
puede dar lugar a un cambio de otro orden en las races. En este caso, un cambio de 10
6
en el
termino independiente origina un cambio de 10
3
en las races.
Un ejemplo mas interesante es el estudiado por Wilkinson en 1963. Se trata de calcular las
races de
p(x) = (x 1)(x 2)......(x 19)(x 20) = x
20
210x
19
+....
10 1. PUNTO FLOTANTE Y REDONDEO
Wilkinson demostr o que al cambiar el coeciente 210 por 210 2
23
las races 16 y 17 se
transforman en el par complejo
16.73... +i2.812... 16.73... i2.812...
Para nalizar, veamos otro ejemplo de algoritmo inestable. El problema consiste en calcular
E
n
=
_
1
0
x
n
e
x1
dx n = 1, 2, ...
Integrando por partes se obtiene
E
n
=
_
1
0
x
n
e
x1
dx = x
n
e
x1
[
1
0

_
1
0
nx
n1
e
x1
dx
es decir
E
n
= 1 nE
n1
y es facil ver que
E
1
= 1/e
con lo que tenemos denida la sucesi on E
n
en forma recursiva.
Usando esta relaci on recursiva para calcular con una m aquina que trabaje con seis dgitos se
obtiene,
E
1
0.367879
E
2
0.264242
E
3
0.207274
.
.
.
E
9
0.0684800
cuando en realidad
E
9
0.0916
con lo que el resultado computacional es pesimo.
En este caso lo que sucede es que el error de E
n1
se amplica multiplic andose por n. Entonces
en nueve pasos se multiplica por 9!, obteniendose un error de
9! error inicial = 9! 4.412 10
7
0.1601
que resulta mayor que el verdadero E
9
.
1. PUNTO FLOTANTE Y REDONDEO 11
Como conclusi on el algoritmo es malo. Pero observemos que no lo es el problema en s mismo.
Como alternativas podemos calcular E
n
por integraci on numerica o bien hacer el siguiente truco.
Observemos que
E
n1
=
1 E
n
n
y como
E
n

_
1
0
x
n
dx =
1
n + 1
0
podemos empezar de E
20
0 e ir hacia atr as usando E
n1
=
1E
n
n
. Este algoritmo es estable
(el error en cada paso se multiplica por algo menor que uno).
Como conclusi on, los ejemplos analizados en esta secci on muestran la diferencia entre el caso
en el cual la amplicaci on de los errores de redondeo se debe a que el problema est a mal
condicionado o mal planteado y el caso en el que dicha amplicaci on se debe al uso de un
algoritmo inestable. Es fundamental distinguir entre ambos casos y, por otra parte, encontrar
las causas de la propagacion indebida de errores con el objeto de mejorar los algoritmos.
CAPTULO 2
Normas y condicionamiento de una matriz.
Consideramos el sistema de n ecuaciones con n inc ognitas
Ax = b
con A IR
nn
, x IR
n
y b IR
n
y nos preguntamos cu anto afectar a a la soluci on un error
en el dato b. Para poder dar una respuesta debemos decidir primero c omo medir el error. Es
decir, necesitamos dar alguna forma de medir vectores de IR
n
. Una forma posible es utilizar la
longitud o norma eucldea del vector, o sea,
|x|
2
=
_
x
2
1
+..... +x
2
n
Pero esta no es la unica medida razonable y en muchos casos es conveniente trabajar con otras.
Por ejemplo, podemos decir que un vector es chico si lo son todas sus componentes y tomar
entonces como medida de x la siguiente, llamada norma innito,
|x|

= max
1in
[x
i
[
Otra eleccion natural es la norma uno,
|x|
1
= [x
1
[ +..... +[x
n
[
o mas en general la norma p,
|x|
p
= ([x
1
[
p
+..... +[x
n
[
p
)
1
p
con 1 p < .
Todas estas formas de medir resultan equivalentes en el sentido de que, si x es chico en una de
las normas entonces lo es en cualquier otra, puesto que una norma mayora a la otra salvo una
constante que depende s olo de n. Por ejemplo, utilizando la desigualdad de Schwartz se obtiene
|x|
1

n|x|
2
y por otra parte, es facil ver que,
|x|
2
|x|
1
14 2. NORMAS Y CONDICIONAMIENTO
Tambien se verica facilmente que
|x|

|x|
1
n|x|

M as en general, decimos que una norma en IR


n
es una manera de asignar a cada x un n umero |x|
de tal forma que se veriquen las siguientes propiedades, an alogas a las que cumple la longitud
usual,
1) |x| 0 x IR
n
2) |x| = 0 si y solo si x = 0.
3) |x| = [[|x| IR, x IR
n
4) |x +y| |x| +|y| x IR
n
, y IR
n
(desigualdad triangular)
Una vez que sabemos como medir vectores podemos hablar tambien de la distancia entre dos
vectores x e y la cual est a dada por |xy|. En particular, esto permite hablar de convergencia
de sucesiones: x
n
x si |x x
n
| 0.
Tanto para medir el error como para analizar la convergencia de una sucesi on elegiremos la
norma que nos resulte mas conveniente en cada caso. Esto est a justicado por el hecho de
que todas las normas son equivalentes: convergencia en una de ellas implica convergencia en
cualquier otra. Mas a un, se tiene el siguiente resultado.
Teorema 2.1. Dadas dos normas en IR
n
, | | y | |

, existen constantes C
1
y C
2
que dependen
s olo de n y de las normas consideradas (en particular, son independientes de x) tales que
C
1
|x| |x|

C
2
|x| x IR
n
Demostraci on. Basta ver que una norma cualquiera | | es equivalente a la norma eucldea usual,
| |
2
. Sea e
i
la base can onica de IR
n
y denamos la constante C = (

n
i=1
|e
i
|
2
)
1/2
, la cual
depende s olo de n y de | |. Utilizando las propiedades de la norma y la desigualdad de Schwartz
obtenemos
|x| = |
n

i=1
x
i
e
i
|
n

i=1
[x
i
[|e
i
| (
n

i=1
[x
i
[
2
)
1/2
(
n

i=1
|e
i
|
2
)
1/2
= C|x|
2
(2.1)
Queremos ver ahora que existe una constante K tal que
|x|
2
K|x| x IR
n
(2.2)
Supongamos que una tal K no existe y veamos que se llega a una contradicci on. En efecto, si
(2.2) no se cumple para ning un K tenemos, en particular, que dado m IN, existe y
m
IR
n
tal
que
2. NORMAS Y CONDICIONAMIENTO 15
|y
m
|
2
m|y
m
|
y llamando x
m
= y
m
/|y
m
|
2
obtenemos |x
m
|
2
= 1 y
|x
m
|
1
m
(2.3)
pero, toda sucesi on acotada en la norma eucldea tiene una subsucesi on convergente. Entonces
existe una subsucesi on de (x
m
), (x

m
) tal que
|x

m
x|
2
0
para cierto x IR
n
. Pero entonces por (2.1), tambien vale que
|x

m
x| 0
Por otra parte, por (2.3) tenemos que |x

m
| 0 y en consecuencia, por unicidad del lmite,
resulta x = 0. Pero observemos nalmente que, por la desigualdad triangular,

|x

m
|
2
|x|
2

|x

m
x|
2
y entonces se llega a la contradicci on 1 = |x

m
|
2
|x|
2
= 0, nalizando la demostraci on.
Ahora s, estamos en condiciones de abordar el problema de c omo afecta el error en los datos a
la solucion de un sistema lineal cuya matriz A es inversible. Si se reemplaza el dato b por b+b,
la solucion x del sistema ser a modicada de tal forma que tendremos
A(x + x) = (b + b)
o equivalentemente,
Ax = b
y nos preguntamos que relaci on hay entre
|x|
|x|
y
|b|
|b|
Veamos primero el siguiente ejemplo simple,
_
4.1 2.8
9.7 6.6
__
x
1
x
2
_
=
_
4.1
9.7
_
La solucion es
x =
_
1
0
_
16 2. NORMAS Y CONDICIONAMIENTO
Observemos que
|b|
1
= 13.8 |x|
1
= 1
Si modicamos b poniendo
b

= b + b =
_
4.11
9.70
_
entonces la solucion es
x

= x + x =
_
0.34
0.97
_
y se obtiene en consecuencia
|b|
1
= 0.01 |x|
1
= 1.63
con lo que el error relativo se amplic o mucho, en efecto,
|b|
1
|b|
1
= 0.7246 10
3
mientras que
|x|
1
|x|
1
= 1.63
Nuestro objetivo es tratar de entender a que se debe este comportamiento y poder predecir,
dada una matriz A, cu al ser a el factor de amplicaci on del error relativo o, al menos, dar una
cota de este en terminos de A.
Analicemos primero el caso de una matriz diagonal.
_

1
0
0
2
__
x
1
x
2
_
=
_
b
1
b
2
_
La solucion es (si
1
,
2
,= 0)
x
1
=
b
1

1
x
2
=
b
2

2
Por ejemplo, si
A =
_
1000 0
0
1
100
_
entonces,
x
1
=
b
1
1000
x
2
= 100b
2
2. NORMAS Y CONDICIONAMIENTO 17
Si ponemos b

= b + b con
b =
_
0
b
2
_
b =
_
b
1
0
_
entonces,
x
1
=
b
1
1000
x
2
= 100b
2
obteniendose
10
5
|b|
2
|b|
2
=
|x|
2
|x|
2
es decir que el error relativo se multiplic o por 10
5
.
Si en cambio elegimos
b =
_
b
1
0
_
b =
_
0
b
2
_
tenemos entonces,
x
1
=
1
1000
b
1
x
2
= 100b
2
y en consecuencia,
1
10
5
|b|
2
|b|
2
=
|x|
2
|x|
2
o sea que en este caso el error relativo se redujo en un factor 10
5
. En general, para una matriz
diagonal
A =
_

1
0
0
2
_
con [
1
[ > [
2
[, el error relativo puede multiplicarse por
[
1
[
[
2
[
en el peor de los casos y por
[
2
[
[
1
[
en el mejor de los casos.
18 2. NORMAS Y CONDICIONAMIENTO
En general, el error tendra componentes en cualquier direcci on por lo que es de esperar que si
|
1
|
|
2
|
es grande los errores relativos se ampliquen.
El mismo an alisis puede hacerse en IR
n
. Si A es una matriz diagonal
A =
_
_

1
0

0
N
_
_
el error relativo se puede amplicar, a lo sumo, por un factor
[
max
[
[
min
[
siendo
max
y
min
los de maximo y mnimo valor absoluto entre los
j
(observemos que
min
,= 0
pues estamos suponiendo que A es inversible). Este cociente se llama n umero de condici on o de
condicionamiento de A en la norma | |
2
y lo denotaremos Cond
2
(A).
Ahora veamos como denir el n umero de condici on para una matriz A arbitraria. Comencemos
por el caso en que A sea simetrica, es decir a
ij
= a
ji
. En este caso A se puede diagonalizar,
es decir, existe una base de autovectores v
1
, ...., v
n
. Adem as, por ser A simetrica podemos
considerar que la base es ortonormal. Entonces, si Ax = b , A(x + x) = b + b y
x =
n

i=1

i
v
i
x =
n

i=1

i
v
i
tenemos,
|x|
2
2
=
n

i=1

2
i
|x|
2
2
=
n

i=1

2
i
y adem as, si llamamos
i
al autovalor correspondiente a v
i
,
b =
n

i=1

i
v
i
b =
n

i=1

i
v
i
y en consecuencia,
|b|
2
2
=
n

i=1

2
i

2
i
|b|
2
2
=
n

i=1

2
i

2
i
Entonces, si
max
y
min
son los autovalores de m aximo y mnimo valor absoluto respectivamente,
obtenemos
|x|
2
2
|x|
2
2
=

n
i=1

2
i

n
i=1

2
i

1/[
min
[
2
1/[
max
[
2
|b|
2
2
|b|
2
2
o sea
2. NORMAS Y CONDICIONAMIENTO 19
|x|
2
|x|
2

[
max
[
[
min
[
|b|
2
|b|
2
es decir que el n umero Cond
2
(A) =
|
max
|
|
min
|
es una cota para el factor de amplicaci on del error
relativo. Mas a un, esta cota es la mejor posible pues la desigualdad se convierte en una igualdad
para cierta eleccion de b y b (b en la direcci on correspondiente al m aximo autovalor y b en
la correspondiente al mnimo).
Para generalizar el n umero de condici on a cualquier matriz observemos que, en el caso de una
simetrica, la direcci on correspondiente al autovalor de m aximo valor absoluto nos da la direcci on
de m axima expansion, es decir, si miramos el cociente entre la longitud de Ax y la de x
|Ax|
2
|x|
2
este ser a maximo entre todos los x cuando x est a en la direcci on correspondiente a
max
. En
efecto, si escribimos x en la base de autovectores v
1
, ..., v
n

x =
n

i=1

i
v
i
entonces,
Ax =
n

i=1

i
v
i
y de aca resulta que
|Ax|
2
[
max
[|x|
2
y tomando x = v
j
con
j
=
max
se ve que se verica la igualdad.
An alogamente, la direcci on de mnima expansi on corresponde a la asociada a
min
, la cual
corresponde tambien a la de maxima expansi on de la inversa de A.
El an alisis realizado para matrices simetricas nos muestra que el factor de amplicaci on del error
relativo est a relacionado con los maximos factores de expansi on de A y de su inversa. Teniendo
en cuenta esto, denimos para una matriz arbitraria A IR
nn
y una norma de vectores | |
cualquiera, la norma matricial asociada como
|A| = max
0=xIR
n
|Ax|
|x|
Es decir, la norma de A nos da lo m aximo que agranda el multiplicar por A medido en la
norma de vectores dada. Es facil ver que
20 2. NORMAS Y CONDICIONAMIENTO
|A| = max
x=1
|Ax|
y en particular, esto muestra que el m aximo existe, o sea que la norma esta bien denida (|Ax|
es una funci on continua de x y por lo tanto, alcanza su m aximo en el conjunto de vectores de
norma igual a uno pues este es cerrado y acotado).
De la denicion se desprende la siguiente desigualdad que usaremos frecuentemente,
|Ax| |A||x| x IR
n
valiendo la igualdad para algun x. Tambien es f acil ver que
|AB| |A||B| A IR
nn
, B IR
nn
(2.4)
Por otra parte puede vericarse que |A| es la menor entre todas las constantes C para las cuales
vale la desigualdad
|Ax| C|x| x IR
n
siendo esta otra forma usual de denir la norma matricial.
Como ejemplo tenemos que, por lo visto antes, si A es simetrica entonces
|A|
2
= [
max
[
donde el subndice 2 nos indica cual es la norma de vectores correspondiente.
An alogamente tenemos que para A inversible y simetrica
|A
1
|
2
=
1
[
min
[
y por lo tanto,
|A|
2
|A
1
|
2
=
[
max
[
[
min
[
En general introducimos entonces la siguiente
Definici on 2.2. Sea A IR
nn
una matriz inversible y sea | | una norma en IR
n
denimos el
n umero de condici on de A como
Cond(A) = |A||A
1
|
2. NORMAS Y CONDICIONAMIENTO 21
Es claro que Cond(A) depende de la norma de vectores elegida.
Es facil ver que valen las siguientes propiedades,
Cond(A) = Cond(A
1
)
y
Cond(A) 1 A IR
nn
En efecto, la primera es obvia mientras que, para ver la segunda, utilizamos la propiedad (2.4)
y obtenemos
1 = |I| = |AA
1
| |A||A
1
| = Cond(A)
Podemos ahora probar el siguiente resultado fundamental
Teorema 2.3. Si A IR
nn
es inversible, b, b IR
n
, Ax = b y A(x+x) = b +b entonces,
|x|
|x|
Cond(A)
|b|
|b|
(2.5)
valiendo la igualdad para alguna elecci on de b y b.
Adem as,
1
Cond(A)
|b|
|b|

|x|
|x|
(2.6)
y nuevamente, vale la igualdad para ciertos b y b.
Demostraci on. Se tiene que
A(x) = b
y entonces,
|x|
|x|

|A
1
||b|
|x|
=
|A
1
||b|
|b|
|b|
|x|

|A
1
||b|
|b|
|A|
donde para la ultima desigualdad hemos usado que |b| = |Ax| |A||x|. Por lo tanto (2.5)
vale.
Observemos adem as que si elegimos b tal que |x| = |A
1
b| = |A
1
||b|, x tal que
|Ax| = |A||x| (lo que siempre se puede por la denici on de la norma matricial) y b = Ax
resulta la igualdad en (2.5).
Ahora, para ver la desigualdad (2.6) observemos que esta puede escribirse como
22 2. NORMAS Y CONDICIONAMIENTO
|b|
|b|
Cond(A)
|x|
|x|
la cual, teniendo en cuenta que Cond(A) = Cond(A
1
), es exactamente la desigualdad (2.5)
aplicada a A
1
con lo que el teorema est a demostrado.
Veamos ahora que el n umero de condici on tambien tiene que ver con la propagaci on del error
que se cometa en los coecientes del sistema. Como veremos mas adelante, el teorema siguiente
es tambien de suma importancia en el an alisis del error de redondeo en la eliminaci on de Gauss.
Teorema 2.4. Si A IR
nn
es inversible, E IR
nn
, b IR
n
, Ax = b y (A+E)(x + x) = b
entonces, llamando x = x + x tenemos
|x|
| x|
Cond(A)
|E|
|A|
(2.7)
y si
Cond(A)
|E|
|A|
< 1
entonces,
|x|
|x|

1
1
Cond(A)
|E|
|A|
(2.8)
Demostraci on. Tenemos
Ax = b A x = b E x
y entonces,
E x = Ax
por lo que conclumos que
|x| |A
1
||E|| x| Cond(A)
|E|
|A|
| x|
lo que prueba (2.7).
Ahora observemos que
| x|
|x|
=
|x + x|
|x|

|x| +|x|
|x|
= 1 +
|x|
|x|
2. NORMAS Y CONDICIONAMIENTO 23
lo cual, junto con la desigualdad anterior implica que
|x|
|x|
Cond(A)
|E|
|A|
_
1 +
|x|
|x|
_
Cond(A)
|E|
|A|
+
|x|
|x|
lo que concluye la demostraci on de (2.8).
Veamos ahora como calcular algunas normas matriciales. Dada A IR
nn
se llama radio
espectral de A a
(A) = [
max
[
siendo
max
el de maximo valor absoluto entre todos los autovalores de A, incluyendo los com-
plejos.
Ya vimos que si A es simetrica entonces,
|A|
2
= (A)
En general, para A IR
nn
arbitraria se tiene
|A|
2
=
_
(A
T
A)
donde A
T
es la matriz traspuesta de A. En efecto, como A
T
A es simetrica, existe una base
ortonormal de autovectores v
j
. Llamando
j
a los autovalores correspondientes tenemos
A
T
Av
j
=
j
v
j
j = 1, ....., n
y si x =

n
i=1

i
v
i
entonces, por la ortonormalidad de los v
j
resulta |x|
2
2
=

n
i=1

2
j
y en
consecuencia, teniendo en cuenta que A
T
Ax =

n
i=1

j
v
j
, se tiene que para todo x IR
n
|Ax|
2
2
|x|
2
2
=
x
T
A
T
Ax
|x|
2
2
=

n
i=1

2
j

n
i=1

2
j
(A
T
A)
es decir que
|A|
2

_
(A
T
A)
y tomando x = v
j
con
j
=
max
se ve que vale la igualdad.
El c alculo de la norma 2 de una matriz involucra el c alculo de autovalores, el cual es un problema
complicado. Sin embargo, otras normas son mucho m as f aciles de calcular. Por ejemplo, se tiene
que
24 2. NORMAS Y CONDICIONAMIENTO
|A|

= max
1in
n

j=1
[a
ij
[
Para ver esto observemos primero que, para todo x IR
n
vale
|Ax|

= max
1in
[
N

j=1
a
ij
x
j
[ |x|

max
1in
N

j=1
[a
ij
[
y entonces,
|A|

max
1in
n

j=1
[a
ij
[
Para ver que vale la otra desigualdad, sea k tal que

n
j=1
[a
kj
[ es m axima y tomemos
x =
_
_
_
_
sg(a
k1
)
sg(a
k2
)

sg(a
kn
)
_
_
_
_
donde sg(a) = 1 si a 0 y sg(a) = 1 si a < 0. Entonces,
(Ax)
k
=
n

j=1
[a
kj
[
y en particular, |Ax|

n
j=1
[a
kj
[ y como |x|

= 1 obtenemos
|Ax|

|x|

j=1
[a
kj
[
y conclumos que
|A|

max
1in
n

j=1
[a
ij
[
De manera similar puede verse, aunque no lo haremos aqui, que
|A|
1
= max
1jn
n

i=1
[a
ij
[
2. NORMAS Y CONDICIONAMIENTO 25
Hemos visto que el n umero Cond(A) nos da una medida de cu an mala es una matriz en cuanto
a la propagacion de los errores relativos. Si este n umero es grande se dice que la matriz est a
mal condicionada.
Si A es una matriz singular y, para cierto b, el sistema Ax = b tiene alguna soluci on, entonces
tendr a innitas y estas formar an una variedad lineal de IR
n
. Es decir que sin cambiar nada
b se pueden obtener soluciones tan distantes como se quiera. En otras palabras, en este caso
tendramos b = 0 mientras que x sera arbitrariamente grande.
En consecuencia, es natural esperar que el n umero Cond(A) nos de una medida de cu an cerca
est a A de ser singular. Esto es efectivamente as y lo formalizaremos en el pr oximo teorema.
Pero antes veamos algunos ejemplos. Sea 0 entonces la matriz
A =
_
1 1 +
1 1
_
est a cerca de la matriz singular
B =
_
1 1
1 1
_
y en este caso
A
1
=
2
_
1 1
1 + 1
_
entonces,
|A|

= 2 + |A
1
|

= (2 +)
2
y en consecuencia,
Cond

(A) =
_
2 +

_
2
>
4

2
Es importante recalcar que esta distancia a las matrices singulares debe entenderse en forma
relativa al tama no de A. En este ejemplo tenemos no s olo que |AB|

es chica sino que lo es


en relaci on con |A|

. En efecto,
|AB|

|A|

=

2 +
<

2
En particular, estar cerca de ser singular no tiene nada que ver con el tama no del determinante.
Para aclarar esto veamos algunos casos simples. Por ejemplo, si 0, la matriz
26 2. NORMAS Y CONDICIONAMIENTO
A =
_
0
0
_
tiene determinante muy peque no pero es una matriz buensima en cuanto a la propagaci on de
errores relativos pues Cond(A) = 1.
En cambio,
A =
_
1 0
0
1

_
tiene determinante grande pero, en las normas 2, 1 o , Cond(A) = 1/
Damos ahora el resultado que relaciona el n umero de condici on de una matriz con su distancia
relativa a las matrices singulares.
Teorema 2.5. Dadas A IR
nn
inversible y una norma de vectores cualquiera se tiene
1
Cond(A)
= inf
B singular
|AB|
|A|
Demostraci on. Sea B IR
nn
una matriz singular y tomemos x ,= 0 tal que Bx = 0. Entonces,
|x| = |A
1
(AB)x| |A
1
||AB||x|
y en consecuencia,
1 |A
1
||AB|
lo cual muestra que
1
Cond(A)

|AB|
|A|
B IR
nn
singular (2.9)
Entonces, para concluir el teorema, falta ver que hay una B singular para la cual vale la igualdad
en (2.9). Para esto, sean y tal que |A
1
y| = |A
1
||y| y x tal que Ax = y. Como y puede
tomarse con norma arbitraria, lo elegimos de tal forma que |y| = 1/|A
1
| y en consecuencia
|x| = 1.
Sea ahora z un vector tal que
z
T
x = 1 (2.10)
y
z
T
u 1 u IR
n
tal que |u| = 1 (2.11)
2. NORMAS Y CONDICIONAMIENTO 27
La existencia de un tal z es la parte m as tecnica de la demostraci on y omitiremos la escri-
tura formal. Sin embargo, observemos que es intuitivamente claro si analizamos el signicado
geometrico: los u que verican la ecuaci on z
T
u = 1 forman un hiperplano (es decir, una variedad
lineal de dimensi on n 1). Por lo tanto, que haya un z vericando (2.10) y (2.11) signica que
hay un hiperplano que pasa por x y que deja a la bola unitaria B
1
= u IR
n
: |u| 1 de un
lado. La existencia de tal hiperplano es clara si se tiene en cuenta que, para toda norma, B
1
es
un conjunto convexo y que x est a en el borde de este. Observemos tambien que, en el caso de
la norma | |
2
, se tiene que z = x.
Denamos ahora B = A yz
T
y veamos que esta matriz es singular y cumple con la igualdad
que queramos. En efecto,
Bx = Ax yz
T
x = y y = 0
y por lo tanto, B es singular.
Por otra parte, |A B| = |yz
T
|, pero por (2.11) tenemos que [z
T
u[ 1 para todo u tal que
|u| = 1 puesto que, si z
T
u < 0 entonces, [z
T
u[ = z
T
u = z
T
(u) 1 ya que | u| = 1.
Entonces,
|yz
T
u| = |y|[z
T
u[
1
|A
1
|
u IR
n
tal que |u| = 1
y por lo tanto,
|AB|
1
|A
1
|
lo que concluye la demostraci on.
CAPTULO 3
Resolucion de sistemas lineales.
El objetivo de este captulo es estudiar diferentes formas de resolver un sistema lineal de n
ecuaciones con n inc ognitas. Para dar soiluci on a este problema se pueden emplear dos grandes
subclases de metodos; los directos y los iterados. Dentro de los metodos de c alculo directo se en-
cuentran el de triangulacion de Gauss, el de descomposici on LU y el metodo de Cholesky. Entre
los metodos iterativos mas usuales encontramos el de Jacobi, Gauss-Seidel y el de relajaci on.
1. Metodos directos
1.1. Triangulaci on de Gauss y descomposici on LU. El proceso de triangulacion de
Gauss puede verse como el resultado que se obtiene de multiplicar por matrices de la siguiente
forma,
Primer paso: Multiplicar por
L
1
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
m
N1
0 1
_
_
_
_
_
con
m
i1
=
a
i1
a
11
Entonces L
1
A tendra la forma
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
1
22
a
1
2N
.
.
.
.
.
.
.
.
.
0 a
1
N2
a
1
NN
_
_
_
_
_
Segundo paso: Multiplicar por
30 3. RESOLUCI

ON DE SISTEMAS LINEALES.
L
2
=
_
_
_
_
_
_
_
1 0 0
0 1 0
0 m
32
0
.
.
.
.
.
.
.
.
.
0 m
N2
1
_
_
_
_
_
_
_
y nos queda
L
2
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
2
22
a
2
2N
.
.
.
.
.
.
.
.
.
0 0 a
2
NN
_
_
_
_
_
As sucesivamente hasta llegar a una matriz triangular suprior
L
N1
L
N2
L
2
L
1
A = U =
_
_
_
_
_
u
11
u
12
u
1N
0 u
22
u
2N
.
.
.
.
.
.
.
.
.
0 0 u
NN
_
_
_
_
_
.
Es facil ver que la inversa de L
1
viene dada por
(L
1
)
1
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
m
N1
0 1
_
_
_
_
_
y, en general, L
1
j
es como L
j
pero cambiando los signos de los m
ji
.
Entonces podemos escribir A como sigue,
A = L
1
1
L
1
2
L
1
N1
U,
adem as, observemos que la matriz L = L
1
1
L
1
2
L
1
N1
es de la forma
L = L
1
1
L
1
2
L
1
N1
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
m
N1
m
N2
1
_
_
_
_
_
As hemos demostrado el siguiente teorema,
1. M

ETODOS DIRECTOS 31
Teorema 3.1. Si no hace falta intercambiar las en la eliminaci on de Gauss se obtiene
A = LU
donde U es triangular superior y L es triangular inferior con 1 en la diagonal.
Adem as tenemos el siguiente corolario.
Corolario 3.2.
det(A) = det(U).
En el caso general, si hace falta cambiar las, se tiene
PA = LU
con P una matriz de permutaciones.
1.2. Descomposici on de Cholesky. En el caso en que A IR
NN
es denida positiva y
simetrica una descomposici on LU (con U = L
T
) puede obtenerse m as ecientemente mediante
el metodo de Cholesky.
Definici on 3.3. A IR
NN
se dice denida positiva si
x, Ax) > 0 x ,= 0
Observemos que si A = LL
T
con L una matriz inversible, entonces
(1) A es simetrica.
(2) A es denida positiva pues x, Ax) = |L
T
x|
2
2
> 0, x ,= 0.
En consecuencia, para que A pueda escribirse como LL
T
con L inversible es necesario que A sea
simetrica y denida positiva.
Ahora, para lograr una descomposici on de la forma LL
T
, analicemos primero el caso simple,
A IR
33
. Planteamos A = LL
T
y nos queda
A =
_
_
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
_
_
_
_
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
_
_
Entonces, despejando los coecientes, se obtiene
a
11
= l
2
11
l
11
=

a
11
a
12
= l
11
l
21
l
21
=
a
12
l
11
etc.
32 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Ahora veamos algunas propiedades que nos ser an muy utiles. En el caso general en que A
IR
NN
sea simetrica (i.e. A = A
T
) y denida positiva se tienen las siguientes propiedades,
(1) a
ii
> 0 para cualquier i = 1, ..., N, pues
0 < e
i
, Ae
i
) = a
ii
(2) Los menores principales s
j
son positivos (esto fue demostrado en algebra lineal).
Ahora observamos que lo que hicimos en 3 3 se puede hacer en N N, es decir,
A = LL
T
si y solo si
a
ik
=
k

j=1
l
ij
l
kj
.
Es decir,
a
ik
=
k1

j=1
l
ij
l
kj
+l
ik
l
kk
.
Entonces, despejando,
l
ik
=
_
a
ik

k1
j=1
l
ij
l
kj
_
l
kk
i > k.
Adem as
a
kk
=
k

j=1
l
2
kj
=
k1

j=1
l
2
kj
+l
2
kk
y entonces
l
kk
=

_
_
_
a
kk

k1

j=1
l
2
kj
_
_
Obtenemos, de esta manera, una forma recursiva para el c alculo de los elementos l
ij
.
1. M

ETODOS DIRECTOS 33
Para k = 1, 2, ...., N hacemos
_

_
l
11
l
21
l
N1
l
22
l
32
l
N2
.
.
.
.
.
.
l
N1N1
l
NN1
l
NN
Para que el algoritmo de Cholesky este bien denido necesitamos ver que el argumento de la
raz cuadrada involucrada en el c alculo de l
kk
sea positivo; es decir,
a
kk

k1

j=1
l
2
kj
> 0.
Veamos que esto es una consecuencia de ser A denida positiva. Argumentemos por inducci on.
El a
11
es positivo, entonces existe l
11
positivo tal que l
2
11
= a
11
. Supongamos que llegamos hasta
el paso k, es decir
l
11
, l
22
, . . . , l
k1k1
son todos n umeros reales positivos y supongamos que
a
kk

k1

j=1
l
2
kj
0.
Entonces
l
kk
=

_
_
_
a
kk

k1

j=1
l
2
kj
_
_
= 0 o es un n umero en C.
Pero si llamamos A
k
al menor principal de A y L
k
al menor principal de L, las matrices que se
obtienen son de tama no k k
A
k
=
_
_
_
a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk
_
_
_
y L
k
=
_
_
_
l
11
l
1k
.
.
.
.
.
.
.
.
.
l
k1
l
kk
_
_
_
y resulta facil ver que
A
k
= L
k
L
T
k
.
Entonces
0 < det(A
k
) = (det(L
k
))
2
= l
2
11
l
2
k1k1
l
2
kk
;
34 3. RESOLUCI

ON DE SISTEMAS LINEALES.
como los primeros factores son positivos el ultimo, l
2
kk
debe tambien ser positivo, absurdo.
Para terminar, hagamos las siguientes observaciones, el algoritmo de Cholesky es m as conve-
niente que el de Gauss (L U) porque,
(1) El n umero de operaciones es O(N
3
/6) (en lugar de O(N
3
/3)).
(2) Es estable, sin necesidad de pivoteo. Los l
ij
no crecen respecto de A pues
a
kk
=
k

j=1
l
2
kj
implica que
[l
kj
[

a
kk
2. Metodos iterativos
Estos metodos convienen en general para matrices ralas (i.e. con muchos ceros). Este tipo de
matrices aparecen, por ejemplo, cuando se discretizan ecuaciones diferenciales.
Como antes el objetivo es resolver
Ax = b
con A una matriz inversible.
Los metodos iterativos generan una sucesi on
x
0
x
1
x
2

donde x
k+1
se calcula a partir de x
k
.
2.1. Metodo de Jacobi. Empecemos con un ejemplo para ver como funciona el metodo
de Jacobi,
_
4x
1
+x
2
= 5
x
1
+ 4x
2
= 5
La solucion es
x =
_
1
1
_
y llamaremos
b =
_
5
5
_
El metodo de Jacobi calcula x
k+1
a partir de x
k
de la siguiente forma
2. M

ETODOS ITERATIVOS 35
_
4x
k+1
1
= 5 x
k
2
4x
k+1
2
= 5 x
k
1
Es decir
x
k+1
=
_
0
1
4

1
4
0
_
x
k
+
b
4
.
Entonces si empezamos con x
0
= (0, 0), tenemos
x
0
=
_
_
0
0
_
_
x
1
=
_
_
5
4
5
4
_
_
x
2
=
_
_
15
16
15
16
_
_

Convergencia y estimaci on del error
En forma matricial la iteraci on de Jacobi se escribe como
x
k+1
= Bx
k
+c.
Por otro lado la solucion exacta, x, cumple que
x = Bx +c,
entonces el error e
k
= x
k
x verica
e
k+1
= Be
k
y entonces, iterando esta ultima igualdad,
e
k
= B
k
e
0
.
En nuestro ejemplo observamos que
|B|

=
1
4
y entonces
|B
k
|

|B|
k

(
1
4
)
k
0 k .
De esto conclumos que
|e
k
|


_
1
4
_
k
|e
0
|

0
es decir la iteraci on converge cualquiera sea el dato inicial x
0
.
Por supuesto, esto no es cierto en general. La convergencia depende de como sea la matriz B.
Si |B| < 1 para alguna norma asociada a una norma de vectores entonces el metodo converger a
cualquiera sea la condici on inicial y si no no.
En el caso general, A IR
NN
supongamos a
ii
,= 0, i (si A es inversible esto se puede obtener
reordenando). Despejamos x
i
de la iesima ecuaci on, para i = 1, ..., N tenemos
x
k+1
i
=
_
b
i

i1
j=1
a
ij
x
k
j

N
j=i+1
a
ij
x
k
j
_
a
ii
36 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Resulta natural utilizar las componentes ya calculadas x
k+1
1
, . . . , x
k+1
i1
para calcular la nueva
aproximaci on x
k+1
i
, resultando el metodo de Gauss-Seidel.
2.2. Metodo de Gauss-Seidel. Para i = 1, . . . , N;
x
k+1
i
=
_
b
i

i1
j=1
a
ij
x
k+1
j

N
j=i+1
a
ij
x
k
j
_
a
ii
Escritura matricial de la iteraci on Escribimos
A = D +L +U
A =
_
_
_
a
11
0
.
.
.
0 a
NN
_
_
_
+
_
_
_
0 a
1N
.
.
.
.
.
.
.
.
.
0 0
_
_
_
+
_
_
_
0 0
.
.
.
.
.
.
.
.
.
a
N1
0
_
_
_
Entonces
Ax = b
si y solo si
Dx = (L +U)x +b
Tanto el metodo de Jacobi como el de Gauss-Seidel pueden escribirse en la forma
x
k+1
= Bx
k
+c.
(1) Jacobi
x
k+1
= D
1
(L +U)x
k
+D
1
b
(2) Gauss-Seidel
x
k+1
= (D +L)
1
Ux
k
+ (D +L)
1
b
Si escribimos e
k
= x
k
x y usamos que la soluci on exacta x cumple
x = D
1
(L +U)x +D
1
b
y
x = (D +L)
1
Ux + (D +L)
1
b
respectivamente, tenemos
e
k+1
= D
1
(L +U)e
k
= B
J
e
k
e
k+1
= (D +L)
1
Ue
k
= B
GS
e
k
En general, si la iteraci on est a dada por una matriz B, o sea,
e
k+1
= Be
k
tenemos
e
k
= B
k
e
0
2. M

ETODOS ITERATIVOS 37
Entonces si queremos que e
k
0 para todo dato inicial, es necesario que B
k
0. El siguiente
objetivo es dar una caracterizaci on de las matrices con esta propiedad.
En el ejemplo dedujimos que B
k
0 del hecho de que |B| < 1. Sin embargo |B|

podra ser
grande y B
k
0. Por ejemplo
B =
_
1
2
1000
0
1
2
_
Observemos que |B|

= 1000.5. Sin embargo B


k
0. En efecto B =
1
2
_
1 2000
0 1
_
.
En general las matrices de la forma C =
_
1 a
0 1
_
verican que C
k
=
_
1 ka
0 1
_
Entonces
B
k
= (
1
2
)
k
_
1 k2000
0 1
_
y se tiene que (B
k
)
ij
0, i, j y esto implica que B
k
0.
Vale destacar que para que B
k
0 basta que exista alguna norma tal que |B| < 1.
El segundo ejemplo trata el caso en que A es simetrica. En este caso se puede diagonalizar, es
decir, existe S tal que
SAS
1
=
_
_
_

1
0
.
.
.
0
N
_
_
_
con
i
los autovalores de A. En este caso
A
k
= S
1
_
_
_

k
1
0
.
.
.
0
k
N
_
_
_
S
y se tiene que
A
k
0
si y solo si
max
i
[
i
[ = (A) < 1
Esto es cierto en general, pero si A no es diagonalizable es m as difcil de probar.
En el caso en que A es simetrica se tiene
(A) = |A|
2
entonces, si (A) < 1 se tiene que |A|
2
< 1 y entonces A
k
0.
En general vale que,
(A) |A| para cualquier norma
38 3. RESOLUCI

ON DE SISTEMAS LINEALES.
y aunque (A) no es una norma, se tiene
Teorema 3.4.
(A) = inf

|A|
O sea > 0 existe una norma tal que
(A) |A| (A) +.
Demostraci on. Primero veamos que
(A) |A|.
Observamos que |A| en IR es igual a |A| en C (ejercicio).
Sea x tal que
Ax =
max
x x ,= 0
entonces
[
max
[|x| = |Ax| |A||x|
y as
[
max
[ = (A) |A|
Ahora veamos que dado > 0 existe una norma con
|A| (A) +.
Queremos denir |x|, para x IR
N
. Recordemos la forma de Jordan de una matriz. En alguna
base v
i
, una matriz B se transforma en
_
_
_
J
1
0
.
.
.
0 J
r
_
_
_
donde los J
i
son los bloques de Jordan,
J
i
=
_
_
_
_
_

i
1 0
0
i
0
.
.
.
0 0
i
_
_
_
_
_
Esta es la forma normal usual. Sin embargo, puede obtenerse una nueva base en la cual la
transformacion lineal toma la forma an aloga pero con los

J
i
=
_
_
_
_
_

i
0
0
i
0
.
.
.
0 0
i
_
_
_
_
_
2. M

ETODOS ITERATIVOS 39
donde es positivo y arbitrario. Esto se logra re-escalando la base. Miremos, por ejemplo, el
bloque 1,
J
1
=
_
_
_
_
_

1
1 0
0
1
0
.
.
.
0 0
1
_
_
_
_
_
en la base v
1
, ..., v
m
. Si T es la transformaci on lineal asociada a B tenemos
Tv
1
=
1
v
1
Tv
2
= v
1
+
1
v
2
Tv
3
= v
2
+
1
v
3
.
.
.
Tv
m
= v
m1
+
1
v
m
Ahora denamos v
1
= v
1
, v
2
= v
2
, v
3
=
2
v
3
,......, v
m
=
m1
v
m
. Tenemos entonces
T v
1
=
1
v
1
T v
2
= v
1
+
1
v
2
T v
3
= v
2
+
1
v
3
.
.
.
T v
m
= v
m1
+
1
v
m
Por lo tanto en la base v
1
, ....., v
m
queda el bloque

J
1
=
_
_
_
_
_

1
0
0
1
0
.
.
.
0 0
1
_
_
_
_
_
Hecho esto, denamos la norma de la siguiente manera, dado x lo escribimos en la base v
i
,
x =

i
v
i
y denimos
|x| = max [
i
[
es decir la norma | |

en esa base.
Entonces, es facil ver que,
|A| = (A) +
pues |A| es el maximo de

j
[a
ij
[ si |A| es la norma asociada a |x|.
Corolario 3.5.
B
k
0 si y solo si (B) < 1.
40 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Demostraci on. Veamos primero la vuelta. Si (B) < 1 por el teorema anterior existe una norma
tal que |B| < 1, entonces
|B
k
| |B|
k
0
. Ahora para la ida, supongamos que (B) 1, entonces existe z C
N
, z ,= 0, tal que
Bz =
max
z
y entonces
B
k
z =
k
max
z
Esto implica que
|B
k
z| = (B)
k
|z|
no tiende a cero.
Tomando parte real e imaginaria se ve que hay alg un x IR
N
tal que B
k
x no tiende a cero.
Ahora veamos otra forma de probar estos resultados.
Teorema 3.6.
B
k
0 si y solo si (B) < 1
Demostraci on. B es semejante a una matriz triangular (forma de Jordan), o sea, existe una
matriz C tal que
CBC
1
= J
con J la forma de Jordan de B.
Ahora dado > 0 multiplicamos por la matriz diagonal
D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
0 0
N
_
_
_
_
_
y su inversa para obtener
DJD
1
=
_
_
_
_
_

1
0 0
0
2
0
.
.
.
0 0
N
_
_
_
_
_
J
_
_
_
_
_
0 0
0
2
0
.
.
.
0 0
N
_
_
_
_
_
=
_
_
_
_
_

1
0
0
2
0
.
.
.
0 0
k
_
_
_
_
_
En general la matriz J = (
ij
) tiene coecientes no nulos solo en la diagonal y en los lugares
(i, i + 1). Y al multiplicar por D y D
1
quedan y 0 en lugar de 1 y 0 en la forma de Jordan.
2. M

ETODOS ITERATIVOS 41
En conclusi on, queda
DCBC
1
D
1
=
_
_
_
_
_

1
0
0
2
0
.
.
.
0 0
k
_
_
_
_
_
= A
Para simplicar llamemos S = DC y nos queda
SBS
1
= A
Ahora observamos que
|A|

= (B) +
pues
|A|

= max
j

[a
ij
[
Pero,
B
k
= S
1
A
k
S
Entonces,
|B
k
|

|S
1
|

|A
k
|

|S|

= Cond(S)|A
k
|


Cond(S)|A|
k

Cond(S)((B) +)
k
0
si es tal que (B) + < 1.
Observemos que Cond(S)
1

N1
.
Corolario 3.7.
|B
k
|
1/k
(B)
Demostraci on. Basta probarlo para la norma | |

pues todas las normas son equivalentes. Ya


vimos que ,
|B
k
|

Cond(S)((B) +)
k

N1
((B) +)
k
Por otro lado se ve facil que
(B)
k
(B
k
) |B
k
|

Entonces
(B)
k
|B
k
|

N1
((B) +)
k
.
Luego,
(B) |B
k
|
1/k

(
C

N1
)
1/k
((B) +) ((B) +)
O sea, existe k a partir del cual
(B) |B
k
|
1/k

((B) + 2)
es decir
|B
k
|
1/k

(B)
42 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Ahora observemos lo siguiente, para B simetrica ya sabamos que |B
k
| = (B)
k
. En general esto
no es cierto pero, para k grande vale que |B
k
| (B)
k
. Esto da una manera de comparar dos
metodos iterativos (por ejemplo Jacobi y Gauss-Seidel). Supongamos que el metodo i (i = 1, 2)
tiene la matriz de iteraci on B
i
. Si
(B
1
) < (B
2
)
entonces
|B
k
1
| < |B
k
2
|
para k grande. O sea el metodo 1 es mejor asint oticamente (aunque para un n umero dado de
iteraciones podra ser mejor el 2).
2.3. Analisis de los metodos de Jacobi y Gauss-Seidel.
Definici on 3.8. Una matriz A IR
NN
es estrictamente diagonal dominante si
[a
ii
[ >

i=j
[a
ij
[ i
Si A es estrictamente diagonal dominante entonces tanto Jacobi como Gauss-Seidel convergen.
Teorema 3.9. Si A es estrictamente diagonal dominante el metodo de Jacobi converge.
Demostraci on. Recordemos que
A = D +L +U B
J
= D
1
(L +U)
En este caso es facil ver que
|B
J
|

< 1
En efecto, B
J
= (b
ij
) con
b
ij
=
a
ij
a
ii
i ,= j b
ii
= 0
entonces
|B
J
|

= max
i

i=j
[a
ij
[
[a
ii
[
< 1
pues A es estrictamente diagonal dominante.
Teorema 3.10. Si A es estrictamente diagonal dominante el metodo de Gauss-Seidel converge.
Demostraci on. Como antes recordemos que
A = D +L +U B
GS
= (L +D)
1
U.
Hay que ver que (B) < 1. Sea un autovalor de B y x un autovector con |x|

= 1. Entonces
tenemos,
(L +D)
1
Ux = x
2. M

ETODOS ITERATIVOS 43
y esto es equivalente a
Ux = (L +D)x

j=i+1
a
ij
x
j
=
i

j=1
a
ij
x
j
.
O bien,
a
ii
x
i
=
i

j=1
a
ij
x
j

N

j=i+1
a
ij
x
j
Sea i tal que |x|

= [x
i
[ [x
j
[, entonces
[[[a
ii
[ [[
i1

j=1
[a
ij
[ +
N

j=i+1
[a
ij
[.
De esta forma obtuvimos
[[

N
j=i+1
[a
ij
[
[a
ii
[

i1
j=1
[a
ij
[
< 1
pues A es estrictamente diagonal dominante.
2.4. Matrices simetricas denidas positivas. Un caso importante es el de A simetrica
y denida positiva. En este caso veremos,
(1) Jacobi no es necesariamente convergente.
(2) Gauss-Seidel es convergente.
Empecemos con un ejemplo. Sea a tal que 0 < a < 1 y tomemos
A =
_
_
1 a a
a 1 a
a a 1
_
_
Esta matriz A es simetrica y denida positiva. Para ver que es denida positiva hay que ver
que los menores principales son positivos.
A
1
= (1)
A
2
=
_
1 a
a 1
_
det(A) = 1 a
2
> 0
y adem as
det(A) = 1 + 2a
3
3a
2
= (a 1)
2
(a +
1
2
) > 0 si a >
1
2
Analicemos el metodo de Jacobi en este caso,
B
J
= D
1
(L +U) =
_
_
0 a a
a 0 a
a a 0
_
_
.
44 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Calculemos los autovalores de B, el polinomio caracterstico es
p() = det
_
_
a a
a a
a a
_
_
=
3
+ 2a
3
3a
2
.
Observemos que p(a) = 0 entonces
1
= a y como p

(a) = 0,
1
= a es una raiz doble de p.
Dividiendo p por ( a)
2
se obtiene que la tercer raiz es
3
= 2a. Entonces si
1 > a
1
2
se tiene que
(B) = 2a 1
y con esto no se puede asegurar que el metodo de Jacobi converja para cualquier dato inicial.
Conclusi on: A simetrica denida positiva no implica que el metodo de Jacobi sea necesaria-
mente convergente.
Observaci on 3.11. Tomando
A =
_
_
_
_
_
_
1
1
2
1
2
1
2
1
1
2
1
2
1
2
1
_
_
_
_
_
_
tenemos que (B
J
) = 1, con lo cual Jacobi no converge. Entonces la condici on estricta es
necesaria en el teorema que muestra la convergencia para A estrictamente diagonal dominante.
Observaci on 3.12.
A = D +L +L
T
Puede demostrarse que si D (L +L
T
) es denida positiva, entonces
(B
J
) < 1
si y s olo si A es denida positiva . En particular, si
A = D +L +L
T
y

A = D (L +L
T
)
son denidas positivas, se tiene que
(B
J
) < 1
o sea Jacobi converge para A y para

A (la matriz

B
J
= B
J
, s olo cambia de signo). Para una
demostraci on de este hecho ver Isaacson-Keller (pag 72).
Ejemplo 3.13. Para la matriz
A =
_
_
1 a a
a 1 a
a a 1
_
_
con
1
2
a < 1 se tiene

A =
_
_
1 a a
a 1 a
a a 1
_
_
.
2. M

ETODOS ITERATIVOS 45
Y resulta que

A no es denida positiva.
Ahora analicemos que pasa con el metodo de Gauss-Seidel en este mismo ejemplo.
A =
_
_
1 a a
a 1 a
a a 1
_
_
y entonces
L +D =
_
_
1 0 0
a 1 0
a a 1
_
_
y U =
_
_
0 a a
0 0 a
0 0 0
_
_
.
Calculando obtenemos
(L +D)
1
=
_
_
1 0 0
a 1 0
a
2
a a 1
_
_
.
Entonces B = B
GS
= (L +D)
1
U es
B =
_
_
0 a a
0 a
2
a
2
a
0 a
2
a
3
2a
2
a
3
_
_
.
Veamos los autovalores de B,
I B =
_
_
a a
0 a
2
a a
2
0 a
2
+a
3
2a
2
+a
3
_
_
.
Tenemos
1
= 0. Para simplicar, ahora consideremos el caso particular a =
1
2
, para este valor
de a se obtiene
B =
_
_
0
1
2

1
2
0
1
4

1
4
0
1
8
3
8
_
_
.
Y entonces,
8B =
_
_
0 4 4
0 2 2
0 1 3
_
_
y I 8B =
_
_
4 4
0 2 2
0 1 3
_
_
.
Con lo cual,
det(I 8B) = (( 2)( 3) + 2).
Las races de ( 2)( 3) + 2 son

2
=
5 +

7
2

3
=
5

7
2
Como estos son los autovalores de 8B los autovalores de B son

1
= 0
2
=
5 +

7
16

2
=
5

7
16
.
46 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Observemos que
[
2
[ = [
3
[ =

32
16
=

2
4
< 1.
Entonces el metodo de Gauss-Seidel converge.
M as adelante veremos que si A es simetrica y denida positiva entonces Gauss-Seigel converge.
En particular este ejemplo nos da un caso donde el metodo de Gauss-Seigel converge pero Jacobi
no, o sea (B
GS
) < 1 y (B
J
) 1.
Ahora veremos un ejemplo al reves, es decir donde Jacobi converge pero Gauss-Seigel no.
Ejemplo 3.14. (Collatz 1942, ver Varga, pag 74). Sea
A =
_
_
1 2 2
1 1 1
2 2 1
_
_
.
Para el metodo de Jacobi nos queda
B
J
=
_
_
0 2 2
1 0 1
2 2 0
_
_
I B
J
=
_
_
2 2
1 1
2 2
_
_
entonces
p() =
3
y los autovalores resultan ser

1
=
2
=
3
= 0
Entonces B
J
es nilpotente, (B
J
) = 0 y el metodo converge en tres pasos.
e
3
= B
3
J
e
0
= 0
Ahora analicemos el metodo de Gauss-Seidel para este ejemplo.
L +D =
_
_
1 0 0
1 1 0
2 2 1
_
_
; U =
_
_
0 2 2
0 0 1
0 0 0
_
_
y (L +D)
1
=
_
_
1 0 0
1 1 0
0 2 1
_
_
En consecuencia,
B
GS
= (L +D)
1
U =
_
_
0 2 2
0 2 3
0 0 2
_
_
y
I B
GS
=
_
_
2 2
0 2 3
0 0 2
_
_
Los autovalores resultan ser

1
= 0
2
= 2
3
= 2
2. M

ETODOS ITERATIVOS 47
entonces (B
GS
) = 2 y el metodo de Gauss-Seidel no converge.
Conclumos que en este ejemplo el metodo de Jacobi converge en tres pasos pero Gauss-Seidel
no converge (existen datos iniciales para los cuales no converge).
Modicando trivialmente este ejemplo puede obtenerse un ejemplo en que ambos metodos con-
vergen y se tiene (B
J
) < (B
GS
) < 1. Sea
A =
_
_
5 2 2
1 5 1
2 2 5
_
_
que es estrictamente diagonal dominante y entonces Jacobi y Gauss-Seidel ambos convergen.
Veamos un ejemplo mas.
Ejemplo 3.15. Este es un ejemplo para el cual ninguno de los dos metodos converge.
A =
_
_
2 1 1
2 2 2
1 1 2
_
_
.
Aplicando Jacobi resulta
B
J
=
_
_
0
1
2
1
2
1 0 1

1
2

1
2
0
_
_
I B
J
=
_
_

1
2

1
2
1 1
1
2
1
2

_
_
con lo cual,
p() =
3
+
5
4

y los autovalores de B
J
resultan

1
= 0
2
= i

5
2

3
= i

5
2
.
Entonces,
(B
J
) =

5
2
> 1
y en consecuencia Jacobi no converge.
Para Gauss-Seidel se tiene
L +D =
_
_
2 0 0
2 2 0
1 1 2
_
_
; (L +D)
1
=
_
_
_
_
_
_
1
2
0 0
1
2
1
2
0

1
2

1
4
1
2
_
_
_
_
_
_
y
48 3. RESOLUCI

ON DE SISTEMAS LINEALES.
(L +D)
1
U =
1
4
_
_
0 2 2
0 2 6
0 2 4
_
_
de donde p() =
3
+
5
4

1
4
y calculando las races de p() obtenemos con aproximaci on los
autovalores
1
= 0,
2
= 0.1514 y
3
= 1.6514 y por tanto
(B
GS
) = [
3
[ > 1
y entonces el metodo de Gauss-Seigel no converge.
Ejemplo 3.16. Caso IR
2
En este caso es f acil analizar el metodo de Jacobi y el de Gauss-Seidel.
A =
_
a
11
a
12
a
21
a
22
_
entonces
B
J
= D
1
(L +U) =
_
0
a
12
a
11

a
21
a
22
0
_
y
B
GS
= (D +L)
1
U =
_
0
a
12
a
11
0
a
12
a
21
a
11
a
22
_
.
Entonces,
(B
J
) =

[a
12
a
21
[
[a
11
a
22
[
(B
GS
) =
[a
12
a
21
[
[a
11
a
22
[
.
Es decir,
(B
GS
) = (B
J
)
2
.
Como conclusi on en IR
2
Jacobi converge si y solo si Gauss-Seidel converge. Y si convergen (o
sea < 1) es mejor asintoticamente Gauss-Seidel, pues en este caso (B
GS
) < (B
J
).
Por ejemplo, si A es estrictamente diagonal dominante, entonces convergen los dos metodos. Y
esto en IR
2
es decir [a
12
[ < [a
11
[ y [a
21
[ < [a
22
[.
Si A es simetrica y denida positiva entonces convergen ambos metodos en IR
2
, pues
a
11
> 0 a
12
= a
21
det A = a
11
a
22
a
2
12
> 0
entonces
a
11
a
22
> a
2
12
a
2
12
a
11
a
22
= (B
GS
) = (B
J
)
2
< 1.
El ejemplo anterior se generaliza para el metodo de Gauss-Seidel en IR
N
pero no para el metodo
de Jacobi.
Veamos ahora el ultimo ejemplo de esta serie.
2. M

ETODOS ITERATIVOS 49
Ejemplo 3.17. Sea A IR
3
una matriz tridiagonal entonces,
(B
GS
) = (B
J
)
2
Si ponemos A =
_
_
a
11
a
12
0
a
21
a
22
a
23
0 a
32
a
33
_
_
entonces B
J
= D
1
(L + U) =
_
_
0
a
12
a
11
0

a
21
a
22
0
a
23
a
22
0
a
32
a
33
0
_
_
y
det(I B
J
) =
3

_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y entonces
(B
J
) =

a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33

.
Para el metodo de Gauss-Seidel se tiene
L +D =
_
_
a
11
0 0
a
21
a
22
0
0 a
32
a
33
_
_
y U =
_
_
0 a
12
0
0 0 a
23
0 0 0
_
_
.
Entonces
B
GS
= (L +D)
1
U =
_
_
_
_
_
_
0
a
12
a
11
0
0
a
12
a
21
a
11
a
22

a
23
a
22
0
a
12
a
21
a
32
a
11
a
22
a
33
a
23
a
32
a
22
a
33
_
_
_
_
_
_
det(I B
GS
) =
3

2
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y los autovalores resultan ser

1
=
2
= 0
3
=
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Entonces,
(B
GS
) =

a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33

= (B
J
)
2
Los autovalores de Jacobi son los autovalores de B
J
= D
1
(L +U) y resultan ser las races
de
det(I +D
1
(L +U)) = det(D
1
(D +L +U))
= det(D
1
) det(D +L +U)
y como por hip otesis det(D
1
) ,= 0 (asumimos a
ii
,= 0), son las races de
det(D +L +U).
50 3. RESOLUCI

ON DE SISTEMAS LINEALES.
An alogamente, los autovalores de B
GS
= (L +D)
1
U son las races de
det(I + (L +D)
1
U) = det((L +D)
1
((L +D) +U))
= det((L +D)
1
) det((L +D) +U)
y como det((L +D)
1
) ,= 0, son las races de
det((L +D) +U).
Lema 3.18. Sea A IR
NN
tridiagonal entonces, para todo ,= 0 se tiene que
det(D +L +U) = det(D +L +
1
U)
Demostraci on. Basta ver que las matrices A = D + L + U y D + L +
1
U son semejantes.
Pongamos
A =
_
_
_
_
_
_
_
d
1
a
1
0 0
b
2
d
2
a
2
0
0 b
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.
a
N1
0 . . . b
N1
d
N
_
_
_
_
_
_
_
y consideremos
C =
_
_
_
_
_
1 0 0
0 0
.
.
.
.
.
.
.
.
.
0
N1
_
_
_
_
_
Entonces,
CAC
1
=
_
_
_
_
_
_
_
d
1

1
a
1
0 0
b
2
d
2

1
a
2
0
0 b
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.

1
a
N1
0 . . . b
N1
d
N
_
_
_
_
_
_
_
= D +L +
1
U
Teorema 3.19. Sea A IR
NN
una matriz tridiagonal y sean los autovalores no nulos de
B
GS
, los autovalores no nulos de B
J
, entonces y se relacionan de la siguiente manera
=
2
.
En particular,
(B
GS
) = (B
J
)
2
.
2. M

ETODOS ITERATIVOS 51
Demostraci on. Los son autovalores de B
GS
y por lo anterior son races de
det((L +D) +U) = 0
pero (L +D) +U es tridiagonal y por el lema anterior
det(D +L +
1
U) = 0
Si ,= 0 sea tal que
2
=
1

. Entonces,
0 =
N
det(D +L +U)
y como los autovalores de B
J
son las races de det(D +L +U) = 0 resulta que
=
Pero como
2 1

se tiene que

2
= .
Ahora observemos que en lo anterior, dado ,= 0 autovalor de B
GS
encontramos autovalor de
B
J
con
2
= , pero en realidad es un si y solo si. Es decir, dado autovalor de B
J
, =
2
resulta ser un autovalor de B
GS
,
det(D +L +U) = 0
si y solo si
det(
2
D +(L +U)) = 0
si y solo si (por el lema previo)
det(
2
D +L +
1
U) = 0
y tomando = se tiene
det(
2
(D +L) +U)) = 0.
Entonces
2
es autovalor de B
GS
.
Convergencia del metodo de Gauss-Seidel para A IR
NN
simetrica
Como los autovalores de A IR
NN
pueden ser complejos, trabajaremos directamente con
A C
NN
.
Recordemos algunas deniciones
Definici on 3.20. Si A C
NN
de dene A

= A
T
o sea A

es la matriz que en el lugar i, j


tiene al elemento a

ij
= a
ji
.
Definici on 3.21. A C
NN
es Hermitiana si
A

= A.
52 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Observemos que si A IR
NN
, A

= A
T
y Hermitiana signica simetrica.
Si z C
N
y A es Hermitiana entonces
z

Az IR.
En general para A cualquiera z

Az = z

z. Veamos esto,
z

Az =

ij
z
i
a
ij
z
j
y entonces
z

Az =

ij
z
i
a
ij
z
j
= z

z
Teorema 3.22. Sea A C
NN
Hermitiana y denida positiva (o sea z

Az > 0 z ,= 0),
entonces el metodo de Gauss-Seidel es convergente.
Demostraci on.
A = L +D +L

con
L =
_
_
_
_
_
0 0 0
a
21
0 0
.
.
.
.
.
.
a
N1
0
_
_
_
_
_
Hay que ver que (B
GS
) < 1 donde B
GS
= (L +D)
1
L

.
Observemos que B
GS
puede escribirse como
B
GS
= I (L +D)
1
A
Sea C un autovalor de B
GS
y z C
N
, z ,= 0, un autovector correspondiente a , es decir
(I (L +D)
1
A)z = z
o bien
(L +D)z Az = (L +D)z
y esto es equivalente a
Az = (1 )(L +D)z
Como Az ,= 0 se deduce que ,= 1. Multiplicando por z

se obtiene
1
1
=
z

(L +D)z
z

Az
tomando conjugado y recordando que z

Az IR y que D es real se tiene


1
1
=
z

(L +D)

z
z

Az
=
z

(L

+D)z
z

Az
.
Y sumando estas dos igualdades se obtiene
2Re(
1
1
) = 1 +
z

Dz
z

Az
> 1
2. M

ETODOS ITERATIVOS 53
pues z

Az > 0 y z

Dz > 0 (a
ii
> 0 si A es denida positiva).
Entonces si = +i, tenemos
1
1
=
1
1 i
1 +i
1 +i
=
1 +i
(1 )
2
+ ()
2
.
Y de esta forma
Re(
1
1
) =
1
(1 )
2
+ ()
2
y por lo anterior
1
(1 )
2
+ ()
2
>
1
2
es decir
2(1 ) > 1 2 +
2
+
2
y esto es equivalente a
1 >
2
+
2
.
Hemos conseguido ver que
[[ < 1.
Se puede probar que si A C
NN
es Hermitiana y con a
ii
> 0 entonces el metodo de Gauss-
Seigel converge si y solo si A es denida positiva (ver Isaacson-Keller pag. 71).
2.5. Metodo SOR. La idea del metodo SOR (succesive overrrelaxation / sobre relajaci on
sucesiva) es tomar un promedio entre el x
k
i
y el x
k+1
i
de Gauss-Seidel (promedio entre comillas
pues los pesos no son necesariamente menores o iguales que 1).
Dado un par ametro se dene
x
k+1
i
= (1 )x
k
i
+
_
_
b
i

i1

j=1
a
ij
x
k+1
j

N

j=i+1
a
ij
x
k
j
_
_
1
a
ii
En forma matricial escribimos como antes A = L +D +U queda
(D +L)x
k+1
= ((1 )D U)x
k
+b
entonces
x
k+1
= B

x
k
+ (D +L)
1
b
con
B

= (D +L)
1
((1 )D U)
Observemos que B
1
= B
GS
.
En principio, es arbitrario. Sin embargo el siguiente teorema nos dice que es necesario que
[ 1[ < 1 para que haya convergencia (o sea para que (B

) < 1). Si IR entonces hace


falta que 0 < < 2.
Teorema 3.23. (Kahan) Sea A C
NN
, con a
ii
,= 0, entonces
(B

) [1 [
54 3. RESOLUCI

ON DE SISTEMAS LINEALES.
Demostraci on. Si L es triangular inferior con ceros en la diagonal entonces det(D
1
) = det((D+
L)
1
). En consecuencia,
det(B

) = det((D +L)
1
) det((1 )D U)
= det(D
1
) det((1 )D U)
= det((1 )I D
1
U)
= det((1 )I) = (1 )
N
Pero como det(B

) =

i
se tiene que
(B

) [1 [
Si IR, una condici on necesaria para que el metodo converja es que 0 < < 2. Esta condici on
es tambien suciente si A es simetrica denida positiva.
El problema consiste en encontrar el par ametro optimo (o cercano al optimo) para acelerar la
convergencia. Para ciertas clases de matrices esto puede hacerse (ver libro Varga, Ortega o
Smith).
CAPTULO 4
Resolucion de ecuaciones no lineales.
En muchos problemas, aparece en forma natural, la necesidad de calcular el valor de de x donde
una funci on f se anula, es decir, una raz de f. En general, con las herramientas analticas que
se usan para estudiar y gracar funciones suaves (derivables) s olo podemos analizar si hay un
intervalo [a, b] donde el graco de f cruza el eje x.
En este captulo, veremos distintos metodos que nos permitir an aproximar el valor de una raz,
este valor suele hallarse por aproximaciones sucesivas y por ende los metodos a utilizar son
iterativos. En muchas ocasiones, s olo tiene sentido encontrar una soluci on aproximada. A veces,
el c alculo exacto no es posible ya sea porque se trata de una raz irracional (f(x) = x
2
2) o
porque la funci on viene dada por coecientes cuyos valores se conocen s olo en forma aproximada.
Lo importante al utilizar metodos que estimen el valor deseado es, como venimos remarcando
en estas notas, poder controlar el error que se comete al utilizar un valor aproximado en lugar
del exacto.
El problema se plantea de la siguiente manera: Dada f : IR IR (o bien f : [a, b] IR) se
quiere encontrar r tal que
f(r) = 0.
El c alculo aproximado de races puede dividirse en dos etapas. En la primera, se separan las
races. Es decir, se busca un subintervalo de [a, b] que contenga una y s olo una raz de f. Para
asegurar la existencia de al menos una raz en el intervalo propuesto se utiliza el teorema de
Bolzano. Para asegurar que no hay m as de una raz se usa el teorema de Rolle, es decir, se
verica que la derivada primera no cambie de signo en dicho intervalo. En la segunda etapa, se
aplica un metodo para aproximar la raz aislada.
Antes de describir el primer metodo de estas notas, el de bisecci on, recordamos el teorema de
Bolzano.
Teorema 4.1. Bolzano Sea f : [a, b] IR continua en [a, b]. Si f(a)f(b) < 0 (o sea f(a) y
f(b) tienen distinto signo) entonces existe alguna raz de f en el intervalo [a, b].
1. Metodo de bisecci on.
Este metodo, que se apoya en la idea geometrica del teorema de Bolzano, permite construir una
sucesi on (x
n
)
nIN
que converge a la soluci on de f(x) = 0 de la siguiente manera.
56 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Supongamos que f(a)f(b) < 0. Calculemos c =
a+b
2
. Supongamos, por ejemplo, que f(a) > 0 y
f(b) < 0, entonces
(1) Si f(c) = 0 listo.
(2) Si f(c) < 0, habr a una raz en [a, c].
(3) Si f(c) > 0, habr a una raz en [c, b].
Ahora se elige el subintervalo, cuya longitud es la mitad de [a, b] y que contiene a la raz. Este
proceso se sigue sucesivamente.
As se genera una sucesi on x
1
=
a+b
2
[a
1
, b
1
], x
2
[a
2
, b
2
], x
3
[a
3
, b
3
] . . . donde cada intervalo
[a
n
, b
n
] mide la mitad del anterior,
b
1
a
1
=
b a
2
b
2
a
2
=
b
1
a
1
2
=
b a
4
.
.
.
b
n
a
n
= =
b a
2
n
Adem as,
a a
1
a
2
. . . b
b b
1
b
2
. . . a
Entonces a
n
y b
n
son sucesiones mon otonas y acotadas y en consecuencia convergen, es decir,
existen los lmites
lim
n
a
n
y lim
n
b
n
.
Y como
[b
n
a
n
[
b a
2
n
0
se tiene que
lim
n
a
n
= lim
n
b
n
= r.
En cada paso se verica f(a
n
)f(b
n
) 0 y tomando lmite (usando que f es continua) resulta
f(r)
2
0.
Entonces r es la raz buscada pues cumple, f(r) = 0.
1. M

ETODO DE BISECCI

ON. 57
Por otra parte el error puede acotarse de la siguiente forma. Tenemos que
x
n
=
a
n1
+b
n1
2
entonces
[r x
n
[
1
2
(b
n1
a
n1
)
b a
2
n
.
Resumiendo, hemos demostrado,
Teorema 4.2. Si f : [a, b] IR es continua y f(a)f(b) < 0 entonces, el metodo de bisecci on
genera una sucesi on x
n
tal que,
(1) x
n
r con f(r) = 0,
(2) [r x
n
[
b a
2
n
.
Una de las ventajas que tiene el metodo de bisecci on es que converge para cualquier f continua,
es decir no hace falta derivabilidad como en otros metodos que veremos mas adelante.
Ejemplo 4.3. Calculemos

2.
Tomemos f(x) = x
2
2 y [a, b] = [1, 3]. Se tiene f(1) = 1 < 0 < f(3) = 7 y con un graco de
f podemos asegurar que no hay otra raz positiva. La suecsi on que produce el metodo es:
x
1
= 2 f(x
1
) = 2 [a
1
, b
1
] = [1, 2]
x
2
= 1.5 f(x
2
) = 0.25 [a
2
, b
2
] = [1, 1.5]
x
3
= 1.25 f(x
3
) = 0.4375 [a
3
, b
3
] = [1.25, 1.5]
x
4
= 1.375 f(x
4
) = 0.109375 [a
4
, b
4
] = [1.375, 1.5]
x
5
= 1.4375 f(x
5
) = 0.06640625 [a
5
, b
5
] = [1.375, 1.4375]
x
6
= 1.40625 f(x
6
) = 0.022 . . . [a
6
, b
6
] = [1.40625, 1.4375]
x
7
= 1.421875 f(x
7
) = 0.02 . . . [a
7
, b
7
] = [1.40625, 1.421875]
x
8
= 1.4140625 . . .
Para x
8
, vemos que la aproximaci on lograda tiene 4 cifras exactas. Fue necesario hacer ocho
pasos para obtener cuatro cifras exactas (

2 = 1.4142 . . .).
Del an alisis hecho en general sabamos que,
58 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
[

2 x
8
[
b a
2
8
=
2
2
8
=
1
128
.
Entonces el error relativo es
[

2 x
8
[

1
128

2
0.005 . . .
5
1000
.
La desventaja del metodo de bisecci on es que converge muy lentamente, por ejemplo en compa-
raci on con el metodo de Newton-Raphson que veremos m as adelante.
En cada paso la cota del error, (b a)/2
n
, se reduce a la mitad,
[e
n+1
[
b a
2
n
.
En consecuencia se reduce
1
10
en tres o cuatro pasos (se gana una cifra en tres o cuatro pasos).
2. Metodo regula falsi
Este metodo llamado regula falsi o de falsa posici on puede verse tanto como una variante del
metodo de bisecci on como del metodo Newton-Raphson, que veremos en la pr oxima secci on.
Supongamos, nuevamente, que tenemos una funci on f : [a, b] IR continua que verica
f(a)f(b) < 0 (entonces existe una raz, r, en [a, b], por el teorema de Bolzano) y supongamos
que la raz es unica en ese intervalo.
Denimos x
1
como la intersecci on de la recta secante L con el eje x (en lugar de tomar el
promedio
ba
2
, como se hace con el metodo de bisecci on).
La recta L, que une los puntos (a, f(a)) con (b, f(b)) tiene ecuaci on:
y f(a) =
f(b) f(a)
b a
(x a).
Como x
1
es el valor de x que cumple y = 0, se tiene,
x
1
= a
f(a)
f(b) f(a)
(b a) =
af(b) bf(a)
f(b) f(a)
Si f(x
1
) ,= 0 entonces f(a)f(x
1
) < 0 o bien f(b)f(x
1
) < 0. Supongamos f(b)f(x
1
) < 0, deni-
mos x
2
con el mismo procedimiento anterior con el intervalo [x
1
, b] = I
1
, y as sucesivamente.
Observemos que puede suceder que [I
n
[ no tienda a cero, pero sin embargo x
n
r para toda f
continua.
3. M

ETODO DE NEWTON-RAPHSON. 59
Mtodo de Regula Falsi: tres iteraciones
f(x)
|
|
a
x
1
x
2 b
Solucin exacta
Figura 4.1.
3. Metodo de Newton-Raphson.
La idea del metodo es ir por la tangente como se describe a continuaci on.
Se empieza con x
0
. Se traza la tangente en x
0
y se dene x
1
como la intersecci on de la tangente
con el eje x. Luego se traza la tangente por x
1
y se toma x
2
la intersecci on de la tangente con
el eje x, y as sucesivamente. Esto genera una sucesi on x
n
como muestra la gura 4.2.
Observemos que hace falta que f sea derivable. Adem as, puede ocurrir que la sucesi on que
produce este metodo no sea convergente. Esto ultimo se puede ver gr acamente con el ejemplo
que muestra la gura 4.3.
Sin embargo veremos que el metodo converge muy r apidamente si x
0
est a sucientemente cerca
de una raz, bajo condiciones bastante generales sobre la funci on f.
Descripci on analtica de metodo de Newton-Raphson.
Sea f : [a, b] IR derivable, x
0
[a, b], se toma x
1
tal que
f(x
0
) + (x
1
x
0
)f

(x
0
) = 0
Y en general, se toma x
n+1
tal que
60 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Mtodo de NewtonRaphson
f(x)
x
0
x
1

x
2

Figura 4.2.
x
0
x
1
x
2
f(x)
Figura 4.3.
f(x
n
) + (x
n+1
x
n
)f

(x
n
) = 0
o sea,
x
n+1
= x
n

f(x
n
)
f

(x
n
)
3. M

ETODO DE NEWTON-RAPHSON. 61
Observemos que para que esto tenga sentido, hay que suponer f

(x
n
) ,= 0, esto es obvio
gr acamente como muestra la gura 4.3.
Ahora analicemos la convergencia del metodo. Sea r una raz simple de f, es decir, f(r) = 0,
f

(r) ,= 0 y supongamos que f

es acotada.
Debemos estimar el error que se comete al usar x
n
en lugar de la soluci on exacta (y desconocida)
r. Esto es, estudiamos la expresion e
n
= x
n
r y vemos si e
n
0.
x
0

f(x)
x
Recta tangente a f en x
0

Figura 4.4.
Para analizar la convergencia del error miramos la sucesi on recursiva
e
n+1
= x
n+1
r = x
n

f(x
n
)
f

(x
n
)
r = e
n

f(x
n
)
f

(x
n
)
entonces
e
n+1
=
e
n
f

(x
n
) f(x
n
)
f

(x
n
)
(4.1)
Observemos que si f

(r) ,= 0 entonces f

(x
n
) ,= 0 para x
n
cercano a r (esto lo justicaremos con
mas precisi on despues).
Usando el desarrollo de Taylor de orden 2 centrado en la raz r se tiene,
0 = f(r) = f(x
n
) (x
n
r)f

(x
n
) +
1
2
(x
n
r)
2
f

()
62 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
donde es un valor intermedio entre x
n
y r. Entonces
e
n
f

(x
n
) f(x
n
) =
1
2
f

()e
2
n
Reemplazando en la igualdad 4.1 queda
e
n+1
=
1
2
f

()
f

(x
n
)
e
2
n
(4.2)
Con todo esto podemos demostrar el siguiente teorema.
Teorema 4.4. (de convergencia) Si r es un cero simple de f (i.e. f

(r) ,= 0) y sea I =
[r , r +] un intervalo tal que [f

(x)[ > 0 y [f

(x)[ M en I. Entonces,
Existe > 0 tal que I

= [r , r +] I y se tiene que [e
n
[ 0 y
[e
n+1
[
1
2
M

[e
n
[
2
, (4.3)
siempre que x
0
I

.
Demostraci on. Como las cotas para f

y f

siguen siendo ciertas para cualquier subintervalo de


I, podemos elegir > 0 tal que
1
2
M

= < 1.
Entonces, si x
0
I

tenemos que [e
0
[ = [x
0
r[ < y usando (4.2) obtenemos
[e
1
[ = [x
1
r[ [e
0
[.
En particular, x
1
I

. An alogamente,
[e
2
[ = [x
2
r[ [e
1
[
2
[e
0
[
y x
2
I

. Continuando de esta manera, obtenemos una sucesi on (x


n
)
nIN
I

tal que
[e
n
[
n
[e
0
[.
Como 0 < < 1 se tiene que [e
n
[ 0 si n . Finalmente, la desigualdad (4.3) se obtiene de
(4.2).
3. M

ETODO DE NEWTON-RAPHSON. 63
Corolario 4.5. Si f

es continua y f

es acotada en [a, b] y r [a, b] es una raz simple de


f, entonces existe un > 0 tal que si x
0
I

= [r , r + ] [a, b], el metodo de Newton


empezando en x
0
converge a r.
Demostraci on. Como f

(r) ,= 0 y f

es continua, existen > 0 y > 0 tales que I =


[r , r + ] [a, b] y [f

(x)[ > para todo x I. Ahora estamos en las condiciones del


teorema 4.4.
Observaci on 4.6. Un caso particular del corolario 4.5 es una funci on C
2
([a, b]) que tiene a
r [a, b] como raz simple.
Ahora, queremos estudiar la rapidez con la que una sucesi on generada por un metodo, converge
a la solucion exacta. Para eso necesitamos la siguiente
Definici on 4.7. En general podemos denir que un metodo es de orden p si
lim
n
[e
n+1
[
[e
n
[
p
= cte y lim
n
[e
n+1
[
[e
n
[
p
= 0
Observemos primero que cuanto m as grande sea p mejor. Ahora, veamos que signica esto
geometricamente. Para valores grandes de n, es decir, asint oticamente, se puede considerar que
el comportamiento de las sucesiones [e
n+1
[ y [e
n
[
p
son equivalentes, lo que se expresa como
[e
n+1
[ C[e
n
[
p
.
Por otra parte, si se obtiene una desigualdad de la forma
[e
n+1
[ C[e
n
[
p
podemos asegurar que el orden de convergencia es por lo menos p.
La convergencia para el metodo de Newton-Raphson es cuadr atica, es decir, p = 2. Si bien, con
la desigualdad (4.3) podemos asegurar que existe C > 0 tal que
[e
n+1
[ C[e
n
[
2
de la igualdad (4.2) se deduce que el metodo, en general, converge cuadr aticamente. Esto es, en
cada paso el error se reduce cuadraticamente (o sea es menor o igual que el cuadrado del error
del paso anterior).
Esta es la gran ventaja del metodo de Newton. El n umero de cifras correctas se duplica (esen-
cialmente) en un paso.
64 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Este resultado de convergencia es local, o sea, el teorema garantiza la convergencia si se
empieza sucientemente cerca de r. En la pr actica es un tema difcil determinar lo que es
sucientemente cerca. Muchas veces, se combinan unos pasos del metodo de bisecci on para
encontrar un intervalo en el que se aplique el teorema 4.4. Sin embargo, el metodo de Newton
funciona excelentemente (incluso en N variables) y es de los m as usados.
Ejemplo 4.8. Calculemos, aplicando el metodo de Newton una aproximaci on de

2. Compa-
remos el resultado con el que se obtuvo al aplicar el metodo de bisecci on. Como antes la funci on
es f(x) = x
2
2 y elegimos x
0
= 3. Tenemos
x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
2
n
2
2x
n
=
x
n
2
+
1
x
n
(4.4)
Y aplicando esto obtenemos
x
0
= 3 x
3
= 1.41499843 . . .
x
1
= 1.833 . . . x
4
= 1.41421378 . . .
x
2
= 1.4621212 . . . x
5
= 1.414213562 . . .
Observemos que

2 = 1.414213562 . . .
Es decir, con cinco pasos del metodo tenemos m as de diez cifras exactas, mientras que con
bisecci on en ocho pasos tenamos cuatro cifras exactas.
Comentario. Hacia el a no 2000 a.C. los Babilonios usaban el siguiente metodo para calcular
el n umero

p si p IN. Si a >

p se tiene que
p
a
<

p. Luego

p es un n umero entre
p
a
y a.
Entonces, consideraban el promedio
1
2
(a +
p
a
) como primera aproximaci on, as sucesivamente.
Esto coincide con el metodo de Newton, de 1669 d.C., aplicado a la funci on x
2
p. Comparar
con (4.4).
Ejemplo 4.9. Como segundo ejemplo veamos que sucede con f(x) = x
3
, r = 0. Es claro que la
unica raz es r = 0. Lo que se pretende con este ejemplo es mostrar alguna de las dicultades a
tener en cuenta cuando se aplica el metodo de Newton. La sucesi on que produce este metodo
es:
x
n+1
= x
n

x
3
n
3x
2
n
=
2
3
x
n
3. M

ETODO DE NEWTON-RAPHSON. 65
Entonces
[e
n+1
[ =
2
3
[e
n
[
En este caso, observamos que la convergencia es lineal y no es cuadr atica. Lo que sucede es que
no se verica la hip otesis de que r sea una raz simple (f

(r) = 0 en este caso).


Ejemplo 4.10. Este es un ejemplo donde el metodo de Newton-Raphson no converge. En este
caso, la hip otesis que no se cumple es la derivabilidad de f. Consideremos la funci on
f(x) =
_
_
_

x x 0

x x < 0,
con r = 0.
Un c alculo sencillo permite ver que f no es derivable en la raz. En cualquier otro valor se tiene
f

(x) =
_
_
_
1
2
x

1
2
x > 0
1
2
(x)

1
2
x < 0.
Es decir,
f

(x) =
1
2
[x[

1
2
.
La sueci on que produce el metodo se escribe como
x
n+1
= x
n

x
1
2
n
1
2
x

1
2
n
= x
n
2x
n
= x
n
.
Ahora, salvo que comencemos en la raz (con lo cual no necesitaramos de un metodo para
hallarla) se tiene que x
n
es positivo o negativo.
Supongamos que x
n
> 0, entonces x
n+1
= x
n
< 0 y x
n+2
= x
n+1
> 0.
Si seguimos el proceso que genera x
n
desde un x
0
inicial vemos que la sucesi on es:
x
0
x
0
x
0
x
0
. . .
Conclumos que, en este ejemplo, el metodo de Newton no converge para ning un x
0
por m as
cerca de r = 0 que este.
66 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Ahora veamos un teorema de convergencia global para el metodo de Newton que se aplica a
funciones convexas. Una funci on se dice convexa en (a, b) si la recta tangente al graco de f
est a por debajo de este para todo los x en el intervalo. Si la funci on es dos veces derivable esto
corresponde con la condici on f

> 0. En este caso, f puede tener un valor mnimo. Digamos, si


existe, que lo alcanza en x

.
Teorema 4.11. Sea f dos veces derivable en [a, b] tal que f

> 0 (f es convexa), entonces el


metodo de Newton-Raphson converge para todo x
0
,= x

. Es decir, en este caso no hace falta


pedir que x
0
este cerca de r.
Demostraci on. Si perdida de generalidad podemos suponer que f es mon otona (si estamos a
la derecha de x

, la iteraci on de Newton nunca ir a a la izquierda, ver gura 4.2).


Si x
0
> r entonces r < x
1
< x
0
y en general
x
0
> x
1
> x
2
> .... > x
n
> .... > r
y entonces la sucesi on x
n
converge pues es mon otona. Veamos que converge a una raz de f.
Supongamos que x
n
, luego tomando lmite en la expresi on x
n+1
= x
n

f(x
n
)
f

(x
n
)
y usando
que f

es continua queda
=
f()
f

()
de d onde f() = 0 y = r pues supusimos f mon otona.
Si bien este teorema es bastante claro geometricamente para funciones denidas en IR, su interes
radica en su extensi on a IR
N
.
4. Metodo de punto jo
El metodo de Newton puede verse como un caso particular del metodo de punto jo.
La idea es reemplazar la ecuaci on f(x) = 0 por otra de la forma x = g(x) de manera que la
solucion de esta sea la solucion del problema original.
Esto puede hacerse de diversas maneras, por ejemplo, si
f(x) = x
3
13x + 18
podemos tomar g(x) como cualquiera de las siguientes funciones
g
1
(x) =
x
3
+ 18
13
, g
2
(x) = (13x 18)
1
3
, g
3
(x) =
13x 18
x
2
.
4. M

ETODO DE PUNTO FIJO 67


Una vez encontrada g una funci on continua, el problema se reduje a encontrar puntos jos de
g, es decir, r tales que
r = g(r).
Se dene una sucesi on por iteraci on, se elige un x
0
y despues se toma
x
n+1
= g(x
n
). (4.5)
Observemos que si la sucesi on generada por (4.5) x
n
converge, entonces lo hace a un punto jo
de g. En efecto, tomando lmite y usando que g es continua se tiene que si x
n
r entonces
r = g(r).
Teorema 4.12. Sea I = [a, b] si g(I) I entonces g tiene al menos un punto jo en I.
Demostraci on. Como g(I) I se tiene que a g(a) b y a g(b) b, si a = g(a) o b = g(b)
listo. Si no, g(a) a > 0 y g(b) b < 0. Entonces la funci on F(x) = g(x) x cumple, F(a) > 0
y F(b) < 0 y como F es continua existe un r en I tal que 0 = F(r) = g(r) r.
Teorema 4.13. Si g es adem as derivable y [g

(x)[ < 1 x I y g(I) I entonces g tiene


un unico punto jo.
Demostraci on. Si hay dos puntos jos, r
1
, r
2
con r
1
,= r
2
, tenemos
[r
1
r
2
[ = [g(r
1
) g(r
2
)[ = [g

()(r
1
r
2
)[ [r
1
r
2
[ < [r
1
r
2
[
una contradicci on.
Bajo estas mismas hip otesis, la sucesi on generada iterativamente converge y se puede dar una
cota del error en terminos de .
Teorema 4.14. Sea g tal que [g

(x)[ < 1 x I y g(I) I entonces la sucesi on x


n
denida
por
x
n+1
= g(x
n
)
converge al unico punto jo de g y adem as,
(1) [x
n
r[
n
[x
0
r[
(2) [e
n
[

n
1
[x
1
x
0
[. O sea, se tiene una acotaci on en terminos de [x
1
x
0
[ que es
conocido.
68 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Demostraci on. Por el teorema anterior sabemos que existe un unico punto jo de g que llamamos
r. La hip otesis sobre la derivada de g implica que [g(x) g(y)[ [x y[, o sea g es Lipschitz
con constante . Entonces
[x
n+1
r[ = [g(x
n
) g(r)[ [x
n
r[
y de aqu, como < 1 se tiene que
[x
n
r[
n
[x
0
r[ 0.
En particular demostramos que x
n
r.
Por otra parte, intercalando x
1
y usando desigualdad triangular,
[x
0
r[ [x
0
x
1
[ +[x
1
r[ [x
0
x
1
[ +[x
0
r[.
Entonces
(1 )[x
0
r[ [x
1
x
0
[
y como
[x
n
r[
n
[x
0
r[
se obtine la estimaci on 2).
La gura 4.5 muestra gracamente como se genera una sucesion por el metodo de punto jo.
En dicho graco 0 < f

(x) < 1.
Para aplicar el teorema 4.14 hay que garantizar que g(I) I (o sea primero hay que encontrar
un tal I).
Si r es un punto jo de g con [g

(r)[ < 1 este intervalo I existe, resultado que probamos en el


siguiente teorema.
Teorema 4.15. g

continua en (a, b), r (a, b) un punto jo de g. Si [g

(r)[ < 1, entonces


existe > 0 tal que la iteraci on es convergente siempre que x
0
I

= (r , r +).
Demostraci on. Como [g

(r)[ < 1, existe una constante K < 1 y un > 0 tales que [g

(x)[ < K,
x I

= (r , r +) (por la continuidad de g

). Entonces, x I

,
[g(x) r[ = [g(x) g(r)[ K[x r[ K <
o sea, g(I

) I

, y podemos aplicar el teorema anterior en I

.
5. M

ETODO DE LA SECANTE 69
x
0
x
1
x
2
x
3
x
4
y=x
f(x)
Figura 4.5.
5. Metodo de la secante
En este metodo tenemos que x
n+1
es funci on de x
n
y de x
n1
. La idea es la misma que en
el metodo regula falsi, trazar la secante, pero este metodo es diferente pues se usan las dos
ultimas aproximaciones x
n1
y x
n
en lugar de encerrar la raz como en regula falsi. Para
empezar hay que dar dos valores x
0
y x
1
.
La ecuaci on de la secante que une los puntos (x
n1
, f(x
n1
)) y (x
n
, f(x
n
)) es
y = f(x
n
) + (x x
n
)
f(x
n
) f(x
n1
)
x
n
x
n1
entonces se dene x
n+1
como la intersecci on de esta recta con el eje x, as, x
n+1
verica
0 = f(x
n
) + (x
n+1
x
n
)
f(x
n
) f(x
n1
)
x
n
x
n1
es decir,
x
n+1
= x
n
f(x
n
)
x
n
x
n1
f(x
n
) f(x
n1
)
.
70 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Observemos que esta formula es an aloga a la de Newton reemplazando f

por un cociente
incremental.
La ventaja es que no hay que calcular la derivada de f (esto es de gran ayuda en un caso en que
f

sea difcil de calcular).


La desventaja es, seg un veremos, que la convergencia de la sucesi on es m as lenta que la que
produce el etodo de Newton.
Observemos que la iteraci on del metodo de la secante tambien puede escribirse como
x
n+1
=
f(x
n
)x
n1
f(x
n1
)x
n
f(x
n
) f(x
n1
)
.
Analicemos el orden de convergencia de este metodo, seg un la denici on 4.7. Tenemos
f(r) = 0 y e
n
= r x
n
.
Luego,
e
n+1
= r x
n+1
= r
f(x
n
)x
n1
f(x
n1
)x
n
f(x
n
) f(x
n1
)
=
e
n1
f(x
n
) e
n
f(x
n1
)
f(x
n
) f(x
n1
)
=
e
n1
(f(x
n
) f(r)) e
n
(f(r) f(x
n1
))
f(x
n
) f(x
n1
)
=
e
n
e
n1
f(x
n
)f(r)
x
n
r
+e
n
e
n1
f(r)f(x
n1
)
x
n1
r
f(x
n
) f(x
n1
)
.
Es decir,
e
n+1
= e
n
e
n1
f(x
n1
)f(r)
x
n1
r

f(r)f(x
n
)
x
n
r
f(x
n
) f(x
n1
)
. (4.6)
Denamos ahora las diferencias.
Primera diferencia :
f[a, b] =
f(b) f(a)
b a
= f

().
5. M

ETODO DE LA SECANTE 71
Segunda diferencia :
f[a, b, c] =
f(c)f(b)
cb

f(b)f(a)
ba
c a
.
Entonces el error del metodo de la secante verica,
e
n+1
= e
n
e
n1
f[x
n1
, r, x
n
]
f[x
n1
, x
n
]
.
Lema 4.16.
f[a, b, c] =
1
2
f

().
Demostraci on.
f(x) = f(a) +f[a, b](x a) +f[a, b, c](x a)(x b) +Resto.
Despreciamos el resto y nos quedamos con el polinomio de grado 2:
f(a) +f[a, b](x a) +f[a, b, c](x a)(x b)
Se ver a mas adelante que este polinomio es el polinomio interpolador de grado dos.
Sea
g(x) = f(x) f(a) +f[a, b](x a) +f[a, b, c](x a)(x b) (4.7)
g cumple que g(a) = 0, g(b) = 0 y g(c) = 0.
Entonces g

se anula en por lo menos dos puntos y de ah que existe con g

() = 0. Ahora,
derivando dos veces la expresion (4.7) y evaluando en se obtiene
0 = g

() = f

() 2f[a, b, c],
es decir,
f[a, b, c] =
1
2
f

().
Aplicando el lema 4.16 a nuestra expresi on de e
n+1
dada en (4.6) queda
72 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
e
n+1
=
f

(
n
)
f

(
n
)
e
n
e
n1
y de aca se puede deducir la convergencia local.
Teorema 4.17. Si f

(r) ,= 0, [f

[ K en un entorno de r y x
0
, x
1
est an sucientemente cerca
de r, es decir existe > 0 tal que si x
0
, x
1
I

= (r , r +), entonces
e
n
0.
Demostraci on. Existe > 0 tal que [f

[ > en I

, entonces si x
0
, x
1
I

tenemos que
[e
2
[
K
2
[e
1
[[e
0
[
K
2

2
y si ahora pedimos (quizas achicando el ) que
K
2
= < 1
nos queda que
[e
2
[ <
y entonces x
2
I

. Ahora bien
[e
3
[
K
2
[e
2
[[e
1
[
K
2

2

2

[e
4
[
K
2
[e
3
[[e
2
[
K
2

2

3
.
Y podemos concluir por induccion que
[e
n
[
n1
0.
Veamos el orden de convergencia del metodo de la secante, tenamos
[e
n+1
[ = [
1
2
f

(
n
)
f

(
n
)
[[e
n
[[e
n1
[ = c
n
[e
n
[[e
n1
[,
y adem as, si llamamos c

al lmite de c
n
tenemos
5. M

ETODO DE LA SECANTE 73
c
n
c

1
2
f

(r)
f

(r)

.
Supongamos que f

(r) ,= 0, de esta forma c

,= 0.
Buscamos p tal que
lim
n
[e
n+1
[
[e
n
[
p
= C ,= 0.
Tenemos
[e
n+1
[
[e
n
[
p
= c
n
[e
n
[
1p
[e
n1
[ = c
n
_
[e
n
[
[e
n1
[
p
_

.
Si = 1 p y p = 1, o sea
p p
2
= p = 1,
entonces p es solucion de
p
2
p 1 = 0,
y como p > 0,
p =
1 +

5
2
= 1.618...
Con esta eleccion de p tenemos que
y
n
=
[e
n+1
[
[e
n
[
p
cumple la iteraci on de punto jo (salvo que c
n
es variable pero converge a c

),
y
n+1
= c
n
y

1
p
n
.
Entonces, y
n
converge al punto jo de la ecuaci on x = c

1
p
(esto es cierto porque p > 1 y se
ve directamente escribiendo la iteraci on). El punto jo es x = c
1
p

. Entonces nos queda que


[e
n+1
[
[e
n
[
p

1
2
f

(r)
f

(r)

1
p
,
para n grande.
Ahora veamos una idea intuitiva de la demostraci on directamente.
74 4. RESOLUCI

ON DE ECUACIONES NO LINEALES.
Si suponemos [e
n+1
[ [e
n
[
p
tenemos [e
n+1
[ [e
n
[
p
[e
n1
[
p
2
y de la relaci on entre e
n+1
, e
n
y e
n1
se tiene [e
n1
[
p
2
[e
n1
[
p
[e
n1
[. O sea, [e
n1
[
p
2
p1
cte. Luego p > 0 tiene que ser
solucion de p
2
p 1 = 0 y entonces p =
1+

5
2
= 1.618....
CAPTULO 5
Interpolacion
El objetivo de este captulo es estudiar c omo puede aproximarse una funci on por polinomios.
Una forma de hacer esto es construir los polinomios de manera que coincidan con la funci on
dada en algunos puntos predeterminados, lo que recibe el nombre de interpolaci on polinomial.
Analizaremos distintos metodos para resolver este problema y estudiaremos el error que se
comete al reemplazar una funci on por un polinomio interpolante.
Hay diversos motivos para estudiar este problema. Por un lado, el polinomio interpolante puede
utilizarse para reconstruir una funci on f a partir de una tabla de valores. Por otra parte, es
una herramienta fundamental para integraci on y diferenciaci on numerica, como veremos m as
adelante.
1. Interpolaci on de Lagrange
En lo que sigue, si n IN
0
, llamaremos T
n
al conjunto de polinomios de grado menor o igual
que n.
Si f es una funci on denida en [a, b] y x
0
, x
1
,. . . , x
n
[a, b], son n+1 puntos distintos; se quiere
encontrar p
n
T
n
un polinomio que coincida con f en dichos puntos, es decir p
n
debe vericar
que
f(x
j
) = p
n
(x
j
) j = 0, . . . , n.
En primer lugar, daremos el resultado b asico que dice que es posible encontrar un polinomio
que verique (5.2) y que adem as es unico. Mostraremos una forma concreta de hallar dicho
polinomio bas andonos en la Base de Lagrange que construimos a continuaci on.
Base de Lagrange: Para cada punto x
j
, j = 1, . . . , n, buscamos un polinomio de grado n que
se anule en todos los x
i
salvo x
j
donde queremos que valga 1. Por ejemplo,
0
ser a un polinomio
en T
n
tal que se anula en x
1
, . . . , x
n
y
0
(x
0
) = 1.
Como x
1
, . . . , x
n
son races de
0
,
0
(x) =

n
i=1
(xx
i
); donde es una constante que se elige
de modo que
0
(x
0
) = 1. Imponiendo esta condici on obtenemos
76 5. INTERPOLACI

ON

0
(x) =
n

i=1
(x x
i
)
n

i=1
(x
0
x
i
)
.
De manera an aloga, para cada j = 1, . . . , n,, el polinomio
j
T
n
tal que

j
(x
i
) =
ij
=
_
1 i = j
0 i ,= j
estar a dado por

j
(x) =

i=j
(x x
i
)

i=j
(x
j
x
i
)
(5.1)
Los polinomios
0
,
1
, . . . ,
n
se conocen como la base de Lagrange.
Teorema 5.1. Dados x
0
,. . . ,x
n
y f(x
0
), . . . , f(x
n
) existe un unico polinomio p
n
T
n
tal que
p
n
(x
j
) = f(x
j
); j = 0, . . . , n. (5.2)
Demostraci on. Usando la base de Lagrange denimos
p
n
(x) =
n

j=0
f(x
j
)
j
(x). (5.3)
obteniendo un polinomio p
n
T que verica (5.2). Veamos que es unico. Supongamos que hay
dos polinomios p
n
, q
n
T
n
que interpolan a f en los x
j
, esto es
(p
n
q
n
)(x
j
) = 0 j = 0, . . . , n.
Entonces p
n
q
n
es un polinomio de grado menor o igual que n con n + 1 races distintas; es
decir, p
n
q
n
es el polinomio nulo.
Observaci on 5.2. (1) La escritura (5.3) se llama forma de Lagrange del polinomio inter-
polador.
(2) El polinomio p
n
puede tener grado estrictamente menor que n.
(3) Si f es un polinomio de grado menor o igual que n, es decir, f T
n
; entonces f = p
n
(la interpolacion es exacta para polinomios).
2. ERROR DE INTERPOLACI

ON 77
(4) El polinomio que interpola en n + 1 puntos distintos es unico en T
n
. Si se permite
mayor grado hay innitos.
Otra forma de demostrar la existencia (y de encontrar el polinomio) es por el metodo de los
coecientes indeterminados. El polinomio ser a de la forma
p
n
(x) = a
0
+a
1
x + +a
n
x
n
y se buscan a
0
, ...., a
n
tales que
p
n
(x
j
) = f(x
j
).
Al evaluar, queda formado un sistema (n + 1) (n + 1)
_
_
_
_
_
1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
x
n
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
f(x
0
)
f(x
1
)
.
.
.
f(x
n
)
_
_
_
_
_
La matriz de la izquierda se llama matriz de Van der Monde y como depende de los datos
x
0
, . . . , x
n
se nota por V (x
0
, . . . , x
n
).
Para ver que existe una solucion (a
0
, ..., a
n
) y que es unica hay que ver que la matriz V (x
0
, . . . , x
n
)
es inversible. Esto equivale a ver que el n ucleo es nulo. Ahora, si (a
0
, ..., a
n
) Nu(V (x
0
, . . . , x
n
))
tendramos
a
0
+a
1
x
j
+a
2
x
2
j
+..... +a
n
x
n
j
= 0 j = 0, ..., n.
Entonces a
0
= ... = a
n
= 0 (pues un polinomio de grado n no nulo no puede tener n + 1 races
distintas).
2. Error de interpolaci on
La ventaja de obtener un polinomio que interpole a una funci on f de la cual s olo se conocen
sus valores en los puntos x
0
, . . . , x
n
es que, el polinomio, arroja una f ormula que permite
sustituir la funci on f y hacer evaluaciones en puntos diferentes a los conocidos. Para que este
reemplazo tenga alguna validez numerica es importante conocer una estimaci on del error que
se comete. Para esto ser a necesario suponer que la funci on f verica algunas condiciones de
suavidad. Llamemos
E
n
(x) = f(x) p
n
(x), x [a, b]
78 5. INTERPOLACI

ON
a este error. Con el siguiente teorema, damos el primer paso para poder estimar el error cometido;
es decir, damos una expresion para E
n
(x).
Dados los puntos x
0
, . . . , x
n
, utilizaremos la notaci on W
n+1
para designar al polinomio m onico
de grado n + 1 que se anula en esos puntos. Es decir,
W
n+1
(x) = (x x
0
) (x x
n
)
Teorema 5.3. Sean f C
n+1
[a, b] y p
n
T
n
el polinomio interpolador de f en x
0
, ..., x
n
puntos
del intervalo [a, b]. Para cada x [a, b], existe [a, b], = (x), tal que
E
n
(x) = f(x) p
n
(x) =
f
(n+1)
()
(n + 1)!
W
n+1
(x).
Demostraci on. Notar que E
n
(x
j
) = 0 para todo j. Por lo tanto, podemos suponer x ,= x
j
.
Fijado x denimos la siguiente funci on de t,
F(t) = f(t) p
n
(t) W
n+1
(t)
donde se elige de modo que F(x) = 0. O sea, =
f(x)p
n
(x)
W
n+1
(x)
, que est a bien denida pues
W
n+1
(x) ,= 0. Observemos que para todo j,
F(x
j
) = f(x
j
) p
n
(x
j
) W
n+1
(x
j
) = 0.
Entonces F se anula en los n +2 puntos x
0
, ..., x
n
, x. En consecuencia, por el teorema de Rolle,
F

tiene al menos n + 1 ceros, F

al menos n ceros y as siguiendo se tiene que existe un punto


(a, b) tal que F
(n+1)
() = 0. Como
F
(n+1)
(t) = f
(n+1)
(t) (n + 1)!
Se obtiene,
f
(n+1)
()
(n + 1)!
=
f(x) p
n
(x)
W
n+1
(x)
lo que concluye la demostraci on.
3. Forma de Newton
La forma de Newton es conveniente para calcular el polinomio, en T
n
, que interpola a una
funci on f en x
0
, ..., x
n1
, x
n
una vez conocido el polinomio interpolador de f en x
0
, ..., x
n1
.
La forma de Newton del polinomio interpolador puede verse como una generalizaci on del poli-
nomio de Taylor asociado a una funci on. En esta construcci on aparecen las diferencias divididas
que presentamos a continuacion.
3. FORMA DE NEWTON 79
Primera diferencia dividida
f[x
0
, x
1
] =
f(x
1
) f(x
0
)
x
1
x
0
.
Segunda diferencia dividida
f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] f[x
0
, x
1
]
x
2
x
0
.
As sucesivamente se dene la diferencia de orden k asociada a los puntos x
0
, . . . , x
k
,
f[x
0
, . . . , x
k
] =
f[x
1
, . . . , x
k
] f[x
0
, . . . , x
k1
]
x
k
x
0
.
La construccion de la forma de Newton se basa en la siguiente idea. Una vez obtenido p
k
T
k
que interpola a f en x
0
, . . . , x
k
escribimos p
k+1
T
k+1
como
p
k+1
(x) = p
k
(x) +a
k+1
(x x
0
) (x x
k
).
Observemos que como el termino agregado no modica el valor de p
k
en x
0
, . . . , x
k
, p
k+1
tambien
interpola a f en esos puntos independientemente del valor de a
k+1
. Por otra parte, podemos
elegir
a
k+1
=
f(x
k+1
) p
k
(x
k+1
)
(x
k+1
x
0
) (x
k+1
x
k
)
de modo que p
k+1
(x
k+1
) = f(x
k+1
).
Iterando este procedimiento desde k = 1 hasta k = n 1 se obtiene la forma de Newton
p
n
(x) = a
0
+a
1
(x x
0
) +a
2
(x x
0
)(x x
1
) +. . . +a
n
(x x
0
) (x x
n1
)
En lo que sigue veremos que los a
j
resultan ser las diferencias divididas y por lo tanto esta
expresi on es an aloga al polinomio de Taylor.
Por ejemplo si n = 1,
p
1
(x) = a
0
+a
1
(x x
0
)
y como
p
1
(x
0
) = f(x
0
) p
1
(x
1
) = f(x
1
)
tenemos
80 5. INTERPOLACI

ON
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Si n = 2,
p
2
(x) = a
0
+a
1
(x x
0
) +a
2
(x x
0
)(x x
1
).
Como en el caso n = 1, de las igualdades p
1
(x
0
) = f(x
0
) y p
1
(x
1
) = f(x
1
) queda
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Veamos ahora que
a
2
= f[x
0
, x
1
, x
2
].
Sabemos ya que el polinomio p
1
(x) que interpola a f en x
0
, x
1
se escribe como
p
1
(x) = f(x
0
) +f[x
0
, x
1
](x x
0
).
An alogamente, si q
1
(x) T
1
interpola a f en x
1
, x
2
tenemos,
q
1
(x) = f(x
1
) +f[x
1
, x
2
](x x
1
).
Entonces, el polinomio
r(x) =
(x x
0
)q
1
(x) (x x
2
)p
1
(x)
x
2
x
0
tiene grado menor o igual que 2 y verica r(x
j
) = f(x
j
) para j = 0, 1, 2. Por lo tanto, coincide
con p
2
.
En consecuencia, igualando los coecientes de x
2
de r y p
2
se obtiene
a
2
=
f[x
1
, x
2
] f[x
0
, x
1
]
x
2
x
0
= f[x
0
, x
1
, x
2
].
El mismo argumento puede aplicarse para demostrar el siguiente teorema.
Teorema 5.4. El polinomio p
n
T
n
, que interpola a f en los puntos x
0
, . . . , x
n
est a dado por
p
n
(x) = f(x
0
) +f[x
0
, x
1
](x x
0
) + +f[x
0
, . . . , x
n
](x x
0
) . . . (x x
n1
) (5.4)
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI

ON DEL ERROR 81
No s olo los coecientes del polinomio interpolador pueden expresarse en terminos de las diferen-
cias divididas, sino tambien el error como lo muestra el siguiente teorema.
Teorema 5.5. Si p
n
T
n
interpola a f en los puntos x
0
, . . . , x
n
, se tiene la siguiente expresi on
del error
E
n
(x) = f(x) p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Demostraci on. Agregamos x
n+1
a la sucesi on x
0
, . . . , x
n
y cosideramos p
n
y p
n+1
como en
(5.4), entonces se tiene
p
n+1
(x) = f(x
0
) +f[x
0
, x
1
](x x
0
) + +f[x
0
, . . . , x
n+1
](x x
0
) (x x
n
)
= p
n
(x) +f[x
0
, . . . , x
n+1
]W
n+1
(x).
Por lo tanto
f(x
n+1
) = p
n+1
(x
n+1
) = p
n
(x
n+1
) +f[x
0
, . . . , x
n+1
]W(x
n+1
).
De aqu se deduce que el error satisface
E
n
(x
n+1
) = f(x
n+1
) p
n
(x
n+1
) = f[x
0
, . . . , x
n+1
]W(x
n+1
).
Como tomamos x
n+1
cualquier punto distinto de x
0
, . . . , x
n
se tiene para todo x,
E
n
(x) = f(x) p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Corolario 5.6. Dados x
0
, . . . , x
n
puntos distintos, existe intermedio, es decir entre x
0
, . . . , x
n
tal que
f[x
0
, . . . , x
n
] =
f
(n)
()
n!
.
Demostraci on. Evaluando en x = x
n
la expresi on del error E
n1
= f p
n1
, dada por el teorema
anterior tenemos,
E
n1
(x
n
) = f[x
0
, . . . , x
n
](x
n
x
0
) (x
n
x
n1
)
lo que junto con la formula del error dada en el Teorema 5.3 concluye la demostraci on.
4. Polinomios de Tchebychev - Minimizaci on del Error
Una pregunta natural es c omo elegir los puntos de interpolaci on para optimizar la aproximaci on.
El Teorema 5.3 nos dice que el error depende de f
n+1
en alg un punto del intervalo y de los puntos
x
j
a traves del polinomio W
n+1
(x) = (x x
0
)(x x
1
) (x x
n
). Como se pretende obtener
una buena aproximaci on sin tener informaci on sobre la funci on f, la idea es elegir los puntos
de manera tal que |W()|

sea mnima. Este problema, que en principio parece complicado,


82 5. INTERPOLACI

ON
fue resuelto por Tchebychev en el siglo XIX introduciendo una sucesi on de polinomios, que hoy
llevan su nombre.
Para simplicar la presentaci on resolveremos el problema para funciones denidas en el intervalo
[1, 1]. Mas adelante veremos que se puede trasladar la construcci on a cualquier intervalo [a, b]
mediante un cambio de variables.
Los polinomios de Tchebychev se denen para k = 0, 1, 2, . . . por
T
k
(x) = cos(k cos
1
x)
donde cos
1
es la inversa de cos : [0, ] [1, 1].
En principio no es evidente que T
k
sea un polinomio. Pero esto puede verse utilizando identidades
trigonometricas. En efecto,
T
0
(x) = 1, T
1
(x) = x
y como cos( +) + cos( ) = 2 cos() cos(), si ponemos x = cos() resulta
T
k+1
(x) = cos((k + 1)) = 2 cos() cos(k) cos((k 1)),
es decir,
T
k+1
(x) = 2xT
k
(x) T
k1
(x). (5.5)
Algunos ejemplos que siguen a T
0
y T
1
cuyos gr acos se muestran en la gura 5.1 son
T
2
(x) = 2x
2
1, T
4
(x) = 8x
4
8x
2
+ 1,
T
3
(x) = 4x
3
3x, T
5
(x) = 16x
5
20x
3
+ 5x
Los polinomios de Tchebychev tienen las siguientes propiedades.
Proposici on 5.7. Sea T
k
el polinomio de Tchebychev de grado k.
(1) El coeciente principal de T
k
es 2
k1
, para todo k IN.
(2) Las races del polinomio T
k
se encuentran en el intervalo [1, 1] y son de la forma
x
i
= cos(
(2i + 1)
2k
para i = 0, 1, . . . , k 1. En particular, son todas distintas.
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI

ON DEL ERROR 83
1 0.5 0 0.5 1
1
0.5
0
0.5
1
n=3
1 0.5 0 0.5 1
1
0.5
0
0.5
1
n=4
1 0.5 0 0.5 1
1
0.5
0
0.5
1
n=5
1 0.5 0 0.5 1
1
0.5
0
0.5
1
n=6
Figura 5.1: Polinomios de Tchebychev
Figura 5.1. Polinomios de Tchebychev
(3) |T
k
|

= 1. Adem as, T
k
alcanza los valores 1 y -1 en k + 1 puntos, es decir,
|T
k
|

= [T
k
(y
i
)[ = 1 para y
i
= cos(
i
k
)
con i = 0, . . . , k.
Demostraci on. La primer armacion puede verse de la relaci on de recurrencia (5.5).
Como T
k
(x) = cos(k cos
1
x), T
k
(x) = 0 si y s olo si el argumento es m ultiplo de impar de

2
. Es
decir, para i ZZ,
k cos
1
(x) = (2i + 1)

2
x = cos(
(2i+1)
k

2
)
ambas armaciones de 2 quedan probadas. Es decir, las races pertenecen al intervalo [1, 1] y
variando los valores de i = 0, 1, . . . , k 1 se obtienen todas.
Para probar 3, basta notar que [T
k
(x)[ 1 por ser imagen de la funci on coseno. Adem as, sobre
los puntos y
i
= cos(
i
k
), T
k
toma alternativamente los valores 1, 1 y por lo tanto la norma es
exactamente 1.
Ahora s, estamos en condiciones de enunciar y probar el resultado que anticipamos. Es decir,
entre todas las posibles elecciones de n + 1 puntos en [1, 1], los ceros de T
n+1
son los puntos
de interpolacion que hay que elegir para minimizar la expresi on |(x x
0
) . . . (x x
n
)|

que
aparece en la formula del error.
Teorema 5.8. Entre todos los polinomios m onicos de grado n + 1,
W
n+1
(x) =
1
2
n
T
n+1
(x)
84 5. INTERPOLACI

ON
minimiza la norma | |

en [1, 1]. O sea, si P T


n
y es m onico entonces,
|W
n+1
|

|P|

.
Demostraci on. Como el coeciente principal de T
n+1
es 2
n
se tiene que W
n+1
es m onico.
Supongamos que existe un polinomio P T
n+1
, m onico tal que
|P|

< |W
n+1
|

.
Por la proposici on anterior, [W
n+1
(x)[ alcanza su m aximo (que es
1
2
n
) en los n + 2 puntos
y
i
= cos(
i
n+1
), i = 0, . . . , n + 1. Esto es, si restringimos W
n+1
a [y
i
, y
i+1
], W
n+1
alcanza la
norma innito en cada uno de estos subintervalos. Entonces, en cada subintervalo se mantiene
la relaci on
|P|
L

[y
i
,y
i+1
]
<
1
2
n
= |W
n+1
|
L

[y
i
,y
i+1
]
. (5.6)
Por otra parte, W
n+1
(y
i
) = W
n+1
(y
i+1
). Supongamos, por ejemplo, que W
n+1
(y
i
) > 0 (en el
caso contrario se procede de manera an aloga). Entonces, de la desigualdad (5.6) se sigue que
P(y
i
) < W
n+1
(y
i
) y que P(y
i+1
) > W
n+1
(y
i+1
).
Luego, el polinomio Q(x) = P(x) W
n+1
(x) tiene al menos un cero en el intervalo (y
i
, y
i+1
) y
como hay n+2 valores de y
i
, resulta que Q tiene al menos n+1 ceros. Pero tanto P como W
n+1
son polinomios de grado n + 1 y ambos son m onicos de donde se deduce que Q tiene grado a
lo sumo n. Esto es una contradici on pues acabamos de ver que Q tiene n + 1 races distintas.
Luego, un tal P no puede existir.
Observaci on 5.9. Puede demostrarse, aunque no lo haremos aqu, que la desigualdad del
teorema es estricta, o sea, |W
n+1
|

< |P|

si P ,= W
n+1
es un polinomio m onico P T
n+1
.
Es decir el minimizante es unico.
Veamos ahora como se aplica el Teorema 5.5 para acotar el error cuando se usan las races de
T
n+1
como puntos de interpolacion.
Teorema 5.10. Sea f C
n+1
[1, 1]. Si p
n
T
n
es el polinomio que interpola a f en las races
de T
n+1
entonces,
|f p
n
|


|f
(n+1)
|

2
n
(n + 1)!
.
Demostraci on. Basta observar que W =
1
2
n
T
n+1
para obtener
f(x) p
n
(x) =
f
(n+1)
()
(n + 1)!
W
n+1
(x) =
f
(n+1)
()
2
n
(n + 1)!
T
n+1
(x),
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI

ON DEL ERROR 85
donde [1, 1]. Entonces, el resultado se sigue del hecho de que [T
n+1
(x)[ 1.
Veamos como obtener los polinomios de Tchebychev correspondientes a un intervalo [a, b]. Ese
facil ver que el cambio de variables t =
2(x a)
b
1 transforma el intervalo [a, b] en [1, 1] y es
lineal. Por lo tanto

T
k
(x) = T
k
(t) = T
k
_
2(x a)
b a
1
_
= cos
_
k cos
1
_
2(x a)
b a
1
__
es un polinomio de grado k que tiene propiedades an alogas a T
k
pero ahora en el intervalo [a, b].
En particular se tiene:
(1) La relaci on de recurrencia:

T
k+1
(x) = 2
_
2(x a)
b a
1
_

T
k
(x)

T
k1
(x)
(2) El coeciente principal de

T
k
(x) es 2
k1
(
2
ba
)
k
.
(3) Interpolando en los ceros de

T
n+1
W
n+1
(x) =
1
2
n
_
b a
2
_
n+1

T
n+1
(x) y |W
n+1
|

=
1
2
n
_
b a
2
_
n+1
obteniendose, para x [a, b], la cota del error
[f(x) p
n
(x)[
|f
(n+1)
|

(n + 1)!2
n
_
b a
2
_
n+1
.
Conclumos la secci on con algunos ejemplos y comentarios.
Ejemplo 5.11. Sea f : [1, 1] IR dada por f(x) = e
3x
. Queremos comparar las cotas del
error que se produce al estimar el valor de f(0.8) al usar el polinomio interpolador de grado 4
construdo con puntos equiespaciados y con los ceros del polinomio T
5
.
Comencemos observando que f
(5)
(x) = 243e
3x
y por lo tanto
|f
(5)
|

5!

243e
3
5!

4880.79
5!
.
Si interpolamos f en cinco puntos equiespaciados tenemos que
W
5
(x) = (x + 1)(x + 0.5)x(x 0.5)(x 1),
entonces [W
5
(0.8)[ = 0.11232 y usando la f ormula del error obtenemos
86 5. INTERPOLACI

ON
[(f p
4
)(0.8)[
4880.79
5!
0.11232 4.57.
Cuando en realidad
[E
4
(0.8)[ = 0.4591 . . .
Notar que en este caso, se sobre estima el error en un factor de 10.
Ahora, interpolamos usando los ceros de T
4
. La cota que se obtiene de la f ormula de error es
[E
4
(0.8)[
4880.79
5!2
4
= 2.54,
mientras que E
4
(0.8) = f(0.8) p
4
(0.8) = 0.2544.
Observemos que tanto el error como su estimaci on se reducen aproximadamente la mitad que
en el caso de puntos equiespaciados.
Comentarios:
(1) A partir de la formula del error dada en el Teorema 5.3 puede demostrarse que si f
es una funci on entera, es decir, admite desarrollo de Taylor convergente en todo IR,
entonces
|f p
n
|
L

[a,b]
0 (n ).
cualesquiera sean los puntos de interpolaci on.
(2) No podemos asegurar convergencia uniforme, es decir, en norma innito, si se cambia
la hip otesis f entera por f C

(IR). Por ejemplo, si se eligen puntos equidistribuidos


en el intervalo [1, 1] se sabe que el error no tiende a cero para la funci on de Runge
f(x) =
1
1 + 25x
2
(3) El comportamiento de la interpolaci on en los puntos de Tchebychev es mucho mejor.
Por ejemplo, puede demostrarse que si la funci on f es derivable
|f p
n
|

0 (n ).
(4) La interpolacion en los puntos de Tchebyche no converge para cualquier funci on con-
tinua. O sea, puede verse que existe f continua tal que |f p
n
|

,0. M as a un puede
demostrarse el siguiente
Teorema. (Faber) Dados puntos
5. INTERPOLACI

ON DE HERMITE 87
x
0
0
x
1
0
x
1
1
x
2
0
x
2
1
x
2
2
x
3
0
x
3
1
x
3
2
x
3
3
.
.
.
arbitrarios en [a, b], existe f continua tal que |f p
n
|

,0, donde p
n
es el polinomio
interpolador en x
n
0
, . . . , x
n
n
.
5. Interpolaci on de Hermite
En algunos casos interesa tambien considerar junto con los valores de una funci on f datos
relacionados con sus derivadas. Por ejemplo, puede buscarse un polinomio p que interpole a f
en determinados puntos y que adem as p

coincida con f

en algunos de esos puntos. M as en


general, se tiene el siguiente teorema que fue probado por Hermite.
Teorema 5.12. Dada una funci on f, puntos x
0
, . . . , x
k
y m
0
, . . . , m
k
IN
0
tales que m
0
+. . . +
m
k
= n + 1, existe un unico polinomio p T
n
que satisface
_

_
p(x
0
) = f(x
0
), p

(x
0
) = f

(x
0
), . . . p
(m
0
1)
(x
0
) = f
(m
0
1)
(x
0
),
p(x
1
) = f(x
1
), p

(x
1
) = f

(x
1
), . . . p
(m
1
1)
(x
1
) = f
(m
1
1)
(x
1
),
.
.
.
.
.
.
.
.
.
p(x
k
) = f(x
k
), p

(x
k
) = f

(x
k
), . . . p
(m
k
1)
(x
k
) = f
(m
k
1)
(x
k
).
No haremos una demostraci on de este teorema pero para dar una idea mostramos la construcci on
del polinomio interpolador en el un caso particular; donde adem as puede verse c omo se generaliza
la denicion de diferencias divididas para valores de x
i
no todos distintos.
Se busca un polinomio p T
3
que cumpla
_
(i) p(x
0
) = f(x
0
), (iii) p(x
1
) = f(x
1
),
(ii) p

(x
0
) = f

(x
0
), (iv) p

(x
1
) = f

(x
1
).
Como 1, x x
0
, (x x
0
)
2
, (x x
0
)
2
(x x
1
) forman una base de T
3
por ser todos de distinto
grado, cualquier polinomio en T
3
se puede escribir de la forma
p(x) = a
0
+a
1
(x x
0
) +a
2
(x x
0
)
2
+a
3
(x x
0
)
2
(x x
1
).
Las condiciones (i), (ii) se satisfacen si y solo si a
0
= f(x
0
) y a
1
= f

(x
0
). Ahora hay que
determinar a
2
y a
3
para que se cumplan las dos condiciones restantes. Para simplicar la
notaci on ponemos h = (x
1
x
0
), entonces se tiene
88 5. INTERPOLACI

ON
p(x
1
) = a
0
+ha
1
+h
2
a
2
= f(x
0
) +f

(x
0
)h +a
2
h
2
Para que se satisfaga la condici on (iii) debe ser
a
2
=
f(x
1
) f(x
0
) f

(x
0
)h
h
2
=
_
f(x
1
) f(x
0
)
h
f

(x
0
)
_
1
h
.
Observemos que lim
x
1
x
0
f[x
0
, x
1
] = f

(x
0
) por lo que resulta natural generalizar la primer
diferencia dividida poniendo
f[x
0
, x
0
] = f

(x
0
).
De esta manera se obtiene, de la denici on de segunda diferencia dividida,
f[x
0
, x
0
, x
1
] =
f[x
0
, x
1
] f[x
0
, x
0
]
x
1
x
0
=
_
f(x
1
) f(x
0
)
h
f

(x
0
)
_
1
h
y por lo tanto, a
2
= f[x
0
, x
0
, x
1
].
Por ultimo, queremos que p

(x
1
) = f

(x
1
). Entonces, debemos elegir a
3
para que se cumpla
f

(x
1
) = a
1
+ 2a
2
h +a
3
h
2
= f

(x
0
) + 2f[x
0
, x
0
, x
1
]h +a
3
h
2
de d onde,
a
3
=
1
h
2
_
f

(x
1
) f

(x
0
) 2f[x
0
, x
0
, x
1
]h
_
=
1
h
2
(f[x
1
, x
1
] f[x
0
, x
0
] 2f[x
0
, x
0
, x
1
]h)
=
1
h
2
(f[x
1
, x
1
] f[x
0
, x
1
] +f[x
0
, x
1
] f[x
0
, x
0
] 2f[x
0
, x
0
, x
1
]h)
=
1
h
(f[x
0
, x
1
, x
1
] +f[x
0
, x
0
, x
1
] 2f[x
0
, x
0
, x
1
])
=
f[x
0
, x
1
, x
1
] f[x
0
, x
0
, x
1
]
x
1
x
0
.
O sea
a
3
= f[x
0
, x
0
, x
1
, x
1
].
6. INTERPOLACI

ON POR POLINOMIOS A TROZOS O SPLINES 89


En consecuencia, hemos demostrado que el unico polinomio en T
3
que satisface las condiciones
pedidas es
p
3
(x) = f[x
0
] +f[x
0
, x
0
](x x
0
) +f[x
0
, x
0
, x
1
](x x
0
)
2
+f[x
0
, x
0
, x
1
, x
1
](x x
0
)
2
(x x
1
).
Esto generaliza la forma de Newton para x
i
no todos distintos.
6. Interpolaci on por polinomios a trozos o splines
En muchos casos para lograr una mejor aproximaci on es conveniente utilizar funciones polino-
miales a trozos como interpolantes. De esta manera se parte el intervalo de manera tal que
en cada subintervalo se elige un polinomio distinto que interpole los datos. Por ejemplo, al
interpolar con polinomios de grado uno a trozos, quedan poligonales.
| | | | | | |
x
0
x
1
x
2
x
3
x
4
x
5
x
6
p
1
p
2
p
3
p
4
p
5
p
6
Aproximacin por poligonales
Figura 5.2
f(x)
Partimos el intervalo [a, b] en subintervalos [x
j
, x
j+1
], a = x
0
< x
1
< x
2
. . . < x
n
= b. Dada
f : [a, b] IR denimos la funci on interpolante q
n
(x) tal que
q
n
[
[x
j
,x
j+1
]
T
1
.
Consideremos el caso de puntos equiespaciados o sea, x
j
= a +jh con h =
ba
n
. Para cualquier
f C
2
[a, b] y cualquier x [x
j
, x
j+1
], usando el Teorema tenemos 5.3
f(x) q
n
(x) =
f

(
j
)
2
(x x
j
)(x x
j+1
).
Entonces
90 5. INTERPOLACI

ON
|f q
n
|


|f

2
h
2
4
=
|f

8
(b a)
2
n
2
0
cuando n .
Ejemplo 5.13. Sea f : [1, 1] IR, la funci on de Runge f(x) =
1
1 + 25x
2
. Puede verse que
|f|

= 50. En consecuencia, aproximando por poligonales obtenemos


|f q
n
|


|f

8
_
2
n
_
2
=
25
n
2
.
Luego, en este caso, interpolando por poligonales obtenemos una aproximaci on mucho mejor
que la que se obtiene interpolando con un polinoimio, si se utilizan los mismos puntos.
Splines c ubicos.
En muchos problemas interesa aproximar por funciones derivables. Esto no puede lograrse
aproximando por poligonales y por lo tanto es necesario aumentar el grado de los aproximantes.
Un metodo clasico es el corrospondiente a grado tres, splines c ubicos. Vamos a ver que, de esta
manera, puede obtenerse un aproximante C
2
.
Dada f C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b buscamos S tal que S, S

y S

sean continuas
en [a, b] y adem as se verique
S(x
j
) = f(x
j
) para 0 j n y S [
[x
j
,x
j+1
]
T
3
.
Por ejemplo si n = 3, como S
j
T
3
tenemos 4 3 = 12 coecientes a determinar. Veamos
cu antas condiciones se tienen que satisfacer. Tenemos que vericar,
S
0
(x
0
) = f(x
0
), S
1
(x
1
) = f(x
1
), S
2
(x
2
) = f(x
2
),
S
0
(x
1
) = S
1
(x
1
), S
1
(x
2
) = S
1
(x
2
), S
2
(x
3
) = f(x
3
).
es decir, seis condiciones. Si adem as queremos S

y S

continuas en x
1
, x
2
tenemos cuatro
condiciones mas. O sea, en total diez condiciones para doce inc ognitas. Una cuenta an aloga
puede hacerse en el caso general para ver que la cantidad de coecientes a determinar supera en
dos al n umero de condiciones.
Luego, si hay solucion habr a innitas pues tenemos dos coecientes para jar arbitrariamente.
Lo natural entonces es jar S

(x
0
) y S

(x
n
) o bien S

(x
0
) y S

(x
n
). Elegiremos esta ultima
opci on por ser mas simple.
6. INTERPOLACI

ON POR POLINOMIOS A TROZOS O SPLINES 91


Teorema 5.14. Dada f C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b, existe un unica S C
2
[a, b]
tal que
_
_
_
S(x
j
) = f(x
j
) 0 j n
S [
[x
j
,x
j+1
]
T
3
con S

(a) = S

(b) = 0.
Demostraci on. Para j = 0, . . . , n usaremos la notaci on
S
j
= S [
[x
j
,x
j+1
]
y h
j
= x
j+1
x
j
.
La funci on S buscada debe cumplir que S

es una poligonal. Por lo tanto, si S

(x
j
) = y
j
, S

j
se
escribe como
S

j
(x) = y
j
x
j+1
x
h
j
+y
j+1
x x
j
h
j
0 j n 1.
Veremos que es posible encontrar valores y
j
de tal forma que se cumplan las condiciones reque-
ridas para S. Integrando dos veces obtenemos, para x [x
j
, x
j+1
], con 0 j n 1
S
j
(x) =
y
j
6h
j
(x
j+1
x)
3
+
y
j+1
6h
j
(x x
j
)
3
+c
j
(x x
j
) +d
j
(x
j+1
x) (5.7)
donde c
j
, d
j
son constantes a determinar que provienene de la integraci on.
Observemos que para cualquier elecci on de y
j
, c
j
y d
j
, S

resulta continua por ser poligonal.


Por lo tanto resta ver que esas constantes pueden elegirse de manera que se veriquen las otras
condiciones requeridas sobre S.
Para que S sea continua e interpole a f tenemos que elegir c
j
, d
j
tal que
S
j
(x
j
) = f(x
j
) y S
j
(x
j+1
) = f(x
j+1
), 0 j n 1
de lo que, reemplazando en (5.7), obtenemos
c
j
=
f(x
j+1
)
h
j

y
j+1
h
j
6
y d
j
=
f(x
j
)
h
j

y
j
h
j
6
y por lo tanto, para cada 0 j n 1
S
j
(x) =
y
j
6h
j
(x
j+1
x)
3
+
y
j+1
6h
j
(x x
j
)
3
+
+
_
f(x
j+1
)
h
j

y
j+1
h
j
6
_
(x x
j
) +
_
f(x
j
)
h
j

y
j
h
j
6
_
(x
j+1
x).
92 5. INTERPOLACI

ON
Derivando, y utilizando la notaci on f
j
= f(x
j+1
) f(x
j
), obtenemos
S

j
(x) =
y
j
2h
j
(x
j+1
x)
2
+
y
j+1
2h
j
(x x
j
)
2
+
f
j
h
j

h
j
6
(y
j+1
y
j
)
y tenemos que elegir y
j
para que se cumpla la condici on que falta, es decir, que S

sea continua,
o sea
S

j
(x
j
) = S

j1
(x
j
) 1 j n 1
de lo que resulta que las n + 1 inc ognitas y
j
deben ser soluci on del siguiente sistema de n 1
ecuaciones,
h
j1
y
j1
+ 2(h
j
+h
j1
)y
j
+h
j
y
j+1
= b
j
con
b
j
= 6
_
f
j
h
j

f
j1
h
j1
_
Como tenemos dos inc ognitas mas que ecuaciones, podemos dar valores arbitrarios a y
0
, y
n
y,
pasando los terminos correspondientes al lado derecho, obtenemos el sistema tridiagonal,
_
_
_
_
_

1
h
1
0 0
h
1

2
h
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0
n1
_
_
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n1
_
_
_
_
_
=
_
_
_
_
_
b
1
h
0
y
0
b
2
.
.
.
b
n1
h
n1
y
n
_
_
_
_
_
donde
i
= 2(h
i
+h
i1
).
Ahora, como A es diagonal estrictamente dominante, entonces es inversible. Por lo tanto existe
solucion unica una vez elegidos y
0
, y
n
.
Por ejemplo podemos elegir y
0
= y
n
= 0 para que se satisfagan las condiciones S

(x
0
) = 0 y
S

(x
n
) = 0, lo que concluye la demostraci on.
Observemos que en general S

(x
j
) ,= f

(x
j
) y S

(x
j
) ,= f

(x
j
).
CAPTULO 6
Polinomios ortogonales y aproximacion por cuadrados mnimos.
En el captulo anterior hemos discutido como aproximar una funci on por polinomios que in-
terpolan a la funci on misma y/o a sus derivadas en algunos puntos. Hasta ahora, los metodos
analizados nos permiten construir polinomios de grado n a partir de n +1 datos. Cierto es que,
en un problema a modelizar, cu antos m as datos se conocen es de esperar que se pueda lograr
mayor precisi on. Pero, como vimos, muchas veces polinomios de alto grado producen efectos no
deseados como por ejemplo grandes oscilaciones. En este captulo consideraremos otra forma de
aproximar funciones conocida como el metodo de cuadrados mnimos. Este metodo nos permi-
tir a, cuando se trate de aproximar por polinomios, contemplar una tabla de valores sin sujetar
el grado del polinomio a la cantidad de datos. Tambien ser a posible considerar funciones m as
generales que ajusten de manera natural los valores predeterminados.
En general, en esta clase de problemas uno sabe a priori a que tipo de funci on corresponden
los datos. Una situacion frecuente es la de aproximar una tabla de m as de dos valores por una
recta (como muestra la Figura 6.1). Es decir, se tienen valores (x
i
, y
i
), i = 0, . . . , n y se quiere
encontrar una recta que ajuste estos datos lo mejor posible. Si escribimos la ecuaci on de la recta
como y = mx + b nuestro problema consiste en encontrar valores de m y b que hagan que el
error [y
i
(mx
i
+ b)[ sea lo mas chico posible para todo i. Por ejemplo, una manera de lograr
esto sera pedir que m y b minimicen
max
0in
[y
i
(mx
i
+b)[
o tambien podramos pedir que minimicen
n

i=0
[y
i
(mx
i
+b)[ o
n

i=0
[y
i
(mx
i
+b)[
2
.
De todas estas opciones es usual considerar la ultima, llamada aproximaci on por cuadrados
mnimos, debido a que es la mas simple ya que el problema se reduce a resolver ecuaciones
lineales.
En este captulo estudiaremos distintos metodos para resolver este y otros problemas. Como
en general los valores de y
i
corresponden a datos de una funci on f, podemos plantear estos
problemas en el contexto de aproximaci on de funciones. Dada una funci on f consideramos:
94 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
Figura 6.1. Aproximacion de 10 valores por una recta
Problema A. Dados w
0
, . . . , w
n
constantes positivas (pesos), m < n y valores (x
i
, f(x
i
)), con
i = 0, . . . , n se trata de hallar p T
m
que minimice
n

i=0
w
i
(p(x
i
) f(x
i
))
2
.
Problema B. Dada w(x) una funci on positiva en [a, b], dada f y m IN se trata de hallar
p T
m
que minimice
_
b
a
w(x)(f(x) p(x))
2
dx.
1. Preliminares
Nos dedicaremos especialmente al estudio de aproximaciones por polinomios. Comenzamos esta
secci on presentando un resultado cl asico de Weierstrass que muestra que toda funci on continua
puede aproximarse uniformemente por polinomios, en todo intervalo cerrado y acotado.
Teorema 6.1. (Weierstrass) Sea f C[a, b]. Para todo > 0 existe un polinomio P tal que
|f P|

<
Demostraci on. Damos la demostraci on para el intervalo [0, 1], el caso general se obtiene f acilmente
mediante un cambio de variables.
1. PRELIMINARES 95
Denimos los polinomios de Bernstein,
B
n
f(x) =
n

k=0
_
n
k
_
f
_
n
k
_
x
k
(1 x)
nk
y vamos a demostrar que B
n
(f) converge uniformemente a f en el intervalo [0, 1]. Para eso
necesitaremos calcular B
n
(h
j
) para h
j
(x) = x
j
, j = 0, 1, 2.
Usando la formula del binomio de Newton, se tiene:
B
n
h
0
(x) =
n

k=0
_
n
k
_
x
k
(1 x)
nk
= (x + 1 x)
n
= 1.
B
n
h
1
(x) =
n

k=0
_
n
k
_
k
n
x
k
(1 x)
nk
=
n

k=1
_
n 1
k 1
_
x
k
(1 x)
nk
= x
n

k=1
_
n 1
k 1
_
x
k1
(1 x)
nk
= x(x + 1 x)
n1
= x.
B
n
h
2
(x) =
n

k=0
_
n
k
__
k
n
_
2
x
k
(1 x)
nk
=
n

k=0
_
n 1
k 1
_
k
n
x
k
(1 x)
nk
=
n

k=0
_
n 1
k 1
__
n 1
n
k 1
n 1
+
1
n
_
x
k
(1 x)
nk
=
n 1
n
x
2
n

k=2
_
n 2
k 2
_
x
k2
(1 x)
nk
+
x
n
=
n 1
n
x
2
(x + 1 x)
n2
+
x
n
= x
2
+
x(1 x)
n
.
Dado y IR consideremos la funci on g
y
(x) = (xy)
2
. Desarrollando (xy)
2
= x
2
2xy +y
2
y
usando que B
n
es lineal (o sea, B
n
(f
1
+f
2
) = B
n
(f
1
) +B
n
(f
2
) y B
n
(kf) = kB
n
(f)) se obtiene
B
n
g
y
(x) = g
y
(x) +
x(1 x)
n
. (6.1)
Por otra parte, como toda funci on continua en un intervalo cerrado es uniformemente continua,
dado > 0, existe > 0 tal que,
[f(x) f(y)[ si [x y[ < .
Adem as, para los x, y tales que [x y[ se tiene
96 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
[f(x) f(y)[ 2|f|


2|f|

2
(x y)
2
.
Luego, para todo x, y, podemos asegurar que,
[f(x) f(y)[ +
2|f|

2
(x y)
2
es decir,

2|f|

2
(x y)
2
f(x) f(y) +
2|f|

2
(x y)
2
.
Ahora, si f
1
f
2
, de la denicion de B
n
puede verse que B
n
(f
1
) B
n
(f
2
); esto es B
n
preserva
el orden. En consecuencia, aplicando B
n
en la desigualdad anterior, teniendo en cuenta (6.1), y
recordando que B
n
es lineal y que B
n
1 = 1 se obtiene (tener presente que hasta aqu estamos
considerando y como una constante),
[B
n
f(x) f(y)[ +
2|f|

2
(x y)
2
+
2|f|

2
x(1 x)
n
y por lo tanto, evaluando ambos lados de la desigualdad en y, resulta
[B
n
f(y) f(y)[ +
2|f|

2
y(1 y)
n
y por lo tanto
[B
n
f(y) f(y)[ 2
para n sucientemente grande independientemente de y, es decir que B
n
f converge uniforme-
mente a f en el [0, 1].
Los Problemas A y B se enmarcan dentro de la teora de espacios con producto interno. El
producto interno no s olo permite denir distancia entre vectores, como vimos que se puede
hacer mediante la nocion de norma; sino que, adem as, permite introducir el concepto de angulo
entre vectores y por tanto tiene sentido hablar de ortogonalidad.
Definici on 6.2. Sea V un IR espacio vectorial.Un producto interno sobre V es una funci on
., .) : V V IR que asigna a cada par de vectores un n umero real de manera tal que, para
todo x, y, z V y todo IR se satisfacen las propiedades:
(i) x +y, z) = x, z) +y, z);
(ii) x, y) = x, y);
(iii) x, y) = y, x);
(iv) x, x) > 0 si x ,= 0.
1. PRELIMINARES 97
Ejemplos 6.3. (1) El producto interno can onico en IR
n
, para x = (x
1
, . . . , x
n
); y = (y
1
, . . . , y
n
),
est a dado por
x, y) =
n

j=1
x
j
y
j
.
Es facil ver (queda como ejercicio) que se satisfacen todas las condiciones de la deni-
ci on.
(2) Otros productos internos para IR
n
similares al can onico son
(a) x, y) =
n

j=1
1
2
j
x
j
y
j
(b) x, y) =
n

j=1
w
j
x
j
y
j
.
En estos dos productos se consideran, respectivamente, los pesos w
j
=
1
2
j
y, en forma
mas general, una sucesi on w
j
> 0 para j = 1, . . . , n.
(3) Si V = C[0, 1] es el espacio de funciones continuas y f, g V ,
f, g) =
_
1
0
f(x)g(x) dx,
dene un producto interno. Las condiciones (i)-(iii) se satisfacen gracias a la linealidad
del producto y de la integral. Para asegurar que vale la condici on (iv) basta ver que la
integral de una funci on no negativa y continua, g = f
2
, s olo puede ser nula si la funci on
lo es. En efecto, supongamos que existe un x
0
[0, 1] para el cual g(x
0
) = > 0.
Ahora, por continuidad, existe un subintervalo [a, b] tal que, para todo x [a, b] es
g(x) >

2
y por ser g no negativa se tiene
_
1
0
g(x) dx
_
b
a
g(x) dx >

2
(b a) > 0,
lo que es una contradicci on.
(4) Otros productos internos para espacios de funciones son los dados por una funci on de
peso w, con w(x) > 0 para todo x (a, b):
f, g) =
_
b
a
f(x)g(x)w(x) dx.
Un espacio vectorial considerado con un producto interno suele llamarse Espacio Eucldeo. En
estos espacios se considera la norma inducida por el producto interno:
|x| = x, x)
1
2
, para todo x V.
No es inmediato ver que con esta denici on se obtiene efectivamente una norma. Esto es posible
gracias a la siguiente desigualdad.
Proposici on 6.4. (Desigualdad de Cauchy - Schwarz) Si ., .) es un producto interno sobre
V un espacio vectorial, entonces
[x, y)[ x, x)
1
2
y, y)
1
2
para todo x, y V.
98 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
Demostraci on. Sean x, y V dos vectores jos. Si y, y) = 0, no hay nada que probar.
Supongamos entonces que y, y) , = 0.
Para cada t IR consideramos x ty, entonces
0 x ty, x ty)
= x, x) tx, y) ty, x) +t
2
y, y).
En particular si tomamos t = x, y)
2
/x, x) se tiene 0 x, x) x, y)
2
/y, y).
Luego,
[x, y)[
2
x, x)y, y).
de donde se sigue el resultado.
Corolario 6.5. Si ., .) es un producto interno sobre V un espacio vectorial, entonces
|x| = x, x)
1
2
dene una norma sobre V .
Demostraci on. La unica dicultad est a en probar la desigualdad triangular, para eso notemos
que dados x, y V se tiene,
|x +y|
2
= x +y, x +y)
= |x|
2
+ 2x, y) +|y|
2
.
Usando la desigualdad de Cauchy - Schwarz vale, x, y) [x, y)[ |x||y|. Luego,
|x +y|
2
|x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2
La desigualdad triangular se obtiene al tomar raz cuadrada.
Observaci on 6.6. La norma asociada al producto escalar usual en IR
2
o IR
3
denido en el
ejemplo 1 corresponde a la norma |x|
2
y da la longitud del vector x. Recordemos adem as que
este producto escalar puede escribirse, para x e y no nulos, en terminos de las longitudes de
ambos vectores y de , el angulo entre estos, a saber,
x, y) = |x||y| cos .
En particular, x e y son ortogonales si y solo si x, y) = 0.
La gran ventaja de trabajar en espacios Eucldeos es que se puede generalizar esta noci on de
ortogonalidad.
Notar que la desigualdad de Cauchy - Schwartz da, para todo x, y ,= 0
2. SOLUCI

ON DE LOS PROBLEMAS DE APROXIMACI

ON 99
[x, y)[
|x||y|
1.
Esto permite denir el angulo entre dos vectores x, y no nulos mediante la funci on coseno. Es
decir [0, ] ser a el angulo entre x e y si verica
cos() =
x, y)
|x||y|
.
Luego resulta natural la siguiente denici on.
Definici on 6.7. Si V es un espacio con producto interno ., .), se dice que x e y son ortogonales
si x, y) = 0. En este caso suele notarse x y.
Definici on 6.8. Dos conjuntos A, B V se dicen ortogonales (A B) si x y para todo
x A e y B.
El siguiente teorema relaciona los problemas de aproximaci on que queremos estudiar con la
noci on de ortogonalidad.
Teorema 6.9. Dados S un subespacio de un espacio V con producto interno, x V y x S,
son equivalentes:
(1)
|x x| = min
yS
|x y|.
(2)
x x, y) = 0, y S.
Demostraci on. COMPLETAR
Veremos mas adelante que cuando S es de dimensi on nita siempre existe x en las condiciones
del teorema y adem as es unico. Este x se llama proyecci on ortogonal de x sobre S.
2. Soluci on de los Problemas de Aproximaci on
Ahora s, estamos en condiciones de describir los metodos para hallar las soluciones de los
problemas A y B planteados.
El primer problema se puede reformular de la siguiente manera: Se considera en IR
n
el producto
escalar dado los pesos w
0
, . . . , w
n
x, y) =
n

i=1
x
i
y
i
w
i
.
100 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
Para los datos (x
i
, f(x
i
)), se quiere encontrar un polinomio p T
m
con n > m+1 que minimice
la distancia entre los vectores (f(x
1
), . . . , f(x
n
)) y (p(x
1
), . . . , p(x
n
)) en la norma asociada al
producto escalar.
Si p(x) = a
m
x
m
+. . . +a
1
x +a
0
entonces
_
_
_
_
_
p(x
1
)
p(x
2
)
.
.
.
p(x
n
)
_
_
_
_
_
=
_
_
_
_
_
1 x
1
x
m
1
1 x
2
x
m
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
m
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
m
_
_
_
_
_
(6.2)
Ahora, llamando b = (f(x
1
), . . . , f(x
n
)) el problema se reduce a encontrar un vector a =
(a
0
, . . . , a
m
) IR
m+1
que minimice
|Aa b|,
donde A IR
n(m+1)
es la matriz de 6.2.
VAMOS POR ACA (ARREGLAR MAS ARRIBA LOS SUBINDICES Y MN)
Sea A IR
nm
y denamos el siguiente subespacio de IR
n
,
S = y IR
n
, y = Ax, para alg un x IR
m

Entonces nuestro problema de hallar x tal que


|Ax b|
sea lo mas chica posible, se transforma en hallar y S tal que
|y b|
se minimice y luego x tal que Ax = y. Este problema tiene f acil soluci on a partir del siguiente
teorema
Teorema 6.10. Si y S es tal que
b y, z) = 0, z S.
entonces
|b y| |b z| z S.
2. SOLUCI

ON DE LOS PROBLEMAS DE APROXIMACI

ON 101
Demostraci on. Sea z S cualquiera, tenemos
0 |b z|
2
= b z, b z) = b, b) 2z, b) +z, z)
= b, b) + 2b y, z) 2z, b) +z, z)
= b, b) y, y) +y, y) 2z, y) +z, z)
= |b|
2
|y|
2
+|y z|
2
.
Es decir
|b z|
2
= |b|
2
|y|
2
+|y z|
2
Y obviamente esto es minimizado cuando z = y.
Notemos que este elemento y es unico.
Como y S se tiene que y = Ax para alg un x, entonces
b y, z) = 0, z S,
es equivalente a
b y, A
i
) = A
i
, b y) = 0, i = 1, . . . , n,
donde A
i
son las columnas de A. Como y = Ax nos quedan n ecuaciones para x,
A
T
Ax = A
T
b.
Este sistema de mm se puede resolver por eliminaci on de Gauss o bien por metodos iterativos.
Notemos que si el problema original
Ax = b
tiene una solucion exacta x, este x tambien es soluci on de
A
T
Ax = A
T
b
Esto lo podemos resolver por cuadrados mnimos como antes tomando
A
T
Aa = A
T
f
102 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
Ejemplo 6.11. Veamos un ejemplo sencillo, como presentamos a traves de la Figura 6.1. Se
quiere trazar una recta que aproxime los puntos
(0, 1), (1, 2.1), (2, 2.9), (3, 3.2)
El sistema a resolver es:
_
_
_
_
0 1
1 1
2 1
3 1
_
_
_
_
_
a
0
a
1
_
=
_
_
_
_
1
2.1
2.9
3.2
_
_
_
_
Que, despues de multiplicar por la transpuesta de A, queda
_
14 6
6 4
__
a
0
a
1
_
=
_
17.5
9.2
_
La solucion es
a
1
= 1.19
a
0
= 0.74
Es decir la recta que mejor aproxima, en el sentido de minimizar

(f(x
i
) p(x
i
))
2
, a f en los
puntos dados es
p(x) = 1.19x + 0.74
Esta forma de resolver no puede aplicarse, en general, para aproximar funciones continuas. Este
es el caso del Problema B. Para abordar esta clase de problemas necesitamos desarrollar m as
teora relacionada con el producto interno y la idea de ortogonalizaci on. Es decir, vamos a dar
una descripcion de la solucion a traves de la proyecci on ortogonal a un subespacio conveniente.
Definici on 6.12. Sea V un espacio con producto interno. Un conjunto A en V se dice orto-
normal si A es ortogonal y adem as f, f) = 1 para cualquier f A.
Si se considera en el espacio V una base ortonormal B = e
1
, . . . , e
n
cada elemento x V
admite una unica escritura de la forma
x =
n

i=1
x
i
e
i
.
La ventaja de trabajar con una base ortonormal es que podemos describir los escalares x
i
en
terminos de x y de la base.
Al considerar x, e
k
) tenemos:
2. SOLUCI

ON DE LOS PROBLEMAS DE APROXIMACI

ON 103
x, e
i
) =
n

k=1
x
k
e
k
, e
i
) =
n

k=1
x
k
e
k
, e
i
) = x
i
.
Luego,
x =
n

i=1
x, e
k
)e
i
.
Ahora, dado un subespacio S de V , buscamos una base ortonormal de S. Para eso, basta con
tener un base de S y aplicar el proceso de ortonormalizaci on que sigue:
Teorema 6.13. (Gram-Schmidt) Dado el conjunto
B
S
= h
0
, h
1
, h
2
, . . . , h
m
,
una base de S se consideran
g
0
= h
0
, f
0
= g
0
/|g
0
|.
y
g
k
= h
k

k1

i=0
h
k
, f
i
)f
i
, y f
k
= g
k
/|g
k
|.
Entonces, el conjunto g
i
es ortogonal y el conjunto f
i
es ortonormal.
Adem as, el espacio generado por f
0
, . . . , f
m
es el subespacio S.
Demostraci on. Se hace por induccion.
Observaci on 6.14. Observemos que consideramos los polinomios h
0
= 1, h
1
(x) = x, h
2
(x) =
x
2
, . . . , h
m
(x) = x
m
las funciones obtenidas f
k
resultan ser polinomios de modo que f
k
tiene
grado k pues el coeciente principal de f
k
es 1. Adem as,
x
k
= |g
k
|f
k
(x) +
k1

j=0
x
k
, f
j
)f
j
(x).
As cada x
k
es una combinacion lineal de los f
j
y entonces todo polinomio de grado menor o
igual que m es una combinacion lineal de los f
k
.
Con todo esto podemos probar el siguiente teorema,
104 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
Teorema 6.15. Si f C[a, b] entonces el polinomio que satisface
|f p

| |f p|, p T
n
,
est a dado por
p

(x) =
n

i=0
f, p
i
)p
i
(x),
donde los p
i
son los polinomios generados por Gram-Schmidt.
Demostraci on. Sea p(x) un polinomio cualquiera en P
n
. Por lo visto anteriormente p(x) se
puede escribir como
p(x) =
n

j=0

j
p
j
(x).
Como p
j
, p
i
) =
ij
se observa que
0 |f p|
2
= f
n

j=0

j
p
j
(x), f
n

j=0

j
p
j
(x))
= f, f) 2
n

j=0

j
f, p
i
) +
n

j=0

2
j
= f, f)
n

j=0
f, p
j
)
2
+
n

j=0
(
2
j
2
j
f, p
i
) +f, p
j
)
2
= f, f)
n

j=0
f, p
j
)
2
+
n

j=0
(
j
f, p
j
))
2
.
Como los
j
solo aparecen en la ultima suma, la expresi on se minimiza cuando
j
= f, p
j
). Es
decir, |f p| alcanza su mnimo cuando
p

(x) =
n

i=0
f, p
i
)p
i
(x).
Observemos que esto resuelve simult aneamente los problemas A y B. Para resolver cualquiera
de los dos hay que, primero generar los polinomios ortonormales p
j
y luego calcular f, p
i
).
La eleccion del peso (continuo o discreto) w depende de cada problema a resolver.
Corolario 6.16. La funci on f(x) p

(x) es ortogonal a cualquier polinomio de grado menor


o igual que n.
2. SOLUCI

ON DE LOS PROBLEMAS DE APROXIMACI

ON 105
Demostraci on. Veamos que f p

es ortogonal a cualquier p
j
con j n,
f p

, p
j
) = f, p
j
)
n

i=0
f, p
i
)p
j
, p
i
) =
f, p
j
) f, p
j
) = 0.
Corolario 6.17. (Desigualdad de Bessel)
|f|
2

j=0
f, p
j
)
2
Demostraci on. Se deduce del teorema anterior tomando p = 0.
Ahora veamos estimaciones del error.
Sean p
i
los polinomios ortonormales generados por Gram-Schmidt con el producto interno
f, g) =
_
b
a
w(x)f(x)g(x) dx
y sea
p

(x) =
n

i=0
f, p
i
)p
i
(x).
Entonces, por el teorema anterior
|f p

| |f p|
para cualquier p T
n
.
Por el teorema de Weierstrass, dado > 0 existe un polinomio p T
n
(el n depende de ) tal
que
max
axb
[f(x) p(x)[ = |f p|

< .
Entonces
|f p

|
2
|f p|
2
=
_
b
a
w(x)(f(x) p(x))
2
dx
106 6. POLINOMIOS ORTOGONALES Y APROXIMACI

ON POR CUADRADOS M

INIMOS.
|f g|
2

_
b
a
w(x) dx
2
_
b
a
w(x) dx.
De donde se deduce que
lim
k
|f p

k
| = 0.
Es decir los polinomios obtenidos aproximando por cuadrados mnimos convergen en norma
| |
2
.
De la desigualdad de Bessel,
|f|
2

i=0
f, p
i
)
2
se deduce que la serie

i=0
f, p
i
)
2
converge.
Ahora podemos estimar el error
|f p

n
|
2
= f p

, f) f p

, p

)
= f p

, p

) = f, f) f, p

)
= |f|
2

j=0
f, p
j
)
2
=

j=n+1
f, p
j
)
2
.
Es decir,
|f p

n
|
2
=

j=n+1
f, p
j
)
2
.
Esta formula se conoce como identidad de Parseval y se puede usar para estimar el error.
Observemos que el error depende del tama no de los coecientes f, p
j
) con j = n + 1, . . ..
Ahora intentemos acotar [f, p
j
)[.
Por lo hecho antes sabemos que dada una funci on f C[a, b] el polinomio q(x) de grado k que
interpola a f en los puntos de Tchebychev en el intervalo [a, b] satisface,
2. SOLUCI

ON DE LOS PROBLEMAS DE APROXIMACI

ON 107
|f q|


|f
(k+1)
|
2
k
(k + 1)!
_
b a
2
_
k+1
.
Ahora usemos esto para acotar [f, p
j
)[
[f, p
j
)[ = [f q, p
j
) |f q|

_
b
a
[p
k
(x)[w(x) dx

|f
(k+1)
|
2
k
(k + 1)!
_
b a
2
_
k+1
_
b
a
[p
k
(x)[w(x) dx.
Usando Cauchy-Schwarz, podemos concluir que
[f, p
j
)[
|f
(k+1)
|
2
k
(k + 1)!
_
b a
2
_
k+1
__
b
a
w
2
(x) dx
_
1/2
.
CAPTULO 7
Integracion numerica.
Para una funci on integrable en [a, b] nos proponemos aproximar
I(f) =
_
b
a
f(x)w(x) dx.
Aqu w(x) es un peso como en la secci on anterior.
Observemos que si g est a proxima de f entonces es de esperar que
I(g) =
_
b
a
g(x)w(x) dx I(f) =
_
b
a
f(x)w(x) dx.
Usemos esta idea. Recordemos que el polinomio que interpola a f en los puntos x
i
es
p
n
(x) =
n

i=0
f(x
i
)l
i
(x).
Ahora tomamos
Q
n
(f) = I(p
n
) =
_
b
a
p
n
(x)w(x) dx
=
_
b
a
n

i=0
f(x
i
)l
i
(x)w(x) dx
=
n

i=0
f(x
i
)
_
b
a
l
i
(x)w(x) dx
=
n

i=0
f(x
i
)A
i
.
Los puntos x
i
son llamados los nodos y los A
i
los pesos de la integraci on numerica.
110 7. INTEGRACI

ON NUM

ERICA.
Los pesos A
i
dependen solo de los nodos x
i
de la funci on de peso w(x) y del intervalo [a, b]. Una
vez calculados se usan para aproximar la integral de cualquier funci on f.
Notemos que si f es un polinomio de grado n entonces, como la interpolaci on en n + 1 puntos,
es exacta, la formula que obtuvimos para aproximar la integral ser a exacta sobre los polinomios
de grado n.
Es natural preguntarse si este procedimiento converge cuando el n unero de nodos tiende a
innito. El siguiente teorema da una condici on para que esto suceda.
Teorema 7.1. Dada f C([a, b]) y dado n se dene
Q
n
(f) =
n

j=0
A
(n)
j
f(x
(n)
j
)
donde los A
(n)
j
est an dados por
A
(n)
j
=
_
b
a
l
j
(x)w(x) dx.
Si existe una constante K tal que
n

j=0
A
(n)
j
K n
entonces
lim
n
Q
n
(f) = I(f)
Demostraci on. Por el teorema de Weierstrass, dado > 0 existe un polinomio q
N
P
N
(N
depende de ) tal que
max
axb
[f(x) q
N
(x)[ = |f q
N
|

.
Observemos que como Q
n
es exacta para polinomios de grado menos o igual que n, entonces se
tiene que Q
n
(q
N
) = I(q
N
) para todo n > N. Tenemos que,
[I(f) Q
n
(f)[ = [I(f) I(q
N
) +Q
n
(q
N
) Q
n
(f)[
[I(f) I(q
N
)[ +[Q
n
(q
N
) Q
n
(f)[.
Ahora bien, si llamamos c =
_
b
a
w(x) dx, se tiene
[I(f) I(q
N
)[ =

_
b
a
w(x)(f(x) q
N
(x)) dx

7. INTEGRACI

ON NUM

ERICA. 111
|f q
N
|

_
b
a
w(x) dx c,
y adem as,
[Q
n
(q
N
) Q
n
(f)[ =

n
j=0
A
(n)
j
(q
N
(x
j
) f(x
j
))

|f q
N
|

n
j=0
[A
(n)
j
[ K.
Con todo esto, hemos probado que dado > 0 existe N tal que si n > N,
[I(f) Q
n
(f)[ (c +K).
Tambien vale la implicacion recproca, que enunciamos en el siguiente teorema, de la cual omi-
timos una demostraci on.
Teorema 7.2. Con las notaciones anteriores, si lim
n
Q
n
(f) = I(f) entonces existe una cons-
tante K tal que
n

j=0
A
(n)
j
K n.
Observemos que Q
n
(1) =
_
b
a
w(x) dx pues la aproximaci on es exacta sobre polinomios. Como
w(x) > 0 tenemos
0 < I(1) =
_
b
a
w(x) dx = Q
n
(1) =
n

j=0
A
(n)
j
.
Entonces si los pesos A
j
son todos positivos tenemos
K =
_
b
a
w(x) dx =
n

j=0
[A
(n)
j
[,
y entonces se satisface la hip otesis del teorema y tenemos que estas aproximaciones convergen
para cualquier f continua.
Ahora veamos como cambiar de intervalo. Es decir, si tenemos unos pesos A
i
para un intervalo
especco, por ejemplo [1, 1], tratemos de llevar esto a un intervalo [a, b] cualquiera.
Supongamos entonces que Q
n
(g) es una aproximaci on para
_
1
1
g(x) dx y supongamos que f
esta denida en [a, b]. Con el cambio de variables x = t +, con = (b a)/2 y = (a +b)/2
se obtiene
112 7. INTEGRACI

ON NUM

ERICA.
_
b
a
f(x) dx =
_
1
1
f(t +) dt
Tomando g(t) = f(t +) podemos aproximar con lo pesos A
i
, es decir
Q
n
(g) =
n

j=0
A
j
f(t
j
+)
aproxima a
_
b
a
f(x) dx =
_
1
1
g(t) dt.
Podemos escribir la aproximaci on en [a, b] como sigue
Q

n
(f) =
n

j=0
(b a)
2
A
j
f(x
j
),
donde
x
j
=
(b a)
2
t
j
+
(a +b)
2
.
1. F ormulas simples de Newton-Cotes
Probablemente la eleccion mas natural de los x
i
es tomarlos equiespaciados en [a, b]. Sea h =
(b a)/n y x
i
= a+ih con i = 0, ...., n. Una f ormula de aproximaci on basada en estos puntos se
conoce como formula de Newton-Cotes cerrada y si los puntos son tomados como y
i
= a +ih
con i = 1, ...., n 1 se llama formula de Newton-Cotes abierta (no incluye a los extremos del
intervalo).
Las formulas cerradas para dos y tres puntos respectivamente son :
1) Regla de los trapecios
T(f) =
(b a)
2
(f(a) +f(b)).
2) Regla de Simpson
S(f) =
(b a)
6
(f(a) + 4f((a +b)/2) +f(b)).
Se sabe que si n 10 los pesos de las f ormulas de Newton-Cotes cambian de signo. Peor a un,
cuando n crece, los pesos crecen y no est an acotados, por lo tanto existen funciones continuas
para las cuales este procedimiento para aproximar la integral no converge.
2. ESTIMACI

ON DEL ERROR 113


2. Estimaci on del error
Sabemos que
e
n
(x) = f(x) p
n
(x) =
f
(n+1)
()
(n + 1)!
W(x).
Entonces podemos expresar el error como
I(f) Q
n
(f) =
_
b
a
(f p
n
)(x)w(x) dx
=
_
b
a
f
(n+1)
()
(n + 1)!
W(x)w(x) dx.
Y esto se puede acotar como
[I(f) Q
n
(f)[
|f
(n+1)
|

(n + 1)!
_
b
a
W(x)w(x) dx.
Recordemos lo siguiente : si g(x) y h(x) son continuas en [a, b] y g no cambia de signo, entonces
_
b
a
g(x)h(x) dx = h()
_
b
a
g(x) dx.
Podemos usar esto para acotar el error con la regla de los trapecios
I(f) T(f) =
f

()
2
_
b
a
(x a)(x b) dx
=
f

()
12
(b a)
3
.
El error en la formula de Simpson es un poco m as difcil de analizar pues W(x) cambia de signo
en [a, b].
Sean x
0
= a, x
1
= (a +b)/2 y x
2
= b. Denamos el polinomio c ubico auxiliar, p
3
(x) como aquel
polinomio que verica
p
3
(x
0
) = f(x
0
),
p
3
(x
1
) = f(x
1
),
p
3
(x
2
) = f(x
2
),
p

3
(x
1
) = f

(x
1
),
(dejamos como ejercicio probar que un tal p
3
existe). Observemos que S(f) = S(p
3
) pues p
3
interpola a f en x
0
, x
1
, x
2
. Ademas, como la regla de Simpson es exacta en polinomios de grado
3, tenemos que S(p
3
) = I(p
3
), entonces
I(f) S(f) = I(f) S(p
3
) = I(f) I(p
3
).
Para acotar esto necesitamos acotar f(x) p
3
(x). Para x jo distinto de x
0
, x
1
, x
2
, denimos
(t) para t [a, b] por
114 7. INTEGRACI

ON NUM

ERICA.
(t) = f(t) p
3
(t) (f(x) p
3
(x))
_
(t x
0
)(t x
1
)
2
(t x
2
)
(x x
0
)(x x
1
)
2
(x x
2
)
_
.
Entonces (x) tiene al menos cuatro ceros en [a, b], x
0
, x
1
, x
2
y x. Por el teorema de Rolle

tiene al menos tres ceros en (a, b) que est an entre los cuatro ceros de . Por construcci on

(x
1
) = 0, en consecuencia

tiene al menos cuatro ceros. Si f es C


4
encontramos que existe
un punto (a, b) tal que

(iv)
() = 0.
De la denicion de esto es equivalente a
f(x) p
3
(x) =
f
(iv)
()
4!
(x x
0
)(x x
1
)
2
(x x
2
).
Como la funci on (x x
0
)(x x
1
)
2
(x x
2
) no cambia de signo en (a, b) podemos obtener,
I(f) I(p
3
) =
_
b
a
f
(iv)
()
4!
(x x
0
)(x x
1
)
2
(x x
2
) dx.
O bien, por el valor medio
I(f) I(p
3
) =
f
(iv)
()
4!
_
b
a
(x x
0
)(x x
1
)
2
(x x
2
) dx.
Ahora observamos que, llamando h = (b a)/2,
_
b
a
(x x
0
)(x x
1
)
2
(x x
2
) dx =
4h
5
15
.
Entonces
I(f) S(f) = I(f) I(p
3
) =
f
(iv)
()
4!
(
4h
5
15
).
3. F ormulas de cuadratura compuestas
Si queremos aumentar la presici on podemos aumentar el n umero de puntos o bien partir el
intervalo en peque nos subintervalos y en cada uno de estos aplicar una aproximaci on con pocos
puntos.
Ahora estudiaremos este ultimo procedimiento que se conoce como cuadraturas compuestas.
Partimos el intervalo [a, b] en subintervalos eligiendo unos puntos x
i
con a = x
0
< x
1
< .... <
x
N
= b. Sabemos que
I(f) =
_
b
a
f(x)w(x) dx =
N1

j=0
_
x
j+1
x
j
f(x)w(x) dx.
Ahora en cada
_
x
j+1
x
j
f(x)w(x) dx
3. F

ORMULAS DE CUADRATURA COMPUESTAS 115


hacemos una aproximaci on simple, por ejemplo Trapecios o Simpson.
Consideremos un caso simple, cuando los puntos x
i
est an equiespaciados, es decir x
j
= a + jh
con h = (b a)/N y el peso w(x) = 1.
Consideremos la regla de los trapecios en cada intervalito, la acotaci on del error que tenemos
nos da
_
x
j+1
x
j
f(x) dx =
h
2
(f(x
j
) +f(x
j+1
))
f

(
j
)
12
h
3
.
Entonces la cuadratura compuesta usando trapecios viene dada por
T
N
(f) =
N1

j=0
h
2
(f(x
j
) +f(x
j+1
)).
El error I(f) T
N
(f) es la suma de los errores en cada intervalito as que
I(f) T
N
(f) =
N1

j=0
f

(
j
)
12
h
3
.
Ahora probaremos un lema que simplica un poco esta formula del error.
Lema 7.3. Sea g C([a, b]) y sean a
j
constantes con el mismo signo. Si t
j
[a, b], entonces se
tiene
N1

j=0
a
j
g(t
j
) = g()
n1

j=0
a
j
para alg un [a, b].
Demostraci on. Sea m = min g(x) y M = max g(x) en [a, b]. Si los a
i
son positivos
m
N1

j=0
a
j

n1

j=0
g(t
j
)a
j
M
N1

j=0
a
j
.
Sea
G(x) = g(x)
N1

j=0
a
j
,
116 7. INTEGRACI

ON NUM

ERICA.
claramente G es continua en [a, b] y por el teorema del valor medio, existe [a, b] tal que
G() =
N1

j=0
a
j
g(t
j
),
es decir
g()
N1

j=0
a
j
=
N1

j=0
a
j
g(t
j
).
Si usamos este lema en la expresion que obtuvimos para el error se obtiene
I(f) T
N
(f) =
N1

j=0
f

(
j
)
12
h
3
=
f

()
12
N1

j=0
h
3
=
f

()
12
h
2
(b a).
De la misma forma, para la regla de Simpson se tiene
_
x
j+1
x
j
f(x) dx =
h
6
(f(x
j
) + 4f((x
j
+x
j+1
)/2) +f(x
j+1
))
f
(iv)
(
j
)
90
(
h
2
)
5
.
Sumando en cada intervalito se obtiene la formula compuesta de Simpson
S
N
(f) =
h
6
_
_
_
f(x
0
) +f(x
N
) + 2
N1

j=1
f(x
j
) + 4
N1

j=1
f((x
j
+x
j+1
)/2)
_
_
_
.
Sumando los errores en cada intervalito y usando el lema anterior se obtiene
I(f) S
N
(f) =
f
(iv)
()
180
(
h
2
)
4
(b a).
Ahora observemos que para aproximar integrales m ultiples
__
Q
f(x, y) dxdy
basta con hacer Fubini
__
Q
f(x, y) dxdy =
_
b
a
_
(x)
(x)
f(x, y) dydx,
y calcular las integrales iteradas por los procedimientos anteriores.
3. F

ORMULAS DE CUADRATURA COMPUESTAS 117


Ahora veamos un truco astuto debido a Richardson. Supongamos que una cantidad desconocida
a
0
es aproximada por A(h). Supongamos que lim
h0
A(h) = a
0
, y adem as supongamos que
a
0
= A(h) +
m

i=k
a
i
h
i
+C
m
(h)h
m+1
donde c
m
(h) es una funci on de h y los a
i
son independientes de h y a
k
,= 0.
Ahora veamos el truco de Richardson. La idea es calcular dos aproximaciones diferentes A(h
1
)
y A(h
2
) y despues combinarlas para eliminar el termino h
k
y obtener de esta manera una mejor
aproximaci on (para h peque no) de a
0
.
Esta combinacion usualmente se hace eligiendo h
1
= h y h
2
= rh con 0 < r < 1 (por ejemplo
r = 1/2). Haciendo esto se obtiene
a
0
= A(h) +
m

i=k
a
i
h
i
+C
m
(h)h
m+1
= A(rh) +
m

i=k
a
i
(rh)
i
+C
m
(rh)(rh)
m+1
.
Multiplicando la primera ecuaci on por r
k
y restando se obtiene
a
0
r
k
a
0
= A(rh) r
k
A(h) +
m

i=k+1
a
i
[r
i
r
k
]h
i
+ [C
m
(rh)r
m+1
C
m
(h)r
k
]h
m+1
.
Entonces, llamando b
i
= a
i
[r
i
r
k
]/[1r
k
] y

C
m
= [C
m
(rh)r
m+1
C
m
(h)r
k
]/[1r
k
] se obtiene
a
0
=
A(rh) r
k
A(h)
1 r
k
+
m

i=k+1
b
i
h
i
+

C
m
h
m+1
.
Es decir,
B(h) =
A(rh) r
k
A(h)
1 r
k
,
es una aproximaci on de a
0
que tiene error de orden h
k+1
en vez de error de orden h
k
. Notemos
que para calcular B(h) a partir de A(h) no necesitamos conocer los a
i
ni C
m
(h) solo nos hace
falta k.
Esta idea se puede generalizar facilmente. Sea A
0,m
= A(r
m
h), el proceso anterior con A
0,m
y
A
0,m+1
da
A
1,m
=
A
0,m+1
r
k
A
0,m
1 r
k
y en general
A
i+1,m
=
A
i,m+1
r
k+i
A
i,m
1 r
k+i
.
118 7. INTEGRACI

ON NUM

ERICA.
Con esta idea hagamos integraci on de Romberg. La cosa es hacer este proceso para las aproxi-
maciones de la integral calculadas usando la regla compuesta de los trapecios T
N
(g).
Es usual elegir h = (b a)/N y r = 1/2. Entonces denimos
T
0,m
=
b a
2
m
_
1
2
g
0
+g
1
+..... +g
s1
+
1
2
g
s
_
,
donde g
i
= g(x
i
) con x
i
= a +hi.
Es posible ver que el error solo contiene potencias pares de h, en consecuencia
T
1,m
=
T
0,m+1

1
4
T
0,m
1
1
4
o, en general,
T
i,m
=
T
i1,m+1
(
1
4
)
i
T
i1,m
1 (
1
4
)
i
4. Cuadratura Gaussiana
Ahora pensemos que los pesos A
k
y los puntos x
k
son variables desconocidas. Para que las
formulas de inetgraci on sean exactas sobre polinomios nos quedan las siguientes ecuaciones
_
b
a
x
k
w(x) dx =
N

j=0
A
j
x
k
j
0 k 2N + 1
Esto es un sistema no lineal de 2N + 2 ecuaciones con 2N + 2 inc ognitas.
Gauss logr o demostrar que este sistema tiene soluci on unica cuando w = 1 y el intervalo es
[1, 1].
Llamemos q
j
a los polinomios ortogonales m onicos con respecto al producto interno
f, g) =
_
b
a
f(x)g(x)w(x) dx
Y p
j
los ortonormales.
Primero probaremos el siguiente teorema que localiza los ceros de p
n
.
Teorema 7.4. Los ceros de p
n
son reales, distintos y caen el el intervalo (a, b).
4. CUADRATURA GAUSSIANA 119
Demostraci on. Sea n 1 jo y supongamos que ning un cero de p
n
cae en (a, b). Entonces p
n
tiene signo constante en (a, b). Supongamos que p
n
(x) > 0 en (a, b). Por la ortogonalidad de p
n
y q
0
(q
0
= 1) tenemos
0 = p
n
, 1) =
_
b
a
p
n
(x)w(x) dx > 0
lo que es absurdo, probando que p
n
tiene al menos un cero en (a, b), x
0
.
Si alg un cero de p
n
es m ultiple, entonces p
n
es divisible por (xx
0
)
2
, y entonces r = p
n
/(xx
0
)
2
es un polinomio de grado n 2 y por consiguiente
0 = p
n
, r) =
_
b
a
p
n
(x)(p
n
/(x x
0
)
2
)(x)w(x) dx
=
_
b
a
(p
n
)
2
/(x x
0
)
2
)(x)w(x) dx > 0,
que resulta, nuevamente, es una contradicci on. En consecuencia todos lo ceros de p
n
en (a, b)
son ceros simples.
Ahora tomemos x
0
, . . . , x
k
los ceros de p
n
que caen en (a, b) y supongamos que k < n 1, es
decir p
n
tiene ceros que no caen el (a, b). Como los ceros x
0
, . . . , x
k
son simples el polinomio
p
n
(x)(x x
0
)(x x
1
) . . . (x x
k
)
es divisible por (x x
0
)
2
(x x
1
)
2
. . . (x x
k
)
2
. Sea r(x) el polinomio de grado n k 1
r(x) = p
n
(x)/(x x
0
)(x x
1
) . . . (x x
k
).
Entonces r(x) tiene signo constante (supongamos > 0) en (a, b) y como
0 = p
n
, (x x
0
) . . . (x x
k
)) =
_
b
a
p
n
(x)(x x
0
) . . . (x x
k
)w(x) dx
=
_
b
a
r(x)(x x
0
)
2
. . . (x x
k
)
2
(x)w(x) dx > 0,
que es una contradicci on que muestra que todos lo ceros de p
n
deben estar en (a, b).
Ahora probemos el teorema b asico de las cuadraturas de Gauss.
Teorema 7.5. La f ormula
_
b
a
p(x)w(x) dx =
N

j=0
A
j
p(x
j
), 0 k 2N + 1,
120 7. INTEGRACI

ON NUM

ERICA.
vale para cualquier polinomio de grado menor o igual a 2n + 1 si y solo si los puntos x
j
son
los ceros de p
n+1
(x).
Demostraci on. Sea p(x) P
2n+1
y supongamos que los puntos x
j
est an dados por
p
n+1
(x
j
) = 0 0 j n.
Por el algoritmo de divisi on para polinomios se puede escribir
p(x) = p
n+1
(x)S(x) +R(x)
con S(x) y R(x) en P
n
(x).
Por la denicion de los pesos A
j
, como el grado de R es a lo sumo n, tenemos
I(R) = Q
n
(R).
Entonces
I(p) =
_
b
a
p(x)w(x) dx
=
_
b
a
p
n+1
(x)S(x)w(x) dx +
_
b
a
R(x)w(x) dx
= p
n+1
, S) +I(R)
= 0 +Q
n
(R)
=
n

j=0
A
j
R(x
j
)
=
n

j=0
A
j
p(x
j
) = Q
n
(p).
Ahora supongamos que x
j
es un conjunto de puntos distintos y que se verica
_
b
a
p(x)w(x) dx =
N

j=0
A
j
p(x
j
)
para todo p P
2n+1
. Dado un entero k sea r
k
un polinomio de grado menor o igual que k. Sea
W(x) =

n
j=0
(x x
j
) y denamos p(x) = r
k
(x)W(x). Es claro que p P
2n+1
, por nuestra
hip otesis I(p) = Q
n
(p), en consecuencia
4. CUADRATURA GAUSSIANA 121
r
k
, W) =
_
b
a
r
k
(x)W(x)w(x) dx
=
_
b
a
p(x)w(x) dx
=
n

j=0
A
j
p(x
j
)
=
n

j=0
A
j
r
k
(x
j
)W(x
j
) = 0,
pues W(x) se anula en los x
j
. Entonces W(x) es un polinomio m onico de grado (n+1) que resulta
ortogonal a cualquier polinomio de grado menor o igual que n, en consecuencia W(x) = q
n+1
(x)
y entonces los x
j
son los ceros de p
n+1
.
Corolario 7.6. Sea Q
n
(f) =

n
j=0
A
j
f(x
j
) la cuadratura gaussiana, entonces
lim
n
Q
n
(f) = I(f).
Demostraci on. Por la denicion de los l
k
(x) cada (l
k
)
2
P
2n
y entonces I(l
2
k
) = Q
n
(l
2
k
) y en
consecuencia, como l
k
(x
j
) =
kj
,
0 <
_
b
a
l
2
k
(x)w(x) dx =
n

j=0
A
j
(l
k
(x
j
))
2
= A
k
.
Es decir, para la cuadratura gaussiana todos los pesos son positivos y por lo visto antes esto
implica la convergencia.
CAPTULO 8
Resolucion de ecuaciones diferenciales ordinarias.
El primer problema que abordaremos en esta secci on es una ecuaci on con valor inicial,
_
x

(t) = f(t, x(t)),


x(0) = a.
(8.1)
Se trata de una ecuaci on diferencial de primer orden porque la derivada de mayor orden que
aparece es la derivada primera.
Por ejemplo, podemos considerar ecuaciones como las siguientes:
(i) x

= 1, (iii) x

= x,
(ii) x

= t, (iv) x

= x
2
.
Primero enunciamos un teorema de existencia y unicidad de soluci on, cuya demostraci on no
damos.
Teorema 8.1. Si f(t, x) es continua y Lipschitz en x, es decir
[f(t, x) f(t, y)[ L[x y[
Entonces para cualquier valor a existe una unica funci on derivable x(t) que verica
_
x

(t) = f(t, x(t))


x(0) = a.
Nuestro estudio de aproximaciones numericas para ecuaciones ordinarias empieza con los metodos
conocidos como metodos de un solo paso.
Dado el problema (8.1) buscamos una aproximaci on de x(t) en un cierto intervalo [0, T]. Para
esto buscaremos una forma de generar N valores x
1
, . . . , x
N
que aproximen x(t
1
), . . . , x(t
N
) con
t
1
< t
2
< . . . < t
N
. Despues se puede interpolar en esos valores para obtener una aproximaci on
de x(t). A veces solo interesa conocer el valor de x(T) y en este caso los pasos intermedios
x
1
, . . . , x
N1
pueden verse como pasos auxiliares para calcular x
N
x(T).
El metodo general a un paso tiene la forma
x
i+1
= x
i
+h(x
i
, t
i
, h).
124 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


La funci on se conoce como la funci on de incremento y nos dice como calcular la aproximaci on
x
i+1
de x(t
i
+h) a partir de x
i
, t
i
y de h. Una ventaja de estos metodos es que se puede cambiar
facilmente el paso h. Es decir calculamos una aproximaci on en un tiempo posterior (t
i+1
) a
partir de una aproximaci on en el tiempo t
i
.
1. Metodos de Euler y Taylor de orden k
El metodo de Euler se basa en lo siguiente,
x(t
i
+h) x(t
i
) +hx

(t
i
) = x(t
i
) +hf(t
i
, x(t
i
)),
para valores peque nos de h. En consecuencia, si x
i
es una aproximaci on para x(t
i
) se tiene que
x
i+1
= x
i
+hf(t
i
, x
i
)
es una aproximaci on razonable para x(t
i
+h) = x(t
i+1
).
Ejemplo 8.2. Resolvamos la ecuaci on
_
x

(t) = x(t)
x(0) = 1.
La solucion exacta es x(t) = e
t
. Ahora, aplicando el metodo de Euler se obtiene la siguiente
tabla,
t e
t
h = 0.25 h = 0.125
0.125 1.1331 1.125
0.250 1.2840 1.25 1.2656
0.375 1.4549 1.4238
0.500 1.6487 1.5625 1.6018
0.625 1.8682 1.8020
0.750 2.1170 1.9531 2.0272
El metodo de Euler es de la forma
x
i+1
= x
i
+hf(t
i
, x
i
).
Una forma de pensar esto es ver que se aproxima usando el polinomio de Taylor de grado uno
en t
i
para calcular x
i+1
. En general se puede usar una expansi on en m as terminos como sigue:
sabemos que
x(t
i
+h) x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +....... +
1
k!
h
k
x
(k)
(t
i
).
Si conocieramos las derivadas de x hasta orden k podr

iamos usar esto para implementar un


metodo que aproxime x(t
i
+h) a partir de una aproximaci on de x(t
i
). La ecuaci on diferencial x

=
f(t, x) nos proporciona todas las derivadas de orden superior de la siguiente forma, derivando
una vez se obtiene
x

= f
x
(t, x)x

+f
t
(t, x),
es decir,
x

= f
x
(t, x)f(t, x) +f
t
(t, x).
2. M

ETODOS DE RUNGE-KUTTA 125


A partir de esto se puede poner
x(t
i
+h) x(t
i
) +hf(t
i
, x(t
i
)) +
1
2
h
2
f
x
(t
i
, x(t
i
))f(t
i
, x(t
i
)) +f
t
(t
i
, x(t
i
))
e intentar la aproximaci on
x
i+1
= x
i
+hf(t
i
, x
i
) +
1
2
h
2
f
x
(t
i
, x
i
)f(t
i
, x
i
) +f
t
(t
i
, x
i
).
Podemos seguir derivando
x

= f
x
(t, x)f(t, x) +f
t
(t, x)
para obtener x

en terminos de f y sus derivadas y continuando de esta manera calcular las


derivadas de x hasta orden k en terminos de f y sus derivadas. esto nos da una manera de
calcular metodos de aproximaci on a un paso (solo usamos x
i
, t
i
y h para calcular la siguiente
aproximaci on x
i+1
). Es decir, a partir de
x(t
i
+h) x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
),
proponemos el metodo,
x
i+1
x
i
+hf(t
i
, x
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
) = x
i
+hT
k
(x
i
, t
i
, h).
Estos metodos se conocen como metodos basados en Taylor de orden k. Su mayor problema es
que requieren encontrar y evaluar derivadas sucesivas de f(x, t).
Ejemplo 8.3. Calculemos el metodo de Taylor de orden 2 para el problema
_
x

(t) = 2tx
x(0) = 1.
En este caso, al derivar, se obtiene
x

= 2x + 2tx

= 2x(1 + 2t
2
).
Entonces,
x
i+1
= x
i
+h
_
2t
i
x
i
+x
i
(1 + 2t
2
i
)h

.
Ejemplo 8.4. Ejercicio: Calcular el metodo de Taylor de orden 3 en este ejemplo.
2. Metodos de Runge-Kutta
Los metodos generales a un paso son de la forma
x
i+1
= x
i
+h(x
i
, t
i
, h)
126 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Podemos pensar que h(x
i
, t
i
, h) es una aproximaci on de la variaci on de x cuando pasamos de t
i
a t
i+1
, esta variacion, para la ecuaci on original esta gobernada por f(x, t), as que proponemos
una forma particular de dada por,
h(x
i
, t
i
, h) = A
1
f(
1
,
1
) +. . . +A
1
f(
N
,
N
),
donde (
i
,
i
) son puntos pr oximos a (t
i
, x
i
). Para especicar el metodo que usamos es necesario
especicar los A
i
y los puntos (
i
,
i
).
Ahora veamos un caso particular de lo anterior donde usamos solo dos puntos uno (t
i
, x
i
) y el
otro (t
i
+ h, hf(x
i
, t
i
)). Todava nos queda libre (por ejemplo al considerar = 1 usamos
(t
i+1
, x
i+1
) donde x
i+1
es la aproximaci on que da el metodo de Euler).
En general tenemos,
x
i+1
= x
i
+h[A
1
f(t
i
, x
i
) +A
2
f(t
i
+h, x
i
+hf(t
i
, x
i
))] .
La estrategia del metodo de Runge-Kutta es elegir A
1
, A
2
y para que esto se aproxime todo
lo posible a un metodo de Taylor.
Veamos como se hace esto. Primero expandimos
f(t
i
+h, x
i
) +hf(t
i
, x
i
) = f(t
i
, x
i
) +f
t
(t
i
, x
i
)h +f
x
(t
i
, x
i
)hf(t
i
, x
i
) +E,
donde E tiene la forma E = Ch
2
. Agrupando terminos se obtiene
(t
i
, x
i
, h) = (A
1
+A
2
)f(t
i
, x
i
) +A
2
h[f
t
(t
i
, x
i
) +f
x
(t
i
, x
i
)f(t
i
, x
i
) +Ch] .
Recordemos que en el metodo de Taylor se tiene
T
2
(t
i
, x
i
, h) = f(t
i
, x
i
) +
h
2
[f
t
(t
i
, x
i
) +f
x
(t
i
, x
i
)f(t
i
, x
i
)]
Igualando los coecientes, llegamos a
A
1
+A
2
= 1,
A
2
=
1
2
.
Despejando, obtenemos
A
2
=
1
2
,
A
1
= 1
1
2
.
Es decir, hay innitas soluciones dependiendo de (y por ende, innitos metodos posibles).
Una eleccion posible es = 1/2 con lo que nos queda el metodo
x
i+1
= x
i
+hf(t
i
, x
i
) +f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
que usualmente se conoce como Metodo de Euler modicado. Otra elecci on posible es = 1 que
nos da
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))] .
3. M

ETODOS DE PASO VARIABLE 127


Esto se conoce como Metodo de Heun.
Una observaci on importante es que estos metodos no requieren la evaluaci on de la derivada de
f.
Considerando mas terminos en el desarrollo de Taylor se pueden deducir metodos de Runge-
Kutta de mayor orden. Especcamente, un metodo de Runge-Kutta de orden k tiene la forma
x
i+1
= x
i
+h(t
i
, x
i
, h)
donde
(t
i
, x
i
, h) = T
k
(x
i
, y
i
, h) +O(h
k
).
Tambien
(t
i
, x
i
, h) =
m

j=1
A
j
K
j
(t
i
, x
i
, h).
Los terminos K
j
est an dados por
K
1
(t
i
, x
i
, h) = f(t
i
, x
i
),
K
j
(t
i
, x
i
, h) = f(t
i
+
j
h, y
i
+h
j1

r=1

jr
K
r
(t
i
, x
i
, h)),
donde 0 <
j
1 y
j
=

j1
r=1

jr
.
Ejemplo 8.5. Una forma de Runge-Kutta de orden cuatro es,
x
i+1
= x
i
+
h
6
[K
1
+ 2K
2
+ 2K
3
+K
4
] ,
K
1
= f(t
i
, x
i
), K
3
= f(t
i
+
h
2
, x
i
+
h
2
K
2
),
K
2
= f(t
i
+
h
2
, x
i
+
h
2
K
1
), K
4
= f(t
i
+h, x
i
+hK
3
).
3. Metodos de paso variable
La idea es elegir los pasos h
i
en forma variable. Por ejemplo,
3.1. Euler adaptivo para una ecuaci on que explota. Ahora analizaremos un metodo
adaptivo para elegir los pasos
j
en el metodo de Euler.
Sea y(t) la solucion de la ecuaci on diferencial
_
y

(t) = f(y(t))
y(0) = y
0
> 0
(8.2)
donde f es positiva, creciente y regular.
128 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Supongamos que
_
+
1/f < +, entonces y(t) explota en tiempo nito T y podemos calcular
exactamente el tiempo de explosion. De hecho vale
T =
_
+
y
0
1
f(s)
ds
Si aproximamos y(t) usando el metodo de Euler nos queda
_
y
j+1
= y
j
+
j
f(y
j
)
y
0
= y
0
(8.3)
Ahora elegimos

j
f(y
j
) = (8.4)
como los pasos
j
. Usando (8.3) y (8.4) tenemos
y
j+1
= y
j
+ = . . . = y
0
+ (j + 1)
y entonces,

j
=

f(y
j
)
=

f(y
0
+j)
.
De esto podemos concluir que el esquema numerico tambien explota en el sentido siguiente:
y
j
mientras

j

j
< +.
Adem as nos provee de una estimaci on del tiempo de explosi on. De hecho, vale

j=0

j
=
0
+

j=1

f(y
0
+j)


f(y
0
)
+
_
+
0

f(y
0
+s)
ds =

f(y
0
)
+
_
+
y
0
1
f(s)
ds =

f(y(
0
)
+T
Entonces T

j

j
< + y
T

T

f(y
0
)
.
Adem as, como y es convexa, es facil ver que la soluci on numerica est a por debajo de la continua
y entonces
T T

.
Concluimos que,
[T T

[

f(y
0
)
.
4. AN

ALISIS DE LOS ERRORES 129


4. Analisis de los Errores
Primero denimos el error de truncaci on local de la siguiente forma, sea x(t) la solucion de la
ecuaci on diferencial x

(t) = f(x(t), t) y sean t

y h jos, se dene el error de truncaci on local,


como
x(t

+h) = x(t

) +h(t

, x(t

), h) +h
4.1. Metodos de Euler y Taylor de orden k. En este caso el error local de truncaci on
esta dado por
x(t

+h) = x(t

) +hf(t

, x(t

)) +h
Si la solucion x(t) es suave se tiene que
x(t

+h) = x(t

) +hx

(t

) +
h
2
2
x

()
De aqu se tiene que
=
h
2
2
x

()
El mismo argumento usado anteriormente nos da
=
h
k
(k + 1)!
x
(k+1)
()
Definici on 8.6. Diremos que el metodo x
i+1
= x
i
+ h(t
i
, x
i
, h) es de orden k si el error de
truncaci on local satisface
= O(h
k
)
Definici on 8.7. Si u(t) es una soluci on de
_
u

(t) = f(t, u(t))


u(t
i
) = x
i
i = 1, . . . , n
(1) El error local se dene como: u(t
i+1
) x
i+1
.
(2) El error global es: x(t
i+1
) x
i+1
.
130 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Observaci on 8.8. El error global y el error local se relacionan por la f ormula
x(t
i+1
) x
i+1
= x(t
i+1
) u(t
i+1
) +u(t
i+1
) x
i+1
Esto muestra que el error global esta formado por dos componentes uno dado por la ecuaci on
diferencial (el primero) y otro dado por el metodo (el segundo).
El error local puede ser expresado en terminos del error de truncaci on local,
u(t
i+1
) = u(t
i
) +h(t
i
, x(t
i
), h) +h
Como u(t
i
) = y
i
se sigue,
u(t
i+1
) = y
i
+h(t
i
, x(t
i
), h) +h
y entonces
u(t
i+1
) y
i+1
= h
Si el metodo es de orden p, entonces el error local satisface
u(t
i+1
) y
i+1
= O(h
p
)
4.2. Convergencia y analisis del error. Ahora nos restringiremos a problemas regulares,
es decir
x

(t) = f(x(t), t)
x(0) = x
0
donde la solucion existe, es unica y es regular en [0, t
0
].
Diremos que el metodo es convergente si dado t

en [0, t
0
] se tiene
lim
n, t

=nh
x
n
= x(t

)
Supongamos que nuestro metodo a un paso est a dado por
x
i+1
= x
i
+h(t
i
, x
i
, h)
4. AN

ALISIS DE LOS ERRORES 131


Y adem as supongamos que es Lipschitz, es decir
[(t, x, h) (t, y, h)[ K[x y[
Fijamos un paso h = (b a)/n y llamamos e
j
al error global, es decir
e
j
= x(t
j
) x
j
Ahora usamos
x
i+1
= x
i
+h(t
i
, x
i
, h)
y
x(t
i+1
) = x(t
i
) +h(t
i
, x(t
i
), h) +h
i
Donde h
i
es el error de truncaci on local en t
i
. Restando se obtiene
e
i+1
= e
i
+h((t
i
, x(t
i
), h) (t
i
, x
i
, h)) +h
i
Empleando nuestra hip otesis de que es Lipschitz se obtiene
[e
i+1
[ (1 +Kh)[e
i
[ +h
i
Si llamamos = max
i
se tiene
[e
i+1
[ (1 +Kh)[e
i
[ +h
Ahora enunciamos el siguiente teorema
Teorema 8.9.
[e
j
[

K
(e
K(t
j
)
1)
Demostraci on. Por lo anterior tenemos
[e
i+1
[ (1 +Kh)[e
i
[ +h
Iterando esto una vez se obtiene
[e
i+1
[ (1 +Kh
2
)[e
i1
[ +h(1 + (1 +hK))
132 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Continuando de esta manera se tiene
[e
i+1
[ (1 +Kh)
i+1
[e
0
[ +h(
i

j=0
(1 +hK)
j
Como e
0
= x(0) x
0
se sigue que e
0
= 0. Entonces, usando las sumas parciales de una serie
geometrica,
[e
i+1
[ h
(1 +Kh)
i+1
1
(1 +Kh) 1
=

K
((1 +hk)
i+1
1)
Ahora observamos que
(1 +)
i+1
e
(i+1)
entonces
[e
i+1
[

K
(e
K(t
i+1
)
1).
De este teorema se deduce que los metodos a un paso son convergentes si
lim
h0
= 0
Esto se llama la condici on de consistencia para el metodo.
Si asumimos que es continua, se tiene que la consistencia es
x

(t
i
) = (t
i
, x(t
i
), 0)
Como x es solucion de la ecuaci on diferencial se tiene
x

(t
i
) = f(x(t
i
), t
i
)
Y entonces
(t
i
, x(t
i
), 0) = f(x(t
i
), t
i
).
La demostraci on de la siguiente observaci on queda como ejercicio.
5. M

ETODOS MULTIPASO LINEALES 133


Observaci on 8.10. Probar que el metodo de Euler, Rungge-Kutta y los de Taylor satisfacen
esta condici on.
En cuanto a la hip otesis sobre (debe ser Lipschitz) esto puede extraerse de una condici on
Lipschitz sobre f.
Observemos que si en vez de una ecuaci on debemos lidiar con un sistema
U

(t) = F(U(t), t))


U = (u
1
, . . . , u
N
)
podemos usar los mismos me

todos que antes, por ejemplo el metodo de Euler nos queda


U
i+1
= U
i
+hF(U
i
, t
i
)
En general, los metodos a un paso tienen la forma
U
i+1
= U
i
+h(U
i
, t
i
, h)
5. Metodos multipaso lineales
Hasta ahora para aproximar las soluciones de x

= f(x, t) nos basamos en el punto inmediato


anterior para calcular el siguiente.
La losofa de los metodos multipaso es usar la historia, es decir los k puntos anteriores a t
i
para calcular la aproximaci on en t
i+1
.
Los metodos multipaso linelaes tiene la forma:
x
n+k
=
k1

j=0

j
x
n+j
+h
k

j=0

j
f(t
n+j
, x
n+j
)
M as precisamente a un metodo como el anterior se lo llama metodo multipaso de k pasos.
Por ejemplo, si aproximamos la derivada por
x

(t)
x(t +h) x(t h)
2h
134 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


considerando puntos equiespaciados nos queda
x

(t
i
)
x
i+1
x
i1
2h
y como
x

(t
i
) = f(x(t
i
), t
i
)) f(x
i
, t
i
)
podemos poner
x
i+1
x
i1
2h
= f(x
i
, t
i
)
es decir
x
i+1
= x
i1
+ 2hf(x
i
, t
i
)
que es un metodo multipaso de dos pasos (para calcular x
i+1
se usan x
i
y x
i1
).
Los metodos de integraci on tambien nos proporcionan ejemplos de metodos multipaso, por
ejemplo, si aproximamos la integral
x(t
n+2
) x(t
n
) =
_
t
n+2
t
n
x

(s) ds
por la regla de Simpson se obtiene
x(t
n+2
) x(t
n
)
h
3
(x

(t
n
) + 4x

(t
n+1
) +x

(t
n+2
))
Y recordando que x

= f(x, t) podemos proponer el siguiente metodo


x
n+2
x
n
=
h
3
(f(x
n
, t
n
) + 4f(x
n+1
, t
n+1
) +f(x
n+2
, t
n+2
))
que es un metodo multipaso a dos pasos.
Ahora usaremos la notaci on
k

j=0

j
x
n+j
= h
k

j=0

j
f
n+j
para el metodo.
Si
k
= 0 el metodo es explcito, mientras que si
k
,= 0 el metodo es implcito.
5. M

ETODOS MULTIPASO LINEALES 135


Si usamos una formula del tipo
_
t
n+k1
t
n+k
x

(s) ds h(A
0
x

(t
n
) +..... +A
k
x

(t
n+k
))
para aproximar integrales nos encontramos con un metodo de la forma,
x
n+k
x
n+k1
= h(A
0
f
n
+..... +A
k
f
n+k
)
Si es explcito se conoce como metodo de Adams-Bashforth y si es implcito como metodo de
Adams-Moulton.
A menudo se usan estos metodos de a pares y se usa la diferencia entre los dos metodos, x
i
x
i
para estimar el error local. Este procedimiento se conoce como predictor-corrector.
Para comenzar a aplicar los metodos multipaso se necesitan los primeros k valores que usual-
mente se calculan con metodos a un paso.
5.1. Convergencia de los metodos multipaso. Empecemos por el error de truncaci on
para un metodo de k pasos
k

j=0

j
x
n+j
= h
k

j=0

j
f
n+j
Si x(t) es la solucion de x

= f(x, t)el error de truncaci on local est a dado por


k

j=0

j
x(t +jh) h
k

j=0

j
x

(t +jh) = h
Si x(t) es sucientemente regular, podemos expresar h en la forma
h = C
0
x(t) +C
1
hx

(t) +C
2
h
2
x

(t) +. . . +C
q
h
q
x
(q)
(t) +. . .
Para ver esto, escribimos
x(t +jh) = x(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
x

(t +jh) = x

(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
136 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Metiendo esto en la expresion de e igualando potencias de h se obtiene
C
0
=
0
+. . . +
k
C
1
=
1
+ 2
2
+ 3
3
+. . . +k
k

1

2
. . .
k
Y en general para cualquier q 1
C
q
=
1
q!
(
1
+ 2
q

2
+ 3
q

3
+. . . +k
q

k
)
1
(q 1)!
(
1
+ 2
q1

2
+. . . +k
q1

k
)
Si C
0
= C
1
= . . . = C
p
= 0 y C
p+1
,= 0 el metodo se dice de orden p. Para un metodo de orden
p el error satisface
h = C
p+1
h
p+1
x
(p+1)
(t) +O(h
p+2
)
Para ver la convergencia, como antes, jamos t

y ponemos n y h tales que t

= (n + k)h.
Queremos
lim
h0
x
n+k
= x(t

)
Queremos ver que condiciones debemos imponer al metodo para que esto ocurra.
Primero pongamos el problema x

(t) = 0, x(0) = 1 (soluci on x 1). El metodo aplicado a este


problema se reduce a
k

j=0

j
x
n+j
= 0
Para cualquier metodo multipaso debemos tener (como k est a jo y h 0) que x
n+k
x(t

),
. . . , x
n
x(t

). Entonces podemos escribir x


n+j
= x(t

) +
j
(h) con
j
(h) 0 cuando h 0.
Usando esto se obtiene
k

j=0

j
x(t

) +
k

j=0

j
(h) = 0
Como la segunda suma tiende a cero con h nos queda
5. M

ETODOS MULTIPASO LINEALES 137


x(t

)
k

j=0

j
= 0
Es decir
C
0
= 0.
Para ver que C
1
tambien debe ser cero para que el metodo converja, consideremos el problema
x

(t) = 1, x(0) = 0 que tiene como soluci on x(t) = t. El metodo para este problema se reduce a
k

j=0

j
x
n+j
= h
k

j=0

j
Es facil vericar que la sucesi on dada por
x
l
= lhM
es solucion de este esquema donde
M =

k
j=0

k
j=0
j
j
Si los valores iniciales se eligen de la forma x
l
= lhM el metodo va a producir la soluci on
x
l
= lhM y en particular
x
n+k
= (n +k)hM
Como suponemos que el metodo es convergente se tiene que lo valores iniciales satisfacen x
i

x(0) = 0 cuando h 0, y adem as x
n+k
x(t

), pero
x
n+k
= (n +k)hM = t

M t

Entonces conclumos que


M = 1
lo que nos da
C
1
= 0
138 8. RESOLUCI

ON DE ECUACIONES DIFERENCIALES ORDINARIAS.


Esto se denomina consistencia del metodo multipaso.
Para los metodos de un paso, la consistencia implicaba la convergencia, para los metodos mul-
tipaso se requiere una condici on adicional la condici on de la raz.
Veamos esto. Ahora consideremos el problema x

(t) = 0, x(t) = 0, cuya soluci on es x(t) 0.


En este caso el metodo se reduce a
k

j=0

j
x
n+j
= 0
Esto describe una ecuaci on en diferencias que admite como soluci on a la sucesi on
x
m
= h(r
i
)
m
donde r
i
es cualquiera de las races del polinomio p(r) dado por
p(r) = r
k
+
k1
r
k1
+. . . +
1
r +
0
Si asumimos que el metodo es convergente se tiene que
x
n+k
x(t

) = 0 h 0
Adem as
x
n+k
= h(r
i
)
n+k
Para vericar que x
n+k
0, como n = t

/h cuando h 0 se debe tener que


[r
i
[ 1
Entonces la convergencia implica que todo cero de p(r) debe satisfacer
[r
i
[ 1.
Adem as, si r
i
es una raz m ultiple de p(r) podemos poner
x
j
= hj
q
(r
i
)
j
con q m1 (m es la multiplicidad de la raz). Tenemos
5. M

ETODOS MULTIPASO LINEALES 139


x
n+k
= h(n +k)
q
(r
i
)
n+k
y como h(n +k) = t

para que x
n+k
0 se debe tener
[r
i
[ < 1.
Es decir debemos pedir la
Condici on 8.11. (de la raz)
(1) [r
i
[ 1 si r
i
es un cero simple de p(r).
(2) [r
i
[ < 1 si r
i
es un cero m ultiple de p(r).
Ahora podemos enunciar el teorema
Teorema 8.12. Un metodo multipaso es convergente si y solo si el metodo es consistente y
satisface la condici on de la raz.

También podría gustarte